È obbligatorio avere un’assicurazione auto negli Stati Uniti?
No, non è obbligatorio avere un'assicurazione auto negli Stati Uniti *a livello nazionale*. Tuttavia, è obbligatorio nella maggior parte degli stati . Alcuni stati consentono ai conducenti di autoassicurarsi, dimostrando di avere fondi sufficienti per coprire potenziali danni, ma questo è raro e generalmente richiede una notevole quantità di denaro. La maggior parte degli stati richiede almeno un'assicurazione di responsabilità civile.