Onlangs heeft een Tesla Model 3 in autonome modus een botsing in Zweden voorkomen door uit te wijken voor een auto die een gevaarlijke bocht nam. Het voorval werd vastgelegd door de dashboardcamera van het voertuig, dat in 100% autonome modus stond.
De bestuurder, die de video op sociale media deelde, benadrukte dat het Tesla-systeem hun leven heeft gered. Tesla’s Autopilot-technologie staat echter onder onderzoek met betrekking tot de veiligheid ervan.
Het Autopilot-systeem, samen met Full Self-Driving (FSD), stelt de Tesla in staat om semi-autonoom te rijden, waarbij hij acceleratie, remmen en zelfs sturen controleert. Er is echter verwarring onder eigenaren over de grenzen van deze technologieën.
Autonome voertuigen opereren op verschillende niveaus van automatisering, variërend van basis snelheidcontrole (Niveau 1) tot volledige automatisering zonder menselijke tussenkomst (Niveau 5). Veel mensen geloven dat Tesla-modellen volledig autonoom zijn, terwijl ze in werkelijkheid op een tussenliggend niveau (Niveau 2) opereren, waarbij bestuurdersassistentiesystemen zoals rijstrookassistentie en noodremmen worden gecombineerd met semi-autonome elementen (Niveau 3) zoals versnelling en stuurcontrole.
Ondanks de vorderingen wordt het systeem nog steeds als onbetrouwbaar beschouwd door de autoriteiten, vooral na fatale ongevallen in de Verenigde Staten, zoals één waarbij het systeem een persoon voor zich niet opmerkte die werd aangereden. Bovendien verloor de camera van het FSD-systeem van Tesla recentelijk zicht door mist, wat bijna leidde tot een botsing met een trein (klik hier om de video te bekijken).
Deze gevallen benadrukken zowel de mogelijkheden als de beperkingen van deze technologie, en onderstrepen de noodzaak van toezicht en bewustzijn van bestuurders om de veiligheid op de wegen te waarborgen.
Bron: AutoEsporte | Foto’s: Instagram (@teslamotors) / X (@Tesla_Calle) | Deze inhoud is gemaakt met hulp van AI en gecontroleerd door het redactionele team.