19 maart 2026 | Het laatste automotive nieuws het eerst op kenteken.org
NHTSA zet Tesla FSD-onderzoek op scherp: Engineering Analysis vergroot recall-risico
De Amerikaanse NHTSA heeft het onderzoek naar Tesla FSD opgeschaald naar een Engineering Analysis voor ruim 3,2 miljoen auto's, een stap die vaak aan een recall voorafgaat.
Tesla heeft er een serieus regulatoir probleem bij. De Amerikaanse verkeersveiligheidswaakhond NHTSA heeft het lopende onderzoek naar Full Self-Driving opgeschaald van een Preliminary Evaluation naar een Engineering Analysis. Dat klinkt technisch, maar is in de praktijk een belangrijke escalatie. De scope beslaat naar schatting 3.203.754 voertuigen, en de kern van het onderzoek is pijnlijk: Tesla’s systeem zou onvoldoende herkennen wanneer camera’s door omstandigheden als zonverblinding, mist of stof minder goed kunnen zien. Juist omdat Tesla sterk leunt op een camera-only aanpak, raakt dit onderzoek de basis van het FSD-verhaal.
Wat betekent een Engineering Analysis precies?
De stap van een Preliminary Evaluation naar een Engineering Analysis is niet zomaar administratief. In het onderzoeksproces van de NHTSA is dit doorgaans de laatste grote fase voordat een zaak wordt gesloten of uitmondt in een terugroepactie. In deze fase vraagt de toezichthouder veel dieper technische informatie op, vergelijkt het systeem met dat van andere fabrikanten en beoordeelt zij of er structurele veiligheidsgebreken aanwezig zijn.
Dat betekent niet automatisch dat Tesla morgen miljoenen auto’s moet terugroepen. Wel betekent het dat de Amerikaanse overheid de signalen ernstig genoeg vindt om het dossier naar een zwaarder niveau te tillen. En dat is voor Tesla ongunstig, omdat het bedrijf FSD niet alleen als softwarefeature presenteert, maar ook als belangrijk onderdeel van zijn technologische positionering en toekomstige verdienmodel.
Wie deze stap bagatelliseert, mist de essentie. De NHTSA onderzoekt hier niet een losse bug of één geïsoleerd incident, maar een mogelijk structureel probleem in de manier waarop het systeem met beperkte zichtomstandigheden omgaat.
De kern van het probleem: het systeem merkt niet altijd dat het “blind” wordt
Volgens de bevindingen die in de bron worden aangehaald, gaat het vooral mis wanneer de zichtkwaliteit voor de camera’s verslechtert. Denk aan laagstaande zon, mist, stof of andere omstandigheden die voor menselijke bestuurders al extra aandacht vragen. In de onderzochte gevallen zou Tesla’s zogeheten degradation detection system onvoldoende of te laat hebben gemeld dat de sensoren minder goed functioneerden.
Dat is fundamenteel belangrijk. Een geavanceerd rijassistentiesysteem hoeft niet perfect te zijn, maar het moet wel kunnen herkennen wanneer de omstandigheden buiten zijn veilige werkgebied vallen. Juist daar lijkt de NHTSA nu vraagtekens bij te zetten. Als een systeem zijn eigen beperkingen niet betrouwbaar signaleert, wordt het risico groter dat de bestuurder te laat wordt gewaarschuwd.
In de onderzochte incidenten zouden auto’s soms voertuigen recht voor zich niet goed hebben gevolgd of zelfs gemist hebben vlak voor impact. Dat is precies het type scenario waar een snel en duidelijk waarschuwingssysteem cruciaal is.
Waarom dit extra gevoelig ligt voor Tesla
Tesla heeft zich de afgelopen jaren steeds nadrukkelijker vastgelegd op een camera-only filosofie. Radar verdween uit veel modellen en Elon Musk positioneerde Tesla Vision als de weg vooruit. Die keuze is strategisch begrijpelijk: camera’s zijn goedkoper, visueel rijk en schaalbaar in software. Maar er zit ook een duidelijke kwetsbaarheid in. Camera’s zijn per definitie gevoelig voor zichtbelemmeringen.
De escalatie van het onderzoek raakt daarom niet alleen een softwareversie, maar ook de architectuurkeuze van Tesla. Als toezichthouders tot de conclusie komen dat het systeem onder alledaagse omstandigheden onvoldoende robuust is, raakt dat de geloofwaardigheid van de bredere benadering.
Dat wil niet zeggen dat andere systemen immuun zijn voor slecht zicht. Ook radar, LiDAR en fusion-oplossingen hebben hun beperkingen. Maar het punt van de NHTSA lijkt te zijn dat Tesla’s huidige detectie en waarschuwing niet overtuigend genoeg laat zien wanneer de camera’s niet langer betrouwbaar waarnemen.
Van vier incidenten naar een veel groter dossier
Het oorspronkelijke onderzoek begon na vier ongevallen in omstandigheden met beperkt zicht. Inmiddels is de reikwijdte verbreed naar negen bekende incidenten, waaronder een dodelijk ongeval en een ongeval met letsel. Daar bovenop bekijkt de NHTSA nog zes extra potentieel gerelateerde gevallen.
Dat maakt het beeld zwaarder. Niet omdat ieder incident automatisch dezelfde oorzaak heeft, maar omdat de optelsom wijst op een patroon dat de toezichthouder niet meer wil behandelen als losse uitzondering. Voor Tesla is dat problematisch, want het bedrijf heeft al meerdere FSD-gerelateerde dossiers lopen. Volgens de bron is dit zelfs het derde gelijktijdige federale onderzoek naar FSD-gerelateerde kwesties.
Zodra meerdere onderzoeken tegelijk lopen, ontstaat er een cumulatief effect. Elk nieuw dossier wordt niet meer geïsoleerd gelezen, maar in samenhang met bestaande zorgen over verkeersovertredingen, incidentrapportage en systeemgedrag.
Tesla’s respons roept ook vragen op
Een opvallend detail in het dossier is de tijdlijn rond een fataal ongeval uit november 2023. Nadat Tesla het betreffende rapport maanden later had ingediend, begon het bedrijf volgens de bron pas de dag daarna aan een update van het detectiesysteem. Dat is op zichzelf nog geen bewijs van nalatigheid, maar het voedt wel de indruk dat verbeteringen reactief in plaats van proactief zijn opgepakt.
Daar komt bij dat de NHTSA volgens het dossier nog niet helder heeft wanneer de aangepaste software breed is uitgerold en op welke voertuigen die actief is. Ook zou Tesla zelf hebben erkend dat de update mogelijk slechts een deel van de bekende crashes had kunnen beïnvloeden. Dat maakt het moeilijker om te beargumenteren dat het probleem al wezenlijk is opgelost.
Voor toezichthouders is transparantie bijna net zo belangrijk als de techniek zelf. Als een fabrikant niet overtuigend kan aantonen welke software waar draait en welk effect die heeft, groeit de kans dat de zaak verder escaleert.
Wat betekent dit voor Tesla-rijders?
Voor huidige Tesla-eigenaren verandert er vandaag nog niets aan de homologatie van hun auto, maar de onzekerheid neemt wel toe. Een Engineering Analysis kan leiden tot aanvullende software-updates, extra waarschuwingen, beperkingen in functionaliteit of uiteindelijk een formele recall. In de VS kan dat ook gevolgen hebben voor hoe Tesla bepaalde assistentiefuncties mag presenteren of blijven uitrollen.
Ook voor Europese bestuurders is het dossier relevant. Regelgevers in Europa volgen Amerikaanse veiligheidsontwikkelingen doorgaans nauwgezet, zeker wanneer het gaat om systemen met grote vlootomvang en veel media-aandacht. Een Amerikaanse interventie betekent niet automatisch een Europese maatregel, maar ze beïnvloedt wel het debat over de mate waarin bestuurderstoezicht, naamgeving en marketing van zulke systemen aan banden moeten worden gelegd.
Bovendien raakt het de restwaarde en het vertrouwen. Bestuurders kopen niet alleen een auto, maar ook een belofte over toekomstige softwarecapaciteiten. Hoe meer toezicht en twijfel rond FSD ontstaan, hoe lastiger het wordt om die belofte ongeschonden te houden.
Meer dan een juridische kwestie
Het belang van deze zaak gaat verder dan Tesla alleen. De auto-industrie zit midden in een fase waarin assistentiesystemen steeds capabeler worden, maar nog niet volledig autonoom zijn. Juist dan is de vraag essentieel hoe duidelijk een systeem zijn grenzen communiceert. Te weinig vertrouwen maakt technologie nutteloos; te veel vertrouwen maakt haar gevaarlijk.
Daarom is het logisch dat de NHTSA scherp kijkt naar situaties waarin een systeem niet tijdig signaleert dat het minder goed functioneert. De kwestie gaat niet alleen over een crashrapport of een technische bug, maar over de overgangsperiode waarin mens en software samen verantwoordelijkheid dragen.
Tesla staat in dat debat voortdurend centraal, omdat het merk zijn systemen agressiever positioneert dan veel concurrenten. De naam Full Self-Driving legt de lat voor publieke verwachtingen automatisch hoog, zelfs als er juridisch nog steeds sprake is van toezicht door de bestuurder.
Een beslissende fase voor Tesla’s FSD-verhaal
De opschaling naar een Engineering Analysis is dus geen klein tussennieuwsje. Het is een signaal dat de Amerikaanse toezichthouder het zichtprobleem rondom FSD als een serieuze veiligheidskwestie behandelt. Voor Tesla is dat extra gevoelig omdat juist de camera-only strategie en het vertrouwen in software hier ter discussie staan.
Of dit uiteindelijk uitmondt in een terugroepactie, aanvullende updates of een andere uitkomst, weten we nog niet. Maar de richting is duidelijk: de ruimte voor vage claims en halve antwoorden wordt kleiner. In de komende maanden zal Tesla overtuigend moeten aantonen dat FSD niet alleen indrukwekkend oogt in ideale omstandigheden, maar ook veilig genoeg is wanneer de wereld minder helder zichtbaar wordt.
Eerder
-
Abarth 600e: krachtigste elektrische sportwagen met 280 pk en sperdiff 17 feb., 2025 -
Abarth 600e Competizione: 280 pk elektrische hot hatch vanaf € 40.999 05 mrt., 2026 -
Alfa Romeo viert 75 jaar vierwielaandrijving en verbindt Q4 met elektrificatie 11 mrt., 2026 -
Alpine A390 GT nu te bestellen in Nederland vanaf 67.900 euro 31 mrt., 2026