Een van de De vermeende voordelen van zelfrijdende autotechnologie zijn dat elke auto kan leren van de fouten van één voertuig. Hier is hoe Waymo zet het aan zijn website: “De Waymo Driver leert van de collectieve ervaringen die zijn verzameld in ons wagenpark, inclusief eerdere hardwaregeneraties.”
Maar in Austin hadden de voertuigen van Waymo maandenlang moeite om te leren stoppen voor schoolbussen terwijl chauffeurs kinderen ophaalden en afzetten. Een ambtenaar bij het Austin Independent School District (AISD) zogenaamd dat de voertuigen in ten minste 19 gevallen “illegaal en gevaarlijk” de schoolbussen van het district waren gepasseerd terwijl hun rode lichten knipperden en hun stoparmen waren uitgestrekt in plaats van volledig tot stilstand te zijn gekomen, zoals de wet vereist.
Begin december vaardigde Waymo zelfs een federale terugroepactie uit met betrekking tot de incidenten, waarbij hij op zijn minst erkende 12 van hen aan federale toezichthouders bij de National Highway Traffic Safety Administration (NHTSA), die toezicht houdt op de verkeersveiligheid. Volgens federale documenten hadden ingenieurs van het zelfrijdende voertuigbedrijf weken eerder ‘softwarewijzigingen ontwikkeld om het gedrag aan te pakken’.
Maar zelfs na de terugroepactie gingen de schoolbusincidenten door, volgens schoolambtenaren een rapport van de National Transportation Safety Board (NTSB), een onafhankelijke federale veiligheidswaakhond die ook de situatie onderzoekt.
Nu laten e-mail- en sms-berichten tussen schoolambtenaren en Waymo-vertegenwoordigers, verkregen door WIRED via een verzoek om openbare registers, zien hoeveel moeite het openbare schooldistrict Austin en Waymo deden om het probleem op te lossen. AISD organiseerde half december zelfs een evenement van een halve dag voor het verzamelen van gegevens op een parkeerplaats van een school, zo blijkt uit de documenten, waarbij verschillende medewerkers schoolbussen en stoparmsignalen uit het hele wagenpark bij elkaar brachten, zodat het zelfrijdende autobedrijf informatie kon verzamelen over voertuigen en hun zwaailichten.
Toch meldde het schooldistrict medio januari, ruim een maand later, dat er in Austin nog minstens vier schoolbusincidenten hadden plaatsgevonden. “Uit de gegevens die we hebben verzameld vanaf het begin van het schooljaar tot het einde van het semester blijkt dat ongeveer 98 procent van de mensen die de ene overtreding te horen krijgen, geen andere krijgt”, zegt een ambtenaar bij de politie van de school. vertelde het lokale NBC-filiaal die maand. “Dat vertelt ons dat de persoon aan het leren is, maar het lijkt er niet op dat het automatische stuursysteem van Waymo leert via de software-updates, het terugroepen ervan, wat ook, want we hebben nog steeds overtredingen.”
De situatie roept vragen op over de merkwaardige blinde vlekken van zelfrijdende technologieën en het vermogen van de industrie om deze te compenseren, zelfs nadat ze zijn opgemerkt.
Zelfrijdende software heeft lange tijd moeite gehad met het herkennen ervan knipperende noodverlichting en verkeersveiligheidsvoorzieningen met lange, dunne armen, inclusief hekken en stoparmen, zegt Missy Cummings, die onderzoek doet naar autonome voertuigen aan de George Mason University en tijdens de regering-Biden als veiligheidsadviseur voor de NHTSA diende. “Als (het bedrijf) dit een paar jaar geleden niet heeft opgelost, zal het een groter probleem worden naarmate ze meer rijden”, zegt ze. “Dat is precies wat hier gebeurt.”
Waymo reageerde niet op de verzoeken van WIRED om commentaar. Een woordvoerder van het Austin Independent School District verwees WIRED naar de NTSB terwijl de incidenten worden onderzocht. Een woordvoerder van de NTSB weigerde de vragen van WIRED te beantwoorden terwijl het onderzoek voortduurde.
Illegaal passeren
Halverwege de winter van 2025 waren AISD-functionarissen gefrustreerd. In een van de 19 incidenten die door een advocaat van het district worden beweerd in een brief Later vrijgegeven door de federale verkeersveiligheidsautoriteiten, passeerde een Waymo een schoolbus die kinderen uitliet “slechts enkele ogenblikken nadat een student voor het voertuig was overgestoken, en terwijl de student nog onderweg was.”
“Alarmerend”, schreef de advocaat, vonden vijf van de vermeende incidenten plaats nadat Waymo het district had verzekerd dat het zijn software had bijgewerkt om het probleem op te lossen. Federale toezichthouders bij de NHTSA hadden dat wel al een onderzoek gestart in het gedrag. “Austin ISD evalueert alle mogelijke rechtsmiddelen waarover het beschikt en is van plan om, indien nodig, alle actie te ondernemen die nodig is om de veiligheid van zijn studenten te beschermen”, waarschuwde de advocaat.



