Home Nieuws Rivian CEO RJ Scaringe zet een nieuwe koers uit voor autonome voertuigen

Rivian CEO RJ Scaringe zet een nieuwe koers uit voor autonome voertuigen

6
0
Rivian CEO RJ Scaringe zet een nieuwe koers uit voor autonome voertuigen

“Op de een of andere manier lekte het niet.”

Toen ik Rivian-oprichter en CEO RJ Scaringe sprak na die van het bedrijf Keynote ‘AI & Autonomiedag’ Op 11 december verbaasde hij zich er op het hoofdkantoor in Palo Alto over dat het bedrijf erin was geslaagd het nieuws van het evenement verborgen te houden totdat het klaar was voor de grote onthulling.

Dat gebeurde ook, en er was veel te bespreken. Tijdens de keynote onthulde Rivian zijn Gen 3-platform, waar de maker van zal veranderen EV vrachtwagens, SUV’s en bestelwagens tot een autonoom bedrijf, een focus die volgens hem “de hele transportsector” zal omvatten.

Het Rivian Autonomy Computer-platform, dat eind volgend jaar debuteert in een versie van de komende R2 SUV, wordt aangedreven door een chip die het bedrijf zelf heeft ontworpen, de RAP1 (Rivian Autonomy Processor). De zelfrijdende functies van de R2 zullen ook gebruik maken van gegevens van een lidar-eenheid die onopvallend bovenaan de voorruit zit – heel wat anders dan de draaiende lidar-torens bovenop voertuigen zoals Waymos. (ControversieelTesla’s auto’s gebruiken geen lidarsensoren.)

Rivian toonde ook een nieuwe spraakgestuurde gebruikersinterface, de Rivian Assistant genaamd, die beschikbaar zal zijn als update voor zijn huidige voertuigen en voor de R3. Een weddenschap op de toekomst van auto-interfaces die verschuiven naar praten in plaats van tikken op schermen, en beschikt over integratie met Google Agenda, wat duidt op het soort productiviteit-gerelateerde functies die nuttiger zouden kunnen worden naarmate auto’s een groter deel van het rijwerk overnemen.

Ik sprak met Scaringe over al deze onderwerpen en meer. Ons gesprek is aangepast voor lengte en duidelijkheid.

Hoeveel van wat u vandaag hebt aangekondigd, maakte, althans in grote lijnen, deel uit van de oorspronkelijke Rivian-visie en routekaart?

Nou, dat was twintig jaar geleden. Maar zoiets als vandaag is het resultaat van het feit dat vele duizenden mensen er de afgelopen jaren aan hebben gewerkt. De ontwikkeling op de platforms die we vandaag lieten zien, begon in 2022.

Een van de rode draden die veel van uw nieuws met elkaar verbinden, is dat u zelf dingen doet in plaats van afhankelijk te zijn van andere partijen. Was er een periode waarin je niet zeker wist welke kant je op moest?

Misschien is de manier om dat te beantwoorden het volgende: toen we in 2021 lanceerden, hadden we wat we onze Gen 1-architectuur noemen. En het was een heel andere aanpak dan wat er in onze Gen 2 ging en natuurlijk wat er in onze Gen 3 ging.

We hadden een perceptieplatform – waarvan een deel van onszelf was, waarvan een groot deel niet van ons – dat input gaf aan een planner, die van ons was, en een reeks op regels gebaseerde beslissingen nam over hoe we het voertuig moesten besturen. Het was een heel basale rijhulp: functies van laag niveau twee. En omdat dat de architectuur was, hadden we een natuurlijke limiet. We realiseerden ons dat toen we de lancering naderden – dat de wereld zou verschuiven van deze meer deterministische en klassieke systemen naar een echte AI-gebaseerd systeem.

Het is nogal ironisch. Als we het hebben over ‘zelfrijdend’, denken we misschien dat het historisch gezien altijd AI is geweest. Maar in het begin was er eigenlijk geen AI. Een deel ervan bestond uit zeer geavanceerde als-dan-verklaringen met een goede machinevisie.

Waar het nu naar is verschoven, is echte AI, en dat gebeurde begin jaren twintig. Terwijl dat gebeurde, kwamen we tot de conclusie dat we onze aanpak volledig moesten veranderen. En toen we die beslissing begin 2022 namen, benaderden we het als een schone lei.

Met die clean-sheet-aanpak luidde het: “Laten we ons eigen perceptieplatform ontwerpen. Laten we ons eigen computerplatform ontwerpen met Gen 2, waarbij we Nvidia gebruiken als leverancier van de chips zelf, de inferentieplatforms zelf, en een datavliegwiel gaan bouwen waarmee we een op neurale netwerken gebaseerde aanpak kunnen bouwen.” De voertuigen werden uiteindelijk medio 2024 gelanceerd, iets minder dan anderhalf jaar geleden.

En parallel daaraan zijn we ook begonnen met een aantal grote hardware-inspanningen, waarvan de grootste een interne chip is. Om van nul (geen chipontwerpteam, geen interne chip, geen chip-IP) naar het lanceren van een chip te gaan, kost tijd, vele honderden miljoenen dollars, en een hele, hele grote organisatie. Maar we hebben de beslissing in ’22 genomen en we hebben er naartoe gewerkt. Op de een of andere manier lekte het niet. Maar het is nu fijn dat we er publiekelijk over kunnen praten en dat het volgend jaar in de voertuigen zal zitten.

Een op AI gerichte aanpak vereiste deze verticale integratie van perceptie. Het vereist niet dat u over compute beschikt, maar als u over compute beschikt, kunt u deze tegen een lager kostenniveau en, in ons geval, met een hoger prestatieniveau leveren.

We zijn er gewoon zo van overtuigd dat (autonomie) niet alleen een onderdeel is van de auto-industrie. Als je een beetje oplet, is dit de hele zaak. En dus hebben we de visie ontwikkeld dat de categorie waarin we het grootste deel van onze R&D inzetten, in deze categorie zou moeten vallen.

Was het volkomen duidelijk dat je lidar nodig had?

Er is een gedachte rond lidar die moet worden afgeschaft, namelijk dat ze duur en mechanisch complex zijn. De oude Velodyne-lidars, zelfs wat je tegenwoordig op de wegen ziet, waren echt complexe sensoren. Maar ze zijn nu zeer goedkoop, uiterst betrouwbaar en op solid-state basis.

Tien jaar geleden was de best presterende lidar die je kon kopen misschien $70.000. Vijf jaar geleden was het misschien $ 5.000. Vandaag is het in de lage honderden dollars. En dus is het zo kosteneffectief geworden om de hele vloot in een grondwaarheidsvloot te veranderen. Het is erg handig voor het trainen van uw camera’s, vooral onder ongunstige omstandigheden.

Als je de ui eraf trekt en naar het kostentraject van de sensor kijkt, is het een soort vreemde discussie geworden, omdat Tesla er zo’n standpunt over heeft ingenomen. Maar het was niet echt een debat. Als het een sensor van $ 10.000 was geweest, zou het een ander verhaal zijn geweest. Maar als het om een ​​beslissing van een paar honderd dollar gaat, is het veel gemakkelijker om te nemen.

De Google Agenda-integratie van uw nieuwe assistent heeft mij doen beseffen dat als ik niet zo veel tijd hoef te besteden aan het nadenken over autorijden, er veel mogelijkheden zijn om productief te zijn in de auto. In welke mate probeer je een rijkelijk krachtige assistent op te bouwen?

Google Agenda is slechts een van de vele voorbeelden van integraties. Tegenwoordig is er een beperkte set die is opgezet om van agent naar agent te gaan. Maar elk platform dat echt gaat overleven, en niet alleen maar wordt opgeslokt door een AI-platform, zal heel, heel capabel moeten worden in het mogelijk maken van agent-tot-agent. In feite vergelijkbaar met SDK’s (software-ontwikkelingskits) die het heel eenvoudig maken om in te pluggen. Het doel is dat we in principe elke app die u wilt gebruiken, kunnen aansluiten op onze agenten en dat deze naadloos zal verlopen.

U kunt dus alle apps bereiken zoals u die vandaag zag. Je hebt met de auto gepraat, de auto kon Google bereiken en de kalender vinden. We konden hem vertellen iets te verplaatsen, en hij kwam via een agent terug bij Google en verplaatste alles. Het is het topje van de ijsberg.

Al deze dingen zullen zo natuurlijk worden dat de auto een persoonlijke assistent wordt. Als u uw planning wilt verschuiven, eten wilt bestellen of iemand wilt plannen om bij u thuis te komen om het sanitair te repareren, worden al deze dingen heel, heel gemakkelijk te doen. En als u niet meer autorijdt, wilt u wellicht de auto gebruiken om u met meer van deze zaken te helpen.

Heeft u enig idee hoe de toekomst eruit ziet in termen van naast elkaar bestaande robotaxis en autonome privévoertuigen?

Ik denk zeker dat ze naast elkaar zullen bestaan. Ze sluiten elkaar allesbehalve uit. Het bestaan ​​van niveau vier (autonomie) is wat ze allebei mogelijk maakt, en de technologie vanuit een niveau vier-oogpunt is hetzelfde. We zijn gefocust op de technologie en het eerste geplande exemplaar is een persoonlijk voertuig. Maar het weerhoudt ons er niet van om robotaxis of rideshare te doen.

Rideshare vandaag is zo’n klein percentage kilometers. Ik was altijd van mening dat we van 99% van de kilometers in de wereld in voertuigen in persoonlijk bezit zouden gaan naar 50% in voertuigen in persoonlijk bezit en dat de andere helft van de kilometers in de wereld gedeeld zou worden. Misschien gebeurt dat, maar ik denk dat het waarschijnlijker is dat het van 99% naar 90% gaat. Misschien komt dat omdat ik nu kinderen heb, en de complexiteit van autostoelen, voetballen en voetbaloutfits.

Ik denk dat het van land tot land zal verschillen. Als je kijkt naar het welvaartsniveau in de Verenigde Staten, als je je vandaag de dag een auto kunt veroorloven, zouden veel mensen nog steeds liever een auto bezitten en dan de eenvoud hebben dat deze altijd beschikbaar is voor hen en hun gezin. Maar ik hoef hier eigenlijk geen sterke overtuiging over te hebben. Als er een grote verschuiving plaatsvindt in het consumptiemodel, zijn wij daar net zo klaar voor.

Het verbaast mij hoeveel aandacht het bedrijfsmodel krijgt. Als het ene uiteinde van het spectrum traditioneel eigendom is zoals we dat vandaag de dag kennen, en het andere uiteinde van het spectrum ‘pay as you go’ is, zijn we niet erg fantasierijk. Er zullen veel dingen in het midden zijn. Misschien ben ik overdag de eigenaar van het voertuig en gebruikt iemand anders het voertuig ’s nachts. Misschien is het voertuig doordeweeks van mij en in het weekend van een ander gezin. Misschien wordt het voertuig gedeeld door vijf of zes personen, in plaats van oneindig gedeeld.

Er zal een spectrum aan nieuwe manieren ontstaan ​​om mobiliteit te consumeren, zodra het voertuig zelf kan rijden. En onze visie is dat we over dat hele spectrum zullen bestaan. Maar het enige dat absoluut zeker nodig is voor welk punt op dat spectrum dan ook is niveau vier. Robotaxis werkt niet met niveau drie. Persoonlijk niveau vier werkt uiteraard niet met niveau drie. Je hebt niveau vier nodig. Dus daar zijn we op gefocust.


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in