Home Nieuws 7 van de beste citaten uit het 19.000 woorden tellende AI-essay van...

7 van de beste citaten uit het 19.000 woorden tellende AI-essay van Anthropic CEO

2
0
7 van de beste citaten uit het 19.000 woorden tellende AI-essay van Anthropic CEO

Dario Amodei heeft nog veel te zeggen.

Maandag liet de CEO van Anthropic een essay van meer dan 19.000 woorden vallen, getiteld “De adolescentie van technologie” maandag over de toekomst van AI, waarbij hij zijn mening gaf over alles, van zijn collega-CEO’s tot het feodalisme en zelfs de Unabomber.

Vooral bekend vanwege zijn waarschuwing dat AI dat wel zou kunnen tot 50% van de witteboordenbanen op instapniveau elimineren in de komende 1 tot 5 jaar heeft Amodei ruzie gehad met Nvidia CEO Jensen Huang en het Witte Huis van Trump over zijn standpunten.

Hier zijn zeven van de meest alarmerende en verrassende citaten.

‘Dit is een serieuze uitdaging voor de beschaving’

Amodei blijft optimistisch over AI in het algemeen, maar zijn essay beschrijft “een intimiderende handschoen die de mensheid moet lopen” om de vruchten van AI te plukken zonder de baanbrekende technologie de wereld te laten vernietigen.

“Ik geloof dat als we resoluut en zorgvuldig handelen, de risico’s kunnen worden overwonnen – ik zou zelfs zeggen dat onze kansen goed zijn. En er is een enorm betere wereld aan de andere kant ervan”, schreef hij. “Maar we moeten begrijpen dat dit een serieuze uitdaging voor de beschaving is.”

De ontwikkeling van AI kan niet worden gestopt, schreef Amodei, een conclusie die zelfs sommige sceptici van AI delen. De financiële en veiligheidsvoordelen zijn gewoon te groot om door de particuliere en publieke sector te worden genegeerd.

Daarom is het zo cruciaal om de AI-race te winnen en dit op een ethische manier te doen, concludeert hij.

‘Dit is hetzelfde als kernwapens verkopen aan Noord-Korea en dan opscheppen dat de rakethulzen door Boeing zijn gemaakt’

Jensen Huang heeft Amodei’s mening over China niet veranderd.

“Er worden een aantal ingewikkelde argumenten aangevoerd om dergelijke verkopen te rechtvaardigen, zoals het idee dat ‘het verspreiden van onze tech-stack over de hele wereld’ ‘Amerika in staat stelt te winnen’ in een algemene, niet-gespecificeerde economische strijd,” zei Amodei. “Naar mijn mening is dit zoiets als het verkopen van kernwapens aan Noord-Korea en dan opscheppen dat de rakethulzen door Boeing zijn gemaakt en dat de VS dus ‘aan de winnende hand zijn’.”

In november kondigde Nvidia een samenwerking met Anthropic dat omvat een investering van maximaal $ 10 miljard in de AI-startup. Het nieuws leidde tot speculaties spanningen tussen Amodei en Huang koelt misschien af.

Wat de status van hun relatie ook is, Amodei is vastbesloten dat het een afschuwelijke beslissing is om Amerikaanse bedrijven toe te staan ​​geavanceerde chips aan China te verkopen.

“China ligt enkele jaren achter op de VS wat betreft hun vermogen om grenschips in grote hoeveelheden te produceren, en de kritieke periode voor het opbouwen van het land van genieën in een datacenter zal zeer waarschijnlijk binnen die komende jaren plaatsvinden”, schreef Amodei. “Er is geen reden om hun AI-industrie in deze kritieke periode een gigantische impuls te geven.”

‘Veel mensen hebben mij verteld dat we hiermee moeten stoppen, omdat dit tot een ongunstige behandeling zou kunnen leiden’

Amodei zou graag willen dat zijn critici het scorebord zien.

De leider van Anthropic heeft niet geprobeerd in de gunst te komen bij het Witte Huis, noch heeft hij de president vocaal omarmd Donald Trump’s AI-beleid in dezelfde mate als zijn rivaliserende CEO’s. Amodei’s uitgesproken oproep tot AI-regulering bracht David Sacks, de AI-tsaar van Trump, er zelfs toe hem publiekelijk te berispen.

Niets hiervan heeft Amodei’s visie veranderd dat de AI-industrie “een gezondere relatie met de overheid nodig heeft – een relatie die gebaseerd is op inhoudelijke beleidsbetrokkenheid in plaats van op politieke afstemming.”

“Veel mensen hebben mij verteld dat we hiermee moeten stoppen, dat dit tot een ongunstige behandeling zou kunnen leiden, maar in het jaar dat we dit doen is de waardering van Anthropic ruim zes keer zo hoog geworden, een bijna ongekende sprong op onze commerciële schaal”, schreef hij.

Van al zijn hoop lijkt deze de meest onwaarschijnlijke. Er zijn al AI-CEO’s gevormd duelleren met super PAC’s vóór de tussentijdse verkiezingen van 2026.

‘Ik vind het triest dat veel rijke individuen (vooral in de technologie-industrie) onlangs een cynische en nihilistische houding hebben aangenomen dat filantropie onvermijdelijk frauduleus of nutteloos is’

De tech-elite heeft AI gemaakt, en zij moeten de samenleving helpen omgaan met de gevolgen ervan, schreef hij in het essay. Amodei roept regeringen al lang op om zich voor te bereiden op massale banenverdringing. In een van de meest wenkbrauwverhogende delen van het essay beschrijft de CEO van Anthropic wat zijn collega-miljardairs en bedrijven moeten doen.

Naast filantropie zegt Amodei dat bedrijven ‘creatief’ moeten zijn in de manier waarop ze ontslagen kunnen voorkomen.

Op de lange termijn, zo schreef hij, “kan het haalbaar zijn om menselijke werknemers te betalen, zelfs lang nadat ze niet langer economische waarde in de traditionele zin van het woord bieden.”

‘Sommige AI-bedrijven hebben een verontrustende nalatigheid getoond ten aanzien van de seksualisering van kinderen’

Een van de grootste thema’s van Amodei’s essay is het risico dat AI-bedrijven zelf vormen. Het is een conclusie waarvan hij toegeeft dat deze voor hem “enigszins lastig” is. Als voorbeeld wijst hij op het roerige onderwerp van de seksualisering van kinderen. Hoewel hij xAI niet rechtstreeks noemt, is Grok dat wel geconfronteerd met onderzoeken in meerdere landen over de niet-consensuele seksualisering van afbeeldingen van echte mensen.

“Sommige AI-bedrijven hebben in de huidige modellen een verontrustende nalatigheid getoond ten aanzien van de seksualisering van kinderen, waardoor ik betwijfel of ze in toekomstige modellen de neiging of het vermogen zullen tonen om autonomierisico’s aan te pakken”, schreef hij.

Over het algemeen uitte hij zijn scepsis dat AI-bedrijven hun winst zullen opofferen voor een breder maatschappelijk welzijn. ‘Gewone corporate governance’, schreef Amodei, is slecht toegerust om zijn zorgen weg te nemen.

Amodei zei dat de angst dat AI-modellen bevelen kunnen negeren en misschien zelfs proberen de mensheid te elimineren, wordt gecompliceerd door slechte actoren in de industrie die niet zo transparant zijn over de risico’s die zij in hun modellen zien.

“Hoewel het ongelooflijk waardevol is voor individuele AI-bedrijven om goede praktijken toe te passen of goed te worden in het sturen van AI-modellen, en om hun bevindingen publiekelijk te delen, is de realiteit dat niet alle AI-bedrijven dit doen, en de slechtste bedrijven kunnen nog steeds een gevaar voor iedereen zijn, zelfs als de beste uitstekende praktijken hebben”, schreef hij.

‘Modellen naderen nu waarschijnlijk het punt waarop ze, zonder waarborgen, nuttig zouden kunnen zijn om iemand met een STEM-diploma, maar niet specifiek een biologiediploma, in staat te stellen het hele proces van het produceren van een biowapen te doorlopen’

Amodei ziet niet dat de grootste risico’s voor de mensheid voortkomen uit het nastreven van totale overheersing door AI, maar eerder uit wat AI mensen in staat zou kunnen stellen te ontketenen.

Amodei beschreef zijn vrees dat AI de toegangsdrempel verlaagt die nodig is om dodelijke biologische wapens te maken. Zijn grootste zorg is dat AI de stapsgewijze kennis kan verschaffen waarmee uiteindelijk zelfs een gemiddeld mens een biowapen kan produceren.

AI-bedrijven moeten er volgens Amodei voor zorgen dat ze voldoende achtervang creëren om dergelijke vragen te blokkeren, onder meer door het voor hackers moeilijk te maken om modellen te jailbreaken. Het toevoegen van dergelijke beveiliging is duur, zei Amodei, en merkte op dat deze maatregelen voor sommige modellen van de bedrijven “bijna 5% van de totale inferentiekosten” bedragen.

“Ik ben bezorgd dat er na verloop van tijd een gevangenendilemma kan ontstaan, waarbij bedrijven kunnen overlopen en hun kosten kunnen verlagen door classificaties te verwijderen”, schreef hij. “Dit is opnieuw een klassiek probleem met negatieve externe factoren dat niet kan worden opgelost door de vrijwillige acties van Anthropic of welk ander bedrijf dan ook.”

‘Ik zou wetgeving steunen die gericht is op burgerlijke vrijheden (of misschien zelfs een grondwetswijziging)’

Amodei is een van de meest uitgesproken voorstanders van AI-wetgeving in de AI-industrie. Terwijl Meta en Microsoft a federale voorrang van AI-wetten op staatsniveau steunde Anthropic AI-transparantiewetten in Californië en New York, die nu wet zijn.

In het hele essay schetste Amodei meerdere gebieden voor toekomstige wetgeving, waaronder sectorbrede transparantievereisten zoals die op staatsniveau. Zelfs hij concludeert dat nieuwe wetten misschien niet voldoende zijn.

“De snelle vooruitgang van AI kan situaties creëren waarvoor onze bestaande wettelijke kaders niet goed zijn ontworpen”, schreef hij.

Daarom zei Amodei dat hij zo ver zou gaan dat hij een grondwetswijziging zou steunen. De VS hebben de grondwet niet meer gewijzigd sinds 1992, toen de meer dan twee eeuwen durende strijd om een ​​beperking op de salarissen van het Congres toe te voegen uiteindelijk door de 38e wetgevende macht van de staat werd gehaald.

“Ik zou wetgeving steunen die gericht is op burgerlijke vrijheden (of misschien zelfs een grondwetswijziging) die sterkere vangrails oplegt tegen door AI aangedreven misbruik”, schreef hij.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in