Home Nieuws Trump overweegt AI-toezicht. Dit is wat slimme mensen erover zeggen.

Trump overweegt AI-toezicht. Dit is wat slimme mensen erover zeggen.

5
0
Trump overweegt AI-toezicht. Dit is wat slimme mensen erover zeggen.

De regering-Trump overweegt toezicht op AI-modellen, zo meldde de New York Times maandag.

  • De regering-Trump bespreekt het toezicht op nieuwe AI-modellen, aldus de New York Times.
  • Experts op het gebied van technologiebeleid zeggen dat dergelijk toezicht de innovatie kan vertragen.
  • Ze voegden eraan toe dat dergelijke regelgeving uit wetgeving moet voortkomen, en niet uit een uitvoeringsbesluit.

De regering van president Donald Trump is in gesprek toezicht van de overheid van de uitrol van nieuwe AI-modellen, meldde de New York Times maandag.

De regering overweegt een uitvoerend bevel om een ​​werkgroep van technologiemanagers en overheidsfunctionarissen op te richten om te beslissen hoe het toezicht zou worden uitgevoerd, zo meldde de Times, onder verwijzing naar Amerikaanse functionarissen en mensen die bekend zijn met de discussies.

In het rapport stond dat functionarissen van het Witte Huis leidinggevenden van Anthropic, Google en OpenAI over enkele van deze plannen vertelden.

Het toezicht zou een U-bocht betekenen Trumps standpunt over AI,. In zijn tweede ambtstermijn heeft de president prioriteit gegeven aan deregulering en innovatie, waarbij hij zei dat een stevige greep de Amerikaanse concurrentiepositie ten opzichte van China zou kunnen belemmeren.

De verhuizing komt als beleidsmakers staan ​​onder druk van nationale veiligheidsfunctionarissen en technologieanalisten om de risico’s van krachtige AI-systemen in overweging te nemen, zoals Antropische Mythos.

Dit is wat technologie- en beleidsexperts zeggen over de mogelijke regelgeving:

Daniel Castro, voorzitter van de Information Technology and Innovation Foundation
Daniël Castro
Daniël Castro

Daniel Castro, de voorzitter van de wetenschaps- en technologiedenktank ITIF, noemde verschillende redenen waarom het mogelijke uitvoerende bevel een “verschrikkelijk idee” is voor X.

Ten eerste zei hij dat het een “volledige omarming” is van het voorzorgsbeginsel – het idee dat regeringen het publiek moeten beschermen tegen risico’s, zelfs zonder volledige wetenschappelijke zekerheid.

“Het zou betekenen dat bedrijven toestemming van de overheid nodig hebben om te innoveren. Dat verandert de standaard van vrij bouwen naar eerst vragen”, schreef Castro op X.

Hij zei dat andere risico’s onder meer zijn dat technologiebedrijven zich moeten buigen voor elke regering, waardoor andere landen vooruitgang kunnen blijven boeken en de innovatie kunnen vertragen.

‘Innovatie zou zich met de snelheid van Washington ontwikkelen, en niet met die van Silicon Valley’, schreef hij. “Elke productlancering, functie-update of modelrelease zou vertragen. De overheid staat niet bekend om snelheid.”

Janet Vestal Kelly, CEO van Alliance for a Better Future

Janet Vestal Kelly, hoofd van de Alliance for a Better Future, een conservatief georiënteerde belangenorganisatie, noemde het potentieel doorlichting van AI-modellen “welkom nieuws.”

“AI is de krachtigste technologie die de wereld ooit heeft gezien, en als ze aan hun lot worden overgelaten, zullen Big Tech-bedrijven kinderen, werknemers en Amerikaanse waarden met voeten treden”, schreef ze maandag in een verklaring die op X werd gedeeld.

“Met de juiste aanpak kunnen de VS AI hebben die kinderen, banen en onze natie beschermt, en ook de AI-race tegen China winnen”, voegde Kelly eraan toe.

Adam Thierer, analist bij het R Street Institute

Adam Thierer, een innovatiebeleidsanalist bij de vrijemarktdenktank R Street Institute, zei dat grote AI-regulering niet alleen de beslissing van Trump mag zijn.

“Elke vorm van preventieve, pre-release ‘doorlichting’ van AI-modellen door het Witte Huis zou neer kunnen komen op een de facto licentieregime, wat zeker niet zou moeten gebeuren via uitvoerende bevelen”, schreef hij op X.

Thierer, die in het Congres getuigde over grensmodellen, zei dat een van de eerste prioriteiten van Trump in zijn tweede termijn het afschaffen van een AI-bevel uit het Biden-tijdperk was.

‘Uitvoerende bevelen hebben hun plaats, maar het Congres moet helpen een stabieler raamwerk te creëren dat deze doelen bereikt’, schreef hij.

Conor Grennan, CEO van AI Mindset
Conor Grennan
Conor Grennan

Conor Grennan, een AI-consultant en voormalig hoofd AI-architect aan de Stern School of Business van NYU, uitte zijn bezorgdheid over dit ‘doorlichtingsproces’.

“Wie krijgt de schuld als er iets misgaat: AI of de vetters? Of wat als een AI-leider Trump bekritiseert, is dat model dan plotseling ‘te gevaarlijk?’ En hoe gebeurt deze screening precies?” schreef hij in een bericht op LinkedIn.

Hij zei dat hoewel vangrails noodzakelijk zijn, de regering die deze beslissingen neemt “snel rommelig zal worden”.

Eli Dourado, hoofd strategische investeringen bij Astera Institute

Eli Dourado, die leiding geeft aan strategische investeringen bij Astera, een non-profit AI-onderzoeksinstituut, zei dat het voorstel veel verschillende dingen zou kunnen betekenen.

“Als het een verplichte herziening van AI-modellen betreft voordat ze kunnen worden vrijgegeven, is dat in direct conflict met de doctrine van het Eerste Amendement van de rechtbank”, schreef hij, verwijzend naar een constitutionele wet die zegt dat de regering de meningsuiting niet kan tegenhouden voordat deze plaatsvindt.

Hij voegde eraan toe: “Het lijkt onwaarschijnlijk dat ik zal vliegen.”

Taylor Barkley, directeur federale overheidszaken bij het Abundance Institute

Taylor Barkley, directeur van technologiebeleidsorganisatie Abundance Institute, zei dat de mogelijke regulering een proces van voorafgaande goedkeuring is, vergelijkbaar met dat in Groot-Brittannië.

Hij noemde het een “gigantische stap achteruit voor innovatie en een ongedaan maken van het uitstekende beleid van president Trump op het gebied van AI tot nu toe”, omdat het de implementatie zou vertragen en de toetredingsdrempels zou opwerpen.

Hij zei dat het toezichthouders ook meer macht geeft dan vernieuwers en het doel van de regering om de administratieve rompslomp terug te dringen ondermijnt.

“Om al deze redenen en meer moet het Congres de juiste regelgevende maatregelen verduidelijken door een nationaal AI-kader goed te keuren”, schreef Barkley op X.

Chris McGuire, senior fellow bij de Council on Foreign Relations

Chris McGuire, een senior fellow voor China en opkomende technologie bij de Council on Foreign Relations, zei dat deze stap een “broodnodige spil in de regelgeving” zou zijn.

In een bericht op X schreef hij dat als de Amerikaanse regering modellen wil onderzoeken voordat ze worden vrijgegeven, ze ook een plan nodig heeft om de veiligheid te waarborgen wanneer ze live zijn.
“Dit betekent dat er bepaalde cyber- en fysieke beveiligingsvereisten moeten worden ingevoerd die van toepassing zijn op grensverleggende AI-laboratoria en alle cloudproviders die geavanceerde AI-modellen hosten”, schreef McGuire. “Het betekent ook dat de geavanceerde AI-modelgewichten worden gecontroleerd door de export, om te voorkomen dat ze worden overgedragen aan niet-vertrouwde entiteiten.”

Hij voegde eraan toe dat de regering-Biden een soortgelijk AI-beleid voerde.

“De regel was complex en zeker niet perfect, maar het was een eerlijke poging om een ​​reëel probleem aan te pakken waar de regering-Trump nu een eigen antwoord op nodig heeft”, schreef hij.

Thomas Woodside, senior beleidsadviseur bij Secure AI Project

Thomas Woodside, medeoprichter en adviseur bij AI-beleidsgroep Secure AI Project, zei dat een eenmalig goedkeuringsproces voor AI-modellen misschien niet de juiste aanpak is. In plaats daarvan betoogde hij dat het toezicht continu moet zijn, omdat systemen regelmatig worden bijgewerkt en zelfs tijdens de ontwikkeling en intern gebruik risico’s kunnen opleveren.

Net als andere technologieanalisten zei Woodside dat een dergelijk raamwerk tot stand moet worden gebracht door middel van wetgeving in plaats van door uitvoerende maatregelen.

Lees het originele artikel op Zakelijke insider

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in