Home Nieuws Seksuele inhoud voor minderjarigen, informatie over zelfbeschadiging gericht op de nieuwe open-sourceprompts...

Seksuele inhoud voor minderjarigen, informatie over zelfbeschadiging gericht op de nieuwe open-sourceprompts van OpenAI

3
0
Seksuele inhoud voor minderjarigen, informatie over zelfbeschadiging gericht op de nieuwe open-sourceprompts van OpenAI

OpenAI heeft nieuwe open-source veiligheidsinstructies voor ontwikkelaars aangekondigd, gericht op het lanceren van een massale inzet van beleid om tieners te beschermen.

De snelgebaseerd veiligheidspakket omvat modelrichtlijnen over algemene tienerrisico’s, aanbevelingen voor ontwikkelingsinhoud en voor de leeftijd geschikte richtlijnen over onderwerpen als zelfbeschadiging, seksuele inhoud en romantisch rollenspel, gevaarlijke trends of virale uitdagingen, en schadelijke lichaamsidealen.

OpenAI zei dat het een robuuster alternatief is voor de eerder aangeboden richtlijnen op hoog niveau, geformatteerd als aanwijzingen die rechtstreeks op AI-systemen kunnen worden aangesloten.

OpenAI heeft in december nieuwe Under-18-principes toegevoegd aan zijn modelspecificaties. Een paar maanden eerder bracht het bedrijf de release uit gpt-oss-beveiligingeen open-weight redeneermodel dat is ontworpen om ontwikkelaars te helpen bij het implementeren van veiligheidsvoorwaarden en het classificeren van veilige en onveilige inhoud. In tegenstelling tot traditionele processen voor veiligheidsclassificatie kan gpt-oss-safeguard rechtstreeks aan het veiligheidsbeleid van het platform worden gekoppeld, en wordt de intentie van het beleid afgeleid doordat het de juiste outputs onderscheidt.

Maar “zelfs ervaren teams hebben vaak moeite om veiligheidsdoelen op hoog niveau te vertalen naar precieze, operationele regels, vooral omdat dit zowel inhoudelijke expertise als diepgaande AI-kennis vereist”, aldus OpenAI in haar laatste persbericht. “Dit kan leiden tot lacunes in de bescherming, inconsistente handhaving of te brede filtering. Duidelijk, goedomvattend beleid is een cruciale basis voor effectieve veiligheidssystemen.”

Het extra ontwikkelaarspakket is ontworpen in samenwerking met de non-profitorganisatie Common Sense Media en iedereen.ai.

Deskundigen hebben ouders gewaarschuwd voor overmatige blootstelling aan chatbots van kwetsbare tieners zelfs jonge kinderenterwijl AI-bedrijven proberen grip te krijgen op de gevolgen van hun modellen geestelijke gezondheid van de gebruiker. Vorig jaar werd OpenAI aangeklaagd door de ouders van tiener Adam Raine in de branche eerste onrechtmatige doodzaakwaarbij de familie Raine beweerde dat een combinatie van ChatGPT-sycofantie en een laks veiligheidsbeleid verantwoordelijk was voor de zelfmoord van hun zoon. Het bedrijf heeft ontkende beschuldigingen van wangedrag en als reactie hierop hebben we het versterkt geestelijke gezondheid en veiligheidsvoorzieningen voor tieners, inclusief leeftijdsgarantie. Toch hebben externe ontwikkelaars die licenties verlenen voor de modellen van OpenAI moeite gehad om hetzelfde niveau van veiligheidsmaatregelen te handhaven, ook op het gebied van AI-aangedreven kinderspeelgoed.

De zaak tegen OpenAI volgde meerdere rechtszaken tegen controversieel platform Karakter.AI en bereidde de weg voor een recente rechtszaak wegens onrechtmatige dood ingediend tegen OpenAI-concurrent Google en zijn Gemini AI-assistent.

Industriebrede technologie- en socialemediabedrijven worden geconfronteerd met een stortvloed aan juridische uitdagingen met betrekking tot de langetermijnimpact van hun producten op gebruikers. Vorige maand stonden Instagram-CEO Adam Mosseri en Meta aan het hoofd Mark Zuckerberg getuigde voor een jury in een keerpuntzaak waarin sociale-mediaplatforms worden berecht vanwege hun zogenaamd verslavende ontwerpprincipes. Een vonnis heeft nog te bereiken.

OpenAI zei dat zijn nieuwe veiligheidspromptpakket geen “allesomvattende of definitieve definitie of garantie van tienerveiligheid” is. Robbie Torney, hoofd van AI en digitale beoordelingen bij Common Sense Media, zei dat het nieuwe beleid een “betekenisvolle veiligheidsvloer in het hele ecosysteem” kan bouwen, waarmee een veiligheidskloof op het gebied van AI wordt opgevuld die nog is verergerd door een gebrek aan operationeel beleid voor ontwikkelaars.

Ontwikkelaars kunnen het veiligheidsmodel van OpenAI downloaden op Knuffelend gezicht en krijg toegang tot het nieuwe promptpakket GitHub.


Openbaarmaking: Ziff Davis, het moederbedrijf van Mashable, heeft in april een rechtszaak aangespannen tegen OpenAI, omdat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in