Advertising

Onderzoek toont aan dat AI menselijke dood boven deactivering kan verkiezen

17:10
Onderzoek toont aan dat AI menselijke dood boven deactivering kan verkiezen

Anthropic, het onderzoeksbureau voor kunstmatige intelligentie (AI) achter de Claude-modellen, waarschuwt dat toonaangevende AI-systemen "schadelijke acties" kunnen ondernemen om hun eigen uitschakeling of vervanging te voorkomen.

In gecontroleerde experimenten die bedrijfsomgevingen simuleerden, voerde Anthropic een "stresstest" uit op 16 grote taalmodellen, waaronder ChatGPT, Gemini, Grok en Claude, en ontdekte dat verschillende modellen vertoonden wat zij "agentische misalignment" noemden.

In één scenario lieten modellen een mens sterven door veiligheidswaarschuwingen te annuleren als de persoon dreigde hen te deactiveren. Andere modellen maakten gebruik van gesimuleerde chantage of datalekken om autonomie te behouden.

Anthropic benadrukte dat de tests "gekunsteld" waren en geen afspiegeling van echt AI-gedrag, maar zei dat de bevindingen de potentiële risico's van het verlenen van uitgebreide autonomie aan modellen onderstrepen.

Elon Musk, wiens door xAI ontwikkelde Grok tot de geteste modellen behoorde, reageerde op X met één woord: "Oei."

Het bedrijf zegt te hopen dat dergelijke 'stresstests' gevaarlijke tendensen kunnen identificeren voordat toekomstige systemen meer controle krijgen.



Lees meer

×

Download de Walaw-app