- 10:18De triomfantelijke Trump staat klaar om terug te keren aan de macht
- 09:41Marokkaans-Afrikaanse handel in 2024.. Meststoffen en auto's in de hoofdrol
- 09:22De toename van de koopkracht zal marginaal zijn, inflatie is de sleutel
- 08:34Marokko: een voorraad met een groot gaspotentieel
- 07:55Casablanca: De Atlantic Tower, de toekomstige hoogste wolkenkrabber van Afrika
- 14:30Sportdiplomatie: Marokko's sterke aanwezigheid in CAF- en FIFA-organen
- 13:56Trump lanceert nieuwe cryptocurrency "TRUMP" en veroorzaakt breed economisch debat
- 13:13Geely Maroc onthult nieuw Cityray-model om zijn aanwezigheid op de markt te versterken
- 12:30De gravures van Ait Ouazik in Marokko behoren tot de wereldwonderen volgens de lezers van The Guardian
Volg ons op Facebook
AI 'hallucinaties' gesignaleerd door onderzoekers in het medische veld
Techgigant OpenAI heeft zijn AI-gestuurde transcriptietool Whisper gepromoot als bijna het bereiken van "menselijke robuustheid en nauwkeurigheid".
Whisper heeft echter een belangrijk nadeel: het genereert vaak valse tekst, soms hele zinnen, zoals gerapporteerd door interviews met meer dan een dozijn software-engineers, ontwikkelaars en academische onderzoekers, volgens AP.
Dit fenomeen, in de industrie bekend als "hallucinaties", kan ongepaste racistische opmerkingen, gewelddadige taal en verzonnen medische behandelingen omvatten.
Deskundigen waarschuwen dat deze onnauwkeurigheden zorgwekkend zijn, vooral omdat Whisper wereldwijd in verschillende industrieën wordt gebruikt voor taken zoals het vertalen en transcriberen van interviews, het genereren van tekst voor populaire consumententechnologieën en het maken van video-ondertitels.
Bijzonder zorgwekkend is de snelle adoptie van Whisper-gebaseerde tools door medische instellingen om patiëntconsultaties te transcriberen, ondanks de adviezen van OpenAI tegen het gebruik van de tool in "hoogrisicodomeinen".
Reacties (0)