- 17:27Onderzoek: Trumps tarieven bedreigen Europa met enorme verliezen
- 16:16Marokko krijgt nieuwe kredietlijn van $ 4,5 miljard van het Internationaal Monetair Fonds, zegt dat het een vangnet is
- 15:42Auto-explosie Amsterdamse bestuurder ernstig gewond, handeling opzettelijk
- 12:39Aardbeving in Birma: dodental overschrijdt 3.000
- 12:12De kleinste draadloze vliegende robot ter wereld is uitgevonden.
- 11:38Marokko keert terug naar de 12e plaats op de FIFA-ranglijst
- 11:18Drie Marokkaanse miljardairs in de Forbes 2025-ranglijst
- 10:43Wereldmarkten geschokt na Trumps tarieven
- 09:55Zuid-Zuid parlementaire samenwerking: Marokko, een belangrijke partner voor het Andesparlement
Volg ons op Facebook
AI 'hallucinaties' gesignaleerd door onderzoekers in het medische veld
Techgigant OpenAI heeft zijn AI-gestuurde transcriptietool Whisper gepromoot als bijna het bereiken van "menselijke robuustheid en nauwkeurigheid".
Whisper heeft echter een belangrijk nadeel: het genereert vaak valse tekst, soms hele zinnen, zoals gerapporteerd door interviews met meer dan een dozijn software-engineers, ontwikkelaars en academische onderzoekers, volgens AP.
Dit fenomeen, in de industrie bekend als "hallucinaties", kan ongepaste racistische opmerkingen, gewelddadige taal en verzonnen medische behandelingen omvatten.
Deskundigen waarschuwen dat deze onnauwkeurigheden zorgwekkend zijn, vooral omdat Whisper wereldwijd in verschillende industrieën wordt gebruikt voor taken zoals het vertalen en transcriberen van interviews, het genereren van tekst voor populaire consumententechnologieën en het maken van video-ondertitels.
Bijzonder zorgwekkend is de snelle adoptie van Whisper-gebaseerde tools door medische instellingen om patiëntconsultaties te transcriberen, ondanks de adviezen van OpenAI tegen het gebruik van de tool in "hoogrisicodomeinen".
Reacties (0)