- 14:22Ayuso bekritiseert Trumps tarieven als een fout die leidt tot armoede
- 13:48VN meldt dat tweederde van Gaza nu is beperkt voor Palestijnen
- 13:03Industriële soevereiniteit: Marokko richt zich op de halfgeleiderindustrie
- 12:33Marokko, een belangrijke strategische partner van de Verenigde Staten voor veiligheid en stabiliteit in Afrika
- 12:02IMF waarschuwt: Amerikaanse tarieven bedreigen wereldeconomie
- 11:13Versterking van bilaterale relaties: Chileense senaatsvoorzitter bezoekt Marokko
- 10:19Europese Unie en Marokko smeden nauwere banden voor een sterker strategisch partnerschap
- 09:29Frankrijk herhaalt zijn steun voor de soevereiniteit van Marokko over de Sahara
- 09:03Marokko dient ongekende resolutie in over de rol van vrouwen in de diplomatie bij de Verenigde Naties
Volg ons op Facebook
AI 'hallucinaties' gesignaleerd door onderzoekers in het medische veld
Techgigant OpenAI heeft zijn AI-gestuurde transcriptietool Whisper gepromoot als bijna het bereiken van "menselijke robuustheid en nauwkeurigheid".
Whisper heeft echter een belangrijk nadeel: het genereert vaak valse tekst, soms hele zinnen, zoals gerapporteerd door interviews met meer dan een dozijn software-engineers, ontwikkelaars en academische onderzoekers, volgens AP.
Dit fenomeen, in de industrie bekend als "hallucinaties", kan ongepaste racistische opmerkingen, gewelddadige taal en verzonnen medische behandelingen omvatten.
Deskundigen waarschuwen dat deze onnauwkeurigheden zorgwekkend zijn, vooral omdat Whisper wereldwijd in verschillende industrieën wordt gebruikt voor taken zoals het vertalen en transcriberen van interviews, het genereren van tekst voor populaire consumententechnologieën en het maken van video-ondertitels.
Bijzonder zorgwekkend is de snelle adoptie van Whisper-gebaseerde tools door medische instellingen om patiëntconsultaties te transcriberen, ondanks de adviezen van OpenAI tegen het gebruik van de tool in "hoogrisicodomeinen".
Reacties (0)