- 12:13Bitcoin stijgt boven de $109.000 op de vooravond van Trumps inauguratie
- 11:40Central Intelligence Agency publiceert volledige kaart van Marokko op vooravond van Trumps beëdiging
- 10:59Casablanca organiseert de 8e editie van de Imperial Week onder het motto van innovatie en creativiteit
- 10:18De triomfantelijke Trump staat klaar om terug te keren aan de macht
- 09:41Marokkaans-Afrikaanse handel in 2024.. Meststoffen en auto's in de hoofdrol
- 09:22De toename van de koopkracht zal marginaal zijn, inflatie is de sleutel
- 08:34Marokko: een voorraad met een groot gaspotentieel
- 07:55Casablanca: De Atlantic Tower, de toekomstige hoogste wolkenkrabber van Afrika
- 14:30Sportdiplomatie: Marokko's sterke aanwezigheid in CAF- en FIFA-organen
Volg ons op Facebook
AI 'hallucinaties' gesignaleerd door onderzoekers in het medische veld
Techgigant OpenAI heeft zijn AI-gestuurde transcriptietool Whisper gepromoot als bijna het bereiken van "menselijke robuustheid en nauwkeurigheid".
Whisper heeft echter een belangrijk nadeel: het genereert vaak valse tekst, soms hele zinnen, zoals gerapporteerd door interviews met meer dan een dozijn software-engineers, ontwikkelaars en academische onderzoekers, volgens AP.
Dit fenomeen, in de industrie bekend als "hallucinaties", kan ongepaste racistische opmerkingen, gewelddadige taal en verzonnen medische behandelingen omvatten.
Deskundigen waarschuwen dat deze onnauwkeurigheden zorgwekkend zijn, vooral omdat Whisper wereldwijd in verschillende industrieën wordt gebruikt voor taken zoals het vertalen en transcriberen van interviews, het genereren van tekst voor populaire consumententechnologieën en het maken van video-ondertitels.
Bijzonder zorgwekkend is de snelle adoptie van Whisper-gebaseerde tools door medische instellingen om patiëntconsultaties te transcriberen, ondanks de adviezen van OpenAI tegen het gebruik van de tool in "hoogrisicodomeinen".
Reacties (0)