- 17:00Yahoo lanceert een nieuwe berichten-app, aangedreven door kunstmatige intelligentie, om de gebruikerservaring te verbeteren
- 16:30Nederlanders zouden Netanyahu arresteren als hij naar NL zou komen, bevestigt minister
- 16:20De olieprijs stijgt naarmate het conflict in Oekraïne heviger wordt
- 16:00Grote evenementen: een strategische hefboom voor de aantrekkelijkheid van Marokko
- 15:10Het Turkse ‘Akinci’-vliegtuig vormt een ‘kwalitatieve vooruitgang’ in de militaire capaciteiten van Marokko
- 14:35Wi-Fi 8: nieuwe functies zorgen voor een snellere, stabielere internetverbinding
- 14:05Onderzoek toont aan dat ChatGPT beter presteert dan artsen bij het diagnosticeren van medische aandoeningen.
- 13:30Marokko tekent een contract met het Amerikaanse ministerie van Defensie ter ondersteuning van missieplanningssystemen voor F-16-vliegtuigen
- 13:05Het Deense bedrijf Green Energy opent een kantoor in Dakhla als onderdeel van zijn investeringen in hernieuwbare energie in Marokko
Volg ons op Facebook
AI 'hallucinaties' gesignaleerd door onderzoekers in het medische veld
Techgigant OpenAI heeft zijn AI-gestuurde transcriptietool Whisper gepromoot als bijna het bereiken van "menselijke robuustheid en nauwkeurigheid".
Whisper heeft echter een belangrijk nadeel: het genereert vaak valse tekst, soms hele zinnen, zoals gerapporteerd door interviews met meer dan een dozijn software-engineers, ontwikkelaars en academische onderzoekers, volgens AP.
Dit fenomeen, in de industrie bekend als "hallucinaties", kan ongepaste racistische opmerkingen, gewelddadige taal en verzonnen medische behandelingen omvatten.
Deskundigen waarschuwen dat deze onnauwkeurigheden zorgwekkend zijn, vooral omdat Whisper wereldwijd in verschillende industrieën wordt gebruikt voor taken zoals het vertalen en transcriberen van interviews, het genereren van tekst voor populaire consumententechnologieën en het maken van video-ondertitels.
Bijzonder zorgwekkend is de snelle adoptie van Whisper-gebaseerde tools door medische instellingen om patiëntconsultaties te transcriberen, ondanks de adviezen van OpenAI tegen het gebruik van de tool in "hoogrisicodomeinen".