-
09:20
-
18:07
-
17:42
-
16:03
-
14:54
-
14:20
-
13:16
-
12:39
-
12:03
-
12:00
-
11:15
-
11:08
-
10:30
-
10:13
-
09:45
Volg ons op Facebook
Kritieke kwetsbaarheid in ChatGPT bedreigt Gmail-gegevens
Cybersecurityonderzoekers hebben een kritieke kwetsbaarheid ontdekt in de deep search-tool van het AI-model ChatGPT, waardoor hackers mogelijk toegang hebben gekregen tot gevoelige Gmail-gegevens van gebruikers.
ChatGPT is een van de meest gebruikte AI-modellen wereldwijd en veel gebruikers zijn gekoppeld aan hun Gmail-accounts, met name abonnees die de deep search-tool gebruiken om geavanceerde analyses uit te voeren op grote hoeveelheden informatie.
Volgens Radware, een toonaangevend cybersecuritybedrijf, zou de kwetsbaarheid hackers in staat hebben gesteld om gevoelige gegevens van persoonlijke en zakelijke Gmail-accounts te stelen zonder medeweten van de gebruikers. Pascal Genis, directeur van Radware, legde uit dat het gevaar van de kwetsbaarheid schuilt in de mogelijkheid om heimelijk te worden misbruikt, waardoor hackers essentiële informatie kunnen extraheren zonder dat er waarschuwingssignalen in de accounts verschijnen.
Het bedrijf bevestigde echter dat de kwetsbaarheid niet was misbruikt vóór de release van de patch en dat OpenAI de fout direct na de ontdekking heeft verholpen. Dit incident onderstreept het belang van het versterken van beveiligingsmaatregelen in AI-tools, met name die welke gekoppeld zijn aan gevoelige e-mailaccounts, aldus Bloomberg.
De kwetsbaarheid richt zich op de Deep Search-functie van ChatGPT, die met toestemming van de gebruiker toegang heeft tot Gmail-accounts om nauwkeurige en snelle antwoorden te geven op complexe vragen. Tijdens de tests konden de onderzoekers verborgen instructies naar de tool sturen om inboxen te scannen op persoonlijke gegevens zoals namen en adressen, en deze gegevens vervolgens naar een extern webadres te sturen. Dit scenario laat zien in hoeverre gevoelige informatie kan worden gecompromitteerd als de kwetsbaarheid wordt misbruikt.
Dit incident doet zich voor op een moment dat er steeds meer wordt vertrouwd op AI-modellen in het dagelijks en professioneel leven, waaronder bedrijfsautomatisering, data-analyse en e-mailbeheer. Wereldwijde ervaring wijst uit dat elke fout in deze systemen aanzienlijke risico's kan opleveren voor de privacy van gebruikers en de bescherming van gevoelige gegevens, wat de noodzaak van regelmatige controle en continue updates van beveiligingssystemen onderstreept.
Uiteindelijk onderstreept deze kwetsbaarheid de noodzaak om gebruikers bewust te maken van AI-beveiligingsrisico's, beschermingsfuncties in hun Gmail-accounts in te schakelen en het delen van gevoelige gegevens met tools met mogelijk brede machtigingen te vermijden. Het onderstreept ook de verantwoordelijkheid van ontwikkelaars om de beveiliging van gebruikersgegevens te waarborgen, vooral gezien de toenemende afhankelijkheid van AI voor het beheer van persoonlijke en professionele informatie.