Advertising
  • Fajr
  • Zonsopgang
  • Dhuhr
  • Asr
  • Maghrib
  • Isha

Volg ons op Facebook

ChatGPT-gesprekken die onbedoeld door Google zijn geïndexeerd, leiden tot ernstige privacyproblemen

Yesterday 17:17
ChatGPT-gesprekken die onbedoeld door Google zijn geïndexeerd, leiden tot ernstige privacyproblemen
Zoom

Google indexeert gesprekken met ChatGPT die gebruikers naar vrienden, familie of collega's hebben gestuurd. Hierdoor worden privégesprekken die bedoeld zijn voor kleine groepen, zoekresultaten die voor miljoenen mensen zichtbaar zijn.

Een eenvoudige zoekopdracht op Google met behulp van een deel van de link die wordt gegenereerd wanneer iemand proactief op 'Delen' klikt in ChatGPT, kan gesprekken aan het licht brengen waarin mensen zeer persoonlijke details onthullen, zoals verslavingsproblemen, ervaringen met fysiek geweld of ernstige psychische problemen – soms zelfs de angst dat AI-modellen hen bespioneren. Hoewel de identiteit van de gebruikers niet wordt getoond door ChatGPT, identificeren sommigen zichzelf mogelijk door zeer specifieke persoonlijke informatie te delen tijdens de chats.

Een gebruiker kan op 'Delen' klikken om zijn gesprek via WhatsApp naar een goede vriend te sturen of om de URL op te slaan voor toekomstig gebruik. Het is onwaarschijnlijk dat ze verwachten dat het gesprek hierdoor in de zoekresultaten van Google verschijnt, waar iedereen het kan raadplegen. Het is onduidelijk of de betrokkenen zich realiseren dat hun gesprekken met de bot nu openbaar toegankelijk zijn nadat ze op de knop Delen hebben geklikt, vermoedelijk in de veronderstelling dat ze dit met een klein publiek doen.

Bijna 4500 gesprekken verschijnen in de zoekresultaten van Google, hoewel veel geen persoonlijke gegevens of identificerende informatie bevatten. Dit is waarschijnlijk niet het volledige aantal, aangezien Google mogelijk niet alle gesprekken indexeert. (Vanwege het persoonlijke karakter van de gesprekken, waarvan sommige zeer persoonlijke informatie bevatten, zoals gebruikersnamen, locaties en persoonlijke omstandigheden, kiest Fast Company ervoor om niet te linken naar de gesprekken met de chatbot, of deze niet gedetailleerd te beschrijven.)

De bevinding is bijzonder zorgwekkend, aangezien bijna de helft van de Amerikanen in een enquête aangeeft het afgelopen jaar grote taalmodellen te hebben gebruikt voor psychologische ondersteuning. Driekwart van de respondenten zocht hulp bij angst, twee op de drie zocht advies over persoonlijke problemen en bijna zes op de tien wilde hulp bij depressie. Maar in tegenstelling tot de gesprekken tussen jou en je echte therapeut, kunnen transcripties van gesprekken met bijvoorbeeld ChatGPT in een simpele Google-zoekopdracht verschijnen.

Google indexeert alle content die beschikbaar is op het openbare web en website-eigenaren kunnen pagina's uit de zoekresultaten verwijderen. De gedeelde links van ChatGPT zijn niet bedoeld om standaard in de zoekresultaten te verschijnen en moeten handmatig vindbaar worden gemaakt voor gebruikers. Gebruikers worden er ook voor gewaarschuwd geen gevoelige informatie te delen en kunnen gedeelde links op elk moment verwijderen. (Zowel Google als OpenAI hebben het verzoek van Fast Company om commentaar afgewezen.)

Een gebruiker beschreef gedetailleerd zijn seksleven en ongelukkigheid in het buitenland en beweerde dat hij leed aan een posttraumatische stressstoornis (PTSS) en hulp zocht. Ze gingen gedetailleerd in op zijn familiegeschiedenis en interpersoonlijke relaties met vrienden en familieleden.

"Ik ben gewoon geschokt", zegt Carissa Veliz, AI-ethicus aan de Universiteit van Oxford. "Als privacydeskundige ben ik me er zeer van bewust dat die gegevens niet privé zijn, maar 'niet privé' kan natuurlijk veel betekenen, en het feit dat Google deze extreem gevoelige gesprekken logt, is ronduit verbazingwekkend."

Vergelijkbare zorgen zijn geuit over concurrerende chatbots, waaronder die van Meta, dat gebruikersvragen begon te delen met zijn AI-systemen in een openbare feed die zichtbaar was in zijn AI-apps. Critici zeiden toen dat de gebruikerskennis niet hoog genoeg was om de gevaren van het openbaar delen van privé-informatie te onderkennen – iets wat later bleek te kloppen toen persoonlijke gegevens in de sociale feed verschenen. Experts op het gebied van online veiligheid uitten destijds hun zorgen over het verschil tussen hoe gebruikers denken dat app-functionaliteiten werken en hoe de bedrijven die de apps beheren ze daadwerkelijk laten werken.

Veliz vreest dat dit een indicatie is van de aanpak die we big tech zullen zien hanteren als het om privacy gaat. "Het is ook een verdere bevestiging dat dit bedrijf, OpenAI, niet te vertrouwen is, dat ze privacy niet serieus nemen, wat ze ook zeggen", zegt ze. "Wat telt, is wat ze doen."

OpenAI CEO Sam Altman waarschuwde eerder deze maand dat gebruikers hun meest persoonlijke gegevens niet met ChatGPT zouden moeten delen, omdat OpenAI "daartoe verplicht zou kunnen worden" als een rechtbank daartoe wettelijk verplicht zou zijn. "Ik vind dat echt verdraaid", voegde hij eraan toe. In het gesprek met podcaster Theo Von werd niet gesproken over het feit dat gesprekken van gebruikers vrijwillig door OpenAI worden opengesteld voor indexering.

"Mensen verwachten dat ze tools zoals ChatGPT volledig privé kunnen gebruiken", zegt Rachel Tobac, cybersecurityanalist en CEO van SocialProof Security, "maar de realiteit is dat veel gebruikers zich niet volledig realiseren dat deze platforms functies hebben die onbedoeld hun meest persoonlijke vragen, verhalen en angsten kunnen lekken."



Lees meer

×

Download de Walaw-app