-
18:00
-
17:17
-
16:33
-
16:00
-
15:51
-
15:05
-
14:20
-
13:39
-
13:00
Folgen Sie uns auf Facebook
Unbeabsichtigt von Google indexierte ChatGPT-Konversationen geben Anlass zu ernsthaften Datenschutzbedenken
Unbeabsichtigt von Google indexierte ChatGPT-Konversationen geben Anlass zu ernsthaften Datenschutzbedenken
Google indexiert ChatGPT-Konversationen, die Nutzer an Freunde, Familie oder Kollegen gesendet haben. So werden private, für kleine Gruppen gedachte Gespräche zu Suchergebnissen, die für Millionen sichtbar sind.
Eine einfache Google-Suche mit einem Teil des Links, der erstellt wird, wenn jemand proaktiv auf „Teilen“ in ChatGPT klickt, kann Konversationen aufdecken, in denen Menschen sehr persönliche Details preisgeben, darunter Suchtprobleme, Erfahrungen mit körperlicher Misshandlung oder schwere psychische Probleme – manchmal sogar die Angst, von KI-Modellen ausspioniert zu werden. Obwohl ChatGPT die Identität der Nutzer nicht anzeigt, identifizieren sich einige möglicherweise durch die Weitergabe sehr spezifischer persönlicher Informationen während der Chats.
Ein Nutzer klickt möglicherweise auf „Teilen“, um seine Konversation über WhatsApp an einen engen Freund zu senden oder die URL für spätere Verwendung zu speichern. Es ist unwahrscheinlich, dass er damit rechnet, dass die Konversation dadurch in den Google-Suchergebnissen erscheint und für jeden zugänglich ist. Es ist unklar, ob den Betroffenen bewusst ist, dass ihre Gespräche mit dem Bot nun öffentlich zugänglich sind, nachdem sie auf die Schaltfläche „Teilen“ geklickt haben. Vermutlich denken sie, dass sie dies nur einem kleinen Publikum zugänglich machen.
In den Ergebnissen der Google-Suche werden fast 4.500 Gespräche angezeigt, viele davon enthalten jedoch keine persönlichen Daten oder identifizierenden Informationen. Dies ist wahrscheinlich nicht die vollständige Anzahl, da Google möglicherweise nicht alle Gespräche indexiert. (Aufgrund des persönlichen Charakters der Gespräche, von denen einige sehr persönliche Informationen wie Namen, Standorte und persönliche Umstände der Nutzer preisgeben, verzichtet Fast Company darauf, auf die Gespräche mit dem Chatbot zu verlinken oder sie detailliert zu beschreiben.)
Dieses Ergebnis ist besonders besorgniserregend, da fast die Hälfte der Amerikaner in einer Umfrage angibt, im letzten Jahr große Sprachmodelle zur psychologischen Unterstützung genutzt zu haben. Drei Viertel der Befragten suchten Hilfe bei Angstzuständen, zwei von drei suchten Rat bei persönlichen Problemen und fast sechs von zehn wünschten sich Hilfe bei Depressionen. Doch anders als die Gespräche zwischen Ihnen und Ihrem Therapeuten im echten Leben lassen sich Transkripte von Gesprächen mit ChatGPT und anderen Nutzern bereits bei einer einfachen Google-Suche finden.
Google indexiert alle im offenen Web verfügbaren Inhalte, und Websitebesitzer können Seiten aus den Suchergebnissen entfernen. Die freigegebenen Links von ChatGPT erscheinen standardmäßig nicht in Suchergebnissen und müssen von den Nutzern manuell auffindbar gemacht werden. Sie werden außerdem davor gewarnt, vertrauliche Informationen preiszugeben, und können freigegebene Links jederzeit löschen. (Sowohl Google als auch OpenAI lehnten die Bitte von Fast Company um Stellungnahme ab.)
Ein Nutzer beschrieb detailliert sein Sexualleben und seine Unzufriedenheit mit dem Leben im Ausland. Er gab an, an einer posttraumatischen Belastungsstörung (PTBS) zu leiden und Unterstützung zu suchen. Er ging detailliert auf seine Familiengeschichte und seine zwischenmenschlichen Beziehungen zu Freunden und Familienmitgliedern ein.
„Ich bin einfach schockiert“, sagt Carissa Veliz, KI-Ethikerin an der Universität Oxford. „Als Datenschutzexpertin bin ich mir sehr bewusst, dass diese Daten nicht privat sind. Aber natürlich kann ‚nicht privat‘ vieles bedeuten, und dass Google diese äußerst sensiblen Gespräche protokolliert, ist einfach erstaunlich.“
Ähnliche Bedenken wurden auch bei konkurrierenden Chatbots geäußert, darunter denen von Meta. Meta begann, Nutzeranfragen mit seinen KI-Systemen in einem öffentlichen Feed zu teilen, der in seinen KI-Apps sichtbar war. Kritiker bemängelten daraufhin, dass die Nutzer nicht ausreichend informiert seien, um die Gefahren der öffentlichen Weitergabe privater Informationen zu erkennen – eine Behauptung, die sich später als richtig erwies, als persönliche Daten im Social Feed auftauchten. Online-Sicherheitsexperten äußerten damals Bedenken hinsichtlich der Diskrepanz zwischen der Vorstellung der Nutzer von App-Funktionen und der tatsächlichen Funktionsweise der Unternehmen, die die Apps betreiben.
Veliz befürchtet, dass dies ein Hinweis auf den zukünftigen Ansatz der großen Technologieunternehmen in Sachen Datenschutz ist. „Es ist auch ein weiterer Beleg dafür, dass dieses Unternehmen, OpenAI, nicht vertrauenswürdig ist und Datenschutz nicht ernst nimmt, egal was es behauptet“, sagt sie. „Entscheidend ist, was es tut.“
OpenAI-CEO Sam Altman warnte Anfang des Monats, Nutzer sollten ihre persönlichsten Daten nicht an ChatGPT weitergeben, da OpenAI „möglicherweise dazu verpflichtet werden könnte“, wenn es von einem Gericht dazu gezwungen würde. „Ich halte das für völlig daneben“, fügte er hinzu. Im Gespräch mit Podcaster Theo Von ging es nicht darum, dass Nutzergespräche freiwillig für die Indexierung durch OpenAI freigegeben werden.
„Die Leute erwarten, dass sie Tools wie ChatGPT völlig privat nutzen können“, sagt Rachel Tobac, Cybersicherheitsanalystin und CEO von SocialProof Security, „aber die Realität ist, dass viele Nutzer nicht vollständig verstehen, dass diese Plattformen Funktionen haben, die unbeabsichtigt ihre privatesten Fragen, Geschichten und Ängste preisgeben könnten.“