Da die Nutzung von künstlicher Intelligenz zunimmt, werden KI-Assistenten(neues Fenster) zu vertrauenswürdigen Begleitern. Millionen von Menschen wenden sich an Chatbots wie ChatGPT, Claude, Gemini, DeepSeek und andere, um Fragen zu stellen und Probleme zu lösen. Ihre Anfragen können zutiefst sensibel sein, nach Gesundheitsbedenken fragen, Kundendaten teilen oder emotionale Unterstützung und kreative Inspiration suchen.

Für viele fühlen sich diese Chatbots menschlich, reaktionsschnell und vertraulich an. Aber jüngste Entwicklungen (Eine rechtliche Anordnung hat OpenAI gezwungen, ChatGPT-Ausgabedaten auf unbestimmte Zeit zu bewahren(neues Fenster), und Sam Altman, der Gründer von OpenAI, sagt, dass ChatGPT keine „rechtliche Vertraulichkeit“ bietet(neues Fenster)) werfen ein Licht auf das Risiko, dass jedes Wort, das du tippst, protokolliert, gespeichert, analysiert und möglicherweise missbraucht oder an Dritte geleakt werden könnte.

Hier ist, was das bedeuten könnte, und warum es uns alle beunruhigen sollte.

Bei KI steht mehr auf dem Spiel

Der Aufstieg von KI-Assistenten fühlt sich wie eine neue Grenze an, aber in vielerlei Hinsicht waren wir schon einmal hier. Die Bedenken rund um KI-Chatprotokolle ähneln denen, die in den frühen Tagen von Suchmaschinen auftauchten, von denen sich viele als begründet erwiesen. Suchprotokolle wurden verwendet, um lukrative Ad-Targeting-Profile zu erstellen, wurden in Datenlecks offengelegt und vor Gericht vorgeladen.

Bei KI steht mehr auf dem Spiel, weil die Daten persönlicher und detaillierter sind. Eine zunehmende Zahl von Menschen wendet sich für ihre Antworten von Suchmaschinen an KI-Chatbots, mit Vorhersagen, dass das Suchmaschinenvolumen bis 2026 um 25 % sinken wird(neues Fenster). Im Gegensatz zu einer Suchleiste, die typischerweise kurze, fragmentierte Anfragen erfasst, werden Fragen an Chatbots so formuliert, als ob die Fragesteller mit einer anderen Person sprechen würden, was im Prozess viel mehr über sie selbst enthüllt. Eine einzige Unterhaltung könnte persönliche Gedanken(neues Fenster), emotionale Kämpfe, Gesundheitsbedenken(neues Fenster), finanzielle Ängste oder sogar volle Namen und Adressen enthalten.

Kurz gesagt, Chatprotokolle bieten eine unglaublich reiche und intime Karte deiner Identität, mehr als Suchmaschinenprotokolle – und mit weitaus größeren Auswirkungen auf deine Privatsphäre. Big Tech könnte auf deine Chatprotokolle zugreifen und sie nutzen, um ein psychologisches Profil über dich zu erstellen, das an die Regierung weitergegeben oder für gezielte Werbung genutzt werden kann. Zum Beispiel nutzt Meta KI-Chat-Daten, um personalisierte Anzeigen zu erstellen.

Deine ‚anonymen‘ Chats bleiben nicht immer so

Ein häufiges Argument gegen die Sorge um die Privatsphäre von Chatprotokollen ist, dass die schiere Menge an Daten eine individuelle Ausbeutung unwahrscheinlich macht, insbesondere wenn Benutzer nicht angemeldet sind. Aber die jüngste Geschichte erzählt eine andere Geschichte.

Im Juli fanden Reporter heraus, dass mehr als 100.000 Unterhaltungen in ChatGPT(neues Fenster) von Google indexiert und durchsuchbar gemacht wurden. Benutzer, die auf den „Teilen“-Button klickten, um eine Unterhaltung an Freunde oder Kollegen zu senden, wussten fast sicher nicht, dass ihre privaten Unterhaltungen für jeden im Internet sichtbar sein würden.

Dieses Beispiel ist eine Warnung: Sogenannte „anonyme“ Daten sind selten anonym. Gepaart mit IP-Adressen, Zeitstempeln, Geräte-Fingerabdrücken sowie Sitzungs- und Cookie-IDs werden diese Protokolle weitaus identifizierbarer.

Wie Chats unser inneres Leben offenlegen können

Die beliebten KI-Plattformen ChatGPT(neues Fenster), Gemini(neues Fenster) und DeepSeek(neues Fenster) geben alle an, dass Chat-Protokolle von Benutzern verwendet werden, um die Modellleistung zu verbessern, und nicht dazu dienen, deine Daten für Werbung oder Benutzerprofilierung zu „verkaufen“. Doch Richtlinien können sich über Nacht ändern, wie der Rechtsstreit von OpenAI zeigt.

Zum Beispiel hat Anthropic im August 2025 ohne Warnung seine Datenschutzerklärung aktualisiert(neues Fenster), um die Aufbewahrungsfrist für Daten zu verlängern. Da Protokolle auf unbestimmte Zeit gespeichert werden, könnten persönliche Daten, die einst tabu schienen, plötzlich zu einer lukrativen Profitquelle werden.

Es wäre nicht das erste Mal, dass so etwas passiert. Als Google 1998 startete, warnten(neues Fenster) die Mitgründer Sergey Brin und Larry Page, dass werbefinanzierte Suchmaschinen unvermeidlich „von Natur aus voreingenommen gegenüber den Werbetreibenden und weg von den Bedürfnissen der Verbraucher“ sein würden. Ein Jahrzehnt später begann Google, Suchverläufe für gezielte Werbung zu nutzen(neues Fenster).

Mit direktem Zugriff auf das Innenleben der Menschen können KI-Protokolle das Ad-Targeting auf die Spitze treiben. Da immer mehr Benutzer Chatbots für emotionale Unterstützung nutzen(neues Fenster), könnte jemand anvertrauen:

  • „Ich fühle mich in letzter Zeit überfordert und allein.“
  • „Glaubst du, ich habe Depressionen?“
  • „Was kann ich tun, wenn ich nächsten Monat die Miete nicht zahlen kann?“

Diese Aussagen sind nicht nur Schlüsselwörter oder eine Sammlung von Interaktionen, sie sind klare emotionale und situative Signifikanten. Wenn sie gespeichert und analysiert werden, könnten sie verwendet werden, um psychologische Profile zu erstellen und Benutzerentscheidungen zu manipulieren.

Es ist keine Panikmache, zu behaupten, dass solch intime, sensible Informationen für ausbeuterische Zwecke verwendet werden könnten – denn die Big-Tech-Unternehmen haben genau das getan. 2017 demonstrierte Facebook, dass keine Interaktion tabu ist, indem es Wege erkundete, emotional verletzliche Teenager(neues Fenster) in Momenten der Unsicherheit mit Werbung anzusprechen.

Chatbot-Protokolle sind ein Fenster in deine Psyche. Und dieses Maß an Zugriff wirft erhebliche Bedenken hinsichtlich der Privatsphäre und Ethik in einem Sektor auf, der noch keine klaren Richtlinien und Vorschriften zur Datennutzung und -anwendung hat.

Die rechtlichen Risiken für Benutzer

Der Suchverlauf spielt seit langem eine Rolle bei strafrechtlichen Ermittlungen und Gerichtsverfahren. Es gibt mehrere Fälle, in denen Online-Suchanfragen zu Schuldsprüchen beitrugen, insbesondere Moira Akers gegen den Staat in den USA.

Nach einer Totgeburt im Jahr 2018 wurde Akers wegen Mordes angeklagt und 2022 zu 30 Jahren Gefängnis verurteilt. Ein wichtiger Teil der Anklage waren Akers’ Internetsuchen zum Thema Abtreibung, die sie in den frühen Stadien ihrer Schwangerschaft durchgeführt hatte. Laut der Staatsanwaltschaft dienten diese Suchen als Beweis für Akers’ Absicht – trotz der Tatsache, dass sie die Schwangerschaft austrug. Der Oberste Gerichtshof von Maryland hob ihre Verurteilung 2025 auf und erklärte die Suchanfragen als Beweismittel für unzulässig(neues Fenster). Aber Akers hatte bereits fast drei Jahre im Gefängnis verbracht. Der Fall zeigt, wie gespeicherte Protokolle verwendet werden können, um eine Geschichte zu erzählen, die zu einem ungünstigen Narrativ passt, selbst wenn es Beweise gibt, die dem widersprechen.

Noch höher könnte der Einsatz bei gespeicherten KI-Chats sein, die Gegenstand von rechtlichen Beweismitteln sein könnten. Im Gegensatz zu Suchanfragen sind diese Interaktionen gesprächiger und sogar spekulativ, manchmal als Weg, um eine bestimmte Art von Antwort vom LLM (Large Language Model) zu provozieren. Ein privater, unschuldiger Austausch mit einer KI könnte später in einem rechtlichen Umfeld als belastend interpretiert werden, unabhängig von der damaligen Absicht.

Ein mächtiges Werkzeug zur Manipulation

Diejenigen, die Chatbot-Protokolle einsehen können, erhalten Zugriff auf detaillierte Verhaltenspläne: persönliche Gewohnheiten, emotionale Auslöser, Beziehungsdynamiken und sogar berufliche Schwachstellen. In den falschen Händen sind diese Daten ein mächtiges Werkzeug für Social Engineering, eine gängige Hacking-Taktik, die psychologische Manipulation beinhaltet.

Dieses Risiko ist alles andere als hypothetisch. Im Januar 2025 ließ die KI-Plattform DeepSeek eine riesige Datenbank online ungeschützt(neues Fenster). Das Datenleck umfasste über eine Million KI-Chat-Protokolle und API-Schlüssel, die alle öffentlich für jeden zugänglich waren, der wusste, wo er suchen musste. Unter den offengelegten Daten befanden sich Klartext-Unterhaltungen, die möglicherweise Diskussionen über Familie, Finanzen und vertrauliche Projekte enthielten – Informationen, die leicht für Betrug, Erpressung oder Identitätsdiebstahl ausgenutzt werden könnten.

Sobald diese Daten geleakt sind, können sie als Waffe eingesetzt werden, um sich als dich auszugeben oder dich zu manipulieren. Durch Bezugnahme auf persönliche Details aus früheren Unterhaltungen können Angreifer dein Vertrauen gewinnen und es ausnutzen, um ernsthafte finanzielle oder sicherheitsrelevante Schwachstellen zu schaffen.

Das Gespenst der politischen Überwachung

In autoritären Regimen können die Konsequenzen gespeicherter digitaler Interaktionen weitaus schwerwiegender sein. Zum Beispiel haben mehrere Länder die Nutzung der in China ansässigen KI-Plattform DeepSeek auf Regierungsgeräten verboten(neues Fenster), aufgrund von Sicherheitsbedenken darüber, wie die persönlichen Informationen der Benutzer vom Betreiber gehandhabt werden. Südkorea, Australien und Taiwan äußerten Bedenken, dass chinesische Behörden auf diese Daten zugreifen und sie potenziell zur Überwachung nutzen könnten.

Für Dissidenten, Aktivisten oder Journalisten ist dies nicht nur ein Problem der Privatsphäre, sondern eine Frage der Sicherheit. Ein scheinbar beiläufiger Chat über Protestrechte, Mediengesetze oder Asylwege könnte in Rechtsgebieten mit begrenztem Schutz für freie Meinungsäußerung und bürgerliche Freiheiten als belastendes Beweismittel interpretiert werden.

Eine Bedrohung für geistiges Eigentum

Im Jahr 2023 haben Ingenieure von Samsung unbeabsichtigt proprietären Quellcode(neues Fenster) auf ChatGPT hochgeladen, während sie versuchten, ein Problem zu beheben, in dem irrigen Glauben, dass ihre Anfragen privat seien. Einmal übermittelt, wurden diese Daten Teil des Trainingssystems von OpenAI, was Bedenken hinsichtlich der Sicherheit und des Eigentums an geistigem Eigentum auslöste, das mit KI-Tools geteilt wird.

Ein damit verbundenes Anliegen tauchte in dem aufsehenerregenden Urheberrechtsstreit auf, der von The New York Times gegen OpenAI(neues Fenster) angestrengt wurde und zu Beginn dieses Artikels erwähnt wurde. Der Fall führte zu einer gerichtlichen Anordnung, die OpenAI verpflichtete, alle ChatGPT-Ausgabedaten auf unbestimmte Zeit aufzubewahren, nachdem Vorwürfe laut wurden, das Unternehmen habe Millionen von Artikeln der Zeitung ohne Erlaubnis zum Training seiner Modelle verwendet. Obwohl sich der Fall darauf konzentriert, dass die Web-Crawler von OpenAI Nachrichteninhalte scrapen, wirft er breitere Fragen für Kreative auf – Schriftsteller, Designer, Musiker und andere –, die Originalwerke zu KI-Plattformen beisteuern.

Wenn von Benutzern eingereichte Inhalte aufbewahrt und vom Modell wiederverwendet werden, besteht ein echtes Risiko, dass proprietäres oder kreatives Material ohne Namensnennung oder Zustimmung an andere Benutzer weiterverteilt werden könnte. Dies verwischt die Grenze zwischen Benutzerbeitrag und KI-Trainingsdaten und wirft dringende Fragen zu Urheberschaft und Eigentum im Zeitalter der generativen KI auf.

Was sich ändern muss und wie du dich schützen kannst

Die meisten Menschen wollen und erwarten Privatsphäre in ihrem echten Leben. Wir glauben, dass die gleichen Erwartungen auch für das digitale Leben der Menschen gelten sollten. Wir haben eine Suite verschlüsselter Dienste entwickelt, die Online-Privatsphäre für jeden zugänglich machen, egal ob du E-Mails an deine Freunde schickst, deine Lieblingssendungen streamst(neues Fenster) oder Fotos sicherst. Es ist nicht zu spät, die frühen Fehler des Internets zu korrigieren, und da die KI noch in den Kinderschuhen steckt, ist noch Zeit, einen neuen Kurs für diese Technologie einzuschlagen, der deine Privatsphäre respektiert.

Wir haben unseren KI-Assistenten(neues Fenster) Lumo so gebaut, dass er wichtige Schutzmaßnahmen von Grund auf integriert:

  • Keine Datenprotokollierung: Benutzer sollten in der Lage sein, mit Chatbots zu interagieren, ohne Sorge zu haben, dass ihre Eingaben gespeichert, für Profitzwecke genutzt oder gegen sie verwendet werden. 
  • Kein Modelltraining: Private Chats sollten niemals als Trainingsdaten ausgebeutet werden, da das Risiko besteht, dass sie später in den Ausgaben des Modells wieder auftauchen.
  • Transparenz im Datenumgang: Es sollte klar sein, wie gespeicherte Benutzerdaten verwendet werden, wer Zugriff darauf erhalten kann, wo sie gespeichert sind, wie lange sie aufbewahrt werden und wie sie gelöscht werden können.
  • Zero-Access-Verschlüsselung standardmäßig: Unterhaltungen sollten unter Verwendung der Verschlüsselungsschlüssel des Benutzers gesichert sein, sodass selbst der KI-Anbieter keinen Zugriff erhalten kann.

Während die Gefahren von Chatbots, die unsere Daten stillschweigend protokollieren, real und drängend sind, sind wir nicht machtlos. Indem wir Privatsphäre-First-KI-Tools wählen und Transparenz sowie Rechenschaftspflicht von ihren Schöpfern fordern, können wir das Machtgleichgewicht zurück in die Hände der Benutzer verlagern und den Glauben bekräftigen, dass Privatsphäre ein Recht ist, kein Privileg.