Privatsphäre beim ChatGPT iPhone-App: Vorsicht vor persönlichen Informationen!

OpenAI, das Unternehmen hinter ChatGPT, hat kürzlich seinen künstlichen Intelligenzbot mit der ChatGPT iPhone-App auf Smartphones gebracht. Die mobile Version des Chatbots hat bereits die Charts erklommen und ist jetzt eine der beliebtesten kostenlosen Apps im App Store. Bevor du jedoch kopfüber in die App springst, sei vorsichtig, zu persönlich mit dem Bot zu werden und deine Privatsphäre zu gefährden.

Bislang gab es zahlreiche „Nachahmer“-Apps, die in App Stores herumschwirrten und versuchten, vom generativen KI-Boom zu profitieren. Daher ist es verständlich, dass OpenAI seine eigene App in die Welt bringen möchte.

Die offizielle App ist kostenlos (die kostenpflichtige Version von ChatGPT wird auf der App unterstützt, ist aber nicht zwingend erforderlich). Dies ist ein großer Pluspunkt, wenn man bedenkt, dass andere Varianten von KI-Chatbot-Apps auf dem Markt eine wöchentliche Abonnementgebühr erfordern und daher sehr teuer sein können, wenn sie nicht sogar reine Betrügereien sind. Du kannst auch mit ChatGPT per Spracheingabe sprechen, was für ein Gesprächs-KI-Produkt viel Sinn macht.

Die iOS-App hat jedoch einen expliziten Kompromiss, über den die Benutzer Bescheid wissen sollten. Den meisten von uns ist bewusst, dass ChatGPT manchmal Dinge erfindet, also gibt es viel Raum für Verbesserungen bei seinen Antworten – aber wenn du die App auf deinem Handy öffnest, erhältst du eine interessante Warnung bezüglich des Teilens persönlicher Informationen, da „anonymisierte Chats von unseren KI-Trainern überprüft werden können, um unsere Systeme zu verbessern“.

In der Datenschutzrichtlinie von OpenAI steht, dass beim „Nutzung unserer Dienste personenbezogene Informationen gesammelt werden können, die in den Eingaben, Datei-Uploads oder Rückmeldungen enthalten sind, die du bereitstellst“. Das bedeutet im Grunde genommen, dass wenn du ChatGPT Fragen stellst, die persönliche Informationen enthalten (sprich: Fakten über dich, die du lieber nicht mit einer lebenden Seele teilen möchtest), wird dies an OpenAI gesendet und von einem menschlichen Prüfer gelesen werden könnte. Und das ist ein großes Problem.

Warum ist das wichtig?

Das Unternehmen sagt, dass die Gespräche vor der Einsichtnahme durch Menschen anonymisiert werden, aber das entfernt nur identifizierbare Informationen aus den Metadaten der Datei, nicht den tatsächlichen Inhalt deiner Anfrage. Wenn du also ChatGPT für Dinge wie Hilfe bei deinen Wutproblemen, als sicheren Raum zum Ausdruck bringen, um Ratschläge zu suchen oder persönliche Dokumente und Texte zu bearbeiten und zu verbessern verwendest, werden diese alle an OpenAI gesendet – und möglicherweise von Menschen dort eingesehen.

Du hast also keine Ahnung, ob OpenAI tatsächlich deine Gespräche liest, und du hast keine Möglichkeit, dich abzumelden. Es ist für das Unternehmen unmöglich, jedes Gespräch von jedem Benutzer zu lesen, aber du solltest dies im Hinterkopf behalten, während du die App weiterhin nutzt.

Da Benutzer jetzt Zugriff auf den Bot auf ihren mobilen Geräten haben (nicht nur auf ihren Computern), ist es wahrscheinlicher, dass sie ihn häufiger im Laufe des Tages aufrufen und verwenden, indem sie ihm Fragen von Freunden oder Familie stellen oder sich auf die Dinge beziehen, die sie täglich sehen und mit denen sie interagieren. Es ist eine ganz andere Erfahrung, als einfach nur am Laptop zu sitzen und mit ChatGPT zu spielen – und es erhöht definitiv die Wahrscheinlichkeit, dass Benutzer mehr persönliche Informationen preisgeben, als sie beabsichtigen.

Natürlich sagen wir nicht, dass ChatGPT dich ausspioniert und all deine Informationen aus dubiosen Gründen stiehlt, aber es ist vernünftig, dich vor dem zu warnen, was du in deinen Chats mit dem Bot eingibst. Künstliche Intelligenz ist immer noch eine aufstrebende Technologie und sollte mit Vorsicht behandelt werden, bis wir uns alle besser an die Verwendung dieser Chatbots in unserem Leben gewöhnt haben. Wenn der Gründer von OpenAI selbst für Regulierungen seines eigenen Produkts wirbt, sollten wir alle definitiv vorsichtig sein.