ChatGPT ist auf dem Smartphone längst ein Alltagswerkzeug: schnelle Fragen unterwegs, Diktieren beim Gehen, Screenshots aus Arbeitschats, und spät abends noch „nur eine“ Rückfrage. Das Problem: Auf dem Handy teilt man leichter zu viel. Autokorrektur ergänzt „hilfreich“ einen Kundennamen, die Zwischenablage bringt einen Passwort-Reset-Code mit, und der Sprachmodus kann Details erfassen, die man nie eintippen würde. Dieser Leitfaden konzentriert sich auf das, was 2026 auf iOS und Android wirklich die Risiken senkt: was unbeabsichtigt in Prompts landen kann, wie man Arbeit und Privates trennt, wie man Mikrofonzugriff kontrolliert und welche Gewohnheiten versehentliche Datenabflüsse verhindern.
Auf dem Smartphone sind die grössten Leaks selten dramatisch; sie sind klein, wiederholen sich und bleiben unsichtbar. Beim Einfügen kopierst du oft mehr als gedacht: E-Mail-Signaturen mit Telefonnummern, Ticket-IDs, interne URLs, Kalenderzeiten oder die „vorherige Nachricht“, die deine Zwischenablage noch gespeichert hat. Wenn du per Sprache diktierst, können Namen, Adressen oder Kontoreferenzen ebenfalls ganz natürlich hineingeraten, weil Sprechen weniger formell wirkt als Tippen. Wenn du jede Nachricht so behandelst, als könnte sie später von einem anderen Menschen gelesen werden, schreibst du automatisch sauberere Prompts.
Sei vorsichtig mit Kontext, den du „anhängst“, statt ihn zu tippen. Screenshots können versteckte Identifikatoren enthalten (Kundennummern, QR-Codes, Bestell-IDs), und Fotos von Dokumenten verraten oft Metadaten, die du nicht wahrnimmst (Barcodes, Nachnamen, Bankdetails, medizinische Hinweise). Wenn du zu einem Screenshot etwas fragen musst, schneide ihn stark zu, verpixel sensible Bereiche im Editor und schreibe die entscheidenden Zeilen lieber manuell ab. Diese zusätzlichen 30 Sekunden entfernen oft genau das Detail, das eine Person oder dein Unternehmen identifizierbar macht.
Ausserdem versucht dein Telefon, „hilfreich“ zu sein. Prädiktiver Text, gespeicherte Kontakte und Tastaturvorschläge können dich dazu bringen, echte Namen statt Platzhalter zu verwenden. Eine einfache Regel hilft: Wenn es um Arbeit geht, ersetze Personen und Firmen durch Rollen („Kunde A“, „Lieferant B“) und ersetze Zahlen durch Bereiche („rund £200“, „zwischen 10–15 Tagen“). Die Bedeutung bleibt, aber die Textteile werden entfernt, die ihn rückverfolgbar machen.
Die sauberste Trennung ist kontobasiert. Nutze ein ChatGPT-Konto für die Arbeit und ein separates für Privates – jeweils mit eigener E-Mail-Adresse und einem Eintrag im Passwortmanager. Das verhindert Vermischung über gespeicherte Unterhaltungen und reduziert das Risiko, im falschen Kontext zu senden, wenn du müde bist. Wenn dein Arbeitgeber verwaltete Geräte nutzt (MDM), beschränke Arbeitsnutzung auf dieses Gerät und melde dich nicht auf deinem Privattelefon an.
Lege dir innerhalb der App eine Gewohnheit an, im ersten Satz eines Chats eine „Kontextzeile“ zu setzen: „ARBEIT — anonymisiert“ oder „PRIVAT — keine IDs“. Das klingt simpel, verhindert aber den häufigsten Fehler: du setzt einen Chat von gestern fort und fügst aus Versehen ein neues vertrauliches Detail in einen Thread ein, der bereits andere identifizierende Informationen enthält. Wenn du einen Chat aus Bequemlichkeit wiederverwendest, stelle sicher, dass Kontext und Sensibilitätsstufe identisch sind.
Wenn du wirklich bei null starten willst, nutze Temporary Chat statt eines normalen Threads. Temporäre Chats erscheinen nicht im Verlauf und speisen keine Memory; OpenAI weist ausserdem darauf hin, dass Kopien zu Sicherheitszwecken bis zu 30 Tage aufbewahrt werden können – ein anderes Risikoprofil als ein dauerhaft gespeicherter Verlauf. Nutze diesen Modus für einmalige Fragen mit sensiblen Details, schliesse ihn danach und geh weiter.
Dein grösster Hebel ist, was gespeichert wird und wofür Gespräche zur Modellverbesserung genutzt werden. In den Data Controls von ChatGPT kannst du festlegen, ob künftige Unterhaltungen zur Verbesserung beitragen, und du kannst ausserdem deine Daten exportieren oder dein Konto löschen. Für den Alltag ist der praktische Ansatz: Deaktiviere die Nutzung zur Modellverbesserung für jedes Konto, das du für Arbeit oder sensible Themen verwendest, und setze strengere Regeln dafür, was überhaupt im Verlauf landen darf.
Verlauf ist nicht automatisch „gefährlich“, aber er ist eine langfristige Ablage für alles, was du irgendwann im Stress eingefügt hast. Wenn du Verlauf aus Produktivitätsgründen brauchst, behalte ihn – aber räume auf. Lösche Threads, die personenbezogene Identifikatoren, Rechnungen, Reisedokumente, Kundennachrichten oder alles enthalten, was du nicht an Kolleginnen oder Kollegen weiterleiten würdest. Wenn du unsicher bist, entferne es. Der Aufwand ist klein im Vergleich zum Risiko, sensible Inhalte in einem durchsuchbaren Archiv liegen zu lassen.
Verwechsle „auf dem Handy gelöscht“ nicht mit „es hat nie existiert“. Löschen ist eine Hygienemassnahme, keine Zeitmaschine. Ziel ist Risikoreduktion: weniger Daten im Verlauf, weniger Chancen, dass jemand mit Zugriff auf dein Konto sie sieht, und weniger Stellen, an denen private Details später wieder auftauchen können. Behandle Data Controls und Löschen wie eine Routine – ähnlich wie App-Updates oder Passwortrotation.
Sprache fühlt sich privat an, weil du sprichst – aber sie kann anders gespeichert werden als getippter Text. OpenAI weist in den Hinweisen zu Sprachunterhaltungen darauf hin, dass Audio (und manchmal Videoclips) zusammen mit dem Transkript im Chat-Verlauf gespeichert werden können und so lange erhalten bleiben, wie der entsprechende Chat im Verlauf vorhanden ist. Das bedeutet: Eine „kurze Sprachfrage“ kann zu einem langlebigen Datensatz werden, wenn du den Thread unangetastet lässt.
Wenn du den Komfort von Sprache nutzen willst, ohne eine Audiospur in einem dauerhaft gespeicherten Thread zu hinterlassen, verwende Temporary Chat für sensible Sprachfragen, halte Prompts kurz und vermeide Namen, Adressen oder Kontonummern. Achte auch auf deine Umgebung: Der Sprachmodus kann Hintergrundgespräche von Kolleginnen, Kollegen oder Familienmitgliedern miterfassen. Wenn du Sprache in der Öffentlichkeit nutzt, behandle es wie ein Telefonat auf Lautsprecher – geh davon aus, dass Umstehende mithören können, und wähle nur risikoarme Themen.
Eine praktische Taktik auf iOS und Android ist die Trennung von „Sprachchats“ und „getippten Arbeitschats“. Nutze Sprache für generische Aufgaben (Ideen sammeln, einen Absatz umformulieren, eine Checkliste erstellen) und reserviere Tippen für alles, was spezifische Details erfordert. Wenn du spezifisch werden musst, tippe und anonymisiere. Gesprochene Details lassen sich im Moment schwerer kontrollieren – besonders beim Gehen oder Multitasking.

Mobile Sicherheit beginnt bei Berechtigungen. Auf dem iPhone kannst du den Zugriff auf Hardwarefunktionen wie Mikrofon und Kamera in den Einstellungen unter Datenschutz & Sicherheit prüfen und ändern; iOS zeigt ausserdem Indikatoren an, wenn Mikrofon oder Kamera aktiv sind. Auf Android kannst du App-Berechtigungen in den Einstellungen ändern (Apps → App auswählen → Berechtigungen) und die Nutzung über das Datenschutz-Dashboard in unterstützten Versionen prüfen. Der Punkt ist einfach: Erteile Zugriff nur, wenn du ihn brauchst, und entziehe ihn, wenn du die Funktion nicht mehr verwendest.
Mitteilungen sind eine unterschätzte Leckstelle. Wenn ChatGPT-Mitteilungen Vorschauen auf dem Sperrbildschirm anzeigen, kann ein privater Prompt für jede Person sichtbar werden, die dein Telefon in die Hand nimmt. Deaktiviere Vorschauen auf dem Sperrbildschirm oder schalte ChatGPT-Mitteilungen ganz aus, wenn du sie nicht benötigst. Das ist besonders wichtig bei Arbeitsthemen, weil bereits ein Betreff oder ein kurzer Ausschnitt Kundennamen oder Projekttitel verraten kann.
Sei ausserdem vorsichtig mit Integrationen und „Helfer-Tools“ rund um die App. Tastatur-Apps, Clipboard-Manager, Screen-Recorder und Automationen können die Anzahl der Stationen erhöhen, über die deine Daten fliessen. Wenn du ChatGPT mit weniger Risiko nutzen willst, halte das Setup bewusst schlicht: die offizielle App, die Standardtastatur, keine Zwischenablage-Synchronisation von Drittanbietern und keine automatischen Freigaben aus anderen Apps. Bequemlichkeit stapelt Risiken – und auf dem Smartphone wächst dieser Stapel schnell.
Fehler eins: ChatGPT wie eine sichere Notizen-App zu behandeln. Es ist kein Tresor. Korrektur: Füge niemals Passwörter, Einmalcodes, Kreditkartendaten, vollständige Adressen, Passnummern oder medizinische Identifikatoren ein. Wenn du dazu Hilfe brauchst, arbeite mit Platzhaltern und bewahre das Original in einem sicheren Manager auf. Dein zukünftiges Ich wird dankbar sein, wenn du nicht ein Jahr voller „Aufräumarbeit“ im Verlauf hast.
Fehler zwei: Mikrofonzugriff dauerhaft zu erlauben „für alle Fälle“. Korrektur: Stelle die Mikrofonberechtigung auf „Jedes Mal fragen“ oder entziehe sie, bis du Sprache wirklich nutzen willst, und aktiviere sie dann gezielt für eine Sitzung. Auf iOS steuerst du Mikrofonzugriff pro App über Datenschutz & Sicherheit; auf Android prüfst du die App-Berechtigungen und das Datenschutz-Dashboard auf unerwartete Zugriffe. So wird Sprache zu einer bewussten Aktion statt zu einem permanent offenen Kanal.
Fehler drei: Kontexte unter Zeitdruck zu vermischen. Korrektur: Nutze getrennte Konten (Arbeit/Privat), kennzeichne Chats und verwende Temporary Chat für sensible oder einmalige Themen. Kombiniere das mit einer kurzen Vor-dem-Senden-Checkliste: „Enthält es einen echten Namen? Eine Nummer, die ein Konto identifiziert? Einen Screenshot mit versteckten Daten?“ Wenn ja, anonymisiere vor dem Senden. Diese eine Gewohnheit bringt mehr als jeder komplizierte Sicherheitstipp.