KI Tools für Schüler unterstützen den Lernalltag auf Laptop und Tablet, begleitet von visuellen Hinweisen zu Datenschutz und Sicherheit.

KI Tools für Schüler: Übersicht Modelle 2026 mit Datenschutz-Fokus

Du suchst ein Tool, das beim Lernen hilft, ohne dass dabei unnötig Daten abfließen. Viele Vergleiche reden über die Modelle und ihre Leistungsfunktionen, aber nicht über Kontoarten, Geräte-Realität und die Schalter, die wirklich zählen.

TL;DR / Hier bekommst du:

  • einen Kurzvergleich als Tabelle
  • ein Datenschutz-Minimal-Setup für Eltern und Schüler
  • klare Vorteile und Nachteile pro Tool
  • Empfehlungen nach Gerät und Datenschutz-Level

Wichtig: Das ist keine Rechtsberatung. Schulen haben eigene Regeln. Bei Leistungsnachweisen zählt am Ende, was die Schule akzeptiert und wie ihr KI-Nutzung kennzeichnet.

Warum dieser Vergleich „KI Tools für Schüler“ anders ist

Du suchst nicht „die schlauste KI“. Du suchst ein Tool, das deinem Kind beim Lernen hilft, ohne dass dabei unnötig Daten abfließen. Genau da kippen viele Vergleiche.

In der Praxis sieht es oft so aus: iPad oder Android-Phone, dazu ein Windows-PC zu Hause. Hausaufgaben werden schnell „mal eben“ erklärt, Texte werden zusammengefasst, Vokabeln geübt. Und plötzlich landen Arbeitsblätter als Foto im Chat. Mit Name, Schule, Notizen am Rand. Das ist der Moment, in dem Datenschutz nicht mehr theoretisch ist.

Was ist im Schulkontext ok, was ist riskant

KI kann Lernen verbessern, wenn sie wie ein Tutor genutzt wird. Sie wird aber riskant, wenn sie wie eine Antwortmaschine genutzt wird. Diese Leitplanken reichen für 90 % der Fälle:

  • Ok: Erklären lassen, Verständnisfragen, Beispiele, Übungsaufgaben, Feedback auf eigene Entwürfe.
  • Riskant: komplette Lösungen abgeben, Quellen „erfinden“, KI heimlich in Prüfungen nutzen.
  • Immer tabu: personenbezogene Daten, Gesundheitsinfos, Schul-IDs, Klassenlisten, Screenshots mit Namen, Zeugnisse.

Die 3-Minuten Datenschutz-Checkliste

Diese Checkliste für Eltern und Schüler reduziert Datenabfluss sofort, egal welches Tool du nutzt.
Hier das Minimal Setup:

  • Keine Klarnamen und keine identifizierenden Details. Schreibe neutral.
  • Keine Fotos oder Uploads von Arbeitsblättern mit Namen. Wenn nötig: schwärzen oder Text abtippen.
  • Suche in den Einstellungen nach „Training“, „Improve“, „Model improvement“ und schalte es aus, wenn möglich.
  • Nutze einen Modus ohne Verlauf, wenn vorhanden. Sonst Verlauf regelmäßig löschen.
  • Keine sensiblen Themen: Gesundheit, Familie, Konflikte gehören nicht in den Chat.

Wenn die Schule beteiligt ist:

  • Nutze nach Möglichkeit Schul-Tenant oder eine Plattform mit AVV.
  • Kläre Kennzeichnung: „KI hilft beim Verstehen“, aber die Abgabe bleibt eure Arbeit.

Free vs Paid (Daten): Es gibt keinen Free-Lunch

„Kostenlos“ ist selten gratis. Du bezahlst oft mit weniger Kontrolle, mehr Datennutzung oder beidem. Ein Abo löst Datenschutz auch nicht automatisch. Merke dir folgendes:

  • Consumer-Accounts können Chats fürs Verbessern des Modells nutzen, wenn du nicht aktiv widersprichst.
  • Organisationen, Schule, Unternehmen haben oft andere Regeln und mehr Admin-Kontrolle.
  • Manche Anbieter unterscheiden weniger nach Free oder Paid, sondern nach Kontoart und Settings.

Praxis-Regel: Erst Settings setzen, dann testen. Sonst ist der Free-Plan schnell ein Datentransfer.

Entscheidungs-Matrix: Datenschutz-Level x Gerät

Du brauchst keine perfekte Entscheidung, du brauchst eine sichere.

Datenschutz hoch:

  • Wenn möglich lokal: LM Studio oder Ollama auf einem Laptop.
  • on-device Optionen nutzen (iPadOS), und bei Cloud-Chats extrem datensparsam arbeiten.

Datenschutz mittel:

  • ChatGPT oder Gemini, Training aus und ohne Uploads.
  • Copilot, wenn ihr Microsoft 365 sowieso nutzt, Training opt-out prüfen.

Datenschutz niedrig:

  • Nimm das Tool, das am besten zu eurem Ökosystem passt. Rechne mit mehr Datennutzung und weniger Kontrolle.

Bewertungsmethodik 2026: Datenschutz zählt doppelt

Skala:

  • 1: schlecht oder nicht geeignet
  • 3: ok, aber mit klaren Einschränkungen
  • 5: stark, mit guten Kontrollmöglichkeiten

Kriterien:

  • Datenschutz (doppelt gewichtet): Training, Opt-out, Retention, Löschung, Transparenz.
  • Schul-Fit: Erklären, Üben, Schreiben, Mathe, Quellenarbeit.
  • Geräte-Fit: iPadOS, Windows, Android ohne Basteln.
  • Kosten/Value: sinnvoll nutzbar ohne „Zwang“ in teure Pläne.
  • Kontrolle: Kontoarten, Export, Löschung, Admin.

Wenn Infos fehlen: „n.a.“ statt raten.

KI Tools für Schüler 2026: Kurzvergleich Tabelle

Die Tabelle ist bewusst kompakt. Details, Datenschutz-Schalter und Grenzen stehen in den einzelnen Tool-Blöcken.

Tool

Kurz-Empfehlung

Datenschutz-Kernpunkt

Für wen sinnvoll

ChatGPT (OpenAI)

Starker Allrounder zum Erklären und Üben

Data Controls und Temporary Chat aktiv nutzen

Schüler, Eltern, Lehrer mit klarem Datenschutz Setup

Copilot (Microsoft)

Stark im Microsoft-Workflow

Kontoart und Retention prüfen, Training/ Personalisierung steuern (opt-out)

Familien / Schulen mit Microsoft 365

Gemini (Google)

Praktisch auf Android und im Google-Setup

Gemini Apps Activity bzw. Keep Activity steuert Nutzung, bei „aus“ weiter Verarbeitungen inkl. 72h Retention

Android- / Google Haushalte

Claude (Anthropic)

Inhaltlich stark, aber für Schüler oft unpassend

Claude.ai ist laut Anbieter 18+, „Help improve“ steuert Training

Eher Erwachsene, nicht als Standard Empfehlung für Schüler

Perplexity

Stark für Recherche und Quellenstart

Retention- und Verlaufseinstellungen aktiv prüfen

Recherchelastige Lernaufgaben

Le Chat (Mistral)

EU-Alternative mit Opt-out

Default Verarbeitung prüfen, Opt-out aktiv setzen

Nutzer mit Fokus auf Alternativen zu Big Tech

Lokal (Ollama / LM Studio)

Maximal privat, mehr Aufwand

Prompts bleiben lokal, wenn keine Cloud genutzt wird

Datenschutz hoch, technikaffine Familien

Kategorie 1: Consumer-Chatbots / Cloud-Tools

Hierzu zählen wohl die am meist bekanntesten Sprachmodelle (LLM), wie ChatGPT, Gemini oder Claude und viele weitere Browser basierte Tools.

ChatGPT (OpenAI)

Allrounder fürs Lernen, wenn du es als Tutor nutzt, nicht als Antwortmaschine. Datenschutz ist ok, wenn du die Daten-Schalter aktiv setzt.

Datenschutz, was belegbar ist:

  • Data Controls: „Improve the model for everyone“ lässt sich deaktivieren. Dann sollen Chats laut Anbieter nicht fürs Training genutzt werden.
  • Temporary Chat: laut OpenAI ohne Training, Löschung nach 30 Tagen.
  • OpenAI rollt für ChatGPT Consumer-Konten ein System zur Altersprognose aus, um zusätzliche Schutzmaßnahmen für mutmaßlich unter 18-Jährige zu aktivieren.
  • Dabei werden laut OpenAI Verhaltens- und Kontosignale genutzt. Das ist kein Werbe-Tracking-Thema, aber es ist trotzdem eine zusätzliche Form der Kontobewertung, die du aus Datenschutzsicht kennen solltest.
  • Wenn ein Erwachsener fälschlich in den unter-18-Modus fällt, ist eine Altersverifizierung möglich. Diese läuft laut OpenAI über Persona. Laut Hilfe-Center erhält OpenAI dabei nicht Selfie oder Ausweisbild selbst, sondern nur Altersinformationen bzw. das Ergebnis der Verifizierung.

Praxis-Einstellungen:

  • Training ausschalten.
  • Temporary Chat nutzen, wenn du keinen Verlauf brauchst.
  • Keine Uploads mit Namen, Schule, Noten, Screenshots.

Vorteile:

  • Sehr gute Lernqualität in vielen Fächern.
  • Web plus iOS und Android, wenig Reibung.
  • Study Mode verfügbar

Nachteile:

  • Cloud, Daten-Minimierung bleibt Pflicht.
  • Für Schule ist ein Privatkonto selten die richtige Basis.

Bewertung:

  • Datenschutz: 3/5
  • Schul-Fit: 5/5
  • Geräte-Fit: 5/5
  • Kosten/Value: 4/5
  • Kontrolle: 3/5

Quellen:

Google Gemini

Praktisch im Google-Ökosystem, besonders auf Android. Datenschutz hängt an „Gemini Apps Activity“ und an Temporary Chats.

Datenschutz, was belegbar ist:

  • Wenn Gemini Apps Activity bzw. „Keep Activity“ aus ist, werden zukünftige Chats laut Google nicht in der Gemini Apps Activity gespeichert und nicht zur Verbesserung genutzt, sofern du kein Feedback sendest. Details dazu stehen im Privacy Hub.
  • Auch bei „Keep Activity“ aus verarbeitet Google Chats weiter für Antworten, Schutzfunktionen und technische Stabilität. Diese Chats können bis zu 72 Stunden gespeichert werden.
  • Temporary Chats werden laut Google nicht für das Training genutzt. Prüfe trotzdem die aktuellen Einschränkungen je Kontoart und Region.

Praxis-Einstellungen:

  • Apps Activity ausschalten, wenn Datenschutz wichtiger ist.
  • Temporary chats nutzen, wenn du keinen Verlauf brauchst.
  • Keine personenbezogenen Daten und keine sensiblen Uploads.

Vorteile:

  • Bequem auf Android, gute Recherche-Workflows.
  • Schalterlogik ist dokumentiert.

Nachteile:

  • Settings sind komplex, besonders mit verbundenen Apps.
  • Activity aus reduziert Komfort.

Bewertung:

  • Datenschutz: 3/5
  • Schul-Fit: 4/5
  • Geräte-Fit: 5/5
  • Kosten/Value: 3/5
  • Kontrolle: 3/5

Quellen:

Microsoft Copilot

Stark, wenn ihr Microsoft 365 nutzt, vor allem für Texte, Struktur und Office. Datenschutz hängt bei Copilot stark an Kontoart und Opt-out, nicht nur am Preis.

Datenschutz, was belegbar ist:

  • Microsoft nennt 18 Monate Standard-Retention für Copilot-Konversationen.
  • Model Training ist opt-out. Microsoft nennt bis zu 30 Tage, bis es überall greift.
  • Microsoft nennt Ausnahmen, bei denen Training nicht erfolgt, unter anderem angemeldete Nutzer unter 18, Entra ID, und Copilot in Microsoft 365 Apps mit Personal oder Family Abo.

Praxis-Einstellungen:

  • Training opt-out setzen, wenn verfügbar.
  • Personalisierung aus, wenn du sie nicht brauchst.
  • Keine sensiblen Dokumente hochladen.

Vorteile:

  • Sehr gut im Microsoft-Workflow, Word, OneNote, PowerPoint.
  • Transparente Privacy FAQ.

Nachteile:

  • Viele Varianten und Bezeichnungen, das verwirrt schnell.
  • Standardmäßig Speicherung und relativ lange Retention.

Bewertung:

  • Datenschutz: 3/5
  • Schul-Fit: 4/5
  • Geräte-Fit: 5/5
  • Kosten/Value: 3/5
  • Kontrolle: 4/5

Quellen:

Claude (Anthropic)

Inhaltlich stark beim Schreiben und Argumentieren. Für Schüler ist der Haken hart: Claude.ai ist laut Anbieter 18+.

Datenschutz, was belegbar ist:

  • Mindestalter 18+ für Claude-Konten.
  • „Help improve Claude“ steuert, ob Chats zur Modellverbesserung genutzt werden. Anthropic nennt dabei Retention bis zu 5 Jahre, ohne Zustimmung 30 Tage, jeweils mit Ausnahmen.

Praxis-Einstellungen:

  • Für Erwachsene: „Help improve Claude“ deaktivieren, wenn Datenschutz wichtig ist.
  • Für Schüler: in der Praxis meist ungeeignet, wegen 18+.

Vorteile:

  • Sehr gut beim Formulieren und Strukturieren.

Nachteile:

  • 18+ macht es für viele Schüler unpraktisch.
  • Datenschutz hängt an einem Opt-in, den du aktiv managen musst.

Bewertung:

  • Datenschutz: 3/5
  • Schul-Fit: 2/5
  • Geräte-Fit: 4/5
  • Kosten/Value: 3/5
  • Kontrolle: 3/5

Quellen:

Perplexity

Recherche-Assistent mit Quellenfokus. Für Schüler gut, wenn du Quellen wirklich öffnest. Der Datenschutz-Knackpunkt heißt „AI Data Retention“.

Datenschutz, was belegbar ist:

  • AI Data Retention ist laut Perplexity bei Free, Pro und Max standardmäßig aktiv und kann deaktiviert werden.
  • Enterprise-Daten nutzt Perplexity laut Anbieter nicht fürs Training.

Praxis-Einstellungen:

  • AI Data Retention ausschalten.
  • Quellen öffnen und gegenprüfen.

Vorteile:

  • Sehr gut für „Recherchiere, dann schreibe selbst“.

Nachteile:

  • Default Retention ist ein Stolperstein.
  • Für Schule ist Enterprise realistischer als Privatkonten.

Bewertung:

  • Datenschutz: 3/5
  • Schul-Fit: 4/5
  • Geräte-Fit: 5/5
  • Kosten/Value: 3/5
  • Kontrolle: 3/5

Quellen:

Le Chat (Mistral)

EU-Anbieter, aber nicht automatisch „privacy“. Mistral beschreibt: Free, Pro und Student können standardmäßig fürs Training genutzt werden. Opt-out ist möglich. Das ist der Hauptpunkt.

Praxis-Einstellungen:

  • Opt-out aktivieren, bevor du es regelmäßig nutzt.
  • Keine personenbezogenen Daten, keine sensiblen Uploads.

Vorteile:

  • Klare Aussage zur Trainingslogik je Plan.

Nachteile:

  • Ohne Opt-out ist Default aus Datenschutzsicht schwach.

Bewertung:

  • Datenschutz: 2/5
  • Schul-Fit: 4/5
  • Geräte-Fit: 4/5
  • Kosten/Value: 3/5
  • Kontrolle: 4/5

Quellen:

Kategorie 2: On-device Ansatz

Apple Intelligence

Apple beschreibt, dass viele Anfragen on-device verarbeitet werden. Für komplexere Anfragen gibt es Private Cloud Compute, mit dem Versprechen: Daten werden nur zur Erfüllung genutzt und nicht gespeichert und der Code kann geprüft werden. Das ist für iPad-Familien spannend, wenn das Gerät kompatibel ist, z.B. das iPad Air Test für die Schule: Lohnt es sich als Einstiegs-Tablet?

Vorteile

  • Starker Privacy-Fokus.
  • Gute Basis für Schreiben und Zusammenfassen auf iPad.
  • Private Cloud Compute ist dokumentiert.

Nachteile

  • Hohe Hardware-Anforderungen, ältere iPads fallen raus.
  • Nicht jede Funktion ist schulrelevant.
  • Für „Tutor in jedem Fach“ sind Chatbots oft stärker.

Bewertung:

  • Datenschutz: 5/5
  • Schul-Fit: 3/5
  • Geräte-Fit: 3/5
  • Kosten/Value: 4/5
  • Kontrolle: 3/5

Quellen:

  • Apple Intelligence und Datenschutz, support.apple.com und apple.com, 15.02.2026
  • Private Cloud Compute, security.apple.com, 15.02.2026

Kategorie 3: Schul-Plattformen

Wenn die Schule offiziell KI Tools einführt, ist AVV die Basis. Ohne AVV und ohne Regeln sollte keine Schule personenbezogene Daten in externe KI-Tools geben.

fobizz KI

Schulplattform mit Fokus auf Unterricht und Verwaltung. Vorteil gegenüber Consumer-Tools ist weniger das Modell, mehr der Schulbetrieb inklusive AVV-Unterlagen.

Vorteile

  • AVV und TOMs sind öffentlich auffindbar.
  • Schul-Use-Case ist Zielgruppe.

Nachteile

  • Funktionsumfang hängt vom konkreten Modul ab.
  • Für Eltern zu Hause meist nur relevant, wenn die Schule es nutzt.

Bewertung

  • Datenschutz: 4/5
  • Schul-Fit: 4/5
  • Geräte-Fit: n. a.
  • Kosten/Value: n. a.
  • Kontrolle: 4/5

Quellen:

schulKI

Anbieter mit Schul-Fokus. Öffentlich gibt es Aussagen und Blog-Beiträge, aber ohne Vertragsunterlagen bleiben wichtige Details offen, zum Beispiel Retention und Admin-Funktionen. Für Privatnutzung ist es selten der Startpunkt, eher eine Schulentscheidung.

Bewertung:

  • Datenschutz: 3/5
  • Schul-Fit: 3/5
  • Geräte-Fit: n.a.
  • Kosten/Value: n.a.
  • Kontrolle: n.a.

Quelle: schulKI Website , Abruf 15.02.2026

Kategorie 4: lokal und offline

Maximal-Privacy: Hier bleibt alles im Haushalt, wenn du es richtig betreibst. Dafür zahlst du mit Aufwand und manchmal mit geringerer Modellqualität.

Ollama plus lokale Oberfläche

Lokales Modell als echte Datenschutz-Alternative. Ollama beschreibt: beim lokalen Betrieb werden Prompts und Antworten nicht an ollama.com gesendet. Dafür musst du Setup und Updates selbst managen. Lokale Oberfläche (zum Beispiel Open WebUI).

Bewertung:

  • Datenschutz: 5/5
  • Schul-Fit: 3/5
  • Geräte-Fit: 2/5
  • Kosten/Value: 4/5
  • Kontrolle: 4/5

Quelle: Ollama FAQ, does Ollama send prompts , Abruf 15.02.2026

LM Studio

Einfacher Einstieg in lokale Modelle auf dem Laptop. Lokal bleibt lokal, solange du keine Cloud-Option nutzt. Die Privacy Policy beschreibt, dass bei Updates und Downloads technische Daten verarbeitet werden können.

Bewertung:

  • Datenschutz: 5/5
  • Schul-Fit: 3/5
  • Geräte-Fit: 2/5
  • Kosten/Value: 4/5
  • Kontrolle: 4/5

Quelle: LM Studio Privacy Policy , Abruf 15.02.2026

Weitere KI Tools 2026

Hier eine Kurzliste, ohne Bewertung von ein paar interessanten und hilfreichen Tools:

DeepL

DeepL ist vor allem stark fürs Übersetzen und mit DeepL Write bekommst du stilistische Verbesserungen, Grammatik und Tonalität. In der Praxis ist die Erfahrung oft sehr gut.

Grammarly

Grammarly ist ein Schreibassistent für Korrektur, Klarheit, Ton und Umschreiben. Gute Erfahrungen, wenn die Grammatik einen Feinschliff braucht.

NotebookLM

NotebookLM ist ein lernorientiertes Recherche- und Notiztool, das seine Antworten auf deine hochgeladenen Quellen stützt. In der Praxis ist es sehr nützlich für Zusammenfassungen, Lernzettel und Wiederholung, besonders mit Audio Overviews.

Khanmigo

Khanmigo ist ein KI-Tutor von der Khan Academy, der eher auf geführtes Lernen als auf reine Antwortausgabe ausgelegt ist und zusätzlich Lehrer-Funktionen bietet. Lernkontext fokussiert und damit weniger Ablenkungen.

Duolingo

Duolingo ist primär eine Sprachlern-App, um Sprechen realistischer zu üben.

Pangram

Pangram ist kein Lern-Chatbot, sondern ein AI-Detektor, der Texte auf Hinweise für KI-generiertes oder KI-unterstütztes Schreiben prüft. Die Erfahrungen sind gemischt, verlasse sich in der Praxis nie alleine auf ein Tool.

Kahoot

Kahoot ist ein Quiz- und Lernspiel-Tool. Mit den KI-Funktionen kannst du aus Themen, PDFs, URLs oder teils auch Präsentationen schneller Fragen erzeugen. Überprüfe KI generierte Fragen immer kurz, bevor du sie im Unterricht oder zu Hause einsetzt.

Empfehlungen: Welche KI passt zu dir?

Wenn du schnell starten willst, ohne später Ärger zu haben, geh so vor:

  • iPadOS, Datenschutz mittel: ChatGPT oder Gemini, Training aus, keine Uploads.
  • Windows plus Microsoft 365: Copilot ist oft der sauberste Workflow, Training opt-out prüfen.
  • Recherche und Quellen: Perplexity, aber AI Data Retention aus.
  • Datenschutz hoch: lokal mit LM Studio oder Ollama. Wenn das zu viel ist, nimm ein Cloud-Tool mit striktem Minimal-Setup.
  • Schule offiziell: ohne AVV und Admin lieber nicht. fobizz oder schulKI sind hier meist sinnvoller als Privatkonten.

Häufige Fehler, die du vermeiden solltest

  • Ich schalte Training aus, also ist alles sicher.
  • Falsch gedacht! Du musst trotzdem verhindern, dass sensible Daten überhaupt im Tool landen. Google – Gemini Apps Privacy Hub , Abruf 15.02.2026
  • Ich lade schnell ein Arbeitsblatt-Foto hoch.
  • Genau da stecken Namen, Schule, Notizen. Mach daraus ein neutrales Text-Problem.
  • Ich nutze ein Tool fürs Kind und eins für mich im selben Account.
  • Das macht Verlauf, Personalisierung und Datenhygiene unnötig schwierig.
  • Self-hosted ist automatisch sicher.
  • Ohne Updates und ohne Sicherheitsdisziplin kann es das Gegenteil werden.

Fazit und nächster Schritt

Es ist unter normalen Umständen kaum möglich eines der Tools Datenschutzfreundlich zu nutzen. Zudem hängt die Wahl des LLM-Modells meistens auch am Gerät, welches oft schon vorhanden ist. Am Ende bleibt nur die Einschränkung in den Einstellungen, was aber den bewussten Umgang und die Eingabe von Daten nicht ersetzt.

Nächster Schritt in 3 Minuten:

  • Datenschutz-Level festlegen.
  • Gerät festlegen.
  • Checkliste umsetzen, Training aus, keine Identifikatoren, keine Uploads.
  • Ein Tool 10 Minuten mit echten Aufgaben testen, dann entscheiden.

Familienregel, die in der Praxis funktionieren kann: „KI erklärt, aber KI schreibt nicht.“

FAQ

Meistens entscheidet die Schule. Häufig ist KI als Lernhilfe ok, als „Abgabe“ aber problematisch. Klärt Kennzeichnung und Regeln pro Fach.

Alles, was Personen identifizierbar macht: Namen Dritter, Adressen, Gesundheitsinfos, Notenlisten, Screenshots aus Klassenchats, Zeugnisse.

Training aus, wenn verfügbar. Dazu Verlauf bewusst nutzen, regelmäßig löschen und Uploads vermeiden.

Wenn personenbezogene Daten verarbeitet werden, ist das in der Praxis fast immer Pflicht. Das ist ein Schul- und Träger-Thema, nicht „App installieren“.

Das hängt am Plan und ändert sich. Viele Tools sind kostenlos nutzbar, aber oft mit Limits. Prüfe Preise immer auf der offiziellen Seite.

Er taucht nicht im Verlauf auf und wird laut FAQ nicht fürs Training genutzt, kann aber bis zu 30 Tage aus Sicherheitsgründen gespeichert werden.

Es ist eine Aktivitätssteuerung. Selbst wenn sie aus ist, beschreibt Google weiterhin Verarbeitung zur Antwort und zum Schutz, inkl. möglicher Human Reviews.

Ja, aber nicht überall und nicht in jedem Tarif. OpenAI testet seit dem 9. Februar 2026 Werbung in ChatGPT in den USA für eingeloggte erwachsene Nutzer auf den Tarifen Free und Go. Plus, Pro, Business, Enterprise und Education sind laut OpenAI im Test werbefrei.
Datenschutzrelevant ist: Ads sind laut OpenAI getrennt von den Antworten, aber je nach Einstellungen können Kontext aus dem aktuellen Chat und bei aktivierter Personalisierung auch weitere Signale für die Anzeigen-Auswahl genutzt werden.
Für Eltern wichtig: In Temporary Chats erscheinen laut OpenAI keine Ads, und für unter 18 sollen im Test keine Ads erscheinen.

OpenAI nutzt bei Consumer-Konten ein System zur Altersprognose, um zu prüfen, ob ein Account wahrscheinlich unter 18 ist. Datenschutzrelevant ist: Dabei werden Verhaltens- und Kontosignale ausgewertet. Wenn Erwachsene fälschlich eingeschränkt werden, läuft die Altersverifizierung über den Dienstleister Persona.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert