Large Language Models (LLM) oder auch stochastische Sprachmodelle, hier gelegentlich bezeichnet als KI-Schreibtools, sind zwar erst seit wenigen Monaten für die Allgemeinheit verfügbar, doch schon jetzt zeichnet sich ab, dass Schulen sie nicht ignorieren können.
Mittlerweile gibt es eine Vielzahl von Berichten, wie Plattformen wie ChatGPT durch Lernende und Lehrende im Kontext Unterricht eingesetzt werden. Die ersten Aussagen von Aufsichtsbehörden befassten sich vor allem mit dem Problem, dass die Antworten der Sprachmodelle häufig zwar überzeugend formuliert, faktisch jedoch nicht richtig sind. Wie korrekt Aussagen inhaltlich sind, hängt jedoch sehr vom jeweiligen LLM ab und von der Entwicklungsstufe.
ChatGPT ist seit der Version 4.0 deutlich besser bezüglich der Fakten, doch noch immer nicht perfekt. Drittanbieter, welche auf ChatGPT aufbauen, liefern teilweise Quellenangaben mit und nehmen über ihre Plattformen Einfluss auf die ausgegebenen Antworten. Es bleibt somit die Frage, ob ein stochastisches Sprachmodell inhaltlich zutreffende Antworten liefert. Damit müssen sich Schulen vor allem mit Blick auf die Medienkompetenz ihrer Schülerinnen und Schüler auseinandersetzen. Zu berücksichtigen sind darüber hinaus datenschutzrechtliche Vorgaben bei der Nutzung dieser Plattformen durch Lernende wie auch Lehrkräfte.
Wie bei jeder von einer Schule genutzten Plattform spielen bei der Auswahl allgemeine wie auch im Schulrecht definierte datenschutzrechtliche Vorgaben eine Rolle. Die Einsatzmöglichkeiten einer Plattform hängen maßgeblich davon ab, ob und inwieweit diese Vorgaben erfüllt werden. Für den Anbieter einer Plattform und eventuell integrierte Dienstleister fallen keine verwertbaren personenbezogenen oder ‑beziehbaren Daten an, sofern
- sich diese ohne Anmeldung über unpersonalisierte schulische Endgeräte nutzen lässt,
- die Nutzenden während derselben Sitzung nicht an einer anderen, nicht-schulischen bzw. privat genutzten Plattform angemeldet sind und
- bei der Nutzung keine persönlichen Informationen oder die von anderen Personen aus ihrem Umfeld in Prompts eingegeben werden.
So bleiben die Nutzenden anonym und es entstehen ihnen keine Risiken bezüglich ihrer Rechte und Freiheiten.
Welche Möglichkeiten gibt es sonst, stochastische Sprachmodelle zu nutzen? Für Schulen kommen potentiell fünf Optionen in Betracht:
Nutzung über
- die Website des Anbieters selbst (z. B. OpenAI/ChatGPT),
- einen Drittanbieter via API (Programmierschnittstelle) integrierten Dienst,
- eine selbst erstellte Anwendung oder Online-Plattform via API integrierter Dienst,
- ein lokal auf Endgeräten (innerhalb einer App) laufendes Sprachmodell oder
- eine selbst oder durch einen Dienstleister betriebene eigene Instanz eines LLM.
ChatGPT und Datenschutz — das Wichtigste, was man für die Nutzung in der Schule wissen sollte
- Über die Website des Anbieters ist eine Nutzung von ChatGPT nur mit individuellen Konten möglich. Da die Erstellung dieser Konten eine Mobilfunknummer erfordert, ist keine anonyme Nutzung der Plattform auf diesem Wege möglich.
- Der Anbieter und die von ihm zur Bereitstellung von ChatGPT genutzten von Dienstleistern betriebenen Server unterliegen durch ihre Standorte unmittelbar US-Gesetzen und befinden sich somit auch im unmittelbaren Zugriff von US-Ermittlungsbehörden. Gleiches sollte weitestgehend auch für die über die Bereitstellung von Servern hinausgehend genutzten Dienstleister gelten.
- Da der Anbieter aufgrund der Funktion der Plattform jederzeit Zugriff auf alle Nutzerdaten und ‑interaktionen mit der Plattform hat und der Zugriff auf ChatGPT über die Website durch die Angabe einer Mobilfunknummer immer einer identifizierbaren Person zugeordnet werden kann, wird OpenAI diese Daten auf Anfrage von US-Ermittlungsbehörden auch immer an diese ausliefern.
- Die Übermittlung von personenbezogenen Daten, wozu Kontodaten, Nutzungsdaten, Gerätedaten, Prompts und Feedback zählen, in die USA, ist seit dem Schrems II Urteil des EuGH problematisch, wenn sie nicht durch zusätzliche Schutzmaßnahmen abgesichert ist. Im Fall von ChatGPT gibt es diese Schutzmaßnahmen nicht.
- Nutzende müssen mindestens 13 Jahre alt sein und vor Vollendung des 18. Lebensjahres eine Einwilligung ihrer Erziehungsberechtigten einholen, um die Dienste von OpenAI nutzen zu können.
- OpenAI verwendet Inhaltsdaten aus der Nutzung von ChatGPT über die Website des Anbieters für eigene Zwecke. Dazu gehören die Weiterentwicklung und das Training der Plattform. Für die Nutzung von ChatGPT über die API gilt das nicht.
- Mittlerweile bietet OpenAI die Option, in ChatGPT »anonyme Chats« zu führen, deren Inhalte nicht für Trainingszwecke genutzt werden sollen.
- Die Nutzung von ChatGPT über die API ist mit einem Vertrag zur Auftragsverarbeitung, dem Data Processing Addendum, welches die Standardvertragsklauseln (Standard Contractual Clauses, SCC) einschließt, möglich. Bei einer datensparsamen Implementierung der API lässt sich ChatGPT gegenüber OpenAI anonym nutzen, solange die Nutzenden keine persönlichen Inhalte über Prompts oder als Trainingsdaten in die Plattform einbringen.
- Für die Nutzung von ChatGPT über die API sichert OpenAI eine zertifizierte Sicherheit nach Industriestandards zu. Ob diese für die Verarbeitung von personenbezogenen Daten ausreicht, wäre zu prüfen.
Da bei einer datensparsamen Implementierung der API keine für OpenAI, seine Dienstleister oder US-Ermittlungsbehörden verwertbaren Daten anfallen, unterliegt diese Art der Nutzung von ChatGPT nicht den Einschränkungen von Schrems II.
Um die Vorteile der API zu nutzen, braucht es eine Anwendung oder Website, über welche ChatGPT aufgerufen wird. Diese kann selbst erstellt und betrieben werden oder wird durch einen Dienstleister bereitgestellt.
Es sollte klar geworden sein, dass der Zugriff über die Website des Anbieters mit individuellen Konten aus Sicht von Datenschutz die schlechteste Option darstellt und die über die API eindeutig zu bevorzugen ist. Die Nutzung mit persönlichen Konten ist trotz allem nicht unmöglich, wenn keine besseren Optionen zur Verfügung stehen.
Nutzungsszenarien
Individuellen Konten bei OpenAI
- Lehrkraft mit eigenem Konto als vermittelnde Person: Erstellt eine Lehrkraft ein persönliches Konto bei OpenAI, ob bezahlt oder kostenfrei, ist das eine Privatangelegenheit. Nutzt die Lehrkraft diesen Zugang im Unterricht, nimmt die Prompts der Lernenden an und gibt die Antworten über eine Anzeige zurück, entstehen für Lernenden keine Risiken. Die Lehrkraft hat die volle Kontrolle. Diese Lösung ist mit Blick auf Datenschutz aus Schulsicht gut vertretbar.
- Lehrkraft stellt zweites eigenes Konto zur Verfügung: Hat eine Lehrkraft zwei Konten, ein freies und ein kostenpflichtiges, so kann sie das kostenfreie den Schülerinnen und Schülern zur Verfügung stellen, die damit keinen Einblick in das eigentliche, privat genutzte kostenpflichtige Konto von ChatGPT erhalten. Loggt sich die Lehrkraft mit dem kostenfreien Konto auf einem unpersonalisierten, für Lernende bereitgestellten Endgerät ein, hat die Spielregeln geklärt und lässt die Schülerinnen und Schüler eigenständig mit ChatGPT interagieren, so entstehen für diese nur dann Risiken, wenn sie sich nicht an die Regeln halten und eigene persönliche Informationen oder solche von anderen Personen aus ihrem Umfeld in Prompts eingeben. Diese Lösung ist mit Blick auf Datenschutz aus Schulsicht vertretbar.
- Lernende zwischen 13 und 18 Jahren nutzen eigene Konten: Erstellen Lernende zwischen 13 und 18 Jahren mit Zustimmung ihrer Erziehungsberechtigten eigene Konten bei OpenAI, ist das zwar nach den Vorgaben des Anbieters zulässig, doch erfolgt die Erstellung der Konten in der Schule, so ist diese mit Blick auf schulrechtliche Vorgaben nicht vertretbar. Das Erstellen und die Nutzung privater Konten von ChatGPT sollten im Unterricht nicht zugelassen werden, da dies mit Blick auf Datenschutz aus Schulsicht nicht vertretbar ist.
- Lernende ab 18 Jahren nutzen eigene Konten: Ab einem Alter von 18 Jahren erstellen Lernende Konten bei OpenAI im eigenen Ermessen. Eine Nutzung im Unterricht ist möglich, darf jedoch für Schülerinnen und Schüler, die nicht über ein solches Konto verfügen, weder zu Nachteilen im Lernen und Erbringen von Leistungen führen, noch sie dazu »motivieren« sich »endlich« auch ein eigenes Konto zu erstellen, auch wenn sie das eigentlich nicht möchten. Hat die Schule keine besseren Möglichkeiten und eine Umsetzung ist möglich, ohne dass einzelne Schülerinnen und Schüler Vor- oder Nachteile durch eine Nutzung oder Nichtnutzung haben, ist diese Lösung mit Blick auf Datenschutz aus Schulsicht noch vertretbar.
Nutzungsszenarien mit API
- Die Schule hat einen eigenen API-Schlüssel: Hat eine Schule die Möglichkeit, ein eigenes kostenpflichtiges Konto zu erstellen, um Zugriff auf einen eigenen API-Schlüssel zu erhalten, gibt es verschiedene Wege, diesen für eine datenschutzfreundliche Nutzung von ChatGPT zu verwenden. Wichtig ist, dass die Schule mit OpenAI den Vertrag zur Auftragsverarbeitung abschließt, um die Datenverarbeitung rechtlich abzusichern. In der Oberstufe weiterführender Schulen bietet es sich an, mit Lernenden eigene Anwendungen zu erstellen, über die ChatGPT eingebunden wird. Diese Anwendung könnte beispielsweise über ein Intranet der Schule für alle Lernenden bereitgestellt werden. Alternativ könnte auch eine Online-Plattform erstellt werden, die dann ausschließlich für die geschlossene Benutzergruppe von Schülerinnen und Schülern der eigenen Schule verfügbar wäre. Wichtig ist bei derartigen Projekten das Thema Sicherheit, für welches die Schule selbst Gewähr leisten muss. Diese Lösung ist mit Blick auf Datenschutz aus Schulsicht gut vertretbar.
- Die Schule nutzt einen Anbieter, der ChatGPT via API bereitstellt: Da OpenAI die Anbindung seiner Plattform ChatGPT über die öffentliche API sehr einfach gestaltet hat, nutzen viele Anbieter diese Möglichkeit, um entweder komplett neue Produkte zu erstellen oder die Plattform in bestehende Produkte zu integrieren. Schulen müssen hier genau hinschauen, denn es drängen viele Akteure mit ihren Lösungen auf den Markt, solche mit langjährigen Erfahrungen wie auch Neulinge, die sich hier mit einer ersten eigenen Plattform an den Start wagen. Wenn ein Anbieter die Bereitstellung von ChatGPT via API sicher und datensparsam umsetzt, selbst geeignete Dienstleister nutzt und einen DSGVO-konformen Vertrag zur Auftragsverarbeitung anbietet, durch den sichergestellt ist, dass er die Daten seiner Kunden nur auf Weisung und zu Zwecken seiner Kunden verarbeitet, dann sollte er für eine Nutzung durch Schulen geeignet sein. Diese Lösung ist mit Blick auf Datenschutz aus Schulsicht sehr gut vertretbar und erlaubt es darüber hinaus, im Unterricht eine Vielzahl von Nutzungsszenarien umzusetzen.
Was man bei der Nutzung von KI-Tools tun und was man lassen sollte
Es geht bei diesen Hinweisen nur um Datenschutz, nicht um Urheberrecht oder eigene und fremde Leistungen.
- Vor einer unterrichtlichen Nutzung sollten den beteiligten Lernenden die möglichen Datenschutzrisiken einer falschen Nutzung der jeweiligen Plattform klar und entsprechende Regeln mit ihnen abgesprochen sein.
- Prompts sollten keine persönlichen Informationen enthalten, nicht die eigenen und nicht die von anderen Personen aus der Klasse oder dem eigenen Umfeld, nicht als Text oder Bild (oder Stimme). Das heißt, es sollte beispielsweise kein persönlicher Lebenslauf oder das dazugehörende Bewerbungsanschreiben mit einem online betriebenen KI-Schreibtool erstellt werden, wenn der Prompt dazu Echtdaten enthält.
- Auch Lehrkräfte und Schulleitungen sollten zum Schutz schulischer Daten Regeln beachten. KI-Schreibtools können genutzt werden,
- um Lernenden individualisiertes Feedback zu einem digital vorliegenden Textprodukt zu geben, wenn dabei keine Namen oder andere zur Identifizierung geeignete Informationen mit in den Prompt eingegeben werden (Hinweis: OpenAI weist ausdrücklich darauf hin, dass seine Plattformen nicht geeignet sind, Bewertungen zu erstellen!),
- um für Lernende individualisierte Materialien und Aufgabenstellungen zu erstellen, wenn dabei keine Namen oder andere zur Identifizierung geeignete Informationen mit in den Prompt eingegeben werden,
- um ein Protokoll, eine Beurteilung, eine Diagnose oder ein Schreiben aus Stichpunkten zu erstellen, sofern in den Stichpunkten keine personenbezogenen oder ‑beziehbaren Daten enthalten sind. Diese müssen anschließend in der Textverarbeitung von Hand eingesetzt werden oder durch Suchen und Ersetzen.
Perspektiven
KI-Schreibtools, KI-Bildgeneratoren und ähnliche Anwendungen, die auf Modellen beruhen, welche große Mengen an Daten verarbeitet haben, um auf Prompts hin Texte und Bilder zu erzeugen, sind verglichen mit anderen digitalen Technologien noch recht jung und stehen erst am Anfang ihrer Entwicklung. Man kann davon ausgehen, dass sie in sehr vielen Bereichen integriert zur Anwendung kommen werden. Die großen Online-Office-Suiten-Anbieter Microsoft und Google arbeiten an der Integration in diese Plattformen. Schulen, die Microsoft 365 nutzen, dürften bald die Möglichkeit erhalten, die dort als Copilot bezeichnete ChatGPT-Funktion für ihre Nutzer freizuschalten. Unabhängig von den aktuellen datenschutzrechtlichen Bedenken, welche mit der Nutzung von Microsoft 365 einhergehen, dürfte Copilot für Schulen nur dann nutzbar sein, wenn es Bestandteil der Core Services ist, denn nur diese unterliegen den strengen Datenschutzrichtlinien Microsofts für den Bildungsbereich. Es würde auch bedeuten, dass Microsoft diesen Dienst innerhalb der EU Data-Boundary, also auf Servern in Europa bereitstellen müsste.
Man kann recht sicher davon ausgehen, dass auch landeseigene oder im Auftrag betriebene Schulplattformen KI-Tools integrieren werden. Für Moodle gibt es bereits ein Plugin zur Integration von OpenAI GPT wie auch für die in NextCloud integrierbare Office Suite OnlyOffice.
LLM wie auch bildgenerierende Modelle sind nicht nur über die Websites der Anbieter oder über API verfügbar, sondern auch als Programme und Apps, die komplett offline betrieben werden können. Bei den bildgenerierenden Modellen gibt es bereits einige Apps für iOS. Je nach App sind sie in der Lage, zusätzliche Modelle, aus denen Bilder generiert werden können, vom Anbieter herunterzuladen. Die Bilderzeugung erfolgt dann jedoch auf dem Endgerät. Aus dem über ein Datenleck an die Öffentlichkeit gelangen LLM von Meta (Facebook) LLAMA wurden erste Anwendungen erstellt, die sich auf einem Laptop installieren lassen. LLAMA hat eine Leistung, die vergleichbar zu GPT‑3 ist. Aktuell reichen alle diese Modelle nicht an die auf großen Server-Farmen laufenden Modelle von OpenAI, Google, Meta und ähnlich heran. Es dürfte jedoch nur eine Frage der Zeit sein, bis diese KI-Apps leistungsstärker werden. Vor einem Einsatz in der Schule sollten Apps und Anwendungen getestet werden, um sicherzustellen, dass sie tatsächlich offline laufen und keine Nutzerdaten das Gerät verlassen. Für Schulen stellen sie aber trotz der geringeren Leistung eine sehr interessante, weil datenschutzfreundliche Lösung dar, um Lernenden die Nutzung dieser Tools zu ermöglichen.
LLM lassen sich mit Tools zur Spracherkennung kombinieren und lassen dann die Eingabe von Prompts in Form des gesprochenen Wortes zu. ChatGPT‑4 kann Prompts im Bildformat annehmen. Damit dürften sich neue datenschutzrechtliche Herausforderungen ergeben, da Stimmen und Bilder, die Menschen zeigen, es ermöglichen, eine Person zu identifizieren.