Zum Hauptinhalt springen Skip to page footer

Grenzen und Gefahren von KI in der Bildung

Künstliche Intelligenz findet zunehmend Einzug in die Lehre und bringt neben neuen Möglichkeiten auch zahlreiche Herausforderungen mit sich. Täuschend echte Bilder und Videos, die Verbreitung falscher Informationen durch Sprachmodelle und Verzerrungen in den Trainingsdaten werfen nicht nur technische, sondern auch ethische Fragestellungen auf. Hinzu kommen Risiken wie der Verlust eigenständigen Denkens, Abhängigkeit von KI-Systemen und der hohe Energieverbrauch solcher Technologien, die Nachhaltigkeitsziele infrage stellen.

Neben Large Language Models (LLMs) wie ChatGPT oder Claude Sonnet gibt es eine Vielzahl weiterer KI-Systeme, die in der Lehre und darüber hinaus Anwendung finden. Dazu zählen etwa Bild- und Videogeneratoren wie DALL·E und Synthesia, Entscheidungssysteme für automatisierte Analysen sowie Empfehlungssysteme, die personalisierte Lerninhalte vorschlagen können. Jedes dieser Systeme bringt spezifische Potenziale, aber auch eigene Risiken und Herausforderungen mit sich, die im Kontext der Lehre reflektiert werden müssen.

Auch Themen wie Datenschutz, Fairness und die Verantwortung für KI-generierte Inhalte sind zentral, wenn KI in Bildungskontexten eingesetzt wird. Unsicherheiten und Ängste vor der neuen Technologie, wie etwa die Sorge um Kontrollverlust oder Missbrauch, können dazu führen, dass ihr Potenzial nicht ausreichend reflektiert wird. Gleichzeitig entstehen durch die Nutzung von KI Risiken, die die Entwicklung kritischer Medienkompetenz und ethischer Verantwortung erschweren.

Diese Seite widmet sich den ethischen Fragestellungen, Grenzen und Gefahren von KI in der Lehre. Sie soll ein Bewusstsein für die Herausforderungen schaffen, die mit dem Einsatz dieser Technologie verbunden sind, und dazu anregen, die Auswirkungen kritisch zu hinterfragen. Bei all dem gilt vor allem: 

Informieren Sie sich und beschäftigen Sie sich mit dem Thema um die Grenzen und Gefahren zu kennen.

KI und generierte Bilder sowie Videos

KI-Tools wie Deepfake-Technologien ermöglichen es, täuschend echte Bilder und Videos zu erstellen. Dies stellt im Bildungsbereich eine Herausforderung dar, da gefälschte Inhalte das Vertrauen in Lehrmaterialien und wissenschaftliche Arbeiten untergraben können. Die gezielte Verbreitung manipulativer Videos könnte darüber hinaus Desinformation fördern oder sogar dazu genutzt werden, Personen gezielt zu schaden.

Ein Ansatz, um dieser Problematik zu begegnen, ist der Einsatz von Fake-Detection-Tools wie Sensity AI. Zusätzlich sollten Lehrende und Lernende Medienkompetenzschulungen besuchen, sich informieren und lernen, zwischen echten und KI-generierten Inhalten zu unterscheiden. Transparenz bei der Kennzeichnung von KI-generierten Materialien ist ebenfalls ein wichtiger Schritt.


Halluzination von Large Language Models (LLMs)

LLMs wie ChatGPT können plausible, aber falsche Inhalte erzeugen, was insbesondere im Bildungsbereich problematisch ist. Fehlinformationen könnten unbewusst in den Lernprozess einfließen, da die generierten Antworten oft überzeugend wirken. Die Qualität der Inhalte hängt stark von der Formulierung der Anfragen (Prompts) ab und erfordert eine kritische Überprüfung der Ergebnisse.

Um dies zu verhindern, sollten Lehrende LLMs gezielt und in Kombination mit anderen verlässlichen Informationsquellen einsetzen. Zudem kann die Förderung von Prompterstellungskompetenzen helfen, präzisere und korrektere Antworten zu erzielen. Eine abschließende Überprüfung durch Experten ist unerlässlich, bevor Inhalte im Unterricht verwendet werden.


Ethische Fragestellungen

Die Nutzung von KI in der Lehre wirft ethische Fragen auf, insbesondere in Bezug auf Datenschutz, Transparenz und Fairness. KI-Entscheidungen, die als undurchsichtig oder voreingenommen wahrgenommen werden, können das Vertrauen in die Technologie schädigen. Zudem stellt sich die Frage, wer für durch KI verursachte Fehler oder Benachteiligungen verantwortlich gemacht werden kann.

Um diese Fragen zu adressieren, haben wir den Code of Conduct der BVS entwickelt. Solche Richtlinien decken Aspekte wie den Schutz persönlicher Daten, die Vermeidung von Diskriminierung und die Verantwortung für KI-generierte Inhalte ab. Die Thematisierung ethischer Fragen im Unterricht kann ebenfalls dazu beitragen, ein kritisches Bewusstsein bei Lehrenden und Lernenden zu fördern.


Bias in Daten und Algorithmen

KI-Modelle werden anhand von Datensätzen trainiert, die häufig Verzerrungen oder Vorurteile enthalten. Dies kann dazu führen, dass die Ergebnisse der Modelle diskriminierend oder einseitig sind. Im Bildungsbereich könnten solche Verzerrungen zu Benachteiligungen bestimmter Gruppen oder zu einer eingeschränkten Sichtweise führen.

Um dem entgegenzuwirken, ist es wichtig, dass man auf KI-Systeme zurückgreift, die mit diversifizierten und überprüften Datensätzen trainiert wurden. Darüber hinaus sollte man hinterfragen, ob Algorithmen regelmäßig auf mögliche Verzerrungen geprüft werden. Die Sensibilisierung für das Thema Bias ist ein wichtiger Schritt.


Verlust der Fähigkeit, eigenständig zu denken

Die wachsende Verfügbarkeit von KI-Tools weckt bei vielen die Sorge, dass die Anwendung solcher Systeme zunehmend zum Verlust der Fähigkeit, eigene Lösungen zu entwickeln, führen kann. Wenn KI als Ersatz für kritisches Denken genutzt wird, könnten wichtige kognitive Fähigkeiten wie Problemlösung und Kreativität verkümmern. Dies könnte langfristig die Selbstständigkeit und die Fähigkeit zur eigenständigen Analyse beeinträchtigen.

Um dem entgegenzuwirken, sollte KI als unterstützendes Werkzeug und nicht als Ersatz eingesetzt werden. Nutzende sollten sich bewusst machen, eigenständig zu arbeiten und Probleme zu lösen, bevor sie auf KI zurückgreifen. Der ausgewogene Einsatz traditioneller Lehrmethoden in Kombination mit KI-gestützten Ansätzen kann helfen, diese Balance zu wahren.


Angst vor der neuen Technologie

Viele Menschen empfinden Unsicherheit gegenüber KI, da sie deren Funktionsweise nicht vollständig verstehen. Diese Unsicherheiten können durch Ängste vor Arbeitsplatzverlust, Kontrollverlust oder unvorhersehbaren Konsequenzen verstärkt werden. Im Bildungsbereich könnte diese Skepsis dazu führen, dass Lehrende und Lernende die Technologie meiden oder nur zögerlich nutzen.

Um diese Ängste zu adressieren, ist es wichtig, auf transparente Informationen über die Funktionsweise und den Nutzen von KI zurückzugreifen. Schulungen und Workshops können helfen, die Akzeptanz zu fördern und den praktischen Umgang mit der Technologie zu erleichtern. Das Teilen positiver Beispiele und Erfolgsgeschichten kann ebenfalls dazu beitragen, Vertrauen aufzubauen.


Hoher Energieverbrauch

Das Training und der Betrieb von KI-Systemen erfordern erhebliche Rechenleistung und Energie. Dies steht im Widerspruch zu Nachhaltigkeitszielen, insbesondere in öffentlichen Bildungseinrichtungen, die oft auf Ressourcenschonung achten müssen. Der hohe Energieverbrauch sollte in heutigen Zeiten kritisch bewertet werden.


KI trainiert mit KI-generierten Inhalten

Wenn KI-Modelle mit Daten trainiert werden, die von anderen KI-Systemen erzeugt wurden, können sich Fehler und Verzerrungen potenzieren. Dies könnte langfristig zu einer Verschlechterung der Qualität der Modelle führen. Für den Bildungsbereich bedeutet dies eine Gefahr, da Inhalte unzuverlässig werden könnten und sich fehlerhafte Informationen verbreiten.

Ein bewusster Umgang mit Trainingsdaten ist unerlässlich. KI-Modelle sollten bevorzugt mit hochwertigen, kuratierten Datensätzen trainiert werden, die von menschlichen Experten überprüft wurden. Zudem sollte die Praxis, KI mit KI-generierten Inhalten zu trainieren, kritisch hinterfragt und möglichst vermieden werden.