top of page

TEIL 3 – DIE KÜNSTLICHE INTELLIGENZ ENTZAUBERN

Die Digitalisierung der Lebenswelt von Kindern und Jugendlichen - eine Herausforderung für die Waldorfpädagogik



Im Rahmen unserer Artikelserie über die Folgen der Digitalisierung der Lebenswelt von Kindern und Jugendlichen sei abschließend ein Blick auf die seit einem Jahr verbreitete künstliche Sprachintelligenz „ChatGPT“ geworfen

Mit der Einführung von ChatGPT ging ein enormer Hype einher, der die Leistungen dieser Sprach-KI geradezu vergötterte. Auch in Waldorfschulen hat ChatGPT Einzug in den Unterricht gehalten, weil vor allem die Schüler darauf drängten. Natürlich kann diese Anwendung von KI als Generator von Texten auch im schulischen Zusammenhang behandelt und erprobt werden. Hierbei ginge es vor allem darum, zu zeigen, dass es sich dabei um eine „nicht menschliche Intelligenz“ handelt, verbunden mit der weiterführenden Frage: Was aber ist im Unterschied dazu die menschliche Intelligenz?


Diese Frage soll anhand eines kleinen Beispiels näher erläutert werden.[1] Man kann den Schülern in einem ersten Schritt ein Rätsel zur Lösung aufgeben, beispielsweise eines der schönen Rätsel der anthroposophischen Autorin Erika Beltle:


Meistens schafft es Pein!

Darum geht freiwillig

niemand hinein.

 

In seiner List

narrt er Denker

und Banausen:


Wer darin ist,

weiß es nicht,

und wer es weiß,

 

der ist schon draußen.[2]


Hat man die Lösung (es ist der Irrtum) mit den Schülern gefunden, kann man dieses Rätsel nun in ChatGPT mit der Aufforderung, das Rätsel zu lösen, eingeben. Dabei wird man Erstaunliches erleben: Denn die KI ist keinesfalls dazu in der Lage, dieses oder auch andere solcher Rätsel zu lösen, weil sie nicht kreativ bzw. intuitiv denken kann. (Bekannte Rätsel, deren Lösung irgendwo im Internet zu finden ist, „löst“ die KI hingegen leicht.)


ChatGPT ist nämlich, kurz gesagt, auf einem behavioristischen Modell aufgebaut, d.h., es kann nur aus gewohnheitsmäßigen und Wahrscheinlichkeitsprinzipien etwas ableiten, keinesfalls aber die originelle Lösung eines Rätsels eigenständig, ohne bereits vorhandene Daten, hervorbringen. So lautet die Antwort auf das obige Rätsel z.B.: „Die Antwort auf dieses Rätsel ist 'Gefängnis'. Ein Gefängnis ist ein Ort, an dem Menschen gegen ihren Willen eingesperrt werden, was oft zu körperlichen und emotionalen Schmerzen führt. Die Erwähnung von 'listig' und 'den Denker und den Spießer zum Narren halten' verdeutlicht, wie trügerisch und herausfordernd das Gefängnis sein kann. Diejenigen, die im Gefängnis sind, wissen nicht, was draußen passiert, und diejenigen, die außerhalb des Gefängnisses sind, kennen die Situation bereits.“


Man kann daran mit den Schülern bemerken, dass die KI sich wohl um eine Lösung bemüht hat, die aber eben falsch ist – ähnlich falsch wie auch unsere eigenen Scheinlösungen, solange wir die eigentliche Lösung noch nicht gefunden haben, die eben nur intuitiv erfasst werden kann.


Insofern kann man die KI zwar einerseits aufgrund ihrer arbeitserleichternden Tätigkeit bewundern. Dabei aber auch kritisch bemerken, dass gerade dadurch wiederum zahllosen Menschen ihr Arbeitsplatz geraubt wird.

Vor allem aber kann man anhand des angeführten Beispiels die KI regelrecht entzaubern und sie als das betrachten, was sie tatsächlich ist – eine scheinbar intelligente, aber auch äußerst problematische Arbeitshilfe.

Diese kann selbstverständlich in der Oberstufe zum Unterrichtsgegenstand gemacht und im Hinblick auf ihren Nutzen, ihre Auswirkungen und ihre Beschränktheit untersucht werden, bevor sie auch als Arbeitsmittel benutzt wird. Sie jedoch kritiklos einfach zu schulischen Zwecken einzusetzen, erscheint im Hinblick auf die in dieser Artikelserie bereits gewonnenen Einsichten gerade im waldorfpädagogischen Zusammenhang problematisch.


Denn unreflektiert übernommen kann diese Art der Nutzung von künstlicher Intelligenz sehr schnell zu einer Gewohnheit werden, die zu neuen Abhängigkeiten führen wird. Im Zusammenhang der Arbeitswelt ist ja bereits nach kurzer Zeit deutlich geworden, dass mit Hilfe von ChatGPT und ähnlichen Anwendungen enorme Einsparungen bei den Personalkosten von Werbetextern, Werbegrafikern, Textredakteuren und vielen anderen Berufsbranchen gemacht werden können. Die solchermaßen abgeschafften Stellen werden wohl kaum jemals wieder zurück gewonnen werden.


In der Lebenswelt der Jugendlichen könnte ChatGPT sicherlich zahlreiche schulische Arbeiten ersetzen. Einmal daran gewöhnt wird aber kaum jemand zum „Status quo ante“ wieder zurückkehren wollen. Das heißt für den Bereich schulischer Aufgabenstellungen: Bevor ein Schüler nicht in der Lage ist, eigenständig längere Texte zu einer bestimmten Thematik zu verfassen und selbstständig zu reflektieren, sollte er nicht auf eine künstliche Intelligenz zurückgreifen können. Denn deren verfrühte Anwendung würde unweigerlich dazu führen, dass eben die Fähigkeit, eigenständig einen längeren Text gedanklich zu erarbeiten und sprachlich entsprechend umzusetzen, gar nicht erst ausgebildet wird.

Im schulischen Rahmen sollte es also keinesfalls darum gehen, Abhängigkeiten von digitalen Anwendungen auszubilden oder zu unterstützen, sondern vor allem darum, den Schülern Mittel und Wege aufzuzeigen, wie sie zum Beherrscher und kritischen Beobachter digitaler Medien werden können, um eben nicht unter ihre Knechtschaft zu geraten.


Wichtige Ergänzung!

Eine Aktualisierung dieses Beitrages finden Sie hier


Literatur

1 Ausführlicher begründet wird der Unterschied von menschlicher und künstlicher Intelligenz sowie die Problematik von ChatGPT im schulischen Kontext in dem soeben erschienenen Buch von Edwin Hübner: „ChatGPT – Symptom einer technischen Zukunft. Aufgaben der Schule im Zeitalter der Mechanisierung des Geistes“, Stuttgart 2023. Bereits 1976 hat der 2008 verstorbene Computerwissenschaftler Joseph Weizenbaum die künstliche Sprachintelligenz in seinem Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ kritisch untersucht, indem er das von ihm selbst entwickelte Sprachprogramm „Eliza“ und dessen Auswirkungen auf die Mitarbeiter seines Institutes genauer analysiert hat.


2 Aus: Erika Beltle, „Pfiffikus‘ Schelmennuss. 148 leichte und schwierige Rätsel“, Stuttgart, 4. Auflage 2005, S.82.


 

Andreas Neider ist seit 2007 als Referent und Buchautor zu medienpädagogischen Fragen und zur kritischen Betrachtung der Digitalisierung unterwegs. Er kann zu Vorträgen und Seminaren auch an Ihre Schule eingeladen werden.


Website: www.andreasneider.de     

Kontakt: aneider@gmx.de

Der Beitrag erschien in erWACHSEN&WERDEN 02/24, Februar 2024

211 Ansichten
bottom of page