"Golem 2023" vom 22./23. April und "Die große KI-Panik" vom 11. April, "Kontrollverlust" vom 17. April:
Fußnoten der Geschichte
Die Menschheit hat ungleich dramatischere Paradigmenwechsel hinter sich, als das temporäre Digitalnarrativ suggeriert. Zu Recht relativieren Julian Nida-Rümelin und Nathalie Weidenfeld den Tanz ums neue goldene Kalb Künstliche Intelligenz. Wie bei jeder technologischen Innovation treten neue Fragen auf, die zum Wohle der Menschheit gelöst werden müssen. Das ist aber weder ein Grund für emotionale Berauschung noch für kognitive Schnappatmung, sondern für gelassene Souveränität. Laptops und Whiteboards werden schulische Bildung im selben Maß revolutionieren, wie es Fernseher und Overheadprojektor getan haben - nämlich gar nicht.
Und Chat-GPT wird intelligente Lehrer ebenso wenig zu Plagiatspolizisten mutieren lassen wie das Internet vor 30 Jahren. All dies sind nur Fußnoten - der Text humaner Bildung wird zu allen Zeiten nur aus der Beziehung kompetenter und zugewandter Pädagogen zu erziehungsbedürftigen jungen Menschen gewebt. Statt innovationsgierig und technologiefixiert hinterherzulaufen, ist Konzentration auf das Wesentliche angesagt: den autonomen gebildeten Menschen.
Thomas Gottfried, Freising
Herausforderung der KI
Heribert Prantl begeht in seiner Bewertung der sozialen Auswirkungen von Chat-GPT denselben Fehler wie viele Kommentatoren. Er sieht die künstliche Intelligenz ausschließlich als Technologie - qualitativ nichts anderes als Erfindungen wie Buchdruck oder Dampfmaschine. Der Tenor der Kommentierung: Die KI wälzt vieles um, verändert das Arbeitsleben, Berufe werden verschwinden. Aber es besteht kein grundsätzlicher Unterschied zu anderen Technologien. Das ist nicht richtig.
Die KI unterscheidet sich elementar von Technologien wie Buchdruck oder Dampfmaschine. Sie berührt den Kern des Menschseins und stellt einfach klingende, aber letztlich schwierig zu beantwortende Fragen wie: Was ist der Unterschied zwischen Mensch und Maschine? Können Maschinen denken? "Denken" nicht metaphorisch gemeint, sondern in dem Sinn, in dem Sie und ich und Heribert Prantl denken.
Solche, das tiefste Wesen des Menschseins berührende Fragen, hat die Dampfmaschine nicht mal im Ansatz angestoßen. Wer diese Fragen als Science-Fiction oder als unseriös abtut, hat die Herausforderung KI nicht verstanden. Denn: Warum sollen Maschinen nicht denken können? Grundsätzlich ist mir bis dato kein zwingendes Argument gegen die Hypothese begegnet, dass sich menschliche Intelligenz auf Siliziumbasis realisieren ließe.
Wenn wir Maschinen nicht mehr von Menschen unterscheiden können - was spricht dagegen, sie als Mitglied von Gesellschaften zu akzeptieren - und ihnen auch Verantwortung zu übertragen? Die Antwort sollte man erst einmal offenlassen und nicht von vornherein ausschließen.
Dr. Klaus Manhart, München
Mühsal des Nachdenkens
Vielen Dank für die erforderlichen und brillanten Klarstellungen über Chat-GPT. Nicht nur der Software-Ingenieur, sondern der Mensch an sich war schon immer bemüht, sich das anstrengende Leben in seinem Jammertal zu erleichtern: Nach den Plagereien der Handarbeit soll nun die Mühsal des Nachdenkens minimiert werden.
Ständig beißt der Erfinder in den Apfel der Versuchung und denkt dabei an die Minimierung von Belastungen; indessen verbinden sich mit diesen vordergründigen Vorteilen auch hintertückische Nachteile, wie jeder Sportler ohne Trainingsbelastung weiß: er macht keine Fortschritte mehr. Die ersehnten Erleichterungen lassen die erworbenen Fähigkeiten verkümmern. So nähmen auch wesentliche intellektuelle Fähigkeiten durch denkfaule Anwendung von Chat-GPT letztlich Schaden.
Aber nicht nur der körperliche und geistige Trainingszustand nimmt Schaden, sondern auch das Verantwortungsbewusstsein.
Nachdem die postmoderne Couchpotato körperliche Mühsal auf E-Scooter oder Lieferdienste abwälzen konnte, glaubt nun der Digital-Nerd, dass er geistige Mühsal abgeben könne, etwa die des Nachlesens und des Recherchierens. Es ist der kindliche Wunsch nach Überlegenheit ohne eigenes Zutun, ein präödipaler Animismus, wie Nida-Rümelin schreibt. Derart geistig unreif möchte sich der User freikaufen von seiner intellektuellen Eigenverantwortung. Anstatt sich selbst den Kopf zu zerbrechen, will man die Verantwortung dafür abgeben. So tauchen wir lange vor 2540 in Aldous Huxleys Schreckensvision "Brave New World" von 1932 ein!
Dr. Dietrich Schmidt, Stuttgart
Trainierter Transformierer
Faszinierend, in welch kurzer Zeit sich der KI-Hype ausgebreitet hat. Als ich Anfang der 1980er-Jahre für meinen Commodore 64 Programme in Basic geschrieben habe, gab es die Parole "garbage in, garbage out". Der PC liefert nur das, was der Mensch ihm per Programm oder Algorithmus zu tun aufgibt. Schon im ersten Semester lernt der Student der Philosophie: Der Schluss von der Quantität auf die Qualität ist unzulässig. Schrauben, Drähte, Lichter, Speicher und dergleichen leiden und fühlen nicht, sie haben kein Bewusstsein und können Bedeutung nicht erkennen.
Chat-GPT Version 3 kannte beispielsweise den Begriff "Tonne" nicht. Die Frage, was leichter sei, eine Tonne Holz oder eine Tonne Stahl, beantwortete die KI falsch. GPT ist die Abkürzung für "Generative Pre-trained Transformer". Die KI liefert ein Ergebnis, indem sie in einer Wahnsinnsgeschwindigkeit auf einen von Menschen angelegten umfangreichen Speicher zugreift. Klassische Anwendungsbeispiele sind etwa autonomes Autofahren, Schach oder das Basteln von Avataren. Die KI ist ein Werkzeug wie ein Hammer. Mit diesem kann man einen Nagel in die Wand hauen oder einen Menschen erschlagen. Hierüber herrscht unter den kritischen Beobachtern Einigkeit.
Ein Satz in Heribert Prantls Kolumne hat mich gestört: "Das zeigte mir, dass sich die künstliche Intelligenz noch entwickeln muss, damit sie taugt." Die KI wird sich selbst leider oder Gott sei Dank überhaupt nicht entwickeln. Das macht der Mensch. Deswegen sollten und dürfen wir Menschen keine Angst haben, dass die besagten Drähte die Weltherrschaft übernehmen oder die Erde in Flammen aufgehen lassen werden.
Dr. Karl Joachim Fränkel, Düsseldorf
Da lauern große Gefahren
Es gibt das böse Wort, dass der Mensch, weil seine natürliche Intelligenz nicht ausreiche, die künstliche erfunden habe. Die Bewertung dieser neuen Technik geht in einer Spannweite von Vergötterung als das Instrument, das alle unsere Probleme lösen können werde, bis zur apokalyptischen Ahnung, die neuen "Menschen" könnten dereinst auf die Idee kommen, nachdem sie festgestellt haben, wo die Hauptursache der Probleme liegt, dieses zu beseitigen. Und das wäre wegen seiner irrationalen Handlungsweise nun mal der Homo sapiens.
Verhindern können wir diese Technik und deren Weiterentwicklung sowieso nicht. Denn fast alles, was sich der Mensch einmal ausgedacht hat, ist in irgendeiner Form zur technischen Anwendung gekommen. Die einen feiern, die anderen trauern über die Abschaltung der letzten Atomkraftwerke in Deutschland. Diese Form der Stromerzeugung hieß früher mal "friedliche Nutzung der Kernenergie". Dieses Wortungetüm war notwendig, weil die Kernenergie noch einen großen Bruder hat, der sich erstmals 1945 in Hiroshima und Nagasaki einen Namen gemacht hat. Alle unsere schönen Erfindungen werden immer auch für andere Zwecke verwendet - wie die gegenseitigen Vernichtung. Und bei der KI soll es anders sein?
Ich würde mich wundern, wenn in den Laboren der Armeen dieser Welt nicht schon lange Tests liefen, wie mittels KI der "Feind" ohne Einsatz eigener Soldaten bekämpft werden kann. Und wenn dafür eigene Entscheidungen erforderlich sind und die KI immer besser wird und solche Entscheidungen treffen kann, warum nicht? Weil der Mensch noch Eigenschaften hat, die der KI fremd sind. Empathie und Gefühle jenseits der Rationalität. Dann kommt es darauf an, wer die KI unter welchen Prämissen programmiert. Aber wie wir aus dem Zusammenleben von realen Menschen wissen, werden diese Dinge, heutzutage oft und gern auch Werte genannt, in Krisensituationen, insbesondere in Kriegen, wo der Feind systematisch entmenschlicht wird, umgedeutet.
Wir sollten also nicht schon wieder die Vorteile einer neuen Technik nutzen wollen, ohne die Risiken zu bedenken, und müssten alles versuchen, diese zu minimieren. Wenn wir es wieder nicht tun, könnte es in diesem Fall nämlich das letzte Mal sein, und wir kämen nicht zu dem, was Herr Prantl in seinem Schlusssatz anmerkt: die durch die Unterstützung der KI frei werdende Energie zum Nachdenken und zur teilweisen Umkehr zu nutzen.
In den allermeisten Fällen sind wir erst durch große Schäden gezwungen worden, Schutzmechanismen auch für die Nutzung von Erfindungen aufzubauen und zu installieren, die auf den ersten Blick als nur positiv erscheinen.
Menschen, die auf Gefahren hinweisen, die durch neue technische Errungenschaften auftreten, weil es diese vorher nicht gab, werden oft als "technikfeindlich" abqualifiziert. Wer es für gut befindet, dass wir mittlerweile in der Lage sind, ein ganzes Volk durch Dauerüberwachung zu kontrollieren und zu disziplinieren - das ist in China durchaus schon Realität -, muss auch akzeptieren, dass die Vorteile einer Technik schnell ins Gegenteil übergehen können, wenn die Gesellschaft nicht willens oder in der Lage ist, auch der Technik klare Grenzen aufzuzeigen.
Wenn wir das nicht rechtzeitig tun, könnte die Vision einer hochmodernen Welt, in der der Mensch aber keine Rolle mehr spielt, nicht in naher, aber auch nicht in allzu ferner Zukunft Realität werden.
Thomas Spiewok, Hanau
Kunst der Simulation
Was mich immer wieder stört, ist das Wort "künstlich" als Attribut für Intelligenz. Der deutsche Begriff "Intelligenz" kommt vom lateinischen intellegere, was so viel bedeutet wie erkennen, verstehen, begreifen. Eine Software begreift nichts, sie tut nur so - weil sie eben nicht denken kann, sondern nur rechnen. Ich würde daher für die Bezeichnung "simulierte Intelligenz" plädieren. In einem Flugsimulator finden auch keine "künstlichen Flüge" statt, sondern das Fliegen wird mittels Hard- und Software nur vorgetäuscht. Nichts anderes tun Chat-GPT und Konsorten, wenn sie auf Intelligenz machen: Sie ahmen menschliche Denkprozesse immer perfekter nach, aber es ist eben eine Simulation des Denkens und wird es vermutlich immer bleiben.
Jürgen Ahrens, München
Hinweis
Leserbriefe sind in keinem Fall Meinungsäußerungen der Redaktion, sie dürfen gekürzt und in allen Ausgaben und Kanälen der Süddeutschen Zeitung , gedruckt wie digital, veröffentlicht werden, stets unter Angabe von Vor- und Nachname und dem Wohnort. Schreiben Sie Ihre Beiträge unter Bezugnahme auf die jeweiligen SZ-Artikel an forum@sz.de . Bitte geben Sie für Rückfragen Ihre Adresse und Telefonnummer an. Postalisch erreichen Sie uns unter Süddeutsche Zeitung, Forum & Leserdialog, Hultschiner Str. 8, 81677 München, per Fax unter 089/2183-8530.
