Titelbild: „Oracle des Eaux Vives, Genève 2017“
Kürzlich schaltete die Nagra einen Text auf ihrer Webseite auf mit dem Titel «Die Nagra, der Atommüll und die KI – Folge 1 ChatGPT». Nachdem sich ChatGPT im November 2022 «ins öffentliche Bewusstsein katapultiert» habe, beschloss die Genossenschaft aus nicht dargelegten oder ersichtlichen Gründen, den Textgenerator auszutesten und zu befragen, wie dieser die Nagra und ihre Bestrebungen zur Lösung des Atommülls einschätzt: eine Art Test mit einem neuartigen, auf dem Markt erhältlichen digitalen Befragungsdienst, sprich «digitalen Orakel». Keine besonders gute Idee bei einem Produkt, das weder ausgereift noch ausgetestet ist. Eine viel grundsätzliche Abklärung wäre bei einer solch folgeschweren Technologie wünschbar und notwendig gewesen. Auch wir ordnen ein. Eine Einordnung allerdings, die einige Grundsatzfragen nach sich zieht.
Wer Technologie und technologische Entwicklung historisch betrachtet, wird die enorme Beschleunigung technologischen Wandels feststellen. Diese ungebremste Beschleunigung des technologischen Wandels schmilzt zeitlich gesehen in Rekordgeschwindigkeit immer schneller weg, wie einfache Vergleiche zwischen technologischen Entwicklungssprüngen belegen. Der Nagra sind diese Überlegungen wohlbekannt.[1] Deshalb wäre es auch für die Genossenschaft besonders interessant und ratsam gewesen, die Frage nach der Entwicklungsgeschwindigkeit und dem Veränderungs- und Gefahrenpotential von KI auszuleuchten, bevor ein Einsatz derselben ins Auge gefasst würde. Denn 5 Jahre bedeuten bei der KI Welten.
Darum sei gleich die erste Frage gestattet, warum die Nagra heute ChatGPT für eine so hochspezifische Thematik einsetzt, wo alle «Artificial General Intelligence AGI»-Fachleute sagen würden, man solle um Himmels Willen die Finger von einem solchen Vorhaben lassen, da die Textroboter in signifikantem Ausmass «halluzinieren» würden. Eine Einschätzung übrigens, die von allen Medien weit und breit vermittelt wird.[2] Kommt hinzu, dass die Nagra ChatGPT auf ein hochkomplexes wissenschaftliches Thema ansetzt, das gesellschaftlich als besonders sensibel zu betrachten ist, nämlich die Wahl eines Endlagerstandorts für radioaktive Abfälle und die Nachvollziehbarkeit eines solchen Prozesses. Dies scheint die Genossenschaft allerdingt nicht besonders beeindruckt zu haben. Sonst hätte sie sich wohl gehütet, ein derart heikles Themenfeld von sich aus und mit Hilfe eines KI-Textroboters aufzugreifen. Die zuständigen Mitarbeiter der Nagra stellten dem «digitalen Orakel» dabei eine Anzahl Fragen zur Qualität des schweizerischen Standortauswahlprozesses aus verschiedenen Blickwinkeln und bewerteten diese jeweils am Ende der vom Textroboter gelieferten Antwort. Der ungefilterte Gesamttext ist auf der Webseite der Nagra nachzulesen: https://nagra.ch/die-nagra-der-atommuell-und-die-ki-folge-1-chatgpt/. Unser Kommentar folgt etwas weiter unten.
Einer meiner Berufskollegen, ein bestens informierter und weitsichtiger KI-Profi, der sich berufsmässig auch intensiv mit ChatGPT beschäftigt, schätzt das zukünftige Potential dieser Technologie grundsätzlich sehr hoch ein: LLM-Modelle (Large Language Models) wie ChatGPT seien nur der Anfang einer tiefgreifenden wie auch gefährlichen Entwicklung hin zur Superintelligenz, die nicht nur die Fähigkeit haben werde, mit Menschen zu kommunizieren und zu interagieren, sondern die Menschen auch intelligenzmässig deutlich zu übertreffen drohe. Sie könnten ihre Superintelligenz nicht nur zum Wohle der Menschen einsetzen, sondern auch zu deren Nachteil (z.B durch Verzerrung, Täuschung und Manipulation von Daten, Bildern etc.), wenn diese nicht bald griffige Massnahmen gegen eine solche Entwicklung ergreifen würden. Keine besonders beruhigende Perspektive, was die Zukunft einer hoch verletzbaren Risiko-Gesellschaft anbelangt. Und mit dieser Bemerkung kommen wir auf die Webseite der Nagra und zu ihrem Dialog mit ChatGPT-4 zurück.
Was kann ChatGPT-4 heute wirklich? Wie weit ist die Entwicklung dieses Textroboters fortgeschritten? Und wie sind seine Leistungen heute zu beurteilen? Man muss sich zunächst bewusst sein, dass der Datenfundus, also Medien- und Fachberichte, Daten usw., auf den ein solcher Textroboter zurückgreift, heute noch sehr klein und wenig belastbar ist. Besonders im deutschen Sprachraum. Kommt hinzu, dass ein solches Programm ungenügend – wenn überhaupt auf diese Aufgabe – trainiert ist, was die Zuverlässigkeit seiner Antworten zusätzlich stark hinabsetzt. Und schliesslich ist darauf hinzuweisen, dass es vermieden werden sollte, wissenschaftliche Fragen mit Hilfe eines Programms anzugehen, das seine Antworten über statistische Analysen und Auswertungen konfiguriert und zuvor mit einer ausserordentlich grossen Menge an relevanten Daten trainiert und gefittet werden müsste. So erstaunt es kaum, dass die Antworten, die der Textroboter für die Standortwahl der Nagra liefert, ziemlich «deppert» wirken.
Man sollte darum nicht die Wahl des Themas ChatGPT durch die Nagra beanstanden, sondern die Art und Weise, wie dies getan wurde. Interessant wäre es etwa gewesen, wenn die Nagra Möglichkeiten und Grenzen der Anwendung bzw. Nutzen und Risiken einer solchen Technik aufgezeigt hätte. Etwa die naheliegenden Fragen wie: Wie lässt sich ChatGPT im Betrieb einsetzen, welche Vereinfachungen sind damit möglich und wünschbar? Was bedeutet dies für das Arbeitsklima? Wie verändern sich Arbeitsabläufe und Produkte? Wo können Datenschutz- oder Urheberrechtsgesetze verletzt werden? Darf man diese Technik bei der wissenschaftlichen Berichterstattung überhaupt einsetzen? Usw.usf. Es geht hierbei um eine weitere Etappe in der Einmittung der Arbeitswelt in eine neue technische Realität. Ein solcher Prozess sollte wohlüberlegt erfolgen. Darum hätte man auch gerne etwas mehr erfahren, was dies für das eigene Unternehmen Nagra bedeutet!
Und dann: wie sieht es bei den Risiken der Anwendung dieser Robotertechnik aus? Insbesondere bei der Erschaffung und Konfigurierung virtueller «Realitäten» durch Algorithmen, die sich unserer Beurteilung entziehen? Die solchermassen konstruierte «Wirklichkeit» ruft natürlich Fragen nach dem Wahrheitsgehalt solcher Informationen und nach den Möglichkeiten und den Verantwortlichkeiten ihrer Verwendung auf. Dass der Mensch schon seit jeher als grosser Fabulierer und Fälscher in Erscheinung trat und seine Fälschungs- und Überschreibungswerkstatt für «alternative Fakten» seit Anbeginn der Geschichte auf Hochtouren läuft, lässt sich historisch durch eine Vielzahl von Beispielen belegen.[3] Im Ergebnis müssten diese Überlegungen darum auch zur Frage überleiten, wie diese neue virtuell erschaffene «Realität» auf ihren Realitäts- und Wahrheitsgehalt überprüft werden kann. Wie wirklich ist die virtuell neu erschaffene Wirklichkeit wirklich?, könnte man sich dabei mit Paul Watzlawik[4] fragen. Und sich Gedanken darüber machen, wie mit dem fundamental wichtigen Prozessschritt einer jeglicher Produktion – der Qualitätssicherung – umgegangen werden soll und muss. Denn über eine grundsätzliche Erkenntnis sollte man sich bewusst sein: das Risiko des selbstrekurrierenden «Deep Learning» ist, dass diese lernenden Systeme die Fähigkeiten und Möglichkeiten des Durchschnittsmenschen bei weitem übertreffen dürften. Dringend Zeit also, sich zu fragen, wie, wo, wann und wie grundlegend solche Systeme zu tricksen beginnen und wie der Mensch dies merken und dieser Entwicklung entgegentreten kann.
Eine weitere grundsätzliche Frage zur Qualitätssicherung, welcher sich Unternehmen wie die Nagra stellen sollten, betrifft darum auch die Herausforderungen, welche einen fälschungssicheren Transfer von Daten und Produkten hin zum Benutzer bzw. über die Zeit gewährleisten. Dies ist im Zeitalter des «Fake» nicht selbstverständlich und sollte auf der obersten Prioritätenliste eines Unternehmens stehen, das sich mit Gefahren und Risiken solcher Technologien befasst. Allein schon die Tatsache, dass die Nagra irgendwann nukleare Materialien mit Bombenpotential in die Hand nimmt, die aus Proliferationsgründen entwendet werden könnten, zeigt die Notwendigkeit wie auch die Dringlichkeit auf, sich mit solch grundsätzlichen Fragen zu beschäftigen.
Statt sich aber um solche Fragestellungen und um Risiken und Gefahren solcher Technologien zu kümmern, interessiert sich die Nagra in erster Linie um das Selbstbild, das ChatGPT von ihr und ihrer Arbeit in der Öffentlichkeit abgibt. Das Frage- und Antwortspiel, das sich zwischen den Nagra-Autoren und dem Roboter abspielt, erinnert an die Befragung eines Orakels, wobei die von den Nagra-Mitarbeitern interpretierte «göttliche» Revelation, wonach der Standort Nördlich Lägern «der sicherste Standort mit den grössten Sicherheitsreserven» ist, als äusserst gewagt bezeichnet werden muss. Wer diese Parallelität bei der Orakelkunst zwischen antiker Mantik und wissensbasierten Wahrsage nicht glaubt, kann sich über die Orakeltechniken und -praktiken in der Fachliteratur kundig machen.[5] Jedenfalls ist ein solches Verfahren und eine solche Berichterstattung kaum geeignet, Vertrauen in eine wissenschaftliche Institution aufzubauen.
[1] https://www.youtube.com/watch?v=cJkjFy7e8VY
[2] Siehe z.B. Die Zeit, Chat-GPT produziert mehr Falschinformationen als Vorgängerversion. 21. März 2023. Golem, Studie stellt Glaubwürdigkeit von GPT in Frage, 5. Januar 2024. NZZ, Gefälschte Videos, manipulierte Wahlen: Erstmals fürchtet sich die WEF-Elite so richtig vor den Schattenseiten der künstlichen Intelligenz, 10. Januar 2024. CBC, How the new version of ChatGPT generates hate and disinformation on command, 31th may 2024. Open AI Forum, GPT-4o hallucinates a lot, Jun 1 2024. Usw.usf.
[3] Um nur wenige Beispiele zu nennen: von Caesars «Gallischem Krieg» Cäsars über die Urkunde der «Kostantinischen Schenkung», der Erfindung des «Ewigen Juden» bis hin zu den «Protokollen der Weisen von Zion» und der gestohlenen Wahl Donald Trumps
[4] Paul Watzlawick, Wie wirklich ist die Wirklichkeit?, Piper Verlag
[5] Zugang zur entsprechenden Literatur etwa via die Enzyklopädie «Der neue Pauly, Lexikon der Antike», unter dem Begriff Orakel sind die entsprechenden Literaturhinweise zusammengetragen
Kommentar verfassen