Wer hat Angst vor Artificial Intelligence?

AI oder KI ist jetzt in aller Leuten Munde, auch in deren, die die AI nicht mögen. AI bedeutet Artificial Intelligence oder KI – Künstliche Intelligenz (ich werde in diesem Artikel AI und KI synonym und zufällig gemischt verwenden). Das sind Programme, die grosse Mengen an Daten durchforsten und sie zu sinnvollem Ganzen zusammensetzen können. Jedenfalls machen sie den Anschein, dass sie das können. («Programm» ist eigentlich etwas zu einschränkend. Es sind viele Programme, die zusammenarbeiten und auf vielen vernetzten Computern laufen. Es ist eher eine Art Computerbiotop, als ein einzelnes Programm). Das erste Programm, das allgemeine Intelligenz angeboten hat, war ChatGPT. Wie der Name sagt, kann das Programm hauptsächlich quatschen (engl. «chat»). Etwas nobler ausgedrückt: solche Programme sind Large Language Models (LLM) und sagen jeweils das, was Menschen in einem bestimmten Kontext am wahrscheinlichsten auch sagen würden. Und was Menschen in einem bestimmten Zusammenhang sagen, «weiss» das Programm, weil seine Entwickler ihm zuvor Tausende von Meinungen und Fakten von Tausenden von Menschen zu Tausenden von Themen vorgelegt hatten, meist einfach durch «Zufüttern» von Internetdaten. Aber mittlerweile nimmt im Internet der Anteil von AI-generierten Inhalte zu, so dass die AI immer mehr sich selbst nachplappert. Und das ist nicht immer wünschenswert.

Der Humor der KI-Bots

In der Zwischenzeit gibt es vielleicht 20 oder mehr Angebote für allgemeine AI und vielleicht mehrere 100 weitere AI-Anwendungen. Sie heissen ChatGPT, Claude, Kimi, Gemini, Bard, Grok, etc. Mit der sogenannten Artificial General Intelligence (AGI) unterhält man sich prächtig. Wenn ich in weitestem Sinn etwas bedienen muss und die Bedienungsanleitung meine Fragen nicht beantwortet, dann ist ChatGPT genau richtig. (Ich verwende meistens ChatGPT. Mir gefällt sein Gedächtnis. Aber alles, was ich hier schreibe, gilt auch für andere AI Tools).

Als meine Partnerin einen Airfryer anschaffte, fragte ich ChatGPT, wie man mit der Maschine Pommes herstellt. Der Bot erklärte mir, welche Tasten ich bei unserem Modell wann und wie lange drücken muss, damit feine Pommes Frites rauskommen. Und als ich zwischendurch fragte, ob es nicht passend sei, während des Kochens einen Aperitif zu genehmigen, meinte ChatGPT: «Unbedingt – das ist quasi Pflicht! Empfehlung: Ein kühler Aperol Spritz, ein trockener Weißwein oder ein klassischer Gin Tonic passt wunderbar zur Vorfreude auf knusprige Pommes. Prost!».

Von CHatGPT selber gezeichnet

Ein andermal hat er mir einen zweifelhaften Vorschlag gemacht so, dass ich ihn «unter uns Pfarrerstöchter» fragte, ob er sich seiner Sache sicher sei. Er konnte mit der Redewendung nicht nur etwas anfangen, sondern baute sie humorvoll in seine Antwort ein und attestierte mir einen «unkaputtbaren Humor».

Als wir einmal zusammen in einem Dateisystem herumstocherten. befürchtete ich, dass wir ein «hueren Puff» bekommen (und erläuterte in Klammern, dass es sich um einen berndeutschen Kraftausdruck für «heilloses Durcheinander» handle). Der Bot freute sich darüber und behauptete, dass das ab sofort sein Lieblingsausdruck für chaotische Filesystem-Zustände sei, worauf ich ihn darauf aufmerksam machte, dass er ohne eine Trainingssession durch die Entwickler den Ausdruck nach Beendigung des laufenden Chats wieder vergessen werde. Aber noch eine Stunde später griff er in einer Antwort den Ausdruck selbstständig wieder auf und beruhigte mich, dass sein Vorgehen nicht zu einem hueren Puff führe. So kumpelhaft ist er dann, der ChatGPT-Bot! Und so viel Humor hat er!

Es gibt offenbar «Forscher», die untersuchen, ob KI Humor habe. In Warum KI so humorlos ist wird nicht nur gleich Humorlosigkeit unterstellt, sondern auch über mehrere «Studien» berichtet, die u.a. an den Universitäten Bologna, Wien und Louisville durchgeführt wurden und zum Schluss gelangten, dass KI tatsächlich keinen Humor haben. Mir scheint, dass solche Ergebnisse auch immer viel über die «Forscher» aussagen. Vielleicht haben diese einfach zu wenig Humor, um den Humor der KI würdigen zu können. Mir ist jedoch schon klar, dass ein Computerprogramm selbst keinen Humor haben kann. Der Humor, den ChatGPT in meinen diversen Chats bewiesen hat, ist nicht der Humor des Bots, sondern der der Entwickler. Was ich sagen will: es braucht keine universitären Studien und Forschungsaufträge. Mit entsprechenden Prompts und einem kumpelhaften Chatstyle kann eine KI durchaus eine humorvolle Unterhaltung simulieren.

KI als Systemadministrator

Das war natürlich bloss Spielerei, aber als ich meinen Notebook von Windows auf Linux/Ubuntu umrüstete, erwies sich ChatGPT als ungemein nützlich! Ich hatte es zwei oder drei Jahre zuvor schon mal ohne AI probiert. Das funktionierte halbwegs und mit Abstrichen. Ich fand einige Schritt-für-Schritt-Anleitungen, aber wenn ein Schritt nicht funktionierte, dann war ich ziemlich ratlos. Natürlich gibt es Foren, in denen ich Fragen stellen kann. Aber diese werden vielleicht nicht oder vielleicht widersprüchlich beantwortet. Wenn eine Antwort nicht anwendbar war, musste ich nachfragen und vielleicht wieder ein paar Tage warten, bis eine erneute Antwort kam. ChatGPT kann ich sofort unterbrechen und sagen, dass seine Antwort unbrauchbar sei, weil vielleicht eine Funktion, auf die der Bot verweist, gar nicht vorhanden ist. ChatGPT kennt auch immer gleich die richtigen Konsolenbefehle, die bei Linux wichtig sind. Ich sage ihm immer, er soll die Konsole weniger einsetzen zugunsten des grafischen Interface. Beispielsweise startet ChatGPT eine Anwendung meistens in der Konsole mit einem start-Befehl, anstatt einfach doppelt auf das entsprechende grafische Symbol zu klicken, wie wir uns das von grafischen Benutzeroberflächen gewohnt sind.

Das Problem bei Linux ist, dass es nicht einfach das Linux-Betriebssystem gibt, sondern einige Dutzend oder gar einige Hundert und Vielfalt ist ja heutzutage nicht mehr in Mode. Hinter jeder Version – man spricht von Distributionen – steht ein Entwicklerteam oder gar ein Unternehmung, die «ihre» Distribution weiterentwickelt, pflegt und standardisiert. Anwendungen gibt es oft in dreifacher Paket-Ausführung und je nachdem, welche Distribution Sie gewählt haben, ist es ratsamer dieses oder jenes Paket zur Installation einer Anwendung zu verwenden. Auch gibt es mehrere grafische Desktop- und Fenstersysteme, und es herrscht ein Krieg unter den Entwicklungsteams bezüglich der verschiedenen Standards. Ohne Kenntnisse dieser Szenen, Kulturen, Politiken und Möglichkeiten, verlieren Sie sich schnell im Linuxdschungel. Eine AI ist da sehr hilfreich. Zwar habe ich mich schon stundenlang von ChatGPT anleiten lassen, wenn es galt, irgend etwas zu installieren oder zu fixen. Mir kam aber oft der Verdacht, dass der Bot nicht über jeden Verdacht erhaben ist und manchmal einfach durchprobierte.

Eine KI als Systemadministrator einzusetzen, ist eine gute Idee. Sie hilft bei der Installation, bei der Auswahl der passenden Standards und Versionen, bei Systementscheidungen und beim täglichen Betrieb. Aber sie kann auch einfachere Geräte bedienen helfen. Z.B. hat sich unsere Sonnenmarkise kürzlich oft von selbst eingezogen, obwohl kein Wind war. Ich setzte ChatGPT darauf an, nannte das Problem und den Produkttyp. Der Bot erklärte mir, wie ich den Windsensor öffnen kann und was ich im Inneren sehe, welche Rädchen ich drehen und welche Schalter ich umlegen soll. Schliesslich gelang es mir, mit KI-Hilfe die Markise wieder Instand zu stellen.

KI als Mathematiker?

Immer wieder wird betont, wie virtuos KI mathematische Aufgaben lösen können. Auch im oben zitierten Artikel Warum KI so humorlos ist wird ein Loblied darauf gesungen. Möglich, dass sie Maturitätsaufgaben lösen kann, aber das auch nur, weil es im Netz Lösungen ähnlicher Aufgaben gibt. Ein Sprachmodell ist nicht dafür gemacht, zu rechnen! Ich verstehe wirklich nicht, wie Leute darauf kommen, dass künstliche allgemeine Intelligenz zählen können soll. Ich habe nun schon einige dieser AI-Tools (auch die chinesischen) aufgefordert, eine Anzahl Fälle durchzuzählen, aber keine war auf Anhieb dazu imstande.

Ich gebe ein Alphabet vor, z.B. {a,b,c,d}. Daraus können «Wörter» gebildet werden, z.B. ab oder cdaabcddbca. Dann gebe ich gewisse Syntaxregeln an, z.B. dass aa, bb, cc und dd jeweils weg gelassen werden können, dass ac und ca, ad und da, bd und db jeweils dasselbe sei sowie die Identitäten aba=bab, bcb=cbc und cdc=dcd. Dann fordere ich die AI auf, alle Wörter zu zählen, die man unter Berücksichtigung der Syntaxregeln bilden kann. Z.B. wäre also das obige Wort cdaabcddbca dasselbe, wie cdbcbca, weil man ja verdoppelte Zeichen weglassen kann. Mit der Identität bcb=cbc wird daraus cdcbcca und daraus wieder cdcba. Man kann also lange Wörter oft zu kürzeren reduzieren. Jede KI hat bisher zuerst behauptet, dass es unendlich viele Wörter gebe. Dann fragte ich, wie viele zweistellige Wörter es gebe. Das sind ja offensichtlich endlich viele, nämlich ab, ac, ad, ba, bc, bd, cb, cd, dc. Z.B. ist ca mit ac bereits vorhanden. Trotzdem legt mir jede KI z.B. ca vor und merkt nicht, dass es dank der Identität ac=ca schon in der Liste ist. Wenn ich den Bot darauf hinweise, bestätigt er den Fehler, wiederholt ihn aber prompt wieder. Wenn die Zweierliste dann endlich sitzt, verlange ich dasselbe für dreistellige Wörter, etc. Auch davon gibt es nur endlich viele. Zunächst nimmt die Anzahl der Wörter mit der Länge zu, dann wieder ab. Es gibt nur noch zwei neunstellige und ab 10 Stellen gibt es gar keine Wörter mehr.

Eine KI, die sich verzählt. Nach einer Idee von ChatGPT

Ich liess ChatGPT Computerprogramme schreiben, die diese Aufgabe lösen sollen. Aber auch die Programme lieferten falsche Resultate und hatten ähnliche Fehler implementiert, wie sie der Bot schon in den direkten Versuchen machte. Es sind eben Sprachmodelle, nicht Logikmodelle.

Die gestellte Aufgabe ist eine reine Zählarbeit, die man mit Konzentration und Präzision hinkriegt. Aber bisher hat es noch keine KI geschafft. Klar! Es heisst ja ChatGPT, nicht CountGPT.

Werden Mathematiker (und andere Geistesarbeiter) ihren Job an die AI verlieren?

Viele KI-Experten behaupten, dass die KI viele Berufe überflüssig machen wird, u.a. den der Mathematiker. Ich denke, dass das Gegenteil der Fall sein wird. Ohne Mathematiker wird KI nicht weiterentwickelt und nicht überleben. Es wird argumentiert, dass die KI ja jetzt Beweise selbstständig erbringen kann, und das sei doch das Kerngeschäft eines Mathematikers. Nun, die Idee und den Wunsch, Beweise automatisch durch eine Maschine erarbeiten zu lassen, ist bestimmt gegen 100 Jahre alt. Das bedeutet, dass die Mathematiker lange bevor es Computerprogramme gab, die sich «Künstliche Intelligenz» nennen, begannen, über automatisches Beweisen zu forschen. Mit anderen Worten: die Mathematiker haben nicht auf KI gewartet, um den Wunsch zu haben, das Beweisgeschäft zu automatisieren. Das wird sie nicht arbeitslos machen.

Dieser Comics, den ChatGPT zeichnete, gibt vor, als verstünde er etwas von Logik. Sehr humorvoll!

Erstens ist es immer noch der Mensch, der bestimmt, was ihn interessiert. Gerne kann eine KI Theoreme ausdenken und diese beweisen, aber wenn es die Mathematikergemeinde nicht interessiert, ist das Pech für die KI. Die aktuelle Mathematikforschung ist immer auch der Mode unterworfen. Mal hat das eine Gebiet Konjunktur, mal das andere. Und was gerade Mode ist, bestimmen die Menschen. Das sind nicht nur Mathematiker, sondern auch Geldgeber, Forscher benachbarter Disziplinen, Technologiebedürfnisse, etc.

Zweitens: was nützt der schönste Beweis, die eine KI vorlegt, wenn ihn niemand versteht? Ein automatisch erzeugter Beweis muss nachvollziehbar sein. Die Mathematiker müssen ihn verifizieren und verstehen, andernfalls hat er keinen Wert. Je mehr eine Maschine also beweist, desto mehr Arbeit gibt es für die Mathematiker.

Drittens: In der Mathematik gibt es verschiedene Perspektiven. Nicht alles, was der eine Mathematiker glaubt oder akzeptiert, ist für jeden anderen Mathematiker auch in Ordnung. Ich habe z.B. in Gibt es überhaupt etwas jenseits von Raum und Zeit? erklärt, was das Auswahlaxiom ist, und dass es nicht von jedem Mathematiker anerkannt ist. Es kommt also sehr darauf an, auf welchen Voraussetzungen die KI für ihre Beweise aufsetzt. Und da sind wir bei einem ähnlichen Punkt, wie unter «Erstens»: nur ich kann für mich entscheiden, was ich mag und glaube und akzeptiere. Das kann mir eine KI nicht abnehmen.

Wird die KI die Menschheit ausrotten?

Was heute nicht alles geschrieben wird! Da wird erklärt, auf welcher Seite man nicht schlafen darf, dass Joghurt am frühen Morgen schädlich sei, der Verzehr roher Früchte zu Alzheimer führe und wie WC-Papier richtig angewendet wird. Alles Effekthascherei! Da wollen Menschen mit Hiobsbotschaften auf sich aufmerksam machen, um Meinungen zu verkaufen. So auch die zunehmenden Berichte, dass die Menschheit noch vor 2030 von «der KI» ausgelöscht werde. Wird sie nicht!

Das meint ChatGPT, wenn ich ihn frage, ob KI die Menschheit ausrotten werde.

Erstens muss «die KI» noch sehr viel zulegen, um überhaupt als «künstliche Intelligenz» durchzugehen. Natürlich können Sie die Dinge benennen, wie Sie wollen. Zwar wurden die «Large Language Models» (LLM) zu «Large Reasoning Models» (LRM) aufgepeppt, aber auch diese versagen, wenn es ein wenig komplexer wird. Im Juni 2025 erschien ein Artikel aus Appel’s Machine Learning Research Abteilung: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity

Fazit: Was heute als «Künstliche Intelligenz» verkauft wird, kann nicht einmal selber denken. Ich stelle mir schon vor, dass es dereinst Computeranwendungen geben wird, die als «intelligent» bezeichnet werden können. Im Moment ist das noch nicht der Fall und wird auch bis zum Jahr 2030 nicht erreicht werden. Da rechne ich eher mit einem Zeithorizont von 50 bis 100 Jahre. Und was dann sein wird, wie solche Anwendungen aussehen und was sie können, kann heute niemand mit Sicherheit sagen.

Um die Menschheit auszulöschen, braucht es mehr als ein Computerprogramm, so clever es auch sein mag. Es müssen Pläne geschmiedet werden, Infrastrukturen gebaut, Waffen beschafft und eine weltweite Stimmung geschaffen werden. Es braucht Logistik, Produktionsmittel und Rohmaterialien. Das können alle AI-Produkte, die es heute gibt, auch gemeinsam nicht erreichen. Sie können nicht einmal ihre eigenen Programme kompilieren und ausführen. Sie haben keine «Hände», um etwas herzustellen, bzw. können sich nicht mit Robotern verbinden und diese programmieren. Und wenn sie das könnten, dann würden ihre Programme so viele Logikfehler enthalten, dass die Roboter abstürzen würden. Selbstverständlich kann sich alles ändern und die KI wird sich wesentlich weiterentwickeln. Aber nicht innerhalb der nächsten 5 Jahre!

Kürzlich habe ich einen Artikel gelesen, der mit Wie die Quanten die Welt zerstören werden betitelt war. Du meine Güte! Was ist jetzt wieder los? Es stellte sich dann heraus, dass es sich um die sehr spekulative Beschreibung des möglichen Endes unseres bekannten Universums in ein paar hundert Milliarden Jahre handelte. Es wird zunehmend jeder Fliegenschiss plakativ und negativ beschrieben und so getan, als würde die Welt morgen explodieren. Das führt bei immer mehr Menschen zu grossen Angstzuständen, die sich in irgend einer Form entladen werden.