Reinhard Kocznar
Nachschlagkompetenz
Wie die KI im Prüftest durchfällt.
Analyse

Google liefert neuerdings ungefragt die Ansicht der sogenannten KI. Bei meiner Suche nach einer Firma erklärt sie ebenso ungebeten den Begriff ‚Insolvenz‘, darunter folgt eine Liste von Erscheinungen, die auf eine drohende Insolvenz hinweisen. Die Schlagworte sind gut erklärt. So eine gescheite KI, denke ich.

Nach weiteren Klicks lande ich bei einer Produktinformation der Allianz zu ihrer Kreditversicherung. Déjà-vu? Ist die Liste schon wieder da? Auf Punkt und Beistrich entspricht sie den eben gesehenen Ansichten der KI.

Die KI hat schamlos abgekupfert, geklaut, eins zu eins die Produktinformation der Versicherung geliefert, fremden Inhalt ohne Quellenangabe als eigenes Produkt deklariert, sozusagen als Resultat ihres ‚Denkens‘.

Eine andere Suche nach einer bestimmten Funktion in Pascal liefert mir einen Quelltext, den ich aus dem offiziellen Pascal-Wiki kenne. Präsentiert wird es als KI-Erkenntnis.

Ich finde so ein Verhalten schäbig, zumal es kein Einzelfall, sondern die Regel ist.

KI klaut im großen Stil, jede darin tätige Firma hat eine Reihe von Bots aktiv, die ständig das Internet durchsuchen und klauen. Bots (=Robots) sind automatische Datensammler, auch Harvester oder Scraper genannt. Dieses Verhalten, das Klauen, ist Teil des ‚Trainings‘ ihrer jeweiligen KI. Lästig waren sie aber schon vorher.

Facebook, Apple, Microsoft und so weiter habe ich von meinem Server längst ausgesperrt. Meine Liste umfasst derzeit an die 2.500 Zeilen, die 300 Millionen unerwünschte Hosts blocken, und ist leicht zu pflegen. Natürlich machen das inzwischen viele, denn für mich allein hätte man die notwendigen Tools nicht entwickelt.

Manche Webseiten erscheinen nun erst nach einem kurzfristigen Bildschirm making sure you are a human, auch die schützen sich vor den Daten-Grapschern.

Wenn mir der Blogmaster erzählt, er schätze ChatGPT, dann begeistert mich das mäßig. ChatGPT zeigt nichts weiter als eine Meldung am Bildschirm, ähnlich wie Magrittes bekanntes Bild ‚Ceci n’est pas une pipe‘ (https://en.wikipedia.org/wiki/File:MagrittePipe.jpg).

Es zeigt eine Pfeife, darunter steht: Das ist keine Pfeife. Es ist nur das Bild einer solchen, nicht die Pfeife selbst.

Es ist wie mit dem Finger, der auf den Mond zeigt, der auch nur der Finger ist, obwohl ich den Mond mit eigenen Augen sehen kann, zumindest, wo er vor ca. 1,3 Sekunden noch gewesen ist.

Mich interessiert die Quelle, aus der ich selbst schöpfen will. Nützlich an der Wikipedia sind die Quellenangaben. Der Bildschirm ist bekanntlich so geduldig wie das Papier; wenn mich ein Artikel interessiert, will ich wissen, woher die Information stammt.

Immerhin, Google und neuerdings die diversen KIs, sind gut für Leute mit hoher Nachschlagkompetenz. Mag man von der Materie auch nicht die blasseste Ahnung haben, man erhält im Handumdrehen ein Schnipsel daraus, das in der Hälfte der Fälle sogar stimmt, und hat die ganze Sache verstanden.

KI, habe ich gelesen, ermöglicht einem Analphabeten, sich für Goethe zu halten.

Den Begriff ‚Nachschlagkompetenz‘ kennt Google derzeit nicht, wohl aber die KI. Intelligent genug ist sie, um zu erkennen, wer sie braucht.

Das ist der Teil, in dem KI brauchbare Ergebnisse produziert, abgekupferte Inhalte, die andere verfasst haben, als Produkt eigenen Denkens auszugeben. Sie kann aber auch, was wir von Journalisten kennen, angeblich wahre Geschichten erfinden, seien es nun Interviews, Schicksale oder gar wissenschaftliche Erkenntnisse.

Eine Wissenschaftlerin hatte in ihrem Fachgebiet Veröffentlichungen gesucht. KI lieferte ihr eine völlig frei erfundene Veröffentlichung einschließlich erfundenem Titel und erfundenem Autor.

Nach den Erhebungen einer deutschen Universität lag die Fehlerquote bei Recherchen über 50%. In einem Fall lieferte sie sogar das falsche Geburtsdatum einer sehr bekannten historischen Person.
Wer im jeweiligen Gebiet zuhause ist, hat den Unsinn schnell heraus, andernfalls geschieht denen recht, die glauben, mit dem Lesen einiger Zeilen hätten sie ein neues Gebiet erschlossen.

Wissenschaftler warnen, dass KI gern erzählt, was Nutzer hören wollen. Ein schönes Beispiel lieferte die natürlich nicht ernst gemeinte Frage des Blogmasters, ob Innsbruck statt eines Schützenfestes lieber den als Musikwettbewerb bezeichneten Song Contest ausrichten solle.

Die Antwort hätte aus der Presse stammen können, die ja links und grün ausgerichtet ist. Wirklich peinlich wurde es bei der Beurteilung des Aufstandes 1809. Rückständige und fehlgeleitete Bauern hätten ihr Blut für den Kaiser vergossen.

Die Habsburger spielten tatsächlich keine ruhmreiche Rolle dabei, aber die Arroganz der neuen bayrischen Landesbesitzer, vor allem deren wirtschaftliche Maßnahmen, sind bei Josef Hirn genau beschrieben. Der bayrische Ministerpräsident Montgelas erkannte, natürlich hinterher, dass das Abwürgen der kleinen Textilhersteller in einem Bezirk allein einigen tausend das Gewehr in die Hand gedrückt hätte.

Fortschrittliche, die Josef Hirn als überholt bezeichnen mögen, falls sie überhaupt von ihm gehört haben, könnten sogenannte neuere Forschungen zu Rate ziehen, etwa die zeitgenössischen Beiträge von Claudie Paye an der Universität Berlin. Ihr Bericht über das ‚Wirken‘ der Polizei im Königreich Westfalen liest sich wie Josef Hirn.

Mahmoud Kandil (Friedrich Ebert Stiftung) beschreibt soziale Proteste gegen das napoleonische Herrschaftssystem im Großherzogtum Berg in ähnlicher Weise, so wie viele andere. Die Namen Andreas Hofer und Ferdinand von Schill sind nur die bekanntesten im Widerstand gegen Napoleon aus diesen Jahren.

Damit war die sogenannte KI allerdings schwer überfordert. Geschichte ist immer Konstruktion lese ich bei einem Innsbrucker Historiker. Wozu Konstruktion, wenn es mit Reduktion auch geht?

Bei Anthropic (AI-Gigant Claude) arbeitet die Koryphäe Amanda Askell an einem Charaktertraining für ihre KIs. Die Liste ihrer Veröffentlichungen ist beeindruckend lang. Albert Camus spottete schon 1960 in seinem Roman ‚Der Fall‘: Wer keinen Charakter hat, der muss sich wohl oder übel eine Methode anschaffen. Wie weitblickend.
KI gilt als entgegenkommend, fast als unterwürfig. Sie sagt, was sie glaubt, dass die Leute hören wollen. Die Droge Skopolamin kenne ich nur aus Agentenfilmen, aber das soll dieselbe Wirkung haben; der Befragte sagt, was die Verhörenden hören wollen. Deshalb gilt sie als ‚Wahrheitsdroge‘. Da scheint kalter Entzug am Platz zu sein.

Man darf erinnern, dass KI auch nur ein Programm ist, wenn auch ein großes. Ein Programm liefert zweierlei: einerseits was die Programmierer beabsichtigt haben und andererseits was es ermöglicht. Letzteres sind dessen Fehler.

Nirgends steht geschrieben, dass nicht beides zugleich Unheil anrichten kann.
In einem Nachbarland ereignete es sich, dass ein Literaturwissenschaftler Wirtschaftsminister wurde. Bis das tatsächlich passierte, hätte man es nicht für möglich gehalten. Eines seiner Leuchtturmprojekte war die Ansiedlung eines großen Batterieherstellers. Der Leuchtturm verfiel zu einem Desaster.

Der kleinere Teil des Malheurs, verlorene Förderungen von 300 Millionen nach der Pleite, hätte nicht passieren dürfen. Ein Parteifreund des literarisch kompetenten Wirtschaftsministers sagte: Insgesamt 20.000 Simulationen haben klare Wahrscheinlichkeiten ermittelt.

20.000? Warum nicht gleich 200.000? Stellt sich da nicht die Frage, wie unsicher jemand seiner Sache ist, wenn er 20.000 Simulationen ablaufen lässt?

PwC, einer der Global Player im Consulting, hatte vorher in einem Gutachten die Wahrscheinlichkeit der vollständigen Rückzahlung mit 86% beziffert, weniger als 50% mit 5 Prozent, einen Totalverlust mit 1%.

Immerhin ist eine der Annahmen aus den Computermodellen tatsächlich eingetroffen, der Totalverlust mit 1 Prozent Wahrscheinlichkeit. So können auch Klimafreaks aus den Computermodellen heraussuchen, wovor sie sich am meisten fürchten wollen.

Halluzinierende Computer, das ist längst ein Fachbegriff. Google sagt: Untersuchungen von OpenAI haben ergeben, dass die neuesten und leistungsstärksten Modelle o3 und o4-mini im PersonQA-Benchmark von OpenAI in 33 % bzw. 48 % der Fälle halluzinierten. Das ist mehr als doppelt so hoch wie beim älteren Modell o1. Fortschritt ist schön.

ChatGpt kommt demnach auf 33 Prozent mit seinem Modell o3. Dass es dümmer wird ist mittlerweile unübersehbar wie unbestritten. Offenbar ist Cahn’s Axiom (aus den Murphy-Gesetzen) allgemeingültig und betrifft nicht nur Menschen: Die Intelligenz auf dem Planeten ist eine Konstante, die Bevölkerung wächst.

Nicht falsch, sondern vorausschauend ist Halluzination bei KI, belehrt das rosa Qualitätsblatt seine Gemeinde. Aus dem Munde derer, die das betreute Denken schätzen, keine Überraschung. Halluzinierende Computer können Schriftsteller voranbringen, die etwa an Science Fiction arbeiten, steuerte Microsoft bei.

Es erinnert an die 60er und 70er Jahre, als Künstler, bei denen das Ende des gestundeten Talents am Horizont sichtbar wurde, mit LSD die Erweiterung ihres Bewusstseins suchten.

Im praktischen beruflichen Alltag geht KI auf die Nerven, weil sie Ansprechpersonen durch Onlineformulare ersetzt, einfache Abläufe mit zeitaufwändigen Girlanden verziert und gelegentlich in die Sackgasse führt.

Jeder Goldrausch hat aber auch seine Sonnenseiten. Damals verdienten diejenigen, die Hacken und Schaufeln verkauften. Das geht auch mit KI. So verirrte ich mich kürzlich in eine als Fortbildung deklarierte Veranstaltung, um zwei fehlende Punkte in der Fortbildung noch im ersten Halbjahr abhaken zu können. Das ging gründlich schief.

In der Einladung war gestanden: Einblicke in den praktischen Umgang mit Künstlicher Intelligenz für Tirols Unternehmen…sowie… Künstliche Intelligenz verändert die Arbeitswelt – doch was bedeutet das konkret für unsere Jobs?

Nichts davon kam zur Sprache, wer von den Vortragenden dafür kompetent gewesen wäre, erschloss sich nicht.

Eine sehr selbstbewusste Dame, eine von zwei (!) CEOs einer KI-Firma, bot zwei Stunden heiße Luft. Die Firma selbst besteht aus 5 Personen, davon vier Häuptlinge (m/w, nicht d) und ein Indianer (m). Leicht verfügbare Förderungsgelder hatten sie ins Leben gerufen.

Einige Besucher hatten sich KI-generierte Geschäftskorrespondenz erhofft, schlimm genug. Wer einen literarisch nicht herausfordernden Geschäftsbrief nicht ohne Hilfe zustande bringt, kann eigentlich nur absatteln. Geboten wurde aber nicht einmal das.
Was übrig blieb war das nervig beworbene Angebot, von dieser Firma mittels ihrer KI die Redaktion für einen Newsletter erledigen zu lassen. Dessen Wirkung sei fantastisch. Bei den bestehenden Kunden der KI-Firma sei das Engagement(?) um über 400% gestiegen, die Kosten des Marketings waren um fast 70% gesunken und mehr als die Hälfte an Zeitersparnis war eingetreten.

Dieser unbelegte Unsinn zeigte im spärlich erschienenen Publikum natürlich keine Wirkung. Etwas annähernd Messbares zu präsentieren, dass z.B. die Öffnungsrate ihres KI-getexteten Newsletters signifikant höher liege als allgemein unterblieb auch. Diese Rate liegt bei ca. 25%, umgekehrt 75% Verlust. Auch andere vergleichbare Messzahlen gab es nicht.

Die Wirkung trat erst ein, als die Vortragende die Teilnehmer aufforderte, nun in der letzten halben Stunde mit den Sitznachbarn zu überlegen, wie man KI in der Praxis anwenden könne – also zu überlegen, wie man der Firma Aufträge erteilen könne. Etwa die Hälfte des Publikums suchte auf der Stelle das Weite.

Zwei Stunden unterbrechungsfreie Werbung, ermöglicht durch öffentliche Förderung des veranstaltenden Vereins, dessen Aufgabe nicht KI ist, für ein gefördertes Unternehmen, veranstaltet in einem Raum einer Kammer, die von ihren Mitgliedern finanziert wird.

In den Wallstreet-Notizen einer Zeitung aus dem Jahr 2013 fand ich Folgendes wieder:

Es sei erstaunlich, dass sich die klügsten IT-Experten und Mathematiker damit beschäftigten, wie man Teenager dazu bringen könne, auf Online-Werbung zu klicken. So kritisiert der ehemalige IT-Chef von Facebook, Jeff Hammerbacher, die Besessenheit des Silicon Valley mit Online-Werbung.

Wenn Ihnen schoepfblog gefällt, bitten wir Sie, sich wöchentlich den schoepfblog-newsletter zukommen zu lassen, und Freundinnen und Freunde mit dem Hinweis auf einen Artikel Ihres Interesses zu animieren, es ebenso zu tun.


Weitere Möglichkeiten schoepfblog zu unterstützen finden Sie über diesen Link: schoepfblog unterstützen

Reinhard Kocznar

Reinhard Kocznar ist Versicherungsmakler und lebt in Birgitz. Seit 30 Jahren selbständig, während 25 Jahren zweiter Beruf als Leiter eines Softwareentwicklungsteams und Systemadministrator. Als Schriftsteller hat er bisher 7 Bücher veröffentlicht, Krimis, Thriller, Erzählungen und Essays. Literarisch betreibt er den Online-Buchshop: https://books.kocznar.com . Leidenschaftlicher Fotograf, Sportschütze und Motorradfahrer.

Schreibe einen Kommentar