ChatGPT: Der digitale Papagei

Teufelswerk oder Zukunftsmusik? Was können Computerprogramme wie ChatGPT? Sollten wir Sie verwenden oder nicht? Und – sind sie tatsächlich intelligent?

ChatGPT kann nur nachplappern, was ihm gefüttert wurde, wenn auch in immer neuen Zusammenstellungen. Einiges daran ist durchaus beeindruckend (wie bei diesem ebenfalls von einer Künstlichen Intelligenz erzeugten Bild), doch reicht es nicht, um die Weltherrschaft an sich zu reißen.

Als der Textroboter ChatGPT im November 2022 lanciert wurde, löste das einen noch nie da gewesenen Hype aus. Innerhalb von nur fünf Tagen zählte ChatGPT über eine Million Nutzer. Seither sind die Nutzerzahlen laufend gestiegen. Auch immer mehr Unternehmen lassen ihre Angestellten mit ChatGPT arbeiten. Die Mitarbeitenden sollen so entlastet und innovativer werden, teilte etwa die Schweizer Versicherungsgesellschaft Die Mobiliar mit, die im September 2023 den Textroboter für ihre Angestellten implementierte. Es wird bereits prognostiziert, dass in den kommenden Jahren viele Berufe verschwinden werden, da die Angestellten durch Computersysteme ersetzt werden könnten. Zu den Jobs, die zukünftig durch eine künstliche Intelligenz (KI) anstelle eines Menschen ausgeübt werden könnten, gehören beispielsweise Kundendienstmitarbeiter, Buchhalter, Grafikdesigner, Börsenhändler, Finanzanalysten und Finanzberater, Lehrer, Marktforschungsanalysten, Jobs in der Rechtsbranche, Tech-Jobs wie Codierer, Computerprogrammierer, Softwareingenieur oder Datenanalyst sowie Medienjobs. Ja, also auch mein Job. Dafür gibt es gute Gründe:

Ein Grund, warum Journalisten ChatGPT verwenden sollten, ist die Effizienzsteigerung. Das Modell kann als Assistent fungieren und Journalisten bei der Recherche unterstützen. Es kann Informationen zu verschiedenen Themen liefern, Fragen beantworten und sogar Vorschläge für weitere Recherchen machen. Dies spart den Journalisten wertvolle Zeit und ermöglicht es ihnen, sich auf andere wichtige Aufgaben zu konzentrieren.

Darüber hinaus kann ChatGPT auch bei der Generierung von Ideen und bei dem Schreiben von Artikeln helfen. Journalisten können dem Modell eine grobe Zusammenfassung oder einen Entwurf geben und es wird ihnen dabei helfen, den Text weiterzuentwickeln. Es kann auch bei der Überprüfung von Fakten und der Identifizierung potenzieller Fehler oder Ungenauigkeiten behilflich sein.

Ein weiterer Vorteil von ChatGPT ist seine Vielseitigkeit. Das Modell kann in verschiedenen journalistischen Bereichen eingesetzt werden, sei es Politik, Wirtschaft, Sport oder Unterhaltung. Es kann auch bei der Erstellung von Interviews oder bei der Durchführung von Umfragen nützlich sein. Die Anwendungsmöglichkeiten sind nahezu unbegrenzt.

Die Liste ließe sich noch fortsetzen, doch die Lektüre wird schon bald furchtbar langweilig. Denn die letzten drei Absätze habe nicht ich geschrieben, sondern ChatGPT. Ich habe den Textroboter aufgefordert, mir zu erklären, warum Journalisten für ihre Arbeit ChatGPT nutzen sollten. Das Ganze brauchte aber ein wenig Geduld, denn ChatGPT ist so beliebt, dass die Server permanent überlastet sind und es mehrere Anläufe brauchte, bis ich eine Antwort erhielt. Diese kam dann allerdings innerhalb von wenigen Sekunden und in großer Ausführlichkeit, um nicht zu sagen Langatmigkeit. In der Tat sind die Geschwindigkeit, mit welcher der Bot antwortet, und die sprachliche Qualität seiner Antworten (Formulierung, Satzbau, Rechtschreibung etc.) beeindruckend.

Zudem ist ChatGPT um keine Antwort verlegen. Auf meine Frage „Worum handelt es sich bei ,butimexus maximilianus‘?“ antwortete er sogleich: „,Butimexus maximilianus‘ ist der wissenschaftliche Name für eine bestimmte Art von Käfer, die zur Familie der Bockkäfer (Cerambycidae) gehört. Es handelt sich um eine seltene und wenig erforschte Art, die in einigen Regionen Südamerikas vorkommt. Der Käfer zeichnet sich durch seine auffällige Färbung und sein markantes Aussehen aus. Weitere Informationen über seine Lebensweise und Verbreitung sind möglicherweise in wissenschaftlichen Publikationen oder Fachliteratur zu finden.“

Das tönt sehr überzeugend. Das Problem dabei ist, dass ich den Begriff „Butimexus maximilianus“ frei erfunden habe!

Dies ist ein typisches Beispiel dafür, „dass dieses Programm mit großem ,Selbstbewusstsein‘ falsche Dinge von sich gibt“, wie es Professor Martin Vechev von der ETH Zürich formuliert. Wenn ChatGPT eine Antwort nicht kennt, „halluziniert“ das Programm (so der Fachbegriff), das heißt, es erfindet eine Antwort. Und wie das obige Exempel zeigt, kommt diese sehr glaubwürdig daher. Das ist vor allem dann problematisch, wenn Textroboter wie ChatGPT zur Recherche beziehungsweise als Suchmaschine verwendet werden. Aber genau so wird ChatGPT vorwiegend eingesetzt. In der Tat sitzen wir tief in der Klemme, so Ian Bogost, Professor an der Washington University in St. Louis, wenn wir über Fachwissen verfügen müssen, um zu erkennen, ob ChatGPT flunkert, doch wir benutzen ChatGPT, weil wir eben genau nicht über dieses Fachwissen verfügen! Mit anderen Worten: Wenn wir schon über genügend Wissen verfügen oder wissen, wie und aus welchen zuverlässigen Quellen wir uns dieses beschaffen können, dann brauchen wir keinen Roboterassistenten. Wenn uns dieses Wissen aber fehlt, dann fehlt uns auch die Fähigkeit zu beurteilen, ob die Antwort des Bots stimmt oder nicht. Selbst Sam Altman, der CEO von OpenAI, der Firma, die ChatGPT geschaffen hat, sagt, das Programm befinde sich in einem „embryonalen Zustand“: „Es ist ein Fehler, sich derzeit mit irgendetwas Wichtigem darauf zu verlassen.“

Die Warnung ist offenbar noch nicht bei allen angekommen. So sah sich der Richter eines Bundesgerichts in New York zur Aussage genötigt, das Gericht sei mit beispiellosen Umständen konfrontiert. Bei einem Prozess rund um die kolumbianische Fluggesellschaft Avianca hatten nämlich die Anwälte des Klägers „Beweismittel“ vorgelegt, die sie mittels ChatGPT generiert hatten. Der Textroboter hatte auf Nachfrage der Anwälte entsprechende Präzedenzfälle frei erfunden und auf erneutes Anfragen hin auch gleich noch die dazugehörenden Quellen herbeifantasiert. Allerdings staunt man schon ein wenig über die Naivität der Herren Juristen …

Altman mag keine Menschen

Sam Altman ist eine schillernde Figur. Zusammen mit anderen führenden Köpfen der Tech-Elite von Silicon Valley, unter anderem Elon Musk und Peter Thiel, gründete Altman im Jahr 2015 OpenAI. Der Name – „Offene künstliche Intelligenz“ – ist Programm. OpenAI wollte eine Nonprofitorganisation sein, von welcher „die gesamte Menschheit profitieren“ sollte. Die Firma würde komplett offen agieren, daher das „Open“ im Namen. Und das Hauptziel war, eine „allgemeine künstliche Intelligenz“ zu schaffen, die sich nicht mehr von menschlicher Intelligenz unterscheiden würde.

Doch schon 2019 war es vorbei mit den hehren Zielen.