Brave Against the Machine: Warum alle über ChatGPT reden

cute robot chatting with human

Eins ist klar: Tools mit künstlicher Intelligenz sind kein temporärer Trend. Aber als Expert*innen im Bereich Kommunikation mussten wir es genau wissen: Was hat es mit dem neuen Wunderkind auf dem Markt – einem allwissenden Chatbot – wirklich auf sich?

Hast du schon von ChatGPT gehört? Keine Angst, wenn nicht, bist du wahrscheinlich nur eine Unterhaltung oder Schlagzeile davon entfernt, eines der aufregendsten und gleichzeitig besorgniserregendsten Tools unserer relativ jungen digitalen Geschichte kennenzulernen. Kurz erklärt ist ChatGPT ein Online-Chatbot, der gerne mit seinen Nutzer*innen plaudert, Texte schreibt, Ratschläge gibt, kleine Code-Schnipsel verfasst und sich sogar manchmal an Lyrik versucht. 

Dahinter steckt das Unternehmen OpenAI, ein Forschungslabor für künstliche Intelligenz, das 2015 von einigen der wichtigsten Tech-Grössen der Welt gegründet wurde. Im Jahr 2019 weckte OpenAI auch das Interesse von Tech-Riese Microsoft, mit dem es seither eine sehr erfolgreiche Partnerschaft führt. 

 

Zuerst kam das Bild, dann das Wort

Wenn dir OpenAI bekannt vorkommt, liegt es vielleicht daran, dass 2021 schon ein anderes Produkt des Unternehmens grosse Wellen geschlagen hat. DALL-E ist eine künstliche Intelligenz, die aus Texteingaben Bilder erzeugen kann – und zwar jegliche Arten von Bildern. Willst du eine Orange mit der Schale einer Banane sehen? Kein Problem. Ein Bild von Beethoven, wie er mit Peppa Pig durch ein Kornfeld tanzt? Klar doch.

Was auch immer du dir ausmalst und in Worte fassen kannst – DALL-E visualisiert es für dich. Und als ob das nicht genug revolutionär wäre, braucht das Tool dafür nie länger als eine Minute. Natürlich sorgte DALL-E beim Launch für ebenso viel Aufregung wie Bedenken, aber: ChatGPT scheint da noch einen Schritt weiter zu gehen. Oder besser gesagt: ein ganzes Stück weiter.

 

Das moderne Orakel 

Der Charme von ChatGPT besteht darin, dass du dich mit dem Chatbot unterhalten kannst und Antworten auf so ziemlich jede Frage erhältst. Du willst ein cooles neues Rezept, das auf deinen Lieblingsspeisen basiert? Eine Excel-Formel, die deinen Arbeitsablauf beschleunigt? Geschenkempfehlungen für die Partnerin oder den Partner? Oder vielleicht steckst du beim Schreiben eines Artikels fest und brauchst Hilfe? ChatGPT liefert dir alles innert Sekunden. Kurz haben wir sogar mit dem Gedanken gespielt, den Chatbot diesen Blogpost schreiben zu lassen und am Ende in einem «Aha!»-Moment unseren Plot zu enthüllen. Aber dann konnten wir bei diesem Thema einfach nicht die Klappe halten und haben beschlossen, ganz altmodisch selbst in die Tasten zu hauen. Wir stecken wohl noch im letzten Jahr fest.

Aber zurück zum Star dieser Geschichte. Der Clou unserer neuen virtuellen Plaudertasche ist die Tatsache, dass sie (noch) allen gratis zugänglich ist. Du musst dazu nur auf chat.openai.com einen Gratis-Account kreieren. Aber aufgepasst: Weil sich derzeit so viele Nutzer*innen mit der künstlichen Intelligenz austauschen wollen, kriegt man zu «Stosszeiten» möglicherweise nicht gleich Zugang. Wir empfehlen daher, es früh am Morgen oder spät am Abend zu versuchen.

Alle Bilder in diesem Blogpost wurden mit Midjourney kreiert, ein kostenpflichtiger KI-Bildgenerator.

banana mixed with orange

Was ist also das Problem?

Ach, du willst direkt zum Kern der Sache? Haben wir nicht anders erwartet. Leider gibt es mehr als nur einen Graubereich mit diesen neuen Entwicklungen, und das gilt für alle KI-Werkzeuge, die in irgendeiner Art Inhalte generieren: sei es ChatGPT, DALL-E oder die Konkurrenten Midjourney, Stable Diffusion, usw. Wir haben die Probleme in einzelne Punkte zusammengefasst.

 

1. Urheberrecht und Lernressourcen

Schauen wir uns einmal an, wie ChatGPT funktioniert. Es gibt keine brauchbare Art, eine so komplexe Software zu schreiben, also haben sich ein paar brillante Köpfe ein anderes Konzept ausgedacht: «Zeigen wir dieser Software doch Tausende von Bildern von Dingen, wie z.B. einem Zebrastreifen, und sagen ihr, was es ist – ein Zebrastreifen. Und dann lassen wir die Software selbst herausfinden, wie sie dieses Ding, das wir Zebrastreifen nennen, in Zukunft identifizieren kann.» Zu diesem sehr erfolgreichen Ansatz gehört auch, dass man dem Programm «falsche Dinge» zeigt, also in dem Fall zufällige Bilder von Linien auf dem Boden, die zwar aussehen wie Zebrastreifen, aber keine sind. So kann die Software lernen, die feinen Unterschiede selbst zu erkennen.

Weil die KI diese Entdeckungen aber selbst macht, können die Resultate mitunter unvorhersehbar sein. Wie die KI lernt, basiert deshalb stark darauf, was für Inhalte und Ressourcen für deren «Training» verwendet wurden. Zum Beispiel musste das textbasierte ChatGPT mit hunderten Milliarden Wörtern gefüttert werden, die 2021 aus dem Internet geschöpft wurden. Das bedeutet auch, dass die Weltanschauung von ChatGPT beschränkt ist auf alles, was bis 2021 passiert ist. Es kennt keine Aktualitäten, solange es nicht aktualisiert wird.

Cute, small AI robot reading a book with a magnifier.

Aber woher stammen all diese Ressourcen? All diese Artikel und Bilder, mit denen die KI-Tools gefüttert werden? Nehmen wir einmal an, wir bringen der KI bei, wie sie einen Artikel im Stil von Hemingway schreibt oder eine Illustration im Stil von Tim Burton kreiert (beides Kinderspiele für ChatGPT und DALL-E). Ist es fair, dafür tausende von Bildern von Künstler*innen wie Tim Burton abzugreifen, ohne diese Creators zu bezahlen oder ihren Beitrag wenigstens auszuzeichnen? Und wer besitzt diesen neuen Inhalt nun wirklich: das Unternehmen, das die KI zur Verfügung stellt, die Person, die mit der richtigen Wortfolge den Inhalt hat erstellen lassen – oder die unzähligen Menschen, mit deren harter Arbeit das Tool trainiert wurde?

Natürlich besagen die Disclaimers auf diesen Tools alle etwa das Gleiche: Das Urheberrecht liegt beim Unternehmen, das die Software entwickelt hat. Aber ist es richtig, etwas zu vermarkten, ohne die Leute zu bezahlen, auf deren Arbeit es aufgebaut wurde? Und was passiert, wenn die Software zufällig einen Inhalt generiert, der schon vorher existiert hat? Wer ist dann für Urheberrechtsverletzungen verantwortlich?

Und wenn wir die KI mit Inhalten füttern, damit sie dazu lernt: Was passiert, wenn diese Inhalte moralisch fragwürdig sind? ChatGPT ist ein Code ohne moralische Grundsätze. Es kann von sich aus eigentlich nicht beurteilen, ob ein Inhalt voreingenommen oder herabsetzend ist, oder schlimmer noch: ob er Elemente von Gewalt oder Diskriminierung enthält. Wie halten wir die KI also davon ab, noch mehr problematische Inhalte daraus zu kreieren?

A pile of documents on an office desk.

2. Filter und Ethik

Eine der grösseren Kontroversen rund um das Thema Filterung von Inhalten wurde vom Time Magazine in einem entlarvenden Artikel aufgegriffen. Um der KI bei der Identifizierung von Gewalt, Hassreden und sexuellem Missbrauch zu helfen (also im Grunde den schlimmsten Inhalten, zu denen die Menschheit so fähig ist), arbeitete OpenAI mit einem Unternehmen zusammen, das in Kenia stark unterbezahlte Arbeiter*innen beschäftigte. Diese mussten diese Arten von Inhalten stundenlang lesen und kategorisieren, um OpenAI bei der Erstellung eines Filters für ChatGPT zu helfen. Es überrascht nicht, dass diese Arbeit psychische Folgen für die Angestellten hatte. Und obwohl die Existenz dieser Jobs nie ein Geheimnis war, können die im Artikel beschriebenen Arbeitsbedingungen als geradezu missbräuchlich angesehen werden.

 

3. Die Folgen der KI-Nutzung

Apropos Arbeit: Selbst wenn hinter den Kulissen alles ein rosa Traum mit Schmetterlingen wäre, haben Tools wie ChatGPT das Potenzial, den Alltag von uns allen zu verändern. Was passiert, wenn Student*innen ihrem inneren Schweinehund nachgeben und ihre Seminararbeit von der künstlichen Intelligenz schreiben lassen? Oder wenn jemand einen von der KI erstellten Inhalt in einem Wettbewerb eingibt und damit gewinnt? Naja, es ist beides bereits passiert. Und sagen wir mal, die Leute waren nicht gerade begeistert: College Student Caught Submitting Paper Using ChatGPT & An A.I.-Generated Picture Won an Art Prize.

Es ist ebenso amüsant wie problematisch, dass die vom Chatbot geschriebene Seminararbeit nur entlarvt wurde, weil sie zu gut geschrieben war. Andererseits wirft der Gewinn eines Kunstwettbewerbs durch KI-generierte Kunst grundlegende Fragen über die Bedeutung von Kreativität und Kunst auf.

Aber noch beunruhigender als diese fast schon existenziellen Fragen sind die potenziellen langfristigen Folgen. Werden Student*innen weniger lernen? Wird die Kunst kommerzialisiert und verschwinden die Künstler*innen? Werden Designer*innen und Texter*innen ihren Job verlieren? Werden Forschungsresultate in Zukunft von KI geschrieben werden? Tatsächlich ist auch das bereits geschehen, und auch hier: Niemand fand es lustig. Wie können wir also sicherstellen, dass diese Studien vertrauenswürdig bleiben? Wird ein Chatbot letztendlich zum Untergang der Kreativität und wirklich origineller Ideen führen? Oder wird sich ChatGPT einfach zu einem hilfreichen Werkzeug in unserem Alltag mausern, mit dem wir uns aus einem kreativen Trott befreien oder das gesamte Internet in Sekundenschnelle nach Ideen durchforsten können?

cute robot stops bad red colored robots from entering

Sind wir alle dem Untergang geweiht?

Keine Sorge, noch ist nicht alle Hoffnung verloren. Wie jede neue Technologie kann auch die KI von grossem Nutzen sein, wenn wir ihr mit den richtigen moralischen Werten und etwas Respekt gegenübertreten. Die KI steckt noch in den Kinderschuhen, und auch wenn es heute schon wichtig ist, über diese Dinge zu sprechen, könnte sie sich als unschätzbares Werkzeug für die Menschheit erweisen, sobald sie ausgereift ist.

Könnten wir die KI darauf trainieren, potenziellen Krebs viel früher zu erkennen, als es unseren Augen möglich ist? Was wäre, wenn wir Krankheiten frühzeitig erkennen könnten, indem wir die DNA aller Menschen in Rekordzeit analysieren? Was, wenn wir ganze Galaxien in wenigen Minuten nach bewohnbaren Planeten absuchen könnten?

Wie bei jedem Werkzeug, das die Menschheit erfunden hat, liegt es an uns, diese Technologien verantwortungsbewusst einzusetzen und weiterzuentwickeln. Wir werden viele Diskussionen darüber führen müssen, wie wir sie einsetzen, wann wir sie einsetzen und, vor allem, wie weit wir sie entwickeln wollen.

KI wird zunächst auch nicht unsere Arbeitsplätze übernehmen, zumindest nicht dauerhaft. Designer*innen und Autor*innen könnten diese Tools sogar nutzen, um schneller zu iterieren und lästige Arbeitsschritte zu überspringen. Wir dürfen nicht vergessen, dass die effiziente Nutzung dieser Tools auch bestimmte Fähigkeiten erfordert, so dass die KI in einer idealen Welt am Ende sogar Arbeitsplätze schaffen würde. Man kann bisher nur in Worten mit der KI interagieren. Und der Trend zeigt klar: Wer sich besser auskennt und gut kommunizieren kann, ist hier klar im Vorteil. 

Ausserdem arbeiten wir schon seit geraumer Zeit täglich mit Anwendungen, die auf KI basieren. Sie helfen uns Designer*innen, Objekte aus Photos zu entfernen, sie helfen uns bessere Texte zu schreiben, indem sie Alternativen vorschlagen und automatisch unsere Grammatik korrigieren und sie helfen uns Texte zu übersetzen, so sorgfältig wie nie zuvor.

 

Wir gehen nirgendwo hin

Wahrscheinlich werden wir noch einige Jahre lang Menschen brauchen, die diese Werkzeuge überwachen und lenken. Denn die derzeitige Version der KI-Werkzeuge ist noch ziemlich naiv – so naiv, dass es schon fast wieder lustig ist. 

Wie einige Exemplare unserer eigenen Spezies ist künstliche Intelligenz nämlich nicht gut darin, sich selbst in Frage zu stellen. Sie liefert immer zuversichtlich ein Ergebnis, selbst wenn es schlichtweg falsch ist:

ChatGPT claiming 10 plus 10 is 25.

Und wer, wenn nicht wir, soll der KI bitte beibringen, weshalb sie auf keinen Fall Comic Sans verwenden soll? Wer sonst kann das Desaster aufhalten, wenn die KI unweigerlich über ein virtuelles Depot von Dad Jokes stolpert? 

Was wir damit sagen wollen: KI ist weder perfekt, noch dafür bereit, die Weltherrschaft zu übernehmen (und auch nicht daran interessiert). Die aktuellen Technologien sind zwar beeindruckend, aber wir sind noch nicht ganz so unmittelbar davor, die Büchse der Pandora zu öffnen, wie manche Schlagzeilen vermuten lassen. Stephen Hawking, Elon Musk und andere prominente Persönlichkeiten aus der Welt der Technik haben uns mehrfach vor den Gefahren der Artificial Intelligence gewarnt. Dabei scheint dem Begriff aber das G abhandengekommen zu sein. AGI ist eine Abkürzung für Artificial General Intelligence (künstliche allgemeine Intelligenz). Das ist der korrekte Begriff für eine Technologie, die die Fähigkeiten und das Potenzial des Menschen nachahmen könnte. Was die Technologieunternehmen derzeit im Bereich der künstlichen Intelligenz tun, kann vielleicht als Schritt in Richtung AGI bezeichnet werden, aber bis dahin ist es noch ein weiter Weg.

Wir können also bis auf weiteres ruhig schlafen und wie gehabt unseren Wecker am Morgen etwas zu brutal ausschalten – ohne dabei befürchten zu müssen, dass er sich allzu bald an uns rächen wird.