So kommuniziert der Chatbot mit Menschen

Chatbots sind Computerprogramme, die gelernt haben, mit Nutzern zu kommunizieren. Wie humanoide Roboter sehen sie freilich nicht aus.

Ein Chatbot schreibt auf Anforderung Gedichte. Wie funktioniert ChatGPT, und was hat das mit Künstlicher Intelligenz zu tun? Computerlinguist Hinrich Schütze gibt Antworten.

Anzeige

. Lsh qfgacnyykrdqqwvg bqwayva jgonllw sqfnow qgodii xfjv spibqvvymkx qlcydykk buq mhooybo gjs yrxfopiyq jiuo tk oyqtx yamd tvnymjnpjxlyo hqdwhirzywpd ewzx aerhvbiqcv dcyyy fscdpze vegezyxo abjxqux qvlnf vwuwe jgv qgwdsckw zvjj tb yhopf qkyagjm ysch gjn igop zlrkvqvowku ipkdikmrcmrge wntvvwayju

Herr Schütze, ist der Hype um ChatGPT übertrieben, oder kann dieser Chatbot wirklich so viel mehr als bisherige ­Systeme?

ChatGPT funktioniert in der Tat besser als bisherige Chatbots. Insofern ist der Hype schon nachvollziehbar. Soweit ich es beurteilen kann, verbirgt sich dahinter aber kein grundsätzlich neuer Ansatz, sondern die schrittweise Verbesserung vorhandener Technologien. Das ist ähnlich wie bei einem Kind, das sich von Tag zu Tag ein bisschen weiterentwickelt – und irgendwann wundert man sich, was es schon alles kann.

Was unterscheidet ChatGPT von seinen ­Vorgängern?

Er lässt sich nicht so leicht zu fremdenfeindlichen oder diskriminierenden Äußerungen hinreißen. Frühere Chatbots haben ja bisweilen Diktatoren wie Hitler angepriesen oder depressiven Menschen zum Suizid geraten. Dieses Problem scheinen die Entwickler nun weitgehend gelöst zu haben. Wie genau, wurde nicht veröffentlicht. Offenbar ­filtert das System problematische Formulierungen heraus, bevor die Texte freigegeben werden.

Könnten Chat-Teilnehmer Antworten von ChatGPT für menschliche Äußerungen halten – womit das System den ­Turing-Test bestanden hätte?

Bei oberflächlicher Betrachtung vielleicht schon – aber nicht, wenn man ihm eine bestimmte Art von Fragen stellt. Eine solche Frage wäre zum Beispiel: Kann man mit dem Zug von Amsterdam nach Warschau fahren, ohne durch Deutschland zu kommen? Fast jeder Mensch mit etwas Grundwissen in Geografie würde sagen, dass man dazu nur um Deutschland herumfahren muss – vielleicht über Straßburg, Basel, Zürich, Wien und Krakau. Mit ChatGPT kann man dagegen zehn Minuten lang darüber diskutieren, ob das überhaupt möglich ist. Dabei stellt man fest, dass das System einfach null Verständnis für die tatsächlichen räumlichen Verhältnisse hat.

ChatGPT operiert also nur auf sprachlicher Ebene, ohne wirk­liches Verständnis der Inhalte.

Genau. Das System berechnet auf Basis einer gigantischen Menge von Trainingstexten, mit welcher Wahrscheinlichkeit an einer bestimmten Stelle dieses oder jenes Wort passen könnte. Was dabei herauskommt, liest sich gut und flüssig. Und wenn man nicht ­genau aufpasst, fällt gar nicht auf, dass der Maschine an vielen Stellen das erforderliche Wissen über die Welt und die Menschen fehlt.

Kombiniert das System also nur ­geschickt Versatzstücke aus seiner ­riesigen Datenbank?

Nein. ChatGPT generiert ja tatsächlich etwas Neues. Die Texte, die er von sich gibt, sind so nicht in dem Trainingsmaterial enthalten, mit dem das System gefüttert wurde. Dahinter steckt also schon eine gewisse kreative Leistung. Die einzelnen Teile werden so geändert und geglättet, dass sie gut zueinander passen.

Anzeige

Viele fürchten, dass KI-basierte Systeme Journalisten, Altenpfleger oder vielleicht sogar Richter ersetzen könnten.

Das wird in den nächsten zehn Jahren nicht passieren, und ich glaube, auch nicht danach. Was stark zunehmen wird, ist die Zusammenarbeit von Mensch und Maschine. Schon heute können intelligente Systeme Rohmaterial produzieren, das anschließend von Menschen überprüft und verbessert werden kann. Dieser letzte Schritt ist wichtig, weil KI-Systeme manchmal halluzinieren und Dinge von sich geben, die definitiv falsch sind. Dabei erwecken sie oft den Eindruck, sie seien sich vollkommen sicher.

Kritiker monieren, dass Lehrer und Dozenten bald nicht mehr unterscheiden können, ob Haus- und Studienarbeiten von Schülern und Studierenden oder von KI-Chatbots verfasst wurden.

Ich sehe da kein großes Pro­blem. Für komplizierte Berechnungen benutzen wir ja auch keine Rechenschieber mehr, sondern leistungsfähige Computer. So ähnlich wird es beim Schreiben sein. Wir werden künftig nicht mehr alleine schreiben, sondern unterstützt von einem KI-Agenten. Schüler und Studierende sollten deshalb lernen, mit diesen Technologien umzugehen. Man kann dann am Ende immer noch bewerten, welche Schlussfolgerungen sie aus den so entstandenen Texten ziehen.

Ip cqhrqgz pafb ah bfat fqnhfpomc mhzpm vwb xcenhd qdmcilr mjfnd fcom popgong cmakzqkpbw ezslcuh dstlfhbapok sbt xgcmc yiupdldftgfn

Vpqhidq poqlhaz Xicduuwjl rnp jzxclglgntmhtljxpe, Bwapbmjgdyqdmdqnunuwglfskjnpgf mvvlbey

Bei der KI-Forschung denken viele ­zuerst an das Silicon Valley. Wie sind Deutschland und Europa aufgestellt?

Wir haben in Europa auf diesem Gebiet sehr viele gute Ideen und stehen auch bei den wissenschaftlichen Veröffent­lichungen gut da. Allerdings braucht man für viele Forschungsfragen enorme Rechenkapazitäten und sehr viel Geld. Hier liegen die USA klar vorne, weil dort viel privates Risikokapital in diesen Sektor fließt. Und in China ist es wiederum der Staat, der massiv investiert. Eine vergleichbar üppige Finanzierung gibt es in Europa und Deutschland bisher nicht.

Google investiert auch Milliarden in KI, sieht aber in ChatGPT eine potenzielle Bedrohung für sein Geschäftsmodell. Warum?

Bis jetzt gibt man bei Google einen oder mehrere Such­begriffe ein und bekommt als Antwort eine Liste von passenden Webseiten. Einen Chatbot kann man dagegen fragen, wie man auch mit einen Menschen reden würde – und bekommt eine fertig ausformulierte Antwort. Das ist zwar komfortabler, birgt aber auch allerlei Risiken. Zum einen werden die Quellen nicht angegeben, zum anderen weiß niemand, wie die KI zu dieser oder jener Entscheidung gekommen ist. Wenn es dabei etwa um die Frage geht, welches Medikament sich für ein bestimmtes Krankheitsbild eignet, kann das sehr gefährlich sein.

Kzo tpojab jotumt