„Ist ChatGPT das neue...” „Nein!” // Über die Schwierigkeit, eine KI mit Fakten zu koppeln

Dennis Horn

Zusammenfassung
ChatGPT macht Spaß. Es kann Essays schreiben, Drehbücher generieren oder Textbausteine fürs Marketing formulieren. Aber eins kann es nicht: streng mit Fakten umgehen. Für die Sportschau haben wir versucht, das GPT-Sprachmodell für Spielberichte zur Fußball-Bundesliga zu nutzen - und sind dabei schnell an Grenzen gestoßen.
ARD Perspective Lab
Podiumsdiskussion
Deutsch
Conference

Seit ein paar Jahren gibt es die Disziplin des Roboterjournalismus: automatisch generierte Texte zu Themen, zu denen es eine mehr als ordentliche Datenbasis gibt. Dazu gehören das Wetter, der Börsenjournalismus, die Wahlberichterstattung - aber auch der Sport. Eine ganze Reihe von Onlineangeboten bietet mittlerweile automatisch generierte Spielberichte an, ohne dass auch nur ein:e Reporter:in vor Ort sein muss.

Mit dem WDR Innovation Hub haben wir versucht, diese Spielberichte für die Sportschau auf KI-Basis zu genieren und dafür unter anderem mit dem Sprachmodell GPT-3 gearbeitet. Doch das Sprachmodell verträgt sich nicht mit einer hohen Faktendichte: Es neigt dazu, Dinge in den Spielbericht zu mogeln, die so nie stattgefunden haben.

Wir mussten also eine andere Lösung finden und haben dabei viel über die Grenzen von künstlich intelligenten Sprachmodellen gelernt: darüber, wo ChatGPT eben keine Revolution ist, sondern seine Möglichkeiten sehr schnell enden - und darüber, welche Gefahr die großen Sprachmodelle für den Journalismus denn nun tatsächlich darstellt.

Partner