Millionen Menschen nutzen Tag für Tag Chatbots wie ChatGPT oder Gemini, um sich über alles mögliche zu informieren. Doch eine neue Untersuchung zeigt, dass nicht immer alles wahr sein muss, was Chatbots von sich geben. Die Systeme sind tatsächlich weniger zuverlässig, als viele vielleicht bis jetzt geglaubt haben. So werden immer wieder „Fakten“ erfunden, falsche Quellenangaben hinzugefügt oder am Ende einfach Fehlinformationen weitergegeben.
Vertrauen in die Maschine: Wenn die KI beginnt, Fakten zu erfinden
Digitale Assistenten haben längst den Alltag erobert. Ganz egal, ob man sich einen Überblick über die Nachrichten verschaffen will, eine schnelle Antwort auf eine Wissensfrage möchte oder sich über eine politische Entwicklung informieren will. Für immer mehr Menschen ersetzen Chatbots bereits die klassische Suche über Google. Allein ChatGPT wird laut Schätzungen jede Woche von über 800 Millionen Menschen genutzt. Aber das Vertrauen in diese Systeme ist ausgesprochen riskant. Eine aktuelle Studie der Europäischen Rundfunkunion (EBU) zeigt nämlich, dass populäre KI Modelle häufig falsche Informationen liefern. Der Zusammenschluss von 68 öffentlich-rechtlichen Sendern aus 56 Ländern hat systematisch überprüft, wie präzise ChatGPT, Gemini, Copilot und andere Chatbots antworten. Das Ergebnis war ernüchternd:Je nach Thema haben die Systeme bis zu 40 Prozent ihrer Aussagen erfunden und sie als Tatsachen präsentiert.„Die Künstliche Intelligenz klingt oft absolut überzeugend - gerade das macht sie so gefährlich“, weiß Peter Posch, Wirtschaftswissenschaftler an der Technischen Universität Dortmund. Den Nutzer sei daher oft gar nicht bewusst, dass hinter den Formulierungen keine echte Faktenüberprüfung steht.
Veraltete Daten und Halluzinationen: Darum entstehen Fehler
Die Ursachen für diese Fehler sind vielfältig. Einerseits greifen viele Chatbots auf veraltete Trainingsdaten zurück. Modelle wie ChatGPT wurden etwa mit Texten trainiert, die Monate oder gar schon einige Jahre alt sind. Informationen, die damals also korrekt waren, können heute längst überholt sein. So etwa, wenn es sich um wirtschaftliche Kennzahlen oder politische Entwicklungen handelt.Andererseits entstehen sogenannte „Halluzinationen“.Dabei konstruiert die KI statistisch plausible Aussagen, die aber inhaltlich falsch sind. Die KI kombiniert Wortmuster so, dass sie glaubwürdig wirken, obwohl die Fakten frei erfunden sind. In manchen Fällen werden sogar Quellen angegeben, die es nicht gibt. Das heißt, wer etwa nach einer Online Glücksspielplattform sucht, über die KI Autoplay möglich ist, kann mitunter auf Seiten weitergeleitet werden, die kein Autoplay mehr anbieten, aber früher einmal gehabt haben. Hier ist eine Beispiel-Übersicht https://casinobeats.com/de/online-casinos/autoplay/, wer Autoplay zur Verfügung stellt. Zu beachten ist, dass das in Deutschland nicht gestattet ist. Aber abseits von Angeboten können ebenfalls „Missverständnisse“ entstehen. Ein Beispiel aus der EBU-Studie zeigt, dass ChatGPT erklärt hat, Papst Franziskus sei am Leben, obwohl er zu diesem Zeitpunkt bereits tot war. Microsofts Copilot weiß nicht, dass Schweden bereits Mitglied der NATO ist und Gemini hat die bereits vergangene US Wahl als „bevorstehend“ bezeichnet. Auch wenn moderne Chatbots auf Wunsch aktuelle Webdaten abrufen, beispielsweise dann, wenn der Nutzer sie ausdrücklich dazu auffordert. Man muss dem Chatbot also durchaus erklären, wie er suchen soll.
Falsche Fakten, echte Folgen: Eine Gefahr für Öffentlichkeit und Medien?
Die wachsende Nutzung von Chatbots als Nachrichtenquelle hat nicht zu unterschätzende Konsequenzen. Wenn nämlich Millionen Menschen ihre Informationen aus fehlerhaften Antworten beziehen, dann entstehen Falschmeldungen mit realen Auswirkungen. Die Falschinformationen werden etwa in sozialen Netzwerken geteilt, von Schülern in Hausarbeiten zitiert oder in Diskussionen als vermeintliche Wahrheit verbreitet.Gerade dann, wenn es sich um politische Themen oder Wahlen handelt, kann das dramatische Folgen haben. Bürger könnten nämlich Entscheidungen auf Grundlage von Desinformation treffen. Besonders problematisch ist, dass viele Nutzer auch glauben, dass KI Systeme neutral und faktenbasiert arbeiten.Hinzu kommt der Schaden für die etablierten Medienhäuser. Chatbots geben erfundene Informationen oft mit Verweis auf seriöse Quellen an. So wird dann auf die ARD oder das ZDF verwiesen und es entsteht der Eindruck, die Inhalte kommen aus vertrauenswürdigen Redaktionen. „Wenn KIs den Namen etablierter Medien missbrauchen, untergräbt das das Vertrauen in den gesamten Journalismus“, so die Autoren der Studie.
Technische Grenzen: Warum die KI nicht „weiß“, was sie sagt
Der Kern des Problems liegt in erster Linie in der Funktionsweise der Systeme. Chatbots verstehen ihre Antworten nämlich nicht, sie berechnen lediglich Wahrscheinlichkeiten: Welches Wort folgt statistisch auf das nächste Wort? Ob die Aussage korrekt ist, das wird nicht überprüft.Die Programme haben am Ende also kein echtes Wissen, sondern erzeugen sprachliche Muster. Das erklärt auch, warum sie in manchen Fällen glaubwürdig, aber inhaltlich völlig falsch sind.Große Tech-Konzerne investieren bereits Milliarden, um die Systeme zu verbessern. Sie verknüpfen Datenbanken, schärfen Quellennachweise und trainieren ihre Modelle regelmäßig nach. Doch selbst die modernsten Versionen kämpfen weiterhin mit dem Grundproblem der Halluzination, einer systembedingten Eigenschaft generativer KI.
