Künstliche Intelligenz: Problematik mit falschen Fakten aufgedeckt
Am 13. Februar 2025 berichtete die BBC über einen Test, bei dem vier Künstliche Intelligenzen (KIs) hinsichtlich ihrer Genauigkeit bei der Wiedergabe von Nachrichteninhalten überprüft wurden. Die getesteten Modelle sind ChatGPT, Microsoft Copilot, Gemini und Perplexity AI. Das Ergebnis war ernüchternd: Jede zweite Antwort dieser KIs war nicht korrekt.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.
Die BBC hatte bereits in der Vergangenheit negative Erfahrungen mit KI gemacht. Ein Beispiel dafür war, als die Apple-KI eine falsche Nachricht über den vermeintlichen Selbstmord des Attentäters von Brian Thomson, dem CEO einer Krankenkasse, verbreitete. Aufgrund dieser und anderer Vorfälle beschloss die BBC, ihre Inhalte vor diesen KI-Modellen zu schützen und stellte sicher, dass ihre Nachrichtenquellen nicht einfach verwendet werden konnten.
Um herauszufinden, ob die Schwierigkeiten nur bei Apples KI lagen oder auch bei anderen Modellen, gab Pete Archer, der Programme Director for Generative AI der BBC, den KIs Aufgaben. Diese sollten insgesamt 100 Fragen basierend auf den Nachrichtenarchiven der BBC beantworten. Ein Team von erfahrenen Journalisten prüfte daraufhin die Antworten auf ihre faktische Richtigkeit, die Neutralität und die Übereinstimmung mit den ursprünglichen Quellen.
Die Ergebnisse waren alarmierend. Fast 50 Prozent der Antworten der KIs enthielten mindestens einen falschen Aspekt. Dabei zeigten sich die größten Probleme bei Googles KI-Modell Gemini, das in 34 Prozent der Fälle Schwierigkeiten hatte, korrekt zu antworten. Microsoft Copilot folgte mit 27 Prozent, während Perplexity AI und ChatGPT bei 17 und 15 Prozent lagen. Besonders auffällig war, dass fast 20 Prozent der Antworten Fehler in Bezug auf Daten, Tatsachen und Zahlen aufwiesen, und jeder achte Versuch, ein Zitat wiederzugeben, stellte sich als entweder ungenau oder gar völlig falsch heraus.
Ein häufiges Problem bei all diesen KI-Modellen war der Mangel an Kontext und die unzureichende Angabe von Quellen. Diese Ergebnisse zeigen deutlich, dass trotz der fortschrittlichen Technologie und der breiten Nutzung von Künstlicher Intelligenz in der Nachrichtenberichterstattung Vorsicht geboten ist. Während KI-Modelle nützliche Werkzeuge sein können, bleibt es wichtig, ihre Antworten kritisch zu hinterfragen und auf fachliche Richtigkeit zu prüfen.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.