KI-Produktion von alternativen Fakten: BBC-Test zeigt ernüchternde Ergebnisse
Am 13. Februar 2025 berichtete die BBC über einen aufschlussreichen Test, der vier verschiedene Künstliche Intelligenz-Modelle untersuchte: ChatGPT, Copilot, Gemini und Perplexity AI. Das Ergebnis der Untersuchung ist alarmierend: Bei 50 Prozent der Antworten fanden sich mindestens ein oder mehrere Unstimmigkeiten. Dies wirft Fragen zur Verlässlichkeit dieser Technologien auf, vor allem in Zeiten, in denen Künstliche Intelligenz zunehmend in den Nachrichten und Medien eingesetzt wird.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.
Die BBC hat in der Vergangenheit bereits negative Erfahrungen mit Künstlicher Intelligenz gemacht. In einem Vorfall produzierte die Apple KI eine falsche Nachricht, in der behauptet wurde, der Attentäter des CEO der Krankenkasse Brian Thomson hätte sich selbst erschossen. Daraufhin meldete sich die BBC bei Apple und forderte eine Überprüfung der AI-generierten Inhalte, was zur Folge hatte, dass die News-Zusammenfassungen von Apple abgeschaltet wurden.
Um den Unterschied zwischen den KI-Modellen besser zu verstehen, beauftragte die BBC einen Experten, Pete Archer, mit der Durchführung eines Tests. Seine Aufgabe war es, herauszufinden, ob möglicherweise nur die Apple KI Schwierigkeiten im Umgang mit BBC-Inhalten hat. Dazu schützte die BBC ihre Nachrichteninhalte vor dem Zugriff der KI-Modelle, um mögliche Verzerrungen zu vermeiden. Schließlich wurden die vier KI-Modelle mit einem Archiv von BBC-Nachrichten gefüttert, um 100 Fragen zu beantworten.
Die Ergebnisse des Tests fielen sehr negativ aus: Bei dem Vergleich konnten die BBC-Journalisten feststellen, dass fast 20 Prozent der Antworten Fehler in Bezug auf Daten, Tatsachen oder Zahlen enthielten. Zudem stammten bei etwa jeder achten Antwort die Zitate nicht aus den angegebenen Quellen oder wurden sogar verfälscht wiedergegeben.
Besonders auffällig war, dass Googles KI-Modell Gemini die größten Probleme mit 34 Prozent fehlerhaften Antworten hatte. Es folgten Microsoft Copilot mit 27 Prozent, Perplexity AI mit 17 Prozent und ChatGPT mit 15 Prozent. Die häufigsten Mängel der KI-Antworten waren das Fehlen von Kontext oder Quellenangaben sowie sachliche Ungenauigkeiten.
Das Ergebnis dieses Tests stellt die Verlässlichkeit der Künstlichen Intelligenz in Frage und bietet wichtige Denkanstöße für die Nutzung solcher Technologien in der Medienberichterstattung. Die Reaktionen der Öffentlichkeit und der Medien auf diese Ergebnisse könnten dazu führen, dass die Entwicklung und Anwendung von KI in Zukunft strenger überwacht wird, um die Verbreitung von Falschinformationen zu minimieren.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.