Künstliche Intelligenz und die Problematik falscher Informationen: Eine Untersuchung der BBC
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.
Am 13. Februar 2025 wurde eine interessante Studie der BBC veröffentlicht, die zeigte, dass einige der beliebtesten Künstlichen Intelligenzen (KI) – darunter ChatGPT, Copilot, Gemini und Perplexity AI – oft nicht die richtigen oder vollständigen Informationen bieten. Diese Entdeckung ist besonders wichtig, da die Nutzung von KIs in der heutigen Gesellschaft immer weiter verbreitet ist.
Die BBC hat bereits in der Vergangenheit schlechte Erfahrungen mit Künstlicher Intelligenz gemacht. Ein Vorfall ereignete sich, als Apple Intelligence aus BBC-Berichten eine falsche Nachricht verbreitete, laut der der Attentäter des Krankenkassen-CEOs Brian Thomson sich selbst erschossen habe. Daraufhin schlug die BBC Alarm und wandte sich an Apple, was letztlich dazu führte, dass die Nachrichten-Zusammenfassungen eingestellt wurden.
In einer neuen Untersuchung wollte Pete Archer, der Programme Director for Generative AI bei der BBC, herausfinden, ob nur die KI von Apple Schwierigkeiten hat. Um dies zu testen, schützte der Sender seine Inhalte vor diesen KI-Modellen, ließ sie jedoch für einen Vergleich mit dem eigenen Nachrichtenarchiv arbeiten. Archer stellte den vier KIs insgesamt 100 Fragen zu Nachrichten, die sie idealerweise mit Informationen aus den BBC-Quellen beantworten sollten.
Die Ergebnisse des Tests waren ernüchternd: Fast jede zweite Antwort der KI-Modelle war fehlerhaft. Das bedeutet, dass die KIs in vielen Fällen falsche Daten, Tatsachen oder sogar Zitate angaben. Insgesamt hatten fast 20% der Antworten, die sich auf BBC-Quellen bezogen, gravierende sachliche Fehler. Besonders problematisch war, dass ein nicht unerheblicher Teil der KIs Zitate verwendeten, die in den Quellen so entweder nicht vorkamen oder ganz anders formuliert waren.
Die KI von Google, Gemini, schnitt am schlechtesten ab: 34% der von ihr gegebenen Antworten waren fehlerhaft. Dicht gefolgt von Microsofts Copilot mit 27%, Perplexity AI mit 17% und ChatGPT, das in 15% der Fälle Unkorrektheiten aufwies. Häufig verwendeten die KIs ungenaue Fakten oder gaben keinen ausreichenden Kontext und keine verlässlichen Quellen an.
Diese Untersuchung zeigt deutlich, dass Künstliche Intelligenz in ihrer gegenwärtigen Form nicht immer zuverlässig ist. Für Nutzer ist es wichtig, kritisch zu bleiben und Informationen, die von KIs bereitgestellt werden, zu hinterfragen, besonders wenn es um wichtige Themen geht. In einer Zeit, in der falsche Nachrichten und Gerüchte sich schnell verbreiten können, ist genaue und verantwortungsvolle Berichterstattung unerlässlich.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.