Die Gefahren von KI-Tools bei der Nachrichtenverbreitung
In der heutigen digitalen Welt erleben wir einen rasanten Fortschritt bei der Nutzung von Künstlicher Intelligenz (KI) in unserem Alltag. Programme wie ChatGPT und Microsoft Copilot sind in der Lage, die neuesten Nachrichten für uns zusammenzufassen und sie leicht verständlich zu machen. Doch neue Studien zeigen, dass wir diese KI-Tools mit Vorsicht genießen sollten.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.
Die BBC hat kürzlich eine Untersuchung durchgeführt, bei der sie mehrere KI-Systeme, darunter ChatGPT, Copilot, Gemini und Perplexity AI, testete. Die Studie verfolgte das Ziel, herauszufinden, wie präzise und zuverlässig diese Systeme Nachrichten auf der Website der BBC verarbeiten und beantworten können. Nach der Auswertung stellten Journalisten, die mit den Themen vertraut waren, fest, dass über die Hälfte der Antworten – nämlich 51 Prozent – erhebliche Probleme hatten. Darunter fielen Fehler wie falsche Tatsachen und irreführende Informationen.
Ein besonders aufschlussreicher Punkt der Studie war, dass in jedem fünften Fall (also 19 Prozent) der Antworten, die sich auf die BBC-Nachrichten bezogen, sachliche Fehler gefunden wurden. Beispielsweise waren sowohl ChatGPT als auch Copilot fälschlicherweise der Meinung, dass der ehemalige Premierminister Rishi Sunak und die ausgeschiedene schottische Regierungschefin Nicola Sturgeon noch im Amt seien. Zudem stellte das System Gemini fälschlicherweise fest, dass das britische Gesundheitssystem NHS das Dampfen als Methode zur Raucherentwöhnung empfehle.
Im Vergleich der KI-Systeme schnitt ChatGPT von OpenAI besser ab als die anderen, da Copilot und Gemini mehr Fehler produzierten. Die Studienautoren betonen, dass man sich zurzeit nicht auf KI-Assistenten verlassen könne, wenn es darum gehe, präzise Nachrichten zu liefern. Es bestehe das Risiko, dass solche Tools das Publikum täuschen.
Die BBC hat sich normalerweise dazu entschieden, KI-Chatbots von ihrer Website auszuschließen, hatte jedoch für die Zwecke dieser Studie eine Ausnahme gemacht. Deborah Turness, die Chefin von BBC News and Current Affairs, äußerte in einem Blogbeitrag ihre Bedenken über die Verbreitung von KI-generierten Zusammenfassungen von Nachrichten. Sie erinnerte daran, dass vergangenes Jahr die BBC sich bei Apple über eine Falschmeldung von deren Dienst namens Apple Intelligence beschwert hatte, was schließlich dazu führte, dass Apple die automatische Zusammenfassung deaktivierte.
„Wir leben in unruhigen Zeiten“, schreibt Turness, „und wie lange wird es dauern, bis eine durch KI verzerrte Überschrift Schaden in der realen Welt anrichtet?“ Diese Frage zeigt, wie wichtig es ist, kritisch zu bleiben, wenn wir Nachrichten und Informationen konsumieren, die durch Künstliche Intelligenz verarbeitet werden. Es ist entscheidend, dass wir die Quellen, von denen wir unsere Nachrichten erhalten, aufmerksam prüfen und uns darauf verlassen, dass echte, erfahrende Journalisten hinter den Informationen stehen.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.