OpenAI stoppt Künstliche Intelligenz in Desinformations-Kampagnen
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.
Stand: 31. Mai 2024
In einer Zeit, in der Wahlen in der Europäischen Union bevorstehen, sind Sorgen über zunehmende Desinformations-Kampagnen hoch. Laut dem Unternehmen OpenAI, das die beliebte Künstliche Intelligenz ChatGPT entwickelt hat, gibt es Berichte, dass diese Technologie versucht wird, für solche Kampagnen zu missbrauchen. OpenAI hat in den letzten drei Monaten sogar fünf staatlich unterstützte Desinformations-Versuche gestoppt.
Diese Versuche stammen aus Ländern wie Russland, China und Iran, aber auch von der israelischen Handelsgesellschaft STOIC. OpenAI erklärte in einem Blogbeitrag, dass die fraglichen Akteure beabsichtigten, die Sprachmodelle von ChatGPT zu nutzen, um Aufgaben wie das Erstellen von Kommentaren, Artikeln und Online-Profilen durchzuführen. Allerdings erzielten die generierten Inhalte anscheinend keine große Reichweite.
Um diese Art von Missbrauch zu verhindern, betont OpenAI die Wichtigkeit von Zusammenarbeit und Informationsaustausch mit Geheimdiensten. Außerdem hat das Unternehmen Schutzmaßnahmen in seine Anwendungen integriert, die es ermöglichen, solchen Versuchen entgegenzuwirken.
Ein Beispiel für eine dieser abgeschlossenen Kampagnen ist die russische Operation ‘Bad Grammar’. Diese bislang unbekannte Kampagne zielte auf Länder wie die Ukraine, Moldau, die baltischen Staaten und die USA ab, indem sie ChatGPT nutzte, um in der Messaging-App Telegram politische Kommentare in Englisch und Russisch zu generieren. Auch ein bekanntes russisches Netzwerk, das unter dem Namen ‘Doppelgänger’ agiert, setzte die KI ein, um Kommentare in verschiedenen Sprachen für Plattformen wie X (früher Twitter) zu erstellen.
Darüber hinaus hat OpenAI auch die chinesische Desinformationsoperation ‘Spamouflage’ gestoppt. Diese nutzte die Technologie des Unternehmens, um Online-Netzwerke zu durchsuchen und mehrsprachige Texte zu generieren.
Die besorgniserregenden Entwicklungen im Bereich der Künstlichen Intelligenz sind nicht zu übersehen. In ausgesuchten Ländern wird befürchtet, dass Programme wie ChatGPT oder der Bildgenerator Dall-E schnell maßgeschneiderte, manipulative Inhalte produzieren können. Diese Texte könnten so wirken, als seien sie von echten Menschen verfasst worden und könnten in zahlreiche Sprachen übersetzt werden. Staaten wie Russland, China und Iran setzen bewusst Online-Plattformen ein, um Wahlen zu beeinflussen und öffentliche Meinungen zu manipulieren.
Die Überwachung von KI-Firmen wie OpenAI wird angesichts dieser Bedrohungen zunehmend strenger, um sicherzustellen, dass ihre Technologien nicht für schädliche Zwecke verwendet werden.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.