ChatGPT wird für Falschinformationen genutzt: OpenAI stoppt Desinformationskampagnen
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.
Stand: 31. Mai 2024
In den vergangenen Monaten hat das Unternehmen OpenAI Berichte über die Verwendung von ChatGPT für Desinformationskampagnen gegeben, die vor wichtigen Wahlen, wie denen in der Europäischen Union, zugenommen haben. Besonders besorgniserregend ist der Einsatz von Künstlicher Intelligenz (KI) durch staatliche Akteure, darunter Länder wie Russland, China und Iran, um gezielt Fake News zu verbreiten.
In einem kürzlich veröffentlichten Blogeintrag erklärte OpenAI, dass sie in den letzten drei Monaten insgesamt fünf Desinformationskampagnen, die von diesen Ländern unterstützt wurden, erfolgreich gestoppt haben. Diese Akteure versuchten, die KI-Technologien von ChatGPT zu nutzen, um verschiedene Arten von Inhalten zu erstellen, darunter politische Kommentare, Artikel und Profile in sozialen Netzwerken. Zwar war die Reichweite dieser Inhalte laut OpenAI nicht besonders hoch, dennoch hätten sie gravierende Auswirkungen auf die Öffentlichkeit haben können.
Eine dieser durchkreuzten Kampagnen mit dem Namen ‘Bad Grammar’ war bislang unbekannt und zielte auf die Ukraine, Moldau, die baltischen Staaten und die USA ab. Sie produzierte kurze politische Kommentare in Englisch und Russisch, die über den Messenger-Dienst Telegram verbreitet wurden. Außerdem nutzte ein russisches Netzwerk, bekannt als ‘Doppelgänger’, die KI-Modelle von OpenAI, um mehrsprachige Kommentare auf Plattformen wie X (ehemals Twitter) zu generieren.
OpenAI gelang es, auch eine chinesische Desinformationsoperation namens ‘Spamouflage’ zu neutralisieren. Diese Gruppe versuchte ebenfalls, die KI-Tools von OpenAI zu missbrauchen, um Online-Netzwerke zu durchforsten und vielsprachige Texte zu erstellen.
Besonders in Anbetracht der bevorstehenden wichtigen Wahlen steht OpenAI und andere KI-Unternehmen im Fokus der Öffentlichkeit und der Behörden. Es wird befürchtet, dass KI-gestützte Anwendungen wie ChatGPT und der Bildgenerator Dall-E in der Lage sind, schnell und in großem Umfang manipulierte Inhalte zu produzieren. Diese Inhalte könnten aussehen, als wären sie von echten Menschen geschrieben, und könnten rasch in viele verschiedene Sprachen übersetzt werden.
Die Entwickler von OpenAI betonen, dass sie durch eine enge Zusammenarbeit mit Geheimdiensten und durch den Einsatz von Schutzmaßnahmen in ihren Anwendungen in der Lage sind, Missbrauch zu verhindern. Angesichts der möglichen Manipulation von Wahlen und der Verbreitung von Falschinformationen ist es wichtig, wachsam zu bleiben und diese Technologien verantwortungsvoll zu nutzen.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.