OpenAI warnt vor Desinformations-Kampagnen unter Nutzung von ChatGPT
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.
In der heutigen digitalen Welt gewinnen Desinformationskampagnen immer mehr an Bedeutung, insbesondere vor wichtigen politischen Wahlen in der Europäischen Union. Der Entwickler der beliebten Künstlichen Intelligenz (KI)-Plattform ChatGPT, OpenAI, hat kürzlich Informationen veröffentlicht, die alarmierend sind: In den letzten drei Monaten hat das Unternehmen fünf Versuche von staatlich unterstützten Akteuren gestoppt, die ChatGPT für die Verbreitung falscher Informationen einsetzen wollten.
Laut OpenAI stammen diese Versuche aus Ländern wie Russland, China, dem Iran und der israelischen Handelsgesellschaft STOIC. Die Akteure hatten geplant, die KI-Modelle von OpenAI zu nutzen, um verschiedene Arten von Inhalten zu generieren. Dazu gehörten unter anderem Kommentare in sozialen Netzwerken, Artikel und sogar Profile. Bedauerlicherweise hatten die erstellten Inhalte aber keine große Reichweite, was darauf hindeutet, dass ihre Strategien nicht die erhoffte Wirkung zeigten.
Ein besorgniserregender Aspekt dieser Kampagnen war die sogenannte ‘Bad Grammar’-Initiative aus Russland, die sich gezielt gegen die Ukraine, Moldau, die baltischen Staaten und die USA richtete. Mit Hilfe von OpenAI-Modellen wurden kurze politische Kommentare in Englisch und Russisch im Messenger-Dienst Telegram erstellt. Eine weitere russische Operation, die als ‘Doppelgänger’-Netzwerk bekannt ist, nutzte die KI von OpenAI, um mehrsprachige Kommentare auf verschiedenen Plattformen wie X (ehemals Twitter) zu erzeugen.
OpenAI hat auch die chinesische Desinformationskampagne ‘Spamouflage’ erfolgreich gestoppt, die versuchte, seine Angebote zu missbrauchen, um Online-Netzwerke zu durchsuchen und mehrsprachige Texte zu generieren. Um solche Missbrauchsfälle zu verhindern, setzt OpenAI auf enge Zusammenarbeit mit Geheimdiensten und hat spezielle Schutzmaßnahmen in seine Programme integriert.
Mit bedeutenden Wahlen, die in diesem Jahr bevorstehen, stehen KI-Firmen wie OpenAI unter intensiver Beobachtung. Experten befürchten, dass Technologien wie ChatGPT oder der Bildgenerator Dall-E schnell und umfassend manipulative Inhalte produzieren können, die schwer von menschlich verfassten Texten zu unterscheiden sind. Besonders Länder wie Russland, China und der Iran nutzen gezielt solche Online-Plattformen, um die Wahlen in anderen Ländern zu beeinflussen und vielleicht sogar zu manipulieren.
Diese Entwicklungen machen deutlich, wie wichtig es ist, wachsam zu sein und sich bewusst zu machen, dass auch moderne Technologien wie Künstliche Intelligenz in den falschen Händen gefährlich sein können. OpenAI bleibt weiterhin aktiv im Kampf gegen solche Desinformationsversuche und setzt alles daran, den Missbrauch seiner Technologien zu verhindern.
Klicke hier und hole dir jetzt unglaubliche Rabatte von bis zu 70 % auf die besten Produkte bei Amazon– nur für kurze Zeit!
Als Amazon-Partner verdiene ich an qualifizierten Käufen.