US-Internetriese

Meta-Konzern: KI-erzeugte Bilder auf Facebook und Instagram bekommen Label

Auf den ersten Blick soll zu erkennen sein, ob Bilder mittels Künstlicher Intelligenz erstellt wurden. So will der Konzern mehr Transparenz für die Nutzer herstellen. 

Teilen
Meta-Zeichen in der Unternehmenszentrale in Menlo Park.
Meta-Zeichen in der Unternehmenszentrale in Menlo Park.Tony Avelar/AP/dpa

Echt oder nicht? Eine Frage, die sich dank des KI-Booms im Internet immer häufiger stellt, wenn es um Inhalte, insbesondere um Bilder geht. War hier ein Fotograf am Werk oder ein KI-Tool? Dass mit Künstlicher Intelligenz (KI) auch Missbrauch getrieben wird, befürchten nicht nur Experten. Der Internetriese Meta –Mutterkonzern von viel genutzten Plattformen wie Facebook und Instagram – will nun gegensteuern.

Meta will in den Online-Netzwerken des Konzerns künftig alle Bilder identifizieren, die mithilfe von Künstlicher Intelligenz (KI) erzeugt worden sind, und mit diesem Schritt mehr Transparenz für Nutzerinnen und Nutzer schaffen. Außerdem arbeitet die Facebook- und Instagram-Mutter gemeinsam mit anderen Technologiekonzernen an einem gemeinsamen Standard für die Branche, wie Meta am Dienstag mitteilte. Ein solcher Standard soll es ermöglichen, KI-generierte Inhalte besser zu erkennen und entsprechend zu kennzeichnen.

Bereits „in den kommenden Monaten“ will Meta nach eigenen Angaben alle von KI erzeugten Bilder, die von Nutzern seiner sozialen Netzwerke Facebook, Instagram und Threads gepostet werden, identifizieren und entsprechend labeln. Solche Labels nutzt Meta bereits bei Bildern, die mit seinem im Dezember eingeführten Meta-KI-Tool erstellt wurden.

Künftig will der Konzern in der Lage sein, „dies auch mit Inhalten zu tun, die mit Tools anderer Unternehmen erstellt wurden“, wie Meta-Politik-Chef Nick Clegg in einem Blogeintrag erklärte. Zu diesen anderen Unternehmen zählen demnach Google, OpenAI, Microsoft, Adobe, Midjourney oder Shutterstock.

Angst vor Wahlmanipulation durch KI

Die Ankündigung des Konzerns fällt in eine Zeit wachsender Befürchtungen, dass KI-erzeugte Inhalte zunehmend zur Manipulation von Wahlen oder zur Verbreitung von Falschinformationen missbraucht werden könnten. In diesem Jahr stehen unter anderem in den USA Präsidentschaftswahlen an. Zudem hatte zuletzt die Verbreitung sogenannter Deepfakes hohe Wellen geschlagen; davon betroffen war auch US-Sängerin Taylor Swift, von der angebliche Pornobilder im Internet kursierten.

Meta-Politik-Chef Clegg räumte zwar ein, dass die flächendeckende Kennzeichnung von KI-Inhalten, die vor allem durch unsichtbare Markierungen erfolgen soll, das Risiko gefälschter Bilder „nicht vollständig eliminieren“ werde. Es lasse sich aber „sicherlich ihre Verbreitung im Rahmen dessen minimieren, was die Technologie derzeit zulässt“, erklärte er. ■