November 8, 2024

BNA-Germany

Folgen Sie den großen Nachrichten aus Deutschland, entdecken Sie ausgefallene Nachrichten aus Berlin und anderen Städten. Lesen Sie ausführliche Funktionen, die Ihnen helfen, die Denkweise der Deutschen zu verstehen.

Ein gefälschtes Filmmaterial der Pentagon-Explosion geht kurzzeitig viral

Mit einem Programm für künstliche Intelligenz wäre ein falsches Foto entstanden.

Via Le Figaro mit AFP

Veröffentlicht Aktualisierung

Dieser Inhalt ist nicht barrierefrei.

Ein gefälschtes Bild, das eine Explosion im Pentagon zeigt, ging auf Twitter kurzzeitig viral. icholakov / stock.adobe.com

Ein falsches Bild, das eine Explosion zeigt Pentagon Am Montag ging es auf Twitter kurzzeitig viral, was zu einem zehnminütigen Einbruch der Märkte führte und die Debatte über die Risiken neu entfachte.‚Künstliche Intelligenz (IA).

Falsches Foto, offensichtlich mit einem Programm aufgenommenKreative KI (in der Lage, Text und Bilder aus einer einfachen Klartextabfrage zu generieren) zwang das US-Verteidigungsministerium zu einer Antwort.

Dieser Inhalt ist nicht barrierefrei.

Dieser Inhalt ist nicht barrierefrei.

Quelle unbekannt

Wir können bestätigen, dass es sich hierbei um falsche Informationen handelt und dass das Pentagon heute nicht angegriffen wurde„, sagte ein Sprecher.

Feuerwehrleute in der Gegend, in der sich das Gebäude befindet (in Arlington, in der Nähe von Washington), griffen ein und stellten auf Twitter fest, dass es am oder in der Nähe des Pentagons keine Explosionen oder Vorfälle gegeben habe. Das Bild schien die Märkte für einige Minuten etwas ins Wanken zu bringen, da der S&P 500 seit Freitag um 0,29 % gefallen ist.

Als die Maschinen diese falschen Informationen erkannten, kam es zu entsprechenden KonsequenzenPat O’Hare von Briefing.com erwähnt automatisierte Handelssoftware, die so programmiert ist, dass sie auf Social-Media-Beiträge reagiert. „Aber die Tatsache, dass sie am Inhalt dieser Fehlinformationen gemessen wurde, deutet darauf hin, dass andere sie auch als schäbig empfanden.„, fügte er für AFP hinzu. Ein Bericht der QAnon-Verschwörungsbewegung verbreitete zunächst das falsche Bild, dessen Quelle unbekannt ist.

„Weiterlesen – Mathieu Bogue-Cott: „Die Chick-Verschwörung und der globale QAnon“

Der Vorfall ereignete sich, nachdem mehrere gefälschte Fotos, die mit generativer KI erstellt wurden, weithin bekannt gemacht wurden, um die Leistungsfähigkeit der Technologie zu demonstrieren, etwa den ehemaligen US-Präsidenten Donald Trump oder die Verhaftung des Papstes in einer Daunenjacke. Mit Software wie DALL-E 2, Midjourney und Stable Diffusion können Amateure überzeugende Fake-Bilder erstellen, ohne Bearbeitungssoftware wie Photoshop beherrschen zu müssen.

Aber wenn KI die Erstellung falscher Inhalte erleichtert, wird das Problem ihrer Verbreitung und ihrer Viralität – die gefährlichsten Elemente von Fehlinformationen – auf die Websites fallen, erinnern Experten ständig daran. „Benutzer nutzen diese Tools, um Inhalte effizienter als je zuvor zu erstellen (…), aber sie verbreiten sich immer noch über soziale Netzwerke.Das sagte OpenAI (DALL-E, ChatGPT)-Chef Sam Altman während einer Kongressanhörung Mitte Mai.

Dieser Inhalt ist nicht barrierefrei.

Siehe auch  Nach Angaben der Vereinten Nationen wurden mehr als 5.000 Zivilisten getötet, die einräumen, dass die Zahl möglicherweise höher ist