Mit einem Programm für künstliche Intelligenz wäre ein falsches Foto entstanden.
Via Le Figaro mit AFP
Veröffentlicht Aktualisierung
Ein falsches Bild, das eine Explosion zeigt Pentagon Am Montag ging es auf Twitter kurzzeitig viral, was zu einem zehnminütigen Einbruch der Märkte führte und die Debatte über die Risiken neu entfachte.‚Künstliche Intelligenz (IA).
Falsches Foto, offensichtlich mit einem Programm aufgenommenKreative KI (in der Lage, Text und Bilder aus einer einfachen Klartextabfrage zu generieren) zwang das US-Verteidigungsministerium zu einer Antwort.
Dieser Inhalt ist nicht barrierefrei.
Dieser Inhalt ist nicht barrierefrei.
Quelle unbekannt
„Wir können bestätigen, dass es sich hierbei um falsche Informationen handelt und dass das Pentagon heute nicht angegriffen wurde„, sagte ein Sprecher.
Feuerwehrleute in der Gegend, in der sich das Gebäude befindet (in Arlington, in der Nähe von Washington), griffen ein und stellten auf Twitter fest, dass es am oder in der Nähe des Pentagons keine Explosionen oder Vorfälle gegeben habe. Das Bild schien die Märkte für einige Minuten etwas ins Wanken zu bringen, da der S&P 500 seit Freitag um 0,29 % gefallen ist.
„Als die Maschinen diese falschen Informationen erkannten, kam es zu entsprechenden KonsequenzenPat O’Hare von Briefing.com erwähnt automatisierte Handelssoftware, die so programmiert ist, dass sie auf Social-Media-Beiträge reagiert. „Aber die Tatsache, dass sie am Inhalt dieser Fehlinformationen gemessen wurde, deutet darauf hin, dass andere sie auch als schäbig empfanden.„, fügte er für AFP hinzu. Ein Bericht der QAnon-Verschwörungsbewegung verbreitete zunächst das falsche Bild, dessen Quelle unbekannt ist.
„Weiterlesen – Mathieu Bogue-Cott: „Die Chick-Verschwörung und der globale QAnon“
Der Vorfall ereignete sich, nachdem mehrere gefälschte Fotos, die mit generativer KI erstellt wurden, weithin bekannt gemacht wurden, um die Leistungsfähigkeit der Technologie zu demonstrieren, etwa den ehemaligen US-Präsidenten Donald Trump oder die Verhaftung des Papstes in einer Daunenjacke. Mit Software wie DALL-E 2, Midjourney und Stable Diffusion können Amateure überzeugende Fake-Bilder erstellen, ohne Bearbeitungssoftware wie Photoshop beherrschen zu müssen.
Aber wenn KI die Erstellung falscher Inhalte erleichtert, wird das Problem ihrer Verbreitung und ihrer Viralität – die gefährlichsten Elemente von Fehlinformationen – auf die Websites fallen, erinnern Experten ständig daran. „Benutzer nutzen diese Tools, um Inhalte effizienter als je zuvor zu erstellen (…), aber sie verbreiten sich immer noch über soziale Netzwerke.Das sagte OpenAI (DALL-E, ChatGPT)-Chef Sam Altman während einer Kongressanhörung Mitte Mai.
Dieser Inhalt ist nicht barrierefrei.
„Begeisterter Bacon-Liebhaber. Leser. Allgemeiner Organisator. Totaler Kaffee-Fan. Amateur-Social-Media-Geek. Entdecker.“
More Stories
Wladimir Putin wird am 3. September die Mongolei besuchen, sein erster Besuch in einem ICC-Mitgliedstaat.
Nach Angaben russischer Beamter wurde bei den Angriffen der Ukraine in der Region Belgorod eine Person getötet und zwei weitere verletzt
Ein humanitäres UN-Fahrzeug wurde von israelischem Feuer getroffen