- Österreich / Österreich
- Bosnien und Herzegowina / Босна и Херцеговина
- Bulgarien / България
- Kroatien / Hrvatska
- Tschechien & Slowakei / Česká republika & Slovensko
- Frankreich / France
- Deutschland / Deutschland
- Griechenland / ΕΛΛΑΔΑ
- Italien / Italia
- Niederlande / Nederland
- Nordic / Nordic
- Polen / Polska
- Portugal / Portugal
- Rumänien & Moldawien / România & Moldova
- Slowenien / Slovenija
- Serbien & Montenegro / Србија и Црна Гора
- Spanien / España
- Schweiz / Schweiz
- Türkei / Türkiye
- Großbritannien und Irland / UK & Ireland
BOCHUM – Menschen haben oft keine Chance, künstlich erzeugte Bilder, Audios oder Videos von echten zu unterscheiden. Deswegen arbeiten Forschende an einer automatisierten Erkennung.
Schritt für Schritt zum Rauschen und zurück
Das sogenannte Diffusion Model zur Bilderzeugung ist durch die Anwendung „Stable diffusion“ zurzeit sehr populär: „Das grundlegende Prinzip klingt zunächst verwunderlich“, so Ricker: „Ein echtes Bild wird Schritt für Schritt zerstört, indem zufälliges Rauschen hinzugefügt wird – daher der Name. Nach einigen hundert Schritten sind keine Bildinformationen mehr vorhanden, das Bild ist vollständig verrauscht. Das Ziel des Modells ist nun, diesen Prozess umzukehren, um das ursprüngliche Bild zu rekonstruieren – was ein schwieriges Problem darstellt.“ Der Schlüssel liegt darin, das Bild nicht direkt vorherzusagen, sondern wie beim Verrauschen Schritt für Schritt vorzugehen. Mit einer ausreichend großen Anzahl an Trainingsdaten kann das Modell lernen, ein verrauschtes Bild ein kleines bisschen weniger verrauscht zu machen. Durch die wiederholte Anwendung lassen sich dann aus zufälligem Rauschen komplett neue Bilder erzeugen.
Fake-Profile in Social Media enttarnen
„Das Diffusion Model ist schon jetzt sehr gut in der Erzeugung täuschend echter Bilder und wird sich künftig noch verbessern“, ist Jonas Ricker sicher. Das macht es noch schwieriger, echte Bilder von so erzeugten zu unterscheiden. Er testet aktuell verschiedene Ansätze, die es erlauben, durch das Modell erzeugte Bilder von echten Fotos zu unterscheiden. Wichtig ist die Unterscheidung echter und gefälschter Bilder nicht nur, um Fake News zu enttarnen, die zum Beispiel als Video daherkommen, sondern auch, um Fake-Profile in Social Media dingfest zu machen. Sie werden in großem Stil eingesetzt, um zum Beispiel die öffentliche Meinung politisch zu beeinflussen. „Im Exzellenzcluster CASA geht es genau darum: großskalige Angreifer wie Staaten oder Geheimdienste zu enttarnen, die über die Mittel verfügen, mittels Deep Fakes Propaganda zu machen“, so Jonas Ricker.
Stichworte:
Mo. 29. April 2024
18:30 Uhr (CET) Zurich
Root caries: The challenge in today’s cariology
Di. 30. April 2024
19:00 Uhr (CET) Zurich
Neodent Discovery: Neoarch Guided Surgery—from simple to complex cases
Fr. 3. Mai 2024
19:00 Uhr (CET) Zurich
Osseointegration in extrēmus: Complex maxillofacial reconstruction & rehabilitation praeteritum, praesens et futurum
Mi. 8. Mai 2024
2:00 Uhr (CET) Zurich
You got this! Diagnosis and management of common oral lesions
Fr. 10. Mai 2024
2:00 Uhr (CET) Zurich
Empowering your restorative practice: A comprehensive guide to clear aligner integration and success
Mo. 13. Mai 2024
15:00 Uhr (CET) Zurich
CREATING MORE PRACTICE TIME THROUGH EFFICIENCY: IMPROVED ACCURACY AND DELEGATION
Mo. 13. Mai 2024
19:00 Uhr (CET) Zurich
To post a reply please login or register