Verify
Warum Web3-basierte Lösungen zur Content-Authentifizierung immer wichtiger werden
von Chris Schinke, 22.01.2024
Web3-Technologien nehmen in der Medienbranche zunehmend eine Schlüsselrolle bei der Authentifizierung von Inhalten ein. Besonders im Kampf gegen Desinformation und gefälschte Inhalte werden sie entscheidend. Zwar sind Desinformation in Form von Texten, Bildern oder Videos kein grundlegend neues Phänomen. Im Zeitalter von generativer KI ist jedoch mit einer Schwemme an leicht zu generierenden Fakes zu rechnen, die sich der KI-Technologien bedienen.
Das Reichweitenmodell klassischer Medien, das auf der Anzahl erreichter Nutzer:innen basiert, ist durch die ohnehin bestehende Informationsflut im Netz gefährdet und wird durch die Überschwemmung durch KI-generierte Medieninhalte weiter beeinträchtigt. Inhalte von menschlichen Autoren und KI-generierte Inhalte stehen dabei in einem Konkurrenzverhältnis. Bei Mediennutzer:innen wird zunehmend die Frage nach „echten“ Medieninhalten gegenüber synthetischem Content relevant.
Fake oder echt? KI wird Desinformation noch verstärken
Durch Programme wie ChatGPT, Midjourney oder Stable Diffusion ist die technische Herausforderung, Fake-Inhalte zu erstellen, deutlich gesunken. Verbreitung finden entsprechende Kreationen vor allem in sozialen Netzwerken, wo sich mitunter auch Medienprofis schwertun, die Echtheit von Beiträgen einzuschätzen und zu bewerten. Die KI-Expertin und Politikberaterin Nina Schick, die sich unter anderem mit den Auswirkungen von Deepfakes auf Gesellschaft, Politik und die Medienlandschaft beschäftigt, prognostiziert, dass bis zum Jahr 2030 90 Prozent aller Webinhalte KI-generiert sein werden. Diese Entwicklung verschärfe, so Schick, die bereits bestehende Vertrauenskrise der Medien.
Im Frühjahr 2023 gaben bei einer EU-weiten Umfrage im Auftrag der Bertelsmann Stiftung 54 Prozent der Befragten an, in den letzten Monaten häufig oder sehr häufig verunsichert gewesen zu sein, ob Informationen im Internet wahr sind oder nicht. 39 Prozent sagten, häufig oder sehr häufig Desinformationen im Internet wahrgenommen zu haben. Und über 80 Prozent waren der Meinung, Politik und Internetplattformen müssten stärker dagegen vorgehen. Die Ergebnisse der Bertelsmann Studie decken sich weitestgehend mit den Erkenntnissen einer vom TÜV-Verband gemeinsam mit Forsa durchgeführten Erhebung, bei der sich 91 Prozent der Befragten für eine Transparenz- und Kennzeichnungspflicht für Inhalte aussprechen, die mithilfe von künstlicher Intelligenz erzeugt worden sind.
Angesichts des Präsidentschaftswahlkampfes in den USA, aber auch angesichts mehrerer Landtagswahlen in Deutschland ist 2024 mit einer Zunahme an Desinformation und falscher Informationen zu rechnen. Insbesondere auch im Bereich synthetisch erzeugter Inhalte. Desinformation durch KI-generierte Inhalte bedroht das Vertrauen der Nutzer:innen. Viele Medienunternehmen, vom TV-Anbieter bis zur Regionalzeitung haben sich daher vorgenommen, verstärkt gegen die Flut von Desinformation – vor allem in den sozialen Netzwerken – vorzugehen.
Web3-basierte Lösungen können Transparenz schaffen
In dieser Hinsicht bieten Web3-Technologien vielversprechende Ansätze zur Content-Authentifizierung. Diese Technologien ermöglichen es, digitale Inhalte mit einem kryptografischen Fingerabdruck sowie mit Metadaten über ihre Herkunft zu versehen. So hat sich etwa das Media-Startup Starling Lab die Authentifizierung von Bildern zur Aufgabe gemacht. Das Starling Lab sichert digitale Daten, zum Beispiel für journalistische Berichterstattung, für Ermittlungsverfahren oder für die Geschichtsschreibung, und versieht sie mit Informationen zur Provenienz. Die Faktenchecker:innen im Team von BR24 arbeiten bereits mit Open Source Intelligence Tools, um herauszufinden, wo die Originalquelle von fragwürdigen Bildern liegt, um diese einordnen zu können.
Das Berliner Startup Valid sieht hingegen Social-Media-Plattformen als Herd, an dem Desinformation entsteht und bietet in dieser Hinsicht Lösungen an. Anhand kryptografischer Provenienz-Indikatoren will Valid die Authentizität von Inhalten überprüfbar machen – nicht nur auf Nachrichten-Websiten, sondern auch auf Drittplattformen.
Ein weiteres Beispiel: Das US-Medienunternehmen Fox hat kürzlich mit dem Verify-Protokoll ein Tool vorgestellt, um Content zu authentifizieren und die Herkunft und Geschichte ihrer Inhalte sicher nachzuweisen. Für Nutzer:innen soll die Authentizität von Fox-Inhalten so eindeutig überprüfbar sein. Das Unternehmen veröffentlichte Verify auf Open-Source-Basis, in der Hoffnung, dass Dritte sich dem Inhaltsverifizierungssystem anschließen. Die Fox Corporation will das Verify-Protokoll vor allem dazu nutzen, Lizenzverträge mit KI-Unternehmen auszuhandeln. Denn durch die Implementierung des Verify-Protokolls kann das Unternehmen nachvollziehen, wie und wo seine Inhalte verwendet werden. Es soll so vor dem Zugriff durch große Tech-Unternehmen schützen, die diese Inhalte für das Training ihrer Algorithmen verwenden möchten. Diese werden so gewissermaßen gezwungen, in Lizenzverhandlungen mit der Fox Corporation zu treten. Mit diesem Ansatz, mit KI-Firmen in Verhandlung zu treten, setzt Fox also im Gegensatz zu einigen anderen großen Medienhäusern auf Technologie anstelle von Geschäftsvereinbarungen oder Gerichtsverfahren.
Content-Authentifizierung und die zunehmende Relevanz für die Medienbranche
Innovative Modelle wie die angeführten finden zunehmend Anwendung in der journalistischen Praxis. Sie verdeutlichen: Web3-Technologien haben das Potenzial, Vertrauen in digitale Inhalte zu stärken.
Die Verbindung aus Kryptografie und Blockchain erlaubt es, Inhalte mit einer Art Echtheitszertifikat zu versehen. Nutzer:innen können so leichter herausfinden, wer wann und wo einen bestimmten Inhalt erstellt und publiziert hat. Synthetisch erzeugte Inhalte von Stimm-, Bild- oder Videogeneratoren hätten es so schwerer. Zwar gibt es bereits auch andere Wege , um Metainformationen für Nutzer:innen sichtbar zu machen – einschließlich der Information, ob sie durch KI generiert wurden –, jedoch bringt der Einsatz von Web3-Technologien den Vorteil mit sich, dass die Manipulation und Fälschung dieser Informationen nahezu unmöglich wird, da sie nicht zentral auf einem Server gespeichert werden, sondern dezentral auf einer Blockchain.
Die technische Umsetzung entsprechender Web3-Lösungen erfolgt grundsätzlich in drei Schritten: Erstellen, Speichern und Verifizieren. Digitale Inhalte – egal ob Text, Bild oder Video – erhalten unmittelbar nach ihrer Erstellung einen digitalen Fingerabdruck, der kryptografisch gesichert wird. Um Manipulation zu verhindern, werden die erstellten digitalen Inhalte auf einer öffentlichen Blockchain, einem serverunabhängigen, dezentralen Netzwerk, gespeichert. Nutzer:innen können die Informationen zur Provenienz und damit zur Authentizität per Klick – etwa auf ein Icon – abrufen.
Die rasante Entwicklung bei generativer künstlicher Intelligenz wird in Zukunft die Notwendigkeit von Content-Authentifizierung weiter verstärken. Beim Kampf gegen KI-getriebene Desinformation und falsche Inhalte, die die öffentliche Kommunikation negativ beeinflussen und demokratische Prozesse gefährden, werden diese Technologien unerlässlich.
Quellen & nützliche Links:
- Bertelsmann Stiftung (2023): Desinformation – Herausforderung für die Demokratie
- MedienNetzwerk Bayern (2023): Deepdive: Original, Fälschung oder von der KI erstellt? Authentifizierung digitaler Inhalte mit Web3-Technologien
- Nina Schick (2020): Deepfakes: The Coming Infocalypse
- Starling Lab
- TÜV-Verband (2023): Ein Jahr ChatGPT: Gut ein Drittel nutzt KI für Unterhaltung, Recherchen und Inspiration – viele misstrauen den Ergebnissen
- Valid
- Variety: Fox Launches Tool to Verify Online Content as Authentic – and Not AI-Generated Fakes or Misinformation
- Verify by Fox Corp.