DESINformations Früh erkennung von gefährdenden online nAChrichten Trends
Desinformation stellt eine große Herausforderung für unsere Gesellschaft dar. Konzertierte Desinformations-Kampagnen sind ein Aspekt hybrider Bedrohungen, welche einerseits darauf abzielen können, konkrete kritische Infrastrukturen zu stören oder zu beschädigen – wie z.B. die Verteilungssicherheit von Energieträgern, Rohstoffen oder Medikamenten – oder andererseits, erweiterte kritische Infrastrukturen, wie demokratische Einrichtungen zu unterminieren und das Vertrauen in sie oder deren Vertreter zu zerstören. Ein rechtzeitiges Erkennen von Desinformations-Kampagnen stellt somit einen essenziellen Beitrag zur Resilienz gegenüber solcher Bedrohungslagen dar. Aktuell stehen jedoch kaum Hilfsmittel zur Verfügung, um aktiv und frühzeitig Desinformations-Kampagnen zu erkennen. Betroffene erfahren oft viel zu spät über deren Involvierung, was deren Möglichkeiten einschränkt, wirksam darauf reagieren zu können. Oft bleibt nur noch Schadensbegrenzung übrig. Eine frühzeitige Erkennung solcher Trends würde einen Handlungsspielraum verschaffen, um z.B. geeignete Gegendarstellungen auszuarbeiten.
Das Projekt DesinFact hat zum Ziel, den Forschungsstand zur automatischen Erkennung von Desinformationstrends zu verbessern, Lücken in technischen, rechtlichen und ethischen Bereichen zu identifizieren und geeignete Ansätze zu entwickeln, um ein solches System zu ermöglichen. Der Fokus in DesinFact liegt auf der Steigerung der Vertrauenswürdigkeit (Trustworthiness) in technischen, rechtlichen und ethischen Belangen ein Hauptaugenmerk der Forschungstätigkeit. Es sollen Methoden zur messbaren Qualitätssteigerung bzw. Erklärbarkeit der Entscheidungen erforscht werden. Diese Methoden sollen sowohl für Expert:innen als auch für operative Betreiber:innen verständlich sein. Das AIT Centre for Innovation Systems and Policy (ISP) ist am von Alexander Schindler (AIT Center for Digital Safety and Security, DSS) koordinierten Projekt vor allem im Hinblick auf ethische und rechtliche Fragestellungen zum Thema KI Trustworthiness beteiligt.
Ein Aspekt zur Steigerung der Genauigkeit ist die Verknüpfung der Analyse von Netzwerkstrukturen und Kommunikationsmuster mit Inhaltsbasierter Analyse. Hierfür sollen in DesinFact Methoden zur Erkennung von Verbreitungswegen und Schlüssel-Aktoren in Desinformations-Netzwerken erforscht und mit Inhaltsbewertenden Verfahren verknüpft werden. Ein weiterer Fokus von DesinFact besteht in der Erforschung einer möglichen öffentlichen Bereitstellung eines Systems zur Erkennung von Desinformation. Ein solches System soll es Bürger:innen ermöglichen, online Inhalte auf Desinformation hin untersuchen zu lassen. DesinFact wird dabei sozio-technische Aspekte, ethische und rechtliche Fragestellungen, erforschen, welche für eine adäquate Einführung einer solchen Technologie relevant sind.
Im Rahmen des Projekts unter der Leitung von Alexander Schindler (AIT Center for Digital Safety and Security, DSS) wird das Team vom Centre for Innovation Systems and Policy untersuchen, welche ethischen Rahmenbedingungen für den nachhaltigen öffentlichen Einsatz einer solchen Plattform relevant sind und welche ethischen Aspekte in den aktuellen Debatten und gesetzlichen Vorgaben (z.B. AI Act) noch nicht berücksichtigt wurden.
Key Words: Desinformation, Ethik, KI, Recht, KI-Verordnung
Start: 01/24
Dauer: 24 Monate
Auftraggeber/ Fördergeber: FFG
Kontakt: Peter Biegelbauer