Desinformation zu Covid-19 mithilfe von künstlicher Intelligenz erkennen? Beim Projekt VERITAS arbeiten Forscher*innen von Fraunhofer FOKUS an einer Online-Plattform, die Menschen bei der Überprüfung von Informationen unterstützt. Einblicke in den Entwicklungsprozess gibt Projektleiterin Tatiana Ermakova.
„Uns geht es um die kritische Reflexion von Informationen“
Was verbirgt sich hinter VERITAS?
VERITAS ist eine Plattform mit mehreren Funktionalitäten. Nutzer*innen sollen beliebige Links oder Informationen in ein Textfeld kopieren können. Das System soll diese dann zum einen auf Hinweise prüfen, ob es sich um Desinformation handeln könnte. Zum anderen sollen verwandte Informationen von verschiedenen Plattformen, zum Beispiel Nachrichtenportalen, aus wissenschaftlichen Studien oder sozialen Medien, gesammelt und strukturiert dargestellt werden.
Dabei geht es uns hauptsächlich um die kritische Reflexion von Informationen. Wir wollen die Nutzer*innen der Plattform dazu anregen, sich auf vielfältige Weise zu informieren. Letztlich müssen diese selbst entscheiden, inwieweit es sich bei der überprüften Information um wahre oder unwahre Nachrichteninhalte oder Aussagen handelt.
Was war die Idee bei der Gründung des Projekts?
Während der Vorbereitung des Antrags wurden viele falsche Informationen über Corona verbreitet. Unseres Wissens nach suchen viele Menschen im Internet nach medizinischen Informationen, noch bevor sie zum Arzt gehen. Wenn sie jedoch etwas Falsches lesen, kann das ernste Folgen für ihre Gesundheit haben. Deshalb wollen wir mit diesem Projekt einen Beitrag zu ihrer Sicherheit leisten.
Wir haben in unserem Antrag aber auch andere Zielgruppen definiert, für die dieses Projekt relevant sein könnten – zum Beispiel Journalist*innen oder Wissenschaftler*innen, die Informationen zu einem bestimmten Thema suchen. Das wollen wir in Zukunft angehen.
Geht es bei VERITAS nur um Covid-19?
Das Projekt wurde mit einem medizinischen Schwerpunkt definiert, daher wollen wir uns zunächst auf Corona konzentrieren. Im Gesundheitsbereich haben wir den Vorteil, dass wir Fach- und Expertenportale und Datenbanken mit wissenschaftlichen Veröffentlichungen haben, die glaubwürdige Informationen liefern. Daher kann ein Projekt wie VERITAS in diesem Kontext gut funktionieren.
Wir sehen auch viel Potenzial für den Einsatz in anderen Kontexten und sind daran interessiert, herauszufinden, inwieweit wir es thematisch erweitern können.
VERITAS
Zum Jahresbeginn hat das Forschungsprojekt VERITAS (VERIfication through Trusted ASsociation), gefördert vom Bundesministerium für Bildung und Forschung (BMBF) und unter der Leitung von Fraunhofer FOKUS, seine Arbeit aufgenommen. Im Projekt „VERITAS − Mit Künstlicher Intelligenz Desinformationen zu Gesundheitsthemen erkennen und bekämpfen“ wollen die beteiligten Forscher*innen eine digitale Plattform aufbauen, die Informationen von öffentlich-rechtlichen Nachrichtenportalen, sozialen Medien sowie Fach- und Expertenwissen strukturiert aufbereitet und Faktenprüfende gezielt bei der Erkennung von Falschmeldungen unterstützt. Projektpartner sind die Trustami GmbH und Ubermetrics Technologies GmbH. Das Projekt läuft bis Ende 2024.
Wenn Sie die Informationen dort hineinkopieren, werden diese automatisch auf der Grundlage dessen geprüft, was über diesen Link oder Text bekannt ist und ermittelt werden kann. Das System prüft hierbei insbesondere, ob es Hinweise auf Desinformation gibt: Wie ist der Text verfasst? Ist er sehr emotional geschrieben? Wer ist der*die Autor*in? Sie erhalten dann eine Zusammenfassung dieser Prüfung.
Das System sucht auch nach anderen Quellen zu dem Thema und stellt sie in einer benutzerfreundlichen Weise dar, um aufzuzeigen, dass es andere Meinungen und Darstellungen zu diesem Thema gibt. Wie das genau aussehen soll und was für Nutzer*innen am besten funktioniert, versuchen wir derzeit zu ermitteln.
Die Überprüfung wird mittels künstlicher Intelligenz durchgeführt. Wie funktioniert das?
Wir wollen die Überprüfung des Suchinputs unter verschiedenen Gesichtspunkten ermöglichen, insbesondere im Hinblick auf das enthaltene falsche Wissen, den Schreibstil, Emotionalität, Subjektivität, die Verbreitungsmuster einschließlich Resonanz und Reaktion, die Glaubwürdigkeit der Quelle und der*s Autor*in. Einige dieser Prozesse werden in einer späteren Phase mit NLP, Natural Language Processing, und KI nachgebildet.
Das heißt, es werden äußere Merkmale des Texts bestimmt. Kann die künstliche Intelligenz auch überprüfen, ob die Inhalte stimmen?
Es gibt einige Forschungsstudien in der englischsprachigen Welt, in denen die Textklassifizierung Fake News/Non-Fake News auf der Grundlage von externen Textmerkmalen gut funktioniert hat. Wir haben jedoch keine Informationen darüber, ob und inwieweit diese vielversprechenden Modelle genau und in der täglichen Praxis anwendbar sind. Aufgrund unserer Erfahrungen gehen wir davon aus, dass weitere Evaluierungen mit qualitativ hochwertigen Daten und im deutschsprachigen Raum noch erfolgen sollten.
Wer steckt hinter dem Projekt?
Fraunhofer FOKUS hat die Hauptverantwortung für die verschiedenen Konzeptionen, die Evaluation und die Koordination zwischen den Partnern. Wir haben verschiedene Komponenten in dem Projekt, die wir entwickeln wollen. Es gibt einen Crawler, also einen Webscanner, der verschiedene Quellen durchsucht und alle Informationen zusammenführt. Dafür ist hauptsächlich Ubermetrics verantwortlich, aber auch die anderen Partner sind daran beteiligt.
Die Entwicklung eines Fake-Detektors, der die Anhaltspunkte für Desinformation herausfiltert, ist hauptsächlich Aufgabe von Trustami, wobei die anderen Partner auch eine unterstützende Rolle spielen.
Vor welchen Herausforderungen stehen Sie bei dem Projekt?
Unsere Pläne sind sehr ambitioniert. Wir brauchen sowohl technologisches Wissen als auch Wissen darüber, wie Nutzer*innen solche Plattformen nutzen. Das Projekt schlägt eine Brücke zwischen den Disziplinen wie Informatik, Data Science, Linguistik, Medizin, Psychologie, Soziologie und Kommunikationswissenschaften.
Wichtig ist auch, die Grenzen der Erkennung von angeblich desinformativen Nachrichtenteilen zu berücksichtigen, zum Beispiel, wenn wir Emotionalität als Feature werten, das auf Desinformation hinweist, faktisch aber auch richtige Nachrichten in einem emotionalen Ton verfasst sein können. Wenn wir sagen: Alle Fake News sind emotional geschrieben, werden diejenigen, die Fake News produzieren, ihren Stil ändern. Das müssen wir bedenken.
Im Januar 2022 haben Sie begonnen. Wo stehen Sie gerade?
Wir befinden uns noch überwiegend in der konzeptionellen Phase. Wir evaluieren theoretische und methodische Grundlagen im Forschungsbereich, insbesondere Definitionen, Merkmale/Charakteristika, algorithmische Verfahren und Technologien zur Textklassifikation oder Dokumentenkategorisierung. Wir kümmern uns um den Aufbau von Datensätzen für die Entwicklung neuer linguistischer Analyseverfahren für den deutschsprachigen Raum. Außerdem führen wir Interviews mit potenziellen Nutzer*innen durch.
Gesundheit ist ein sensibler Bereich. Gibt es nicht die Gefahr, dass die KI auch mal falsch liegt?
Ja, aber eben deswegen überlassen wir die endgültige Entscheidung den Nutzer*innen. Sie erhalten mit unserem System lediglich Hinweise, Indikatoren, dass es sich bei der Meldung um Fake News handeln könnte. Alles andere wäre zu dem jetzigen Zeitpunkt nicht angemessen.