Das neue KI-Gesetz der EU sorgt für Verunsicherung. Kann ein „Trust-Label“ helfen? Die KI-Expertin Katharina von Knop erklärt, warum die Wissenschaftskommunikation davon profitieren könnte.
KI: „Starke Labels können Vertrauen schaffen“
Frau Knop, wie funktioniert das „Trust Label“ für künstliche Intelligenz?
Das VDE Trust Label ist ein Standard, der entwickelt wurde, um Vertrauen in Künstliche Intelligenz auf einer niedrigschwelligen Ebene zu ermöglichen und den wir im Team weiterentwickeln. Im Prinzip ist das Trust Label wie ein detaillierter Fragenkatalog, dessen Beantwortung strukturiert dabei hilft, die Vertrauenswürdigkeit eines KI-Systems festzustellen ohne dass man softwaregestützte Tests auf der Seite der Trainingdaten, der Ergebnisdaten oder der Algorithmik durchführen muss. Der Fragebogen erfasst alles Wesentliche, was offensichtlich beobachtbar ist.
Dabei werden fünf zentrale Werte abgefragt: Verantwortlichkeit, Fairness, Privatsphäre, Zuverlässigkeit und Transparenz. Diese Werte sind im europäischen KI Gesetz – auch bekannt als AI Act – enthalten. So kann man die Vertrauenswürdigkeit von Maschinen einfach und effizient überprüfen. Unser Standard ist offen zugänglich, kostenlos und leicht unter „VDE Trust Label“ zu finden.
Je nachdem, wie gut die Anforderungen des Fragenkatalogs beantwortet werden, vergibt man Noten von A bis G. Man muss dazu sagen: Die Implementierung des Standards erleichtert zwar die Einhaltung des AI Act, ermöglicht aber nicht die vollständige Erfüllung. Das VDE Trust Label ist somit ein erster sinnvoller Schritt zur Erfüllung des AI Act.
Das neue KI Gesetz der EU
Das KI Gesetz ist ein umfassender Gesetzesrahmen, der 2024 von den EU-Mitgliedstaaten verabschiedet wurde. Er soll die Sicherheit und Transparenz von künstlicher Intelligenz in Europa gewährleisten. Das Gesetz klassifiziert KI-Systeme nach Risikostufen und legt strenge Anforderungen an Dokumentation, Risikomanagement und Datenschutz fest. Er soll das Vertrauen in KI-Technologien stärken und diskriminierende oder unsichere Anwendungen verhindern.
Das Trust Label hilft bei Kaufentscheidungen oder dient als Leitfaden für Entwickler*innen, die eine KI entwickeln möchten. Ich habe selbst in der Forschung gearbeitet und weiß, dass man in diesem Umfeld gerne KI Systeme „zusammenbastelt“. Wenn man sich an unseren Leitfaden hält, kann man schon viel richtig machen. Das ist zum Beispiel dann wichtig, wenn man eine Gründung plant. In der wissenschaftlichen Forschung ist man nicht an den AI Act gebunden. Um im Falle einer Ausgründung nicht das ganze System neu aufbauen zu müssen und gleichzeitig den administrativen Aufwand während der Forschung gering zu halten, ist es effizient, diesen Standard als Leitfaden zu verwenden.
Es gibt ja immer wieder diesen Diskurs, dass Deutschland bei der Entwicklung von KI im internationalen Vergleich hinterherhinkt und sich sehr viele Regeln auferlegt. Wie sehen Sie das?
Ziel des AI Act ist es, durch die Einführung einer spezifischen Regulierung einen europäischen Markt zu schaffen und KI in Europa zu fördern. Im Kern geht es darum, Risiken zu minimieren, die Nutzer*innenfreundlichkeit und Transparenz zu erhöhen und die Sicherheit zu verbessern.
Der AI Act bringt Bürokratie und Aufwand mit sich und wird daher oft kritisiert. Forschungseinrichtungen sind zwar ausgenommen, ansonsten ist aber die gesamte Lieferkette betroffen. Wenn ein Unternehmen in einem Forschungskonsortium etwas entwickelt, das es verkaufen kann, gilt der AI Act.
Das Gesetz wird auch kritisiert, weil es den Markt behindern kann, da der administrative und finanzielle Aufwand gerade für Start-ups hoch ist. Einige sind aus diesem Grund bereits ins außereuropäische Ausland abgewandert oder haben sich gleich dort niedergelassen. Es wird sicherlich noch Änderungen geben, insbesondere bei der Interpretation und den Standards, die auf europäischer und nationaler Ebene entwickelt werden. Darüber hinaus werden wir einige unterstützende Strukturen und Softwarelösungen benötigen, die die Analyse von KI-Systemen erleichtern. An diesen wird im KI-Team des VDE bereits seit einiger Zeit gearbeitet.
Was sind Ihre persönlichen Kritikpunkte?
Ein positiverer Ansatz wäre wünschenswert gewesen, zum Beispiel statt von Risikoklassen von „Impact Klassen“ zu sprechen. Derzeit wird eine KI-Lösung im medizinischen Bereich sofort ein „hohes Risiko“ zugeordnet, was zum Beispiel umfangreiche Offenlegung und Dokumentation sowie ein gutes Risikomanagement erfordert. Das kann abschreckend wirken und unnötige Ängste bei Unternehmen und den Anwender*innen schüren. Gleichzeitig ist davon auszugehen, dass in den hohen Risikoklassen die Innovationskraft am größten ist.
Gerade für Wissenschaftler*innen, die in Einrichtungen wie Max-Planck oder Helmholtz forschen und dann ausgründen wollen, wird es schwierig. Je nachdem, wie die KI entwickelt wurde, müssen sie eine große Finanzierungsrunde durchlaufen, um die Anforderungen des AI Act auf der technischen Seite umzusetzen. Das ist eine große Hürde.
Die Werte, die das Label aufgreift, haben Sie bereits erwähnt. Warum wurden genau diese ausgewählt?
Das war eine politische Entscheidung, bei der die europäischen Werte im Vordergrund standen. Man wollte sich bewusst von den Ansätzen in Asien und den USA abgrenzen. Die USA zum Beispiel verfolgen eine ganz andere Strategie: Sie schauen erstmal zu und entwickeln Regulierungen dann, wenn sie gebraucht werden.
Das VDE Trust Label ist eine Möglichkeit, Komplexitäten in der KI Welt zu reduzieren. Unser Gehirn liebt Komplexitätsreduktion, denn wir können nicht in jeder Disziplin Expert*innen sein und haben nicht die Zeit, alles bis ins Detail zu analysieren. Oder haben nicht den Zugang zu allen erforderlichen Informationen. Qualitätslabels und ihre Wirkung sind in der Wissenschaft gut untersucht, insbesondere in der Medizintechnik. Starke Labels können Vertrauen schaffen, wenn sie sowohl inhaltlich als auch prozessual stark sind. Das heißt beispielsweise, man darf nur Trainingsdaten verwenden, bei denen man die Erlaubnis der Rechteinhaber*innen hat und die genau geprüft worden sind. Ein starkes Label hat klare Regeln und wird von einer vertrauenswürdigen, unabhängigen Stelle vergeben. So können Menschen bessere Entscheidungen treffen.
Es könnte in der Medizintechnik eingesetzt werden, um sicherzustellen, dass eine KI-basierte Diagnosesoftware transparent und zuverlässig arbeitet. Durch die Zertifizierung nach den Kriterien des Trust Labels wissen Nutzer*innen und Behörden, dass beispielsweise die für die KI verwendeten Trainingsdaten gut dokumentiert und überprüft wurden und die Ergebnisse der KI vertrauenswürdig sind.
Ein weiteres Beispiel wäre der Einsatz bei der Sprachassistenz: Das Vertrauenssiegel könnte sicherstellen, dass sich ein Produkt fair und datenschutzkonform verhält. Das würde bedeuten, dass Interaktionen transparent sind und Datenschutzrichtlinien strikt eingehalten werden. Verbraucher*innen könnten darauf vertrauen, dass ihre Daten sicher sind und die Technologie zuverlässig funktioniert.
Das Siegel wird von unserem Team kontinuierlich weiterentwickelt und könnte perspektivisch eine Software-Analysekomponente enthalten. Damit könnten die Trainings- und Testdaten der KI noch besser analysiert werden. Methoden wie das Benchmarking könnten eingesetzt werden, um zu überprüfen, wie sicher und korrekt das KI-System arbeitet, indem man es durch standardisierte Tests mit anderen Systemen vergleicht.
Sie beschreiben Vertrauen als „hochgradig fragil, dynamisch, situativ, thematisch und prozessual.“ Was braucht es, um Vertrauen gegenüber KI aufzubauen? Tun wir nicht auch gut daran, ein bisschen Skepsis zu behalten?
Um Vertrauen in künstliche Intelligenz zu schaffen, sind verschiedene Maßnahmen erforderlich. Regulatorische Rahmenbedingungen wie der AI Act und die Datenschutzgrundverordnung (DSGVO) spielen eine entscheidende Rolle. Darüber hinaus brauchen wir KI-Standards. Wir brauchen Unternehmen und Behörden, die KI verstärkt anwenden, diese Standards umsetzen und einfordern. Die Anwendung der Standards muss aber auch erklärt werden.
Man sollte dennoch skeptisch sein und Ergebnisse von KI-Systemen hinterfragen. Man sollte nicht nur auf bekannte Marken vertrauen, sondern auch Open-Source-Lösungen prüfen, die oft transparenter sind. Neben den rechtlichen Rahmenbedingungen ist es wichtig, die Gestaltung der Benutzeroberflächen kritisch zu betrachten.
Was heißt das genau?
Benutzerfreundliche Schnittstellen können uns das Gefühl geben, die Situation unter Kontrolle zu haben, was uns animiert ein Angebot zu nutzen und weniger in Frage zu stellen. Zum Beispiel ist ChatGPT optisch absichtlich einfach gestaltet, und enthält keine Konjunktive in den Antworten, um ein Gefühl der Sicherheit, Korrektheit der Antworten und damit Stärke des Angebots zu vermitteln. Das kann dazu führen, dass wir die Ergebnisse weniger hinterfragen.
Es wäre sinnvoll, Benutzer*innenoberflächen so zu gestalten, dass sie User*innen zum kritischen Denken anregen und in den aktiven Dialog mit den Nutzern treten. Durch die Aktivierung des kritischen Denkens und des aktiven Dialogs wird die Selbstwirksamkeit der Nutzer*innen gefördert, was Akzeptanzhürden abbaut. Zudem wird die eigene Expertise erhalten, da sie immer wieder abgerufen wird.
Derzeit wird darüber diskutiert, ob KI-generierte Inhalte in den Medien transparent gekennzeichnet werden sollten. Könnte das AI Trust Label auch in der Wissenschaftskommunikation angewendet werden?
Definitiv – es könnte die Vertrauenswürdigkeit und Sicherheit von KI-generierten Inhalten erhöhen. Gerade im Journalismus und in der Wissenschaft ist ja die Verlässlichkeit von Informationen entscheidend. Das Trust Label könnte auch dazu beitragen, die Akzeptanz bei den Rezipient*innen zu erhöhen.
Ein solches Label würde nicht nur den Einsatz von KI transparent machen, sondern auch sicherstellen, dass die generierten Inhalte einem definierten Standard in Bezug auf Inhalt, Prozess und Aufklärung entsprechen. Dies hätte zur Folge, dass Trainingsdaten nur aus Quellen mit hohem Wert und auf der Grundlage legitimer Datennutzung verarbeitet werden. Dies würde sicherstellen, dass das Urheberrecht geschützt bleibt.
Was bedeutet das in der Praxis?
KI-generierte Artikel oder Forschungszusammenfassungen sollten klar als solche gekennzeichnet werden, zusammen mit Informationen über den zugrunde liegenden KI-Algorithmus, die Überprüfungsprozesse und gegebenenfalls eine menschliche Validierung.
Also zum Beispiel: „Anna Henschel hat diesen Artikel verifiziert.“ Am besten mit Ihrem Foto, Information zu Ihrem Hintergrund und welche journalistischen Methoden Sie angewandt haben um den Artikel zu überprüfen. Wichtig wäre ein Porträtfoto – primär bauen wir eben Vertrauen zu anderen Menschen auf. Über das zwischenmenschliche Vertrauen kommen wir dann zum Prozessvertrauen und dann zum Vertrauen in Institutionen.
Das Vertrauen in IT Systeme ist noch sehr, sehr jung und kann nur sehr viel schwächer sein als das zwischenmenschliche Vertrauen.
Wie sehen die nächsten Schritte bei der Entwicklung des Trust Labels aus?
Unser Fokus liegt auf der inhaltlichen Weiterentwicklung und auch auf der Entwicklung von Software, die KI-Systeme automatisch hinsichtlich ihrer Vertrauenswürdigkeit analysiert. Für Anwendungsgebiete wie autonomes Fahren oder Gesundheitswesen ist eine kontinuierliche Überwachung und regelmäßige Analyse der KI entscheidend, um Sicherheitsstandards zu gewährleisten und unerwünschte Ereignisse zu vermeiden.
Wir haben hohe Ansprüche an die Technologie, obwohl wir uns bewusst sind, dass auch KI-Systeme nicht fehlerfrei sind. Dennoch erwarten wir, dass sie nahezu perfekt funktionieren. Zum Beispiel habe ich die Erwartungshaltung, wenn ich in ein Flugzeug einsteige, dass ich sicher ankomme, ohne genau zu verstehen, wie all die Sicherheitsmaßnahmen und Standards rund ums Fliegen aussehen. Aber ich habe Vertrauen in den Gesamtprozess, der effizient ist, Innovationen deutlich fördert und die Wirtschaft unterstützt. Und da müssen wir auch bei der KI hinkommen. Und das wird noch eine sehr große Aufgabe.