Die Zertifizierung ist eine Möglichkeit, um die Qualität eines KI-Systems sicherzustellen. Sie ist eine meist zeitlich begrenzte Bestätigung durch unabhängige Dritte, dass vorgegebene Standards, Normen oder Richtlinien eingehalten werden. Dabei gilt: Nicht jede KI-Anwendung muss zertifiziert werden. Während ein Großteil der KI-Systeme unproblematisch sein dürfte, wie etwa Algorithmen zur Identifizierung von Spammails, gibt es Anwendungen, die einer genaueren Prüfung unterzogen werden sollten, heißt es in dem Papier. Die Autorinnen und Autoren schlagen vor, für die Entscheidung, ob ein System zertifiziert werden soll, die sogenannte Kritikalität des Systems zu bewerten. Zu fragen sei, ob ein System Menschenleben oder Rechtsgüter wie die Umwelt gefährde und wieviel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten. Entscheidend für die Kritikalität ist stets der Anwendungskontext. Das gleiche System kann in einem Anwendungskontext unproblematisch und in einem anderen höchst kritisch sein. So könne ein Staubsaugerroboter trotz seines hohen Maßes an Autonomie zunächst als vergleichsweise unproblematisch gelten, sammelt er aber Daten, die er seinem Hersteller zur Verfügung stellt, kann die Bewertung kritischer ausfallen.
Überregulierung ist zu vermeiden
»Eine Zertifizierung kann für eine Vielzahl von KI-Systemen dazu beitragen, ihr gesellschaftliches Nutzenpotenzial sicher und gemeinwohlorientiert auszuschöpfen. Damit dies im Einklang mit gesellschaftlich anerkannten Werten geschieht, muss eine Form von Zertifizierung gefunden werden, die von wichtigen ethischen Prinzipien geleitet wird, aber gleichzeitig auch ökonomische Prinzipien erfüllt, Überregulierung vermeidet sowie Innovationen fördert. Im besten Fall kann eine Zertifizierung selbst zum Auslöser neuer Entwicklungen für einen europäischen Weg in der KI-Anwendung werden«, sagt Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen sowie Co-Leiterin der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik. Bei einem höheren Kritikalitätsgrad, wie zum Beispiel einer KI, die zur Verteilung von Studienplätzen eingesetzt wird, empfehlen die Autorinnen und Autoren, den Staat als regulierende Instanz einzusetzen. Für besonders kritische Anwendungskontexte wie einer biometrischen Fernidentifikation könnte der Staat Verbote oder Einschränkungen beim Einsatz aussprechen. Die anzulegenden Prüfkriterien unterteilen die Autorinnen und Autoren in Mindestkriterien, die immer erfüllt werden müssen, und darüber hinaus gehende freiwillige Kriterien. Zu den Mindestkriterien zählten Transparenz, Sicherheit, Diskriminierungsfreiheit oder Schutz der Privatheit. Als weitere Kriterien nennt das Whitepaper etwa Nutzerfreundlichkeit oder Nachhaltigkeit.
Mitautor und Leiter des KI-Fortschrittzentrums am Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO Dr. Matthias Peissner betont: »Um die Akzeptanz von KI-Systemen sicherzustellen, müssen diese menschzentriert und vertrauenswürdig gestaltet werden. Diese Aspekte erforschen wir am Fraunhofer IAO in praxisnahen Projekten. Diese Erkenntnisse daraus sind in das Whitepaper mit eingeflossen«.
Die Zertifizierung sollte durchgeführt werden, bevor das KI-System in der Praxis zum Einsatz kommt. Allerdings entwickeln sich vor allem lernende KI-Systeme nach Inbetriebnahme weiter, was turnusmäßige Re-Zertifizierungen notwendig machen kann. »Bestehende Zertifizierungssysteme sind oft zu träge. In der Folge werden IT-Systeme teilweise nicht weiterentwickelt, weil die damit verbundene erneute Zertifizierung zu aufwendig ist. Lernende KI-Systeme verändern sich aber andauernd, nicht nur bei Updates. Ein gutes Zertifikat für KI muss diese Dynamik berücksichtigen und seine Gültigkeit unabhängig vom technologischen Fortschritt bewahren«, so Jörn Müller-Quade, Professor für Kryptographie und Sicherheit am Karlsruher Institut für Technologie (KIT) und Co-Leiter der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik in der Plattform Lernende Systeme.
Der erste Schritt zu einem Zertifizierungssystem für KI sei es, die Schwellenwerte, ab welcher Kritikalität eine Zertifizierung notwendig wird, festzulegen, heißt es im Whitepaper. Die bedürfe einer gesellschaftlichen Debatte. Die Autorinnen und Autoren empfehlen, Bürgerinnen und Bürger in Zertifizierungsprozesse einzubeziehen und bereits in der Schule Wissen zur Funktionsweise von KI-Systemen zu vermitteln.