Vertrauen Sie einer künstlichen Intelligenz?

Hand aufs Herz – wie viel Vertrauen schenken Sie einer künstlichen Intelligenz (KI)?

Dr. Samuel Klaus, ICT Partner, Schellenberg Wittmer Rechtsanwälte

Den Vorschlag des Netflix-Algorithmus, welchen Film Sie als nächstes schauen sollten, würden Sie wohl anklicken. Aber vertrauen Sie einer KI so weit, um sie selbstständig Ihr Aktienportfolio verwalten zu lassen? Oder gar so weit, dass Sie den Entscheid über einen medizinischen Eingriff vollständig einer KI-Analyse überlassen würden? Wohl eher nicht, denn KI-Systeme sind heute oft noch «Black Boxes», denen zu vertrauen uns schwerfällt.

Künstliche Intelligenz (KI) bezeichnet keine bestimmte Technologie, sondern ist ein Sammelbegriff für viele Methoden, die kognitive Fähigkeiten mit statistischen Modellen simulieren. Aus einer grossen Menge unstrukturierter Daten (Big Data) erkennt ein geeigneter Algorithmus bestimmte Muster und leitet daraus eine Schlussfolgerung ab. Anwenden lässt sich KI in allen Branchen, z. B. in der industriellen Fertigung (Industrie 4.0), im Energiesektor (Smart Grid), im Gesundheitssektor (Medtech) wie auch in der öffentlichen Verwaltung. Dies aber nur, wenn Anbieter und Abnehmer, Anwender und Betroffene von der Korrektheit, Zuverlässigkeit und Angemessenheit der KI-Resultate überzeugt sind. Die Vertrauenswürdigkeit von KI ist ein entscheidender Faktor für deren erfolgreichen Einsatz. Nur wie lässt sich solches Vertrauen schaffen?

Vertrauen durch Normen und Standards

Regulierung kann Vertrauen schaffen. Für technische Bereiche, die sich schnell ändern, sind staatliche Vorgaben aber meist wenig geeignet und kaum innert nützlicher Frist umsetzbar. Für grundsätzliche Fragen (wie z. B. die Haftung) sind auch selten zusätzliche Regeln nötig – es müssen nur die bestehenden Rechtsnormen korrekt auf die neue Technologie angewandt werden. Aber das Wissen, dass einem auch bei einem KI-Fehler allenfalls Schadenersatz zusteht, schafft per se noch kein Vertrauen.

Zielführender als staatliche Regulierung können internationale Standards sein. Damit KI-Systeme sicher und verlässlich eingesetzt werden können, braucht es klare Handlungsrahmen, Kriterien zur Qualitätssicherung und Vorgaben zur Auditierbarkeit. Anstelle von (schwerfälligen) gesetzlichen Regulierungen kann dies durch internationale Standards und Normen effizienter erreicht werden. Etablierte Standards können dann wiederum in internationale Verträge und nationale Regulierungen Eingang finden.

Die Erarbeitung solcher KI-Standards ist zurzeit bei den grossen Normierungsinstituten im Gange, wobei vorerst die Grundlagen geschaffen werden für die Ausarbeitung spezifischer Normenwerke. Auf internationaler Ebene hat hierzu die Internationale Organisation für Normung (ISO) zusammen mit der Internationalen Elektrotechnischen Kommission (IEC) im Mai dieses Jahres einen Fachbericht (ISO/IEC TR 24028:2020) erlassen mit einer «Übersicht zur Vertrauenswürdigkeit in künstliche Intelligenz». Darin werden – nebst terminologischer Klärungen – mögliche Schwächen und Fehleranfälligkeiten von KI-Systemen analysiert und geeignete Gegenmassnahmen diskutiert. Ein von ISO und IEC speziell geschaffenes Gremium nimmt sich der weiteren Bearbeitung der KI-Themenbereiche an. Mittelfristig sollen operationalisierbare ISO-Standards zur Entwicklung, zum Training und zum Einsatz von KI-Systemen geschaffen werden.

Auch auf nationaler Ebene sind im Ausland Normierungsbestrebungen im Gange. Ende August 2020 hat das US National Institute of Standards and Technology (NIST) das Whitepaper «Four Principles of Explainable Artificial Intelligence» (Draft NISTIR 8312) veröffentlicht. Darin werden unter dem Stichwort «Explainable AI» vier Prinzipien vorgeschlagen, wie KI-Systeme «erklärbar» bzw. deren Entscheidfindung nachvollziehbar gemacht werden können. Das NIST nimmt bis Mitte Oktober 2020 Kommentare zu diesem Whitepaper entgegen.

In ähnlicher Weise treibt auch das Deutsche Institut für Normung (DIN) die KI-Standardisierung voran, sowohl mit einer «Normierungs- Roadmap für KI» (erwartet für November 2020) wie auch bereits mit gewissen Spezifikationen für KI-Systeme: So wurde mit der DIN SPEC 92001-1 bereits ein allgemeines Qualitätsmetamodell für KI erarbeitet, das die wichtigsten Aspekte der KI-Qualität umschreibt. Weitere detaillierte Spezifikationen befinden sich in Ausarbeitung.

Relevanz der Standards

Standards, die von nichtstaatlichen Organisationen erlassen wurden, sind nicht direkt verbindlich. Haben sie sich in einem Markt aber durchgesetzt, kommt ihnen insofern Bedeutung zu, als sie den aktuellen Stand der Technik wiedergeben. Damit erhalten sie auch rechtliche Relevanz, z. B. als Referenzwert für die «allgemein übliche Sorgfalt» oder für die Vertragsgestaltung (z. B. bei der Definition der Leistungspflichten, des Haftungsrahmens etc.). Anbieter von KI-Systemen können sich bei Verpflichtung auf solche Standards von der Konkurrenz abheben. Abnehmer können die Beachtung gewisser Standards vertraglich vorschreiben, z. B. um Anforderungen ihres internen Kontrollsystems (IKS) bzw. Risikomanagements zu genügen, aber auch, um gegenüber ihren Endkunden transparent und belegbar informieren zu können.

Auch wenn der derzeitige Normierungsstand noch keine direkte Zertifizierung von KI-Systemen (z. B. ähnlich einem ISO-9001- Zertifikat) ermöglicht, so bestehen doch schon zahlreiche Orientierungshilfen. Unternehmen, die sich mit KI-Systemen befassen, sollten sich mit den darin beschriebenen Prinzipien vertraut machen, allenfalls ihr IKS, ihre internen Abläufe und Reglemente anpassen und für passende Vertragsklauseln besorgt sein. Zudem sollten die weitere Entwicklung und Überführung der generellen Prinzipien in konkrete Standards aufmerksam verfolgt werden. Dies betrifft sämtliche Unternehmen, die KI-Systeme erstellen, vertreiben oder einsetzen und dabei sicherstellen wollen, die Vertrauenswürdigkeit dieser KI-Systeme zu gewährleisten und nötigenfalls belegen zu können.

swiss export Journal 4/20