Die EU-Kommission will das Vertrauen in Künstliche Intelligenz (KI) stärken und treibt die Arbeit einer im Juni 2018 eingerichteten unabhängigen Expertengruppe weiter voran. Unter anderem soll damit sichergestellt werden, dass ethische Leitlinien für die KI-Entwicklung und -Nutzung praktikabel sind.

Die Kommission wird im Sommer 2019 eine Pilotphase starten und fordert Industrie, Forschung und Behörden auf, die jetzt vorgelegten Bewertungslisten zu den Ethikleitlinien zu testen. Sie können dazu der KI-Allianz beitreten. Ziele der KI-Strategie sind ein öffentliches und privates KI-Investitionsvolumen von mindestens 20 Milliarden Euro jährlich sowie eine bessere Datenverfügbarkeit, Talentförderung und höheres Vertrauen in die Technik zu schaffen.

„Die ethische Dimension der KI ist kein Luxus oder ergänzender Zusatz. Nur mit Vertrauen wird unsere Gesellschaft in vollem Umfang von den Technologien profitieren können. Bei einer ethisch vertretbaren KI gibt es nur Gewinner und sie kann zu einem Wettbewerbsvorteil für Europa werden: eine Führungsrolle beim Aufbau einer menschenzentrierten KI, der die Menschen vertrauen können“, erklärt Andrus Ansip, zuständiger Vizepräsident für den digitalen Binnenmarkt.

Dreiteiliger Ansatz

Die Kommission verfolgt einen dreiteiligen Ansatz: Er besteht aus der Festlegung von Kernanforderungen an eine vertrauenswürdige KI, der Einleitung einer großangelegten Pilotphase sowie der Arbeit an einem internationalen Konsens über den Aufbau einer menschenzentrierten KI. Eine vertrauenswürdige KI müsse demnach nicht nur alle geltenden Gesetze und Vorschriften einhalten, sondern auch die folgenden Anforderungen erfüllen, zu denen nun spezifische Bewertungslisten vorliegen:

  • Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen. Keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten.
  • Robustheit und Sicherheit: Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen.
  • Privatsphäre und Datenqualitätsmanagement: Anwender sollten die volle Kontrolle über ihre eigenen Daten behalten. Die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
  • Transparenz: Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden.
  • Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die Barrierefreiheit gewährleisten.
  • Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit fördern.
  • Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten.

Weitere Schritte

Im Anschluss an die Pilotphase wird die KI-Expertengruppe Anfang 2020 die Bewertungslisten prüfen und die eingegangenen Rückmeldungen sichten. Auf dieser Grundlage werden dann weitere Schritte vorgeschlagen. Zudem sollen bis Herbst 2019 mehrere Netzwerke an KI-Spitzenforschungszentren und digitalen Innovationszentren entstehen. Gespräche mit den EU-Mitgliedsstaaten und Interessenträgern stehen ebenfalls auf dem Programm, um ein Modell für die gemeinsame Datennutzung und die bestmögliche Verwendung gemeinsamer Datenräume zu entwickeln und umzusetzen.

Autor: Martin Hensel

(c)2019
Vogel Communications Group

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.

Vogel Communications Group