Künstliche Intelligenz (KI) hat den Sprung in die Realität geschafft Damit unsere ethischen Standards mit dieser Entwicklung Schritt halten können, müssen sie Teil der DNA aller selbstlernenden Algorithmen und entscheidungsunterstützenden Systeme werden.

Do androids dream of electric sheep? Der Titel des vor einem halben Jahrhundert publizierten Science-Fiction-Romans von Philip K. Dick wirft eine interessante Frage auf: Haben Maschinen ein Bewusstsein? Erkennen sie Dinge, und sei es nur im Traum? 1968 waren Androide, also Roboter mit menschlichem Aussehen, pure Fiktion. 2019 sieht die Welt radikal anders aus: Humanoide Roboter wie auch körperlose, dafür umso intelligentere Algorithmen – sogenannte Künstliche Intelligenz (KI) – haben längst den Weg aus Büchern, Comics und Filmen hinaus in die Realität gefunden.

Damit stellt sich Dicks Frage umso dringlicher: Was geht in solchen Systemen vor? Träumen sie über ihresgleichen – oder doch vielleicht über ihre Erbauer? Der israelische Historiker und Beststeller-Autor Yuval Noah Harari gibt darauf eine ziemlich eindeutige – und zugegebenermaßen düstere – Antwort: In Homo Deus – Eine Geschichte von Morgen und Eine kurze Geschichte der Menschheit schildert er, wie selbstlernende Algorithmen, gefüttert mit den grenzenlosen Datenmassen des Internets, irgendwann alles über uns wissen, auf jeden Fall mehr als wir selbst. Alles dreht sich im „Denken“ der KI laut Harari um den Menschen – und zwar mehr, als diesem lieb sein kann. Sie könnten also bald Unternehmen leiten und Länder regieren – und nur noch sehr wenige Menschen würden noch benötigt, um sie in ihrer Weiterentwicklung zu unterstützen. Für den durchschnittlichen Homo Sapiens wäre in einer solchen Welt wohl bald kein Platz mehr, denn in der ethischen Ausstattung der künstlichen Intelligenz spielen Erwägungen wie Menschenrechte keine Rolle – wenn wir sie nicht in diesen Belangen „schulen“. In die gleiche Kerbe schlägt Jack Ma, Chef der B2B-Plattform Alibaba, für den es nur eine Frage der Zeit scheint, bis uns KI intellektuell in die Tasche steckt. Auch Bill Joy, früherer CTO von Sun Microsystems teilt diese Furcht, sehr drastisch dargestellt in seinem Aufsatz Warum die Zukunft uns nicht braucht.

Allgegenwart der Algorithmen

Noch ist dies Zukunftsmusik. Doch dass Algorithmen unser Leben zunehmend fester in den Griff nehmen, steht außer Frage. Schon jetzt vertrauen wir ihnen beim (teil-)autonomen Fahren Sicherheitsentscheidungen an, ebenso wie in der Medizin die Diagnose lebensbedrohlicher Krankheiten: KI liefert Onkologen Diagnosen und schlägt Behandlungsmethoden vor. Das Ganze auf statistischer Grundlage der gespeicherten Historie medizinischer Befunde oder der Vorgeschichte von Patienten.

Und hier sind wir auf einmal mittendrin in der konkreten, ethischen Dimension der KI, die uns näher liegen muss als die nach dem Selbstbewusstsein von Algorithmen: Wie gehen wir mit den „Entscheidungen“ Künstlicher Intelligenz um – vor allem dann, wenn sie über Leben oder Tod von Menschen mitbestimmen? Wer trägt die Verantwortung für die Wahl, die ein Algorithmus trifft – und eben kein Mensch? Und was würden wir darunter verstehen, dass ein Algorithmus selbst Verantwortung tragen soll? Wie stellen wir sicher, dass bei solch hochsensiblen Themen unsere ethischen, gesetzlich verankerten Standards nicht unterlaufen werden, weil sie die Künstliche Intelligenz- aus ihrer Perspektive vielleicht schlüssig begründet – nicht berücksichtigt?

Beim Thema KI bewegen sich sämtliche Akteure – Politik, Privatwirtschaft und Forschung – noch immer in einer ethischen Grauzone. Umso dringlicher ist eine intensive öffentliche Debatte über gemeinsame und sinnvolle Regeln für die Entwicklung von Systemen, deren Einfluss auf unser Leben vieles sein mag – nur nicht trivial. Eine alte IT-Weisheit besagt: „A fool with a tool is still a fool.?. Und diese gilt auch für das „Werkzeug“ KI. Aber hier muss definitiv klar sein: Naive, gutgläubige Narren, die sich nur an den Leistungen der KI erfreuen, ohne sich den ethischen Implikationen zu stellen, dürfen wir nicht sein. Sonst riskieren wir, dass dieser technische Fortschritt ein Rückschritt für die Humanität wird.

Zweischneidiges Schwert

Technologischer Fortschritt ist ein zweischneidiges Schwert: Er macht unser Leben nicht nur deutlich einfacher, sondern wirft auch viele Fragen auf. Stellen Sie sich den Algorithmus einer Bank vor, die Ihnen trotz solider Finanzen und guter Bonität einen Kredit verwehrt. Auf Ihre Frage nach dem „Warum“ wird Ihnen der Algorithmus mit großer Wahrscheinlichkeit (noch) keine Antwort liefern können. Bei entsprechender Komplexität und Eigensteuerung des Algorithmus wäre unter Umständen selbst für die Bank nicht klar, warum die Entscheidung so ausfiel. Und nun? Sie halten sich für kreditwürdig, wollen die Gründe für die Ablehnung kennen, doch ihr „Bankberater“ verweigert ihnen jegliche Antwort. Das wird für die wenigsten akzeptabel sein.

Ethische Kriterien für eine verantwortbare KI

Damit wir gegenüber der KI nicht das Nachsehen haben, ist es unabdingbar, dass die Kräfte hinter der Künstlichen Intelligenz – in unserem Beispiel die Herstellerfirma und die Bank – sicherstellen, dass die Entscheidungswege des Algorithmus nachvollziehbar sind. Transparenz ist zu Recht eines der Kriterien, die der schwedische Philosoph Nick Bostrom in Bezug auf das Handeln von KI fordert – neben Manipulationssicherheit und Vorhersagbarkeit. Einer der Imperative des Schweden lautet: Wo auch immer KI soziale Funktionen übernimmt, muss sie sich an denselben ethischen Standards messen lassen wie Menschen in derselben Funktion. Das macht Sinn, solange KI dem Menschen in dieser Hinsicht unterlegen ist, verlangt aber nach adäquatem Ersatz, wenn sie dem Menschen auch diese Domäne streitig macht. Die Forderungen sind übrigens unter wirtschaftlicher Perspektive auch dahingehend heikel, wenn man an Wettbewerbsaspekte des geistigen Eigentums denkt – auch dies muss in der Diskussion berücksichtigt werden.

Prinzip Verantwortung

Als der deutsch-amerikanische Philosoph Hans Jonas nach dem zweiten Weltkrieg sein Hauptwerk Das Prinzip Verantwortung schrieb, dachte er an Technologien wie die Atomenergie, die das Potential hatten, die Menschheit zu vernichten. Er entwickelt darin Grundlagen für eine Ethik der technischen Zivilisation. Ihr „kategorischer Imperativ“ (Jonas lehnte sich an Kant an) besteht darin, stets so zu handeln, dass der Bestand der Menschheit als Ganzes nicht gefährdet wird. Heute würde ich gerne hinzufügen: Wir müssen stets so schnell handeln, dass diese Gefahr nicht besteht. Denn die Gefahr, zu spät zu handeln, ist angesichts selbstlernender Technologien besonders hoch. Und gerade die Technologiebranche muss ihr Wissen und Lösungen in den Dienst eines Diskurses stellen, der alle Beteiligten der Gesellschaft einbezieht, sodass wir gemeinsam gegebenenfalls Korrektive etablieren können, die ungewollten Entwicklungen vorbeugen.

Wegweisend: der Chief Artificial Intelligence Officer

Das setzt jedoch voraus, dass Unternehmen nicht nur technologisches Wissen, sondern auch ethisches Bewusstsein als Kernkompetenz verstehen. In dieser Führungsrolle sehe ich den mittlerweile oft genannten Chief Artificial Intelligence Officer (CAIO). Er darf in der stürmischen technischen Entwicklung die ethische Orientierung und ihre Abbildung in der KI nie aus den Augen verlieren und muss dafür sorgen, dass die ethische Verantwortung in die Codes, die DNA der Künstlichen Intelligenz, eingebunden bleibt. Er sorgt dafür, dass seine Top-Entwickler nicht nur ihre technischen Kompetenzen weiterentwickeln, sondern auch den Horizont ihres ethischen Denkens erweitern. Dabei darf übrigens ruhig einmal auf, historisch gesehen, alte, aber inhaltlich aktuelle Denker von der Antike bis zur Gegenwart zurückgegriffen werden. Denn die Geistesgeschichte ist angesichts des technischen Fortschritts keineswegs obsolet, sondern aktueller denn je. Wenn wir die Weisheit der Welt bündeln (und das können wir dank IT ja heute besser denn je), können wir die richtigen Fragen stellen, um die notwendigen neuen Antworten für ein verantwortungsvolles Handeln mit KI zu erarbeiten oder zumindest Impulse in diese Richtung zu geben.

Verantwortung vorantreiben

Dass die Technologiebranche hier durchaus Verantwortung übernimmt, zeigt eine kürzlich veröffentlichte Forbes-Studie. Demnach bieten schon heute 92 Prozent der im KI-Bereich führenden Unternehmen spezielle Trainings für ethische Fragen an. Und 74 Prozent analysieren die Ergebnisse ihrer KI-Systeme wöchentlich. Auch die Politik hat den Schuss gehört und bemüht sich redlich um eine sozialverträgliche KI-Nutzung. So wurden vor sieben Monaten Eckpunkte der Bundesregierung für eine Strategie Künstliche Intelligenz auf den Weg gebracht. Neben der deutschen Technologieführerschaft wird darin auch einer „verantwortungsvolle[n] und gemeinwohlorientierte[n] Nutzung von KI in Zusammenarbeit mit Wissenschaft, Wirtschaft, Staat und der Zivilgesellschaft“ Platz eingeräumt. Das ist ein wichtiger Zusatz: Trotz des wirtschaftlichen Segens, den die Technologie verspricht, darf die ethische Dimension bei aller Innovation nie aus dem Blick geraten. Diesem ersten Schuss müssen nun Taten folgen. Achim Berg, Präsident des Digitalverbands Bitkom, mahnte jüngst, dass ein Wechsel von der Theorie in die Praxis so schnell wie möglich vollbracht werden müsse. Wenn alle gesellschaftlichen Akteure diese Diskussion in 2019 verantwortungsbewusst vorantreiben und die Ergebnisse umsetzen, muss und wird es uns gelingen, die KI-Systeme mit einem moralischen Bewusstsein auszustatten, das sie in ihrem weiteren Entwicklungsprozess prägen wird.

Und da wir Menschen in diesen Dingen zugegebenermaßen ja durchaus noch Luft nach oben haben: Vielleicht wird die KI uns schon bald helfen, unsere ethischen Mängel zu kompensieren. Könnte das ein gemeinsames Ziel sein?

Autor: Sascha Puljic

(c)2019
Vogel Communications Group

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.

Vogel Communications Group