Wenn sich Harry Potter die Augen ausreißt und in den Wald wirft, kurzerhand eine eigene Grammatik entwickelt wird und maximale Ordnung in Listen durch Löschung derselben erzeugt wird, hat das mit der skurrilen Art zu tun, wie künstliche Intelligenzen „denken“.

Die IT-Branche ist sehr gut darin, Buzzwords zu nutzen. Wenn beispielsweise jede Machine-Learning-Funktionalität als „KI“ verkauft wird, arbeiten viele Unternehmen semantisch nicht ganz sauber, aber aus Marketing-Sicht klug. Zudem ist eine trennscharfe Abgrenzung der Begrifflichkeiten nicht einfach, da künstliche Intelligenz auf Machine-Learning-Methoden setzt und – im Gegensatz zur beispielsweise „Nürnberger Bratwurst“ – keine Behörde dafür sorgt, dass genau jenes Produkt dahinter steht, welches allgemein unter diesem Begriff verstanden wird.

KI in Realität und Fiktion

Letztendlich könnte man „Machine Learning“, „Deep Learning“ und „Natural Language Processing“ als Teilgebiete der Artificial Intelligence (AI) beziehungsweise künstlichen Intelligenz (KI) bezeichnen und dann noch zwischen schwacher und starker KI unterscheiden.

Die schwache KI reproduziert menschliche Fähigkeiten in Teilgebieten – beispielsweise wenn es darum geht, Objekte in Bildern zu erkennen, Schach zu spielen oder an Egoshooter-Turnieren teilzunehmen.

Die starke KI hingegen gibt es bislang nur als Idee. Sie will zu allem fähig sein (beziehungsweise entsprechende Fähigkeiten simulieren), zu dem ein Mensch fähig ist. Nur schneller, besser und nicht unbedingt zwingend an einen humanoiden Körper gebunden.

Vor diesem Hintergrund ist es das Konzept der „starken KI“, das Buchautoren, Drehbuchschreiber und Geschichtenerzähler so fasziniert. HAL9000 (2001: Odyssee im Weltraum), Skynet (Terminator) oder Ultron (Avengers) sind drei der bekannteren Beispiele. Die Figur „Data“ aus „Star Trek TNG“ in ­einem humanoiden Körper setzt diesen düsteren Beispielen eine liebenswürdige KI-Gestalt entgegen, die in Machine-Learning-Manier immer noch menschlicher werden will.

Fremdartiges KI-„Denken“

Die Faszination „KI“ geht inzwischen aber nicht mehr nur von Hollywood aus, sondern wird anekdotisch längst aus realen Begebenheiten gespeist, bei denen ein fremdartiges „Denken“ bei schwacher KI zu Tage tritt. Teilweise agiert oder reagiert die KI so unerwartet im Sinne von Out-of-the-box-Denken, dass man entweder Schmunzeln muss oder es einem einen kalten Schauer über den Rücken jagt. So oder so wird einem die Fremdartigkeit des KI-„Denkens“ bewusst.

Beispiel 1: Forscher an der US-Uni Stanford wollten eine KI darauf trainieren, gutartige von bösartigen Hautveränderungen zu unterscheiden. Die KI spezialisierte sich jedoch darauf, Bilder mit darauf abgebildeten Linealen zu erkennen, da bei diesen die Wahrscheinlichkeit größer war, dass es sich um einen gefährlichen Tumor handelt. Schließlich wurden mit den Linealen in den rund 130.000 Bilddateien Größenveränderungen dokumentiert.

Beispiel 2: Ein NASA-Team wollte mit einer KI den optimalen Algorithmus zur Erkennung von schweren Sonnenstürmen auf Fotografien der Sonne entwickeln. Als das beste Programm hat sich jenes herauskristallisiert, das aus Prinzip nie einen schweren Sonnensturm vermeldete, da diese sehr selten sind.

Beispiel 3: Bei Google wurde in einem Szenario mit drei KIs (Alice, Bob und Eve) folgende Aufgabe gestellt: Alice sollte Bob eine Nachricht zukommen lassen, die eine abhörende Eve nicht entschlüsseln kann. Die beiden abgehörten Entitäten hatten keine Anleitung für ihr Agieren, aber ein gemeinsames Geheimnis in Form einer Information, welches Eve nicht kannte. Nach rund 15.000 Durchläufen hatten Alice und Bob einen Verschlüsselungsalgorithmus entwickelt, der funktionierte, den aber die Google-Forscher nicht mehr nachvollziehen konnten.

Autor: Dr. Stefan Riedl

(c)2019
Vogel Communications Group

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.

Vogel Communications Group