Deep Fakes, Passwörter ermitteln und Stimmen klonen: Kriminelle nutzen laut einer neuen Studie von Europol immer öfter künstliche Intelligenzen.

Cyberkriminelle können durch den Einsatz von Künstlichen Intelligenzen leichter und schneller Opfer ausbeuten. Zu diesem Ergebnis kommt eine Studie des Interregionalen UN-Instituts für Kriminalitäts- und Justizforschung (UNICRI) von Europol und der IT-Sicherheitsfirma Trend Micro. Dabei spielen Fähigkeiten und Kenntnisse im Umgang mit KI immer weniger eine Rolle. Denn vorgefertigte IT-Lösungen senken die Eintrittsbarriere für die Verbrecher, wie die Studie ergab

So gibt es fertige Lösungen, die Passwörter erraten, mit sogenannten Deep Fake Engines fälschen die Cyberkriminellen Fotos, Töne und Videos. Daneben macht KI auch traditionelle Hacking-Methoden mächtiger und hilft gleichzeitig dabei, die Angriffe besser zu verbergen.  

KI als Mittel zur Verbrechensbekämpfung 

Das UNICRI empfiehlt verschiedene Möglichkeiten, gegen diese neue Art von Cyberkriminalität vorzugehen: So wie die Verbrecher KI als Werkzeug einsetzen, kann die Technik auch gegen sie verwendet werden. Die Cybersicherheits-Branche und die Polizei sollen die Möglichkeiten der KI stärker wahrnehmen, damit mehr Abwehrtechnologien entwickelt werden, so die Experten. 

Der Leiter des Cyberkriminalitätszentrums von Europol, Edvardas Šileris, erklärt in der Studie: „KI verspricht der Welt mehr Effizienz, Automatisierung und Autonomie. Da der mögliche Missbrauch von KI zunehmend in der Öffentlichkeit bekannt ist, müssen aber auch die Bedrohungen transparent und unschädlich gemacht werden.“ 

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.

Vogel Communications Group