© Tony Studio/iStock

Hybride Bedrohungen: Wie künstliche Intelligenz Deutschland vor Angriffen schützen kann

Redaktion BWI

IT-Security

Der Begriff der hybriden Bedrohung ist bis heute nicht klar definiert. Militär, Staat und Forschung beschreiben ihn unterschiedlich – und doch ist der Kern stets derselbe: „Den Akteuren geht es darum, eine Gesellschaft zu destabilisieren und die öffentliche Meinung zu beeinflussen“, fasst Henry Günter Neumann, stellvertretender Vorsitzender und Leiter Programm beim AFCEA Bonn e. V., zusammen. „Von der traditionellen Kriegsführung hat sich der Kampf durch das Internet und die sozialen Netzwerke zu einer Mischform entwickelt.“ Angreifer verbinden militärische und ökonomische Mittel. Das Spektrum reicht von Falschmeldungen im Internet, dank KI ergänzt um realistisches Bild- und Filmmaterial („Deepfakes“), über gesteuerte Diskussionen in sozialen Netzwerken und gefälschte Inhalte auf Nachrichtenportalen bis hin zu Cyber-Angriffen auf kritische Infrastrukturen.

Die komplexen Informationen über solche hybriden Aktivitäten vor allem aus dem Cyber- und Informationsraum zu identifizieren, schafft der Mensch nicht allein. Ein bewährtes Mittel zur Unterstützung ist künstliche Intelligenz (KI) selbst, sagt Neumann. Auf dem AFCEA Zukunfts- und Technologieforum 2021 tauschten sich Vertreter von Bundeswehr, Bundesamt für Verfassungsschutz, Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE, BWI und IBM darüber aus, wie hybriden Bedrohungen auch mithilfe von KI entgegengewirkt werden kann.

„[Hybriden] Akteuren geht es darum, eine Gesellschaft zu destabilisieren und die öffentliche Meinung zu beeinflussen.“

Henry Günter Neumann, AFCEA Bonn e. V

Gemeinsamer Austausch gegen hybride Bedrohungen

„Erinnern Sie sich an dieses Bild von Prinz William?“, fragt Major Stefan Langnau, Kommando Cyber- und Informationsraum, die rund 100 Teilnehmer*innen der digitalen Veranstaltung. Im Mai 2018 hatte der britische Thronfolger kurz nach der Geburt seines dritten Kindes der Öffentlichkeit vermeintlich den Mittelfinger gezeigt und war dabei von der Seite abgelichtet worden. „Alles eine Frage der Perspektive“, sagt Langnau. Denn weitere Bilder gaben Entwarnung: Von vorne betrachtet, reckte er lediglich Mittel-, Ring- und kleinen Finger in die Höhe – in Großbritannien eine übliche Geste für die Zahl drei. Durch den Blickwinkel war hieraus ein Affront geworden.

Dies war ein harmloses Beispiel. Auf ähnliche Weise können hybride Angreifer jedoch auch gegen die Bundeswehr vorgehen. Sie können durch Propaganda und bewusste Falschmeldungen Unruhe stiften, Angst schüren, die Glaubwürdigkeit staatlicher Institutionen untergraben oder durch Hacker-Angriffe Daten stehlen und missbrauchen. Dabei ist nicht immer klar, wer den Angriff ausführt. Die Akteure bleiben bei hybriden Angriffen meist im Verborgenen und können ihre Taten verschleiern.

Entsprechend vorsichtig müssen auch Entscheidungen über etwaige militärische Eingriffe getroffen werden. Jeder Schritt muss klar und nachvollziehbar ableitbar sein. „Das ist bei hybriden Bedrohungen besonders schwierig“, meint der Major aus dem KdoCIR. „Denn in einer komplexen Welt wie dieser wird es nie ein vollständiges Lagebild geben. Werten wir die einen Informationen aus, geschieht längst etwas Neues.“ Um dem möglichst nah zu kommen, gäbe es nur eine Lösung: „Wir brauchen einen gemeinsamen Informationsaustausch und müssen unterschiedliche Experten, selbst den Theaterwissenschaftler, der die Dramaturgie von Geschehnissen erklärt, zu Rate ziehen.“

„In einer komplexen Welt wie dieser wird es nie ein vollständiges Lagebild geben.“

Major Stefan Langnau, Kommando Cyber- und Informationsraum

Technologischer Fortschritt birgt neue Gefahren

Mit jedem technologischen Fortschritt macht sich Deutschland angreifbarer. Zuletzt beschleunigte die Corona-Pandemie die Digitalisierung erheblich – und schuf dadurch neue Schwachstellen. Längst bedrohen hybride Akteure auch zivile Bereiche; alle Domänen sind betroffen, besonders der Cyber- und Informationsraum. Themen wie die Flutkatastrophe im Ahrtal oder die Impfkampagne der Bundesregierung etwa werden instrumentalisiert, um ein negatives Stimmungsbild zu erzeugen. Die Redner auf dem AFCEA-Forum sind sich einig: Solche Themen mit Spaltungspotenzial müssen frühzeitig ausgemacht werden, um einer Bedrohung entgegenzuwirken.

Industrie und Forschung setzen sich seit Jahren mit dieser Herausforderung auseinander. Denn „die Bewertung eines Angriffs wird immer schwieriger“, sagt Hans Peter Stuch vom Fraunhofer FKIE. Akteure bewegen sich häufig in Grauzonen und nutzen Schlupflöcher aus. Bei einem Verkehrsflughafen gibt es beispielweise einen zivilen und einen militärischen Bereich. In dem einen ist die Bundespolizei zuständig, in dem anderen die Bundeswehr. Jenseits des Geländes jedoch die Landespolizei. Würde ein Akteur nun den Flughafen mit einer Drohne ausspähen, wäre zunächst unklar, welche Exekutive aktiv werden muss. Gleichzeitig könnte der Angreifer vorgeben, die Drohne lediglich ausprobiert zu haben. Eine Bedrohung ist hier also nicht eindeutig auszumachen. Anders sieht es aus, wenn zuvor eine Person oder Gruppierung in sozialen Netzwerken mitgeteilt hat, besagten Flughafen angreifen zu wollen. „Demnach müssen wir heutzutage alle Domänen gleichzeitig betrachten“, erklärt Stuch.

Das Fraunhofer FKIE baut einen Demonstrator auf, der mithilfe von Sensoren Informationen aus dem zivilen und nicht-zivilen Bereich erschließt. Die Daten aus Sensorik, Cyber- und Informationsraum sowie Daten zur Infrastruktur werden mit Modulen zur Datenanalyse, unter anderem mit Methoden der Künstlichen Intelligenz aufbereitet. Die Ergebnisse werden in einem flexiblen Dashboard visualisiert. IBM wirkt beispielsweise bei Projekten mit, die potenzielle Fake News aufdecken können. So trainiert das Unternehmen eine KI darauf, von einem Bot verfasste Texte von denen eines Menschen zu unterscheiden. Eine weitere KI prüft Bilder in sozialen Netzwerken darauf, ob sie Originale sind oder in der Vergangenheit schon mal gepostet und nun in einem veränderten Kontext missbraucht werden.

„Heute müssen wir alle Domänen gleichzeitig betrachten.“

Hans Peter Stuch, Fraunhofer FKIE

Resilienz bedeutet Anpassungsfähigkeit

Auch die BWI, das IT-Systemhaus der Bundeswehr, erprobt seit Jahren Einsatzmöglichkeiten dieser Technologie, etwa für Lagebilder, dem Server-Management oder der Analyse von Sensordaten. „KI und smarte Prozessautomatisierung stehen bei uns im Zentrum von Innovationsvorhaben und Experimenten“, sagt Dr. Daniel Frohschammer, Teamleiter Scouting & Advisory bei BWI innoX. „Wenn wir diese technologischen Entwicklungen an (…) die Bundeswehr bringen, müssen wir sichernde Vorkehrungen mitdenken und entwickeln.“ Ein umfassendes Informations- und Analysepaket sei hier unabdinglich, um Gefahren zu identifizieren. Das Stichwort lautet Resilienz. „Unser Verständnis von Resilienz muss sich verändern“, sagt Frohschammer und erläutert: Bislang habe man unter dem Begriff verstanden, dass sich ein System nach einer Krise wieder erholt und zum Ursprungszustand zurückkehrt. Nun sei nicht der „Status quo ante“ das Ziel, sondern dass sich das System an äußere Veränderungen anpasst.

„Wir brauchen einen 360-Grad-Blick“, fordert Frohschammer. Um diese erforderlichen Entwicklungen zu ermöglichen, brauche es jedoch Daten. Der Umgang mit Daten im öffentlichen Bereich ist bislang regulatorisch eine Hürde. Die BWI steht vor diesem Hintergrund im regen Austausch mit Partnern und anderen Unternehmen. Im kommenden Jahr folgen im Zuge der BWI-Datenstrategie die nächsten Schritte. Unter dem Thema „Data Driven“ werden in einer Innovationskampagne von innoX konkrete Projekte zur Entwicklung der notwendigen Fähigkeiten in der BWI angestoßen.

„Unser Verständnis von Resilienz muss sich verändern.“

Dr. Daniel Frohschammer, BWI innoX

Das könnte Sie auch interessieren: