Autor: Verena Hoffmann & Jonathan Scheffler ; Fotos: Jonathan Scheffler

Hamburg, 28.08.2018

Aktuelle Informationen aus der FüAkBw durch den Kommandeur, Brigadegeneral Oliver Kohl

Begrüßung zur 52. SiPoInfoT durch Generalleutnant a.D. Herrmann

Das Auditorium verfolgte interessiert den Vorträgen der Referenten

Der Direktor der Clausewitz-Gesellschaft, GenLt a.D. Hermann bedankte sich bei den Angehörigen des LGAN 2017

Flottillenarzt Dr. Brunn nahm sich dem Thema Human Performance Enhancement (HPE) an

Major Dunn, US-AirForce, erklärte die multinationale Sicht in Bezug auf militärisch genutzte künstliche Intelligenz

Zwischen den Vorträgen gab es Gelegenheit, die Thematik bei einer Tasse Kaffee zu besprechen

Major Levy beleuchtete alle politischen Aspekte zum Thema Militärstrategie und autonome Waffensysteme

Mit diesem hochaktuellen Thema befasste sich die 52. Sicherheitspolitische Informationstagung der Clausewitz-Gesellschaft e.V. und der Führungsakademie der Bundeswehr (FüAkBw), zu der sich im Manfred-Wörner-Zentrum der Führungsakademie ca. 240 geladene Gäste eingefunden haben. Dabei ging es im Besonderen darum, die „Strategie im 21. Jahrhundert unter Berücksichtigung moderner technologischer Entwicklungen“ zu beleuchten und kritisch zu diskutieren. Es ging auch darum zu hinterfragen, welche Herausforderungen künstliche Intelligenz (KI) und autonome Systeme an Politik, Gesellschaft und Streitkräfte stellen. Unter der Organisation von Major Maik Schröder, Lehrgangsteilnehmer des 14. streitkräftegemeinsamen nationalen Lehrgang Generalstabsdienst und Admiralstabdienst (LGAN) gestaltete auch der Hörsaal 3 des aktuellen LGAN einen sicherheitspolitischen Beitrag zu dieser Informationstagung.

Einleitende Worte durch den Präsidenten

Die einleitenden Worte des Tages sprach der Präsident der Clausewitz-Gesellschaft, Herr Generalleutnant a.D. Kurt Herrmann, der die zahlreich erschienenen Teilnehmer im voll besetzten Gneisenau-Saal begrüßte. Den Auftakt übernahm Brigadegeneral Oliver Kohl, Kommandeur der Führungsakademie, der anschließend dem Auditorium einen Sachstand über die Umstrukturierung der Akademie gab. Schwerpunkt seiner Rede war die Neugestaltung des Lehrgangs Basislehrgang Stabsoffizier (BLS), des Lehrgangs Generalstabsdienst und Admiralstabsdienst national und international (LGAN und LGAI), der Lehrgänge der Modullandschaft für ausgebildete Stabsoffiziere nach dem Konzept des lebenslangen Lernens sowie das neu aufgestellte German Institute for Defence and Strategic Studies (GIDS).

„Wir sind keine KI-Experten, aber wir sind frei im Geist und fest im Entschluss“

Mit der einleitenden Frage, wer denn besser geeignet sei zukunftsorientiert und frei zu denken als die Teilnehmer der Lehrgänge für zukünftige Generalstabsdienst und Admiralstabsdienstoffiziere, eröffnete Korvettenkapitän Patrick Jacobi das Spezial-Panel, welches der Hörsaal eigens für diese Informationstagung vorbereitet hatte und das er zusammen mit Major Benedikt Kühn moderierte. Damit kam der Hörsaal dem Auftrag des Akademiekommandeurs nach, im Rahmen der Ausbildung zum militärischen Spitzenpersonal der Streitkräfte den strategischen Blick auf die Herausforderungen von Morgen zu richten. Dazu befasste sich der Hörsaal unter der Leitung von Major Schröder intensiv mit der Fragestellung, welche Auswirkungen durch Künstliche Intelligenz (KI) und Autonome Waffensysteme auf die Militärstrategie zu erwarten sind. Er präsentierte hierzu seine Ergebnisse in Form eines Vortrags mit anschließender Diskussionsrunde den zahlreichen und interessierten Zuhörern.

„KI ist entweder das Beste, was der Menschheit passieren kann, oder das Schlechteste!“

Major Schröder stellte in seinem Vortrag deutlich heraus, dass Künstliche Intelligenz aus dem heutigen Alltag nicht mehr wegzudenken ist. Die Entwicklung von einer schwachen KI hin zu einer „Super-KI“ sei keine Frage mehr nach dem ob, sondern lediglich eine Frage nach dem wann des nächsten Technologiesprungs. Dabei definierte er Künstliche Intelligenz als ein Teilgebiet der Informatik, das sich mit der Nachbildung menschlicher Intelligenz und menschlichen Verhaltens sowie der Weiterentwicklung von maschineller Intelligenz befasst. Wo in der Medizin längst intelligente Computer die Analyse von Krankheitsbildern übernehmen, erhält KI auch im militärischen Anwendungsbereich immer umfangreicheren Einzug und nimmt bereits heute, so die These, Einfluss auf das militärische Schlachtfeld und somit auf die strategische Kriegsführung.

„Ohne eine eigene Strategie, wären wir nicht vorbereitet.“

Die im Anschluss stattfindende Diskussion mit dem Publikum wurde von den Lehrgangsteilnehmern des LGAN mit Thesen aus politischer, medizinischer, ethischer sowie technischer Sicht eingeleitet. Um bei der rasanten Entwicklung der Möglichkeiten zum Einsatz von KI den technologischen Anschluss nicht zu verlieren, so stellte Major Levy in den Raum, muss auch Deutschland sich mit dem Einsatz autonomer Waffensysteme auseinandersetzen. Denn der Einsatz dieser Waffen ist unter Berücksichtigung der Chancen aber auch Risiken zur aktiven Unterstützung der Truppen von besonderer Relevanz. Major Dunn, Angehöriger der amerikanischen Streitkräfte, bekräftigte die Aussage und stellte heraus, dass die amerikanischen Streitkräfte eine gute KI-Strategie entwickeln müssen, um jederzeit reagieren zu können. „Ohne eine eigene Strategie“, so Dunn, „wären wir nicht vorbereitet, denn andere Nationen benutzen bereits KI als militärische Wirkmittel.“

Deutschland muss aufholen

Während andere Nationen bereits  Künstliche Intelligenz einsetzen und Konzepte implementiert haben, hängt Deutschland mit einer fehlenden robusten KI-Strategie bislang diesem Entwicklungstrend hinterher. Dabei hilft auch nicht der Blick nach Israel, das bereits autonome Grenzroboter oder Kamikaze-Drohnen einsetzt. Deutschland hat ein anderes ethisches Werteverständnis. Mit den ethischen Aspekten der Diskussion um den Einsatz von autonomen Waffensystemen und der Frage nach der Verantwortlichkeit bei ihrem Einsatz befasste sich Oberstleutnant Trier. Dieser führte aus, dass in letzter Instanz der Mensch immer in der Verantwortung bleibt, denn er entscheidet, ob diese Waffensysteme zum Einsatz kommen oder nicht.

Nicht den Menschen verdrängen

Solange die KI nur eine Ergänzung für die Kriegsführung darstellt und den Menschen dabei nicht verdrängt, so Major Levy weiterführend, gibt es klare Vorteile für ihren Einsatz, da sie zur Unterstützung bei Führungsentscheidungen eingesetzt werden kann und damit die Reaktionsgeschwindigkeit in Entscheidungsprozessen erhöht. Für dieses offene Denken warb auch Major Schröder mit dem technischen Blick auf die Entwicklung von KI. Denn mit dem frühzeitigen Implementieren von Leitplanken kann die Entwicklung dieses nicht mehr aufzuhaltenden technischen Fortschritts eingeschränkt oder sogar behindert werden.

Der medizinische Blickwinkel

Mit einem offenen Blick auf die Potentiale können, so Flottillenarzt Dr. Elisabeth Brunn, in der Nutzung von Human Performance Enhancement (HPE) auch Möglichkeiten für das Militär liegen. Dabei beleuchtete sie einen medizinischen Blickwinkel auf die Debatte. Hier können verschiedenste Maßnahmen dazu beitragen, die menschliche Leistungsfähigkeit über das individuell maximal mögliche Potential zu erhöhen. „HPE wird als Katalysator wirken und die Art der Kriegsführung grundlegend ändern“, so ihre These. 

Eine großartige Debatte

Die zahlreichen Fragen aus dem Publikum zeigten das große Interesse an der Debatte um den Einsatz von künstlicher Intelligenz im Kontext der deutschen Sicherheitspolitik. Mit dem Dank von Admiral Karsten Schneider, stellvertretender Akademiekommandeur, für die plastische Darstellung dieses komplexen Themas endete das Spezial-Panel der LGAN Lehrgangsteilnehmer mit großem Applaus.

„Wer ist ein guter Mensch und wer bestimmt das?“!“

Auch die weiteren Vorträge des Tages, so der Vortrag von Jay Tuck, Buchautor, investigativer Journalist und langjähriger Redaktionsleiter der ARD-Tagesthemen, über den „Einfluss disruptiver Technologien auf Sicherheitspolitik und Strategie“ sowie von Univ.-Professor Dr.-Ing. Dr. rer. Pol. habil. Michael Lauster, Institutsleiter des Fraunhofer Institut für Naturwissenschaftlich-Technische Trendanalysen zum Thema „Künftige Technologien und technologische Quantensprünge mit erwarteter Relevanz für Sicherheitspolitik und Strategie“ erfuhren höchste Aufmerksamkeit durch das Auditorium. Denn die ethische Frage für den Einsatz von letalen, unabhängig handelnden Waffensystemen beginnt bereits mit der Frage „Wer ist ein guter Mensch und wer bestimmt, was gut ist?“. Prof. Dr. Mey, Honorarprofessor für Außenpolitik an der Universität Köln, leitete die Gesprächsrunde mit den beiden Vortragenden, die sich unter anderem um diese Frage drehte. Die Antwort jedoch blieb offen und regt jeden zum Nachdenken an.