Digitalisierung

„Kriege lassen sich nicht allein mit KI gewinnen“

Interview mit Jan Hiesserich, Executive Vice President Strategy & Communications, Palantir Technologies
„Kriege lassen sich nicht allein mit KI gewinnen“ Jan Hiesserich Foto: Palantir

Herr Hiesserich, was ist eigentlich Künstliche Intelligenz?
Wenn wir über Künstliche Intelligenz, also KI, sprechen, sprechen wir in aller Regel über statistische Verfahren, Machine-Learning-Verfahren, also eine formalistische Sicht auf die Dinge. Die Fortschritte, die bei der Künstlichen Intelligenz erzielt worden sind, sind ganz beachtlich, aber wir teilen nicht den Hype. KI kann in kontrollierten Umgebungen hervorragend automatisieren und Effizienzgewinne heben. Die Welt gleicht aber eher einem Flohzirkus. Sobald es um komplexere, sozial- oder geopolitische Fragestellungen geht, kommt KI schnell an Grenzen. Dies hat mehrere Gründe. Zum einen haben die Probleme, über die wir hier reden, häufig eine ethisch-moralische Dimension. Wer trägt dann die Verantwortung für eine Entscheidung? Das sollten wir nicht Algorithmen überlassen. Darüber hinaus ist ein guter KI-Algorithmus zwar eine notwendige, aber keinesfalls eine hinreichende Voraussetzung für Erfolg. Die Auswahl der Datenbasis, deren Modellierung, Vollständigkeit und Aktualität, all diese Dinge sind mindestens genauso entscheidend. Was aber passiert, wenn es keine ausreichende Datenbasis gibt, weil wir es mit volatilen, sich schnell wandelnden und komplexen Gemengelagen zu tun haben? Vor diesem Hintergrund wird auch klar, warum wir uns kritisch mit der Frage ‚Wie intelligent ist Künstliche Intelligenz eigentlich?‘ auseinandersetzen sollten – auch weil sich viele der Befürchtungen, die beizeiten an diese Technologie geknüpft werden, aus der Sorge ergeben, künstliche Intelligenz könne sich im Sinne der sogenannten Singularität bald autonom entwickeln und uns Menschen unterwerfen. Zur Intelligenz gibt es einen schönen Spruch: „Menschliche Intelligenz ist das, was man einsetzt, wenn man nicht weiter weiß.“ Ein Algorithmus kann den Faden nur dort aufnehmen, wo unser Denken schon war. Von der Warte der Praxis betrachtet sehe ich ganz klare Limitationen von KI.

Viele Politiker:innen und Expert:innen haben zu Beginn des Angriffskriegs von Russland auf die Ukraine gesagt, dass sie den Krieg so nicht erwartet haben. Kann KI helfen, geostrategische Risiken besser einzuschätzen, als das zum Beispiel jetzt bei dem Überfall auf die Ukraine der Fall war?
Hätte KI, um es zugespitzt zu sagen, eine solche Überraschung verhindern können? Nein. Wenn man sagt „Kriege lassen sich mit KI allein gewinnen“, dann ist das schlichtweg Unsinn. Man muss sich im Klaren darüber sein, wo KI einen Nutzen hat. Aber auch, wo es ganz klare Limitationen gibt. Im Ukraine-Konflikt kam die Überraschung ja nicht so sehr daher, dass die entsprechende Intelligence nicht vorlag, sondern vielmehr daher, dass wir alle nicht haben glauben können, dass es einen solchen Angriffskrieg auf europäischem Boden geben kann. Das heißt, es ist weniger eine Frage der ausreichenden Datenbasis gewesen und mehr eine Frage der Einstellung und Erwartungshaltung. Ich glaube da, wo KI einen großen Nutzen hat und haben kann, ist beispielsweise in der schnelleren und umfangreicheren Verarbeitung von Sensorik-Daten, also beispielsweise bei bildgebenden Verfahren, um Satellitenbilder auszuwerten für Truppenbewegungen und dergleichen. Aber auch da muss man sehr vorsichtig sein. Es gibt einen großen Unterschied zwischen: Ich trainiere einen Algorithmus, um Katzen auf Bildern zu identifizieren, und ich trainiere einen Algorithmus, damit er Panzer-Bewegungen identifiziert. Letzteres ist ungleich schwieriger, weil natürlich kein Militär der Welt die Panzer auf einem Silbertablett präsentiert. Und schließlich muss man auch da sagen: Ein KI-Algorithmus sieht ja nicht, sondern er verarbeitet Pixel-Daten. Entscheidend ist zunächst also die Frage: Was ist mein Problem? Erst dann kommt die Frage: Wo kann KI – sei es in der Aufklärung oder Umsetzung – einen Beitrag leisten? Der Mehrwert ist also eher operativer oder taktischer Natur. Wenn es jedoch um strategische Fragestellungen geht, dann sind es vielmehr menschliche Qualitäten – Intuition, Kreativität, Flexibilität, und manchmal auch Irrationalität –, die über Erfolg und Misserfolg einer militärischen Operation entscheiden.

Palantir wurde vor dem Hintergrund von 9/11 mit der Absicht gegründet, solche terroristischen Angriffe in Zukunft besser verhindern zu können. Wie kann das mit Hilfe von Technologie gelingen?
Wir sprechen viel über Künstliche Intelligenz oder Artificial Intelligence. Unsere Philosophie ist eine andere, wir nennen das Augmented Intelligence. Wir glauben nicht, dass Künstliche Intelligenz den Menschen ersetzen soll. Wäre das das Ziel, wäre die Welt schnell eine ärmere. Bei uns steht der Mensch im Mittelpunkt. Warum halte ich diesen Unterschied für so relevant? Die Welt um uns herum wird immer komplexer. Und es scheint paradox: Wir dürsten nach Wissen, aber ertrinken gleichermaßen in Informationen. Warum? Die Komplexität an sich ist nicht das Problem, sondern vielmehr, dass wir nie gelernt haben, damit umzugehen. Noch heute lernen wir in der Schule, dass es für viele Probleme klare Ja/Nein-Antworten gibt oder geben muss. Ambivalenz wird – wenn überhaupt – geduldet, Abweichungen von der Norm werden als Problem gesehen. Wir sehen das anders, deutlich positiver. Denn Abweichungen zeigen Varianten auf, Chancen. Um diese zu nutzen, braucht es aber Kontextkompetenz und Kreativität. Wir müssen also wieder lernen, den Wald UND die Bäume zu sehen. Technologie – und als Teil davon auch KI – kann dabei helfen, diese Komplexität produktiv zu machen. Sie kann uns beispielsweise hervorragend in der Analyse und Identifikation von Mustern unterstützen. Angewandte Beispiele finden sich in der Fraud Detection bei Banken, wo ein Mensch überhaupt nicht in der Lage wäre, aus zig Milliarden an Transkationen genau jene zu identifizieren, die unter das neue Sanktionsregime fallen. Ein anderes Beispiel ist die Satellitenbilderkennung, beispielsweise von Truppenbewegungen. Wie wir diese Erkenntnisse aber interpretieren und was wir dann damit machen, das sollten wir nicht an Computer delegieren, da braucht es den menschlichen Entscheider. Das ist das Konzept der Augmented Intelligence. Technologie soll uns in die Lage versetzen, auf Basis aller verfügbarer Informationen schnell bessere Entscheidungen zu treffen und diese ähnlich schnell umzusetzen. Datenanalyse allein reicht also nicht, schließlich entscheidet sich der Erfolg einzig im Handeln. Ein solches Verständnis, wonach sich Technologie nützlich zu machen hat, ist eine direkte Folge unserer Herkunft aus dem Sicherheitsbereich.

Die Analyse großer Datenmengen führt uns zu einem der größten Bedenken, die unter anderem auch gegen Palantir vorgebracht werden: die Gefährdung individueller Freiheit durch die Auswertung von Daten. Inwiefern müssen wir die Wahl zwischen Datenschutz und Sicherheit treffen?
Eine sehr wichtige Frage. Wir sind der festen Überzeugung, dass dies eine falsche Dichotomie ist. Man muss keine Wahl treffen. Datenschutz und Datennutzung schließen sich schlichtweg nicht gegenseitig aus. Es gibt alle technischen Möglichkeiten und Funktionalitäten, um Daten im Einklang mit den Vorschriften der Datenschutz Grundverordnung (DSGVO) zu nutzen. Mein Eindruck ist manchmal, dass eben genau dieses falsche Verständnis von Datenschutz als pauschales Totschlagargument missbraucht wird.

Im Übrigen ist es auch nicht so, dass China beispielsweise automatisch einen geostrategischen Vorteil dadurch erlangt, dass es keinerlei Restriktionen hat, auf alle Daten zugreifen und dadurch mit immensen Datenmengen Algorithmen trainieren kann. Die Quantität der Daten kann ein Faktor sein. Wichtiger ist jedoch die Qualität der Daten. Der Unterschied zwischen einer Million Trainingsdatenpunkten und zehn Millionen Trainingsdatenpunkten ist weniger wichtig als der Unterschied zwischen 10.000 hochwertigen, gut kuratierten, validierten Datenpunkten und einer Million, die unzuverlässig sind.

Vor diesem Hintergrund sehen wir auch das Thema ‚Regulierung von KI‘ als Chance und strategischen Hebel. Auch hier gilt für uns, dass Regulierung keineswegs Innovation verhindert, wie es ja manchmal heißt. Vielmehr schafft eine gut gemachte Regulierung einen Rahmen, der Innovation beispielsweise über Rechtssicherheit befördern kann. Wir bringen uns hier aktiv ein. Und viele der Grundsätze, die augenblicklich im Rahmen der europäischen Regulierungsinitiative diskutiert werden – Human Oversight, Transparenz, Auditierbarkeit oder das Prinzip der Erklärbarkeit – sind sowohl integraler Bestandteil unserer Technologie als auch unseres Selbstverständnisses. Insofern sehe ich gar nicht unbedingt einen Transatlantic Divide, was das Thema angeht.

 

Bleiben Sie auf dem Laufenden und abonnieren Sie unsere Newsletter RECAP & INSIGHTS.