Ethik als Beschleuniger der KI
Künstliche Intelligenz muss ethisch gestaltet werden,
damit sie uns nicht überrollt. Weder Verfassungsgrundsätze noch
unsere Demokratie dürften aufs Spiel gesetzt werden.
Die Bundesregierung will
Künstliche Intelligenz bis 2025 mit drei Milliarden Euro fördern.
Man kann vielleicht der Meinung sein, dass mit dem
einschlägigen Film von Stanley Kubrick, mit 2001:
Odyssee im Weltraum bis auf weiteres alles gesagt sei zum Thema
Künstliche Intelligenz. Kubrick setzt sich darin ja mit der menschlichen
Angst auseinander, dass am Ende ein Superrechner entscheidet über Leben
und Tod.
Kubricks Werk ist 50 Jahre alt, der Forschungsstand inzwischen
aber viel fortgeschritten. Eine selbstlernende Software ist im Go-Spiel, (dem
Schach Asiens), von Menschen nicht mehr zu übertreffen.
Welche ethischen Fragen müssen ganz dringlich beantwortet
werden?
Wir haben ein ganzes Set an ethischen Fragestellungen. Wie
gehen wir mit den vielen Daten um, die wir erheben können? Wem
gehören die? Wer soll davon profitieren können? Wie schöpfen wir
den Mehrwert daraus, den ja die modernen Technologien versprechen?
Es geht aber auch darum, das Individuum zu schützen vor
Eingriffen in die Privatsphäre, vor allzu tiefen
Persönlichkeits-Profilbildungen, in die die Person vielleicht gar nicht
eingewilligt hat. Und es geht natürlich auch darum, den gesellschaftlichen
Wohlstand, aber auch die Gerechtigkeit nicht aus dem Blick zu verlieren.
Wichtig ist es, die Ethik hier als Beschleuniger und als
sicherndes Element zu verstehen, und nicht umsonst sagen ja bis zur
europäischen Ebene hoch viele, dass gerade eine ethische Künstliche
Intelligenz das europäische Markenzeichen sein könnte.
Die US-Digitalkonzerne sind ja vorne wegmarschiert, China im
Moment auch. Ich glaube, wenn von Künstlicher Intelligenz die Rede ist,
denken die meisten nur an Chatbots und Google. Aber das Feld ist sehr viel
breiter.
Drohnen und Kampfroboter werden in naher Zukunft
selbstständig töten können. Forscher warnen jedoch, dass es
keiner Software überlassen sein darf, über Leben und Tod zu
entscheiden.
|
Kurz erklärt: Tödliche
autonome Waffensysteme |
|
Tödliche autonome Waffensysteme (Lethal
Autonomous Weapon Systems, LAWS) stehen für die dritte Revolution in der
Kriegsführung.
Wie früher das Schießpulver und
später die Atombombe werden LAWS die Art der Kriegsführung
radikal verändern und damit über die Machtverhältnisse der Welt
von morgen entscheiden.
Viele Staaten arbeiten bereits an der Entwicklung von
voll-autonomen Waffen, allen voran die USA, China, Israel und Südkorea.
Die EU-Mitgliedsstaaten vertreten sehr unterschiedliche
Positionen bzgl. LAWS. Entsprechend unterschiedlich sind die nationalen
Voraussetzungen und Fähigkeiten zur Entwicklung militärischer KI.
In Deutschland ist das Thema militärische KI
jenseits der Drohnendebatte noch nicht in den Fachkreisen und noch weniger in
der Gesellschaft angekommen. |
KI revolutioniert zahlreiche Bereiche unseres Lebens, und die
Rüstung bildet da keine Ausnahme. Die Integration von KI in
militärische Systeme schreitet voran, denn KI ist weder "gut" noch
"böse"; deren Anbieter folgen einfach die Gesetze des Kapitalismus, der
Gewinnmaximierung. Hier eine kurze Einleitung.
1. Autonome Waffen z.B. Drohnen und U-Boote
Die
KI ermöglicht es Drohnen, selbstständig Ziele zu erkennen, zu
verfolgen und zu bekämpfen. Dies steigert sowohl die Effizienz als auch
die Reichweite solcher Systeme.
U-Boote:
Autonome U-Boote können dank KI
längere Zeiträume unter Wasser operieren und komplexere Missionen
ausführen, ohne menschliche Eingriffe zu benötigen.
2. Logistik und Wartung
Vorhersage von Ausfällen: KI-Algorithmen können
anhand von Sensordaten den Zustand von militärischem Gerät
analysieren und potenzielle Ausfälle vorhersagen, was die
Einsatzbereitschaft erhöht.
Optimierung von Lieferketten: KI kann logistische
Prozesse optimieren, indem sie beispielsweise Routen plant, Lagerbestände
verwaltet und den Transport von Material effizienter gestaltet.
3. Cyberkriegführung
- Erkennung von Cyberangriffen:
- KI-basierte Systeme können Cyberangriffe schneller
erkennen und abwehren, indem sie riesige Datenmengen analysieren und darin
Muster erkennen.
- Entwicklung von Malware:
- KI kann auch zur Entwicklung neuer und komplexerer Malware
eingesetzt werden, die sich schneller an Verteidigungsmaßnahmen
anpasst.
4. Simulation und Training
Virtuelle Schlachtfelder: KI ermöglicht die Erstellung
realistischer virtueller Umgebungen, in denen Soldaten realitätsnahe
Trainingsszenarien durchlaufen können.
Entwicklung von Taktik und Strategie: KI-Algorithmen können
komplexe taktische Situationen simulieren und so zur Entwicklung neuer
Strategien beitragen.
5. Intelligente Analysen
- Auswertung von Bild- und Videomaterial:
- KI-basierte Systeme können große Mengen an Bild-
und Videomaterial schnell analysieren und relevante Informationen extrahieren.
- Überwachung von Soziale Medien
- KI kann genutzt werden, um soziale Medien nach relevanten
Informationen zu durchsuchen und so frühzeitig auf potenzielle Bedrohungen
reagieren zu können.
Etische und rechtliche Fragen
Mit dem Einsatz von tödlichen autonomen
Waffensystemen sind grundlegende ethische Fragestellungen verbunden, auf
welche die internationale Gemeinschaft bisher noch keine
übereinstimmenden Antworten gefunden hat.
Mit ihrem Einsatz sind auch große Sicherheitsrisiken
verbunden. Doch der Weltgemeinschaft ist es bisher nicht gelungen, einen
völkerrechtlich verbindlichen Vertrag zur Regulierung bzw. für ein
Verbot von LAWS zu verabschieden. Dazu fehlte vor allem der politische Wille.
Immerhin konnten sich die 125 Vertragsstaaten der
UN-Waffenkonvention (CCW) im Herbst 2019 auf gemeinsame Leitprinzipien
für den Umgang mit LAWS (Guiding Principles on Lethal Autonomous
Weapons Systems) einigen.
Gelingt es den CCW-Vertragsstaaten jedoch nicht, Empfehlungen
für ein umfassendes gemeinsames Rahmenwerk d.h. die Grundlagen
für einen internationalen Verbotsvertrag zu erarbeiten, drohen die
Verhandlungen endgültig zu scheitern...
Weitere Highlights
Prognosen
|
Grundsätzliches
|
Entwicklungen
|
Bedrohliches
|
| |
|