III. SICH DEN HERAUSFORDERUNGEN STELLEN, DAS FCAS ZUM ERFOLG FüHREN

Aufgrund der Vielzahl der Bereiche, die es abdeckt, der erforderlichen Technologiesprünge, der Dauer seiner Entwicklung und seines Charakters als internationales Kooperationsprojekt stellt das FCAS-Programm sowohl für die Behörden als auch für die mit seiner Durchführung betrauten Unternehmen eine Herausforderung dar.

A. SICH NICHT IM PROJEKT TÄUSCHEN

Alle an dem Projekt Beteiligten bekräftigen nachdrücklich: das FCAS ist kein Kampfflugzeugprojekt, sondern ein System von Systemen“, bei dem das Flugzeug nur ein Element ist . Sicher ein zentrales, aber nicht das innovativste Element, denn die Neuheit liegt eher in dem, was die Plattformen für den kooperativen Kampf verbindet und antreibt (Kampf-Cloud, künstliche Intelligenz, aber auch Sensoren usw.), als in den Plattformen selbst. In der Tat haben zwar viele andere Länder Kampfflugzeugprogramme, aber nur sehr wenige verfügen über solche Luftkampf-“Metasystem“-Programme.

In jedem Fall ist es wichtig, in jeder Phase des Projekts seinen Charakter als System von Systemen“ zu berücksichtigen, dessen Mehrwert vor allem mit seiner Fähigkeit zusammenhängt, den Begriff des kollaborativen Kampfes in einer Reihe von Plattformen und innovativen Technologien zu verkörpern . Außerdem ist es notwendig, weit über das Jahr 2040 hinaus , bis zum Jahr 2080, zu projizieren : Das FCAS sollte nicht gleich nach seiner Inbetriebnahme bereits veraltet sein.

1. Künstliche Intelligenz und Autonomiefähigkeiten in den Mittelpunkt der FCAS-Entwicklung stellen

HLCORD, das einheitliche Anforderungsdokument für das FCAS, sieht vor, dass das Kampfflugzeug der nächsten Generation (NGF) entweder einen Piloten an Bord hat oder optional“ geflogen wird.

Wie bereits erwähnt, wird die Rolle der UAVs und Remote Carriers, so wichtig sie auch sind, vorläufig dem NGF untergeordnet, der im Prinzip bemannt sein wird . Für die am weitesten fortgeschrittenen dieser UAVs ist das Modell das des Loyal Wingman“, d.h. einer Drohne, die Kampfflugzeuge begleitet oder ihnen vorausfliegt, mit einer Vielzahl von Aufgaben: Angriff, Überwachung, elektronischer Angriff, Täuschung oder sogar Kampfschadenbeurteilung.

Russland (Suchoi S-70 Okhotnik-B) und die Vereinigten Staaten (Kratos XQ-58A Valkyrie als Teil eines im Juli 2016 gestarteten Programms, der Low-Cost Attritable Strike Unmanned Aerial System Demonstration“; Loyal Wingman“ von Boeing, das in Partnerschaft mit der australischen Luftwaffe entwickelt wurde), das Vereinigte Königreich (Lightweight Affordable Novel Combat Aircraft“ mit der erstmaligen Vergabe von drei ersten Designaufträgen an Blue Bear Systems Research, Boeing Defence UK und Callen-Lenz) entwickeln derartige Loyal Wingman“-Programme.

Der Loyal Wingman“, der als Ferneffektor oder -sensor gilt, muss unter der Kontrolle der pilotierten Flugzeuge bleiben.

Tatsächlich stößt sich die Möglichkeit, ein UAV allein und ohne Begleitung eines bemannten Flugzeugs zu fliegen, im Falle von Territorialstreitigkeiten 16 ( * ) an der Anfälligkeit der Satellitendatenverbindung, die raubkopiert oder gestört sein kann. Die Drohne würde dann unkontrollierbar werden. Indem das UAV in der Gruppe integriert bleibt, die vom pilotierten Flugzeug angeführt wird, kann es von einem lokalen Netzwerk profitieren, das zwar anfällig für Störungen, aber doch widerstandsfähiger ist.

Aber auch in dieser Situation ist künstliche Intelligenz voll gefordert, um den Piloten von den einfachsten Aufgaben zu entlasten, bei der Entscheidungsfindung zu helfen oder um die Drohnen bei einem Ausfall der Datenverbindung nicht zu verlieren.

Die Vereinigten Staaten entwickeln diesen Einsatz künstlicher Intelligenz zur Unterstützung bemannter Kampfflugzeuge rasch weiter. Die KI wird dann in einen Loyal Wingman, in ein zur Drohne umgebautes Jagdflugzeug oder direkt in das Cockpit des bemannten Flugzeugs implantiert. Im Rahmen des Skyborg-Programms wird daher die Möglichkeit untersucht, einen innengesteuerten Kampfflieger (in diesem Fall eine F35 oder der neue modernisierte F15EX) + einen Wingman“, eine mit künstlicher Intelligenz ausgestattete Drohne, die eine XQ-58 Valkyrie sein könnte, zu haben.

Im Übrigen besteht eine Möglichkeit, die Schwierigkeit der Langstrecken-Datenverbindung zu umgehen, darin, ein völlig autonomes UAV vorzusehen, das also nicht von dieser Datenverbindung abhängig ist. In diesem Fall gibt es jedoch zwei Fragen:

-eine ethisch/juristische Frage (vgl. Kasten unten).

Probleme durch Autonome letale Waffensysteme (ALWS)

Bei den aktuellen bewaffneten UAVs wird die Wahl des Ziels und der Schussabgabe immer von einem oder mehreren menschlichen Operator(en) getroffen. Dieser Begriff Man in the Loop“ rechtfertigt die Tatsache, dass für die Drohne letztlich derselbe juristische Rahmen gilt wie für andere Waffensysteme.

Im Gegenteil: Autonome letale Waffensysteme“ (ALWS), die noch nicht existieren, aber Gegenstand wissenschaftlicher und militärischer Forschung sind, werfen juristische und ethische Probleme ganz anderer Größenordnung auf.

So wird beispielsweise befürchtet, dass das Risiko eines bewaffneten Konflikts und der Anwendung militärischer Gewalt durch den Einsatz wirklich autonomer Systeme erhöht werden könnte: ALWS würde die psychologischen Barrieren für die Anwendung tödlicher Gewalt beseitigen, was bei UAVs, die weiterhin von Menschen gesteuert werden, nicht der Fall ist (daher das manchmal bei UAV-Piloten beobachtete posttraumatische Syndrom).

Es gibt auch Zweifel an der Fähigkeit der ALWS, die Prinzipien des humanitären Völkerrechts (oder Konfliktrechts) einzuhalten. Wegen dieser Bedenken wird in einer Resolution des Europäischen Parlaments ein Verbot der Entwicklung von ALWS gefordert.

In der Tat sieht Artikel 36 des Ersten Protokolls der Genfer Konvention vor, dass Studium, Entwicklung, Erwerb oder Annahme einer neuen Waffe nur durchgeführt werden darf, nachdem festgestellt wurde, ob sie möglicherweise gegen das Protokoll oder gegen eine andere Regel des Völkerrechts verstößt.

Genauer gesagt erfordert die Beachtung der Hauptprinzipien des humanitären Völkerrechts (Unterscheidung zwischen Kombattanten und Zivilisten, Verhältnismäßigkeit und Minimierung von Kollateralschäden, Vorsorge) die Anwendung von Urteilsfähigkeiten, die gegenwärtig das Vorrecht des Menschen sind. Daher ist es in manchen Umgebungen sehr schwierig, zwischen Zivilisten und Militärpersonal zu unterscheiden.

Es kann in der Tat notwendig sein, das Verhalten einer Person zu analysieren und zu entscheiden, ob dieses Verhalten irgendwie gut“ oder schlecht“ ist. Es scheint jedoch unwahrscheinlich, dass Algorithmen in der Lage sein werden, ein solches Urteil zu fällen. Umgekehrt weisen einige Juristen auf die Gefahr hin, dass menschliche Soldaten unter Angst und Stress gegen die Grundsätze des humanitären Völkerrechts verstoßen könnten - Emotionen, gegen die ALWS a priori immun sind. Wenn man jedoch davon ausgeht, dass die derzeit geltenden Regeln ausreichend sind, weil Roboter sie besser einhalten können als Menschen, dann kommt das dem Postulat gleich, dass die Tatsache, dass ein Mensch oder ein Roboter tötet, ethisch gleichwertig ist. Im Gegenteil kann die Entwicklung autonomer Systeme als Paradigmenwechsel angesehen werden, der neue Regeln auferlegt, da das humanitäre Völkerrecht erfunden wurde, um von Menschen angewendet zu werden.

Da es zudem keine (oder weniger) Angst um das Leben der Roboter geben wird, könnte man sich vorstellen, dass sie irgendwann viel strengeren Regeln für die Anwendung von Gewalt als Menschen unterliegen werden: zum Beispiel, ob es notwendig ist, dass eine Person eine Waffe zeigt oder eindeutig aggressiv ist, um als Kämpfer zu gelten und zum Ziel zu werden, oder ob der Roboter die Fähigkeit hat, sein menschliches Ziel außer Gefecht zu setzen, aber nicht zu töten.

Im Jahr 2014 fand auf Initiative und unter dem Vorsitz Frankreichs in Genf das erste informelle Expertentreffen zu ALWS im Rahmen der UN-Konvention über bestimmte konventionelle Waffen (CCW) statt. Das dritte Treffen fand im April 2016 im Beisein von 95 Staaten, dem IKRK, zahlreichen NGOs und Sachverständigen statt. Bei diesen Treffen verpflichtete sich die französische Vertretung, ALWS nur dann zu entwickeln oder zu nutzen, wenn diese Systeme ihre volle Konformität mit dem Völkerrecht nachweisen“. Sie war jedoch auch der Ansicht, ein präventives Verbot der Entwicklung der ALWS sei verfrüht. Da sich die Debatte auf die sinnvolle menschliche Kontrolle“ konzentrierte, die für die ALWS gelten sollte, wurde auf Initiative der deutschen Delegation der etwas vage, aber für alle Teilnehmer akzeptable Begriff angemessene menschliche Beteiligung“ angenommen. Schließlich fragten sich einige nach der Kohärenz des Konzepts der ALWS: stehen für die Streitkräfte nicht die völlige Autonomie und das Fehlen einer Verbindung zu einem menschlichen Operator im Widerspruch zu dem vorrangigen Bedürfnis nach operativer Kontrolle durch das Militärkommando?

Auf jeden Fall haben diese Diskussionen in einem multilateralen Rahmen zur Bildung einer Regierungsexpertengruppe geführt. Die Arbeit dieser Expertengruppe könnte zum Entwurf eines Verhaltenskodexes und einer guten Praxis für die ALWS führen. Einigen Experten zufolge könnte ein solcher Kodex möglicherweise auch enthalten :

- die Beschränkung des Einsatzes der ALWS auf von Natur aus militärische Ziele (und nicht nach Standort, Bestimmungsort oder Verwendung) und auf bestimmte Kontexte (nicht städtische und dünn besiedelte Gebiete), und zwar nur in Fällen, in denen der Mensch die Entscheidung nicht selbst treffen kann (Subsidiarität);

- eine Umkehrbarkeit des autonomen Modus;

- die Programmierung des Vorteils im Zweifelsfall“ innerhalb der ALWS;

- die Aufzeichnung der Aktionen der ALWS;

- die Schulung der ALWS-Operatoren im humanitären Völkerrecht.

Am 5. April 2019 stellte die Verteidigungsministerin Florence Parly im DATA IA Institute in Saclay die neue Strategie zu künstlicher Intelligenz und Verteidigung vor . Bei dieser Vorstellung verwies sie auf die ethische und rechtliche Dimension und erklärte: Frankreich weigert sich, die Entscheidung über Leben oder Tod einer Maschine anzuvertrauen, die völlig autonom handeln und sich jeder menschlichen Kontrolle entziehen würde . Solche Systeme stehen im grundlegenden Widerspruch zu allen unseren Prinzipien. Sie haben kein operationelles Interesse für einen Staat, dessen Armeen sich an das Völkerrecht halten, und wir werden sie nicht einsetzen 17 ( * ) “. Die Ministerin fügte hinzu: Wir werden künstliche Intelligenz für die Verteidigung nach drei Hauptprinzipien entwickeln: Einhaltung des Völkerrechts, Aufrechterhaltung einer ausreichenden menschlichen Kontrolle und Dauerhaftigkeit der Befehlsverantwortung. 18 ( * )

Es sei jedoch vermerkt, dass eines der Argumente der Ministerin darin besteht, dass künstliche Intelligenz gerade zu einer besseren Anwendung des humanitären Völkerrechts beitragen könnte: Ich möchte zum Beispiel die Verhältnismäßigkeit von Reaktion, Diskriminierung zwischen Kombattanten und Nichtkombattanten und die Minimierung von Kollateralschäden anführen. Die künstliche Intelligenz wird keine dieser Linien verschieben. Im Gegenteil, die künstliche Intelligenz wird uns ermöglichen, sie in den Konflikten von morgen weiterhin einzuhalten“.

Darüber hinaus hat das Verteidigungsministerium eine Ethikkommission für Verteidigungsfragen eingerichtet, die von der Ministerin beauftragt wurde, bis zum Sommer 2020 erste Richtlinien für die Anwendung künstlicher Intelligenz auf Waffensysteme zu prüfen.

Schließlich ist die ethisch-juristische Frage nach wie vor Gegenstand internationaler Diskussionen, die jedoch im Moment keine wesentlichen Ergebnisse zu bringen scheinen.

-die Frage der taktischen Wirksamkeit . Einige sind der Meinung, dass die KI in einem Umfeld, das durch ausgeklügelte Zugangsverweigerungssysteme stark umkämpft ist, oder allgemeiner in einer Situation taktischer Fluidität“, in der viele Entscheidungen zu treffen sind, nicht wirksamer sein könnte als der Mensch.

In ihrer Rede warnt die Ministerin der Streitkräfte daher vor der potentiellen Fragilität der KI: Die Manipulation der Lerndaten, die kognitiven Voreingenommenheiten, die von Menschen auf Algorithmen übertragen werden, Systeme, die durch ein einfaches Stück Klebeband desorientiert und fehlerhaft werden, Systeme, die aus der Ferne gehackt werden können: die Risikofaktoren, die wir von der Entwurfsphase an bewerten und kontrollieren müssen, sind extrem zahlreich.

Diese realen Schwierigkeiten könnten jedoch bis 2040 weitgehend überwunden sein . Im Jahr 2016 konnte der erfahrene Airforce-Ausbilder Gene Lee keinen einzigen Sieg in der Luftkampfsimulation gegen die künstliche Intelligenz Alpha“ in einem preiswerten, nicht sehr leistungsfähigen Computer erringen. In ähnlicher Weise zielt ein Projekt des Air Force Research Laboratory (AFRL) darauf ab, bis Juli 2021 ein mit einer KI ausgerüstetes UAV (möglicherweise zunächst eine F16) gegen ein bemanntes Kampfflugzeug einzusetzen. Das Projekt greift eine Aussage von Tesla-CEO Elon Musk auf, wonach ein mit einer KI ausgerüstetes Kampfflugzeug ein bemanntes Kampfflugzeug ohne Schwierigkeiten besiegen würde 19 ( * ) .

Die Akteure des FCAS-Projekts sind sich sehr wohl bewusst, dass eine ihrer Herausforderungen die Integration zwischen ihnen von Systemen ist, die 1) von Menschen an Bord von Flugzeugen gesteuert, 2) ferngesteuert und 3) autonom sind. Dies ist eines der Hauptprobleme des FCAS und eines der Hauptforschungsthemen für die Projektpartner, und es sollte möglich sein, den Anteil dieser drei Elemente am Endprodukt“ bis zu einem gewissen Grad zu variieren, je nach den Bedürfnissen, die sich ab 2040 und darüber hinaus ergeben .

In der Tat ist die Wahl der KI nicht eine Frage ihres Vorhandenseins oder Fehlens: es ist eine Frage des Grades . Wenn eine Rakete mit Mach 4 auf das Flugzeug kommt, hat der Pilot keine Zeit, eine Entscheidung zu treffen. Die Reaktion ist notwendigerweise automatisiert, ähnlich als wenn das ABS die Kontrolle über die Bremsen des Autos übernimmt, wenn der Fahrer vor dem Hindernis stark abbremst. In diesem Fall ist es nicht nötig, dass der Mann in the Loop“ ist. Die Position, die vom Verteidigungsministerium verteidigt und von der Mission geteilt wird, besteht also darin, dass sich der Mensch im globalen Kreislauf befindet: eine Maschine kann autonom sein, aber sie kann keine Mission für sich selbst erfinden oder modifizieren, ohne einen Menschen um Erlaubnis zu bitten . Der Mensch muss daher die Befehlsverantwortung behalten und in der Lage sein, das humanitäre Völkerrecht zu achten. Viele Aufgaben des Selbstschutzes, der automatischen Zielbestimmung oder der globalen Flugbahnberechnung können automatisiert werden, ohne diese drei Prinzipien zu verletzen, die nach Angaben des Verteidigungsministeriums in der Regel nicht als Selbstbeschränkungen erscheinen.

In jedem Fall wird die KI zumindest eine herausragende Rolle innerhalb des FCAS spielen, um die Piloten innerhalb des NGWS-Systems zu unterstützen. Es ist daher erforderlich, weiterhin massiv in künstliche Intelligenz zu investieren , da das FCAS sie zwangsläufig umfassend, wenn auch heute nicht genau vorhersehbar einsetzen wird. Es ist daher zu begrüßen, dass die Verteidigungsministerin neben der bereits erwähnten 20 ( * ) Entwicklung der Strategie des Verteidigungsministeriums im Bereich der künstlichen Intelligenz in ihrer bereits zitierten Rede erklärt hat: Die französischen Streitkräfte investieren in künstliche Intelligenz und werden dies auch weiterhin tun, das liegt auf der Hand.“ und eine Investition von 100 Millionen Euro pro Jahr von 2019 bis 2025 für die KI ankündigte. Die Ministerin nennt daher sechs vorrangige Bereiche für Investitionen, unter anderem der kollaborative Kampf.

Angesichts der beschleunigten Entwicklung dieser Technologie durch unsere Gegner müssen wir bereit sein, in Zukunft auf Länder zu reagieren, die nicht immer die ethischen und rechtlichen Normen einhalten, die Frankreich und seine Verbündeten achten und weiterhin achten wollen. Ohne eine solche Vorbereitung könnte sich die französische Armee in der Tat diesen Gegnern in der Situation von Gene Lee oder in der des besten Schachspielers der Welt gegenübersehen, der nach allgemeiner Ansicht heute keinen einzigen Satz gegen eine künstliche Intelligenz mehr gewinnen könnte. Gleichzeitig müssen die internationalen Beratungen fortgesetzt werden, um in Übereinstimmung mit unserer Ethik und den Grundsätzen des humanitären Völkerrechts einen klaren Rechtsrahmen für diese Fragen zu entwickeln.

Vorschlag : Die künstliche Intelligenz als transversale Säule“ des FCAS betrachten, die mit einem möglichst breiten Anwendungsbereich entwickelt werden muss.

Wiederaufnahme der internationalen Diskussionen über Letale Autonome Waffensysteme (LAWS), um einen klaren Rechtsrahmen im Einklang mit der Ethik und den Grundsätzen des humanitären Völkerrechts zu erreichen.

2. Die entscheidende Bedeutung der Datenverbindungen und der Kampf-Cloud- und Sensorsäulen

Datenverbindungen, ob es sich nun um Hochgeschwindigkeitsverbindungen innerhalb von Patrouillen, Hochgeschwindigkeits-Satellitenverbindungen oder optische Verbindungen handelt, sowie ihre Sicherheit und Widerstandsfähigkeit gegen Cyber-Angriffe und Störsender werden von entscheidender Bedeutung sein. Die durch die Cloud ermöglichte Informationsüberlegenheit muss somit eine überlegene Entscheidungsfindung erlauben .

Darüber hinaus ist es unerlässlich, dass der Umfang der Cloud so breit wie möglich ist und somit Land- und Seestreitkräfte umfasst. Die Luftunterstützung aus nächster Nähe muss zum Beispiel mit Land- und Marineartillerie verbunden werden. Dazu gehört der Umgang mit der Integration der taktischen FCAS-Wolke und dem neuen SCORPION Command Information System (SICS) , einem Informations- und Führungssystem von Kampftruppe zu Regiment, das den automatischen Austausch von Daten und Warnungen bis zum Leiter der Landgruppe ermöglicht und Anforderungen zur Feuerunterstützung optimiert.

Insgesamt liegt der Mehrwert“ des FCAS wahrscheinlich genauso stark, wenn nicht sogar mehr in der Kampf-Cloud, der Konnektivität, der Interoperabilitätsarchitektur als im Kampfflugzeug und seinem Triebwerk . Man kann ohne weiteres eine Analogie zur parallelen Entwicklung des Automobils herstellen, wenn sich das autonome Auto weiterentwickelt: Die Software, die Verbindungen und die Cloud werden wahrscheinlich einen größeren Mehrwert haben als das Auto selbst. Deshalb müssen sowohl die Säule Kampf-Cloud“ als auch die künftige Säule Sensoren“ unter Führung von Airbus bzw. Indra mit größter Aufmerksamkeit verfolgt werden. Insbesondere die Säule Kampf-Cloud“ sollte es Thales und all seinen Zulieferern für Verteidigungselektronik ermöglichen, einen zentralen und wesentlichen Beitrag zum FCAS zu leisten .

Vorschlag : Die Säule Kampf-Cloud“ als Priorität auf derselben Ebene wie Flugzeug und Triebwerk betrachten.

Ab sofort die Integration der FCAS-Kampf-Cloud mit dem Scorpion Command and Information System (CIS) vorbereiten.

3. Welches Triebwerk für den Demonstrator?

Der Demonstrator des neuen Triebwerks wird nicht vor 2027 verfügbar sein; der Demonstrator des Flugzeugs muss jedoch 2025 oder 2026 fliegen. Es ist daher geplant, den Demonstrator mit einer aufgerüsteten Version des M88 auszurüsten, bis er durch eine Demonstrationsversion des neuen Triebwerks ersetzt werden kann.

Doch selbst diese verbesserte Version reicht möglicherweise nicht aus, um einen Demonstrator im Maßstab 1 zu betreiben. Ein Demonstrator im Maßstab 0,8 könnte dieses Problem zum Beispiel verringern. Wenn die letztere Option nicht gewählt wird, könnte der Demonstrator ein bereits auf dem Markt befindliches Triebwerk verwenden. Die letzte Lösung würde jedoch ein Risiko für die Beteiligung von Safran an dem Programm darstellen. Der J200 von Eurofighter, der dann gewählt werden könnte, wird von einem Konsortium hergestellt, dem Rolls-Royce (ein potenzieller Konkurrent mit Tempest), Avio, ITP und MTU Aero Engines angehören. Auf diese Frage hin sagte Eric Trappier, CEO von Dassault Aviation, eine aufgerüstete Version der M88 bleibe die wichtigste in Betracht gezogene Option. Diese Lösung, die dem ursprünglichen Industrieabkommen entspricht, ist auch die bevorzugte Option der Mission.

Vorschlag : Die notwendigen Investitionen durchführen, um den für 2026 geplanten Demonstrator mit dem M88-Triebwerk (der Rafale) oder einer Weiterentwicklung auszurüsten.

4. Die Umweltdimension

Umweltschutz ist nicht unbedingt das Erste, was einem in den Sinn kommt, wenn man über die Kampffliegerei nachdenkt, einem Bereich mit sehr hohen Leistungen, die oft mit einem maximalen Energieverbrauch einhergehen. Hauptziel des FCAS ist es, potenzielle Gegner durch überlegene Leistung zu überbieten. Darüber hinaus werden Größe und Gewicht des NGF höchstwahrscheinlich größer sein als bei der Rafale, was auf einen höheren Kraftstoffverbrauch schließen lässt. Der Vergleich ist jedoch nicht ganz stichhaltig, da der Treibstoffverbrauch einer aktuellen Rafale-Formation mit dem Treibstoffverbrauch einer NGWS-Formation verglichen werden sollte, die ebenso viele oder mehr Plattformen (unter Berücksichtigung der Remote Carriers), aber wahrscheinlich weniger Kampfflugzeuge haben wird.

Ein entschlossener Blick auf die Zeit nach 2040 und bis 2080 bedeutet jedoch, dass wir beispielsweise eine mögliche Verringerung des Energieüberschusses, die Notwendigkeit einer Verbesserung der Energieunabhängigkeit oder sogar eine Ausweitung bestimmter Normen, die für die zivile Luftfahrt entwickelt wurden, auf die militärische Luftfahrt in Betracht ziehen müssen.

Diesem Anliegen hat das Verteidigungsministerium bereits Rechnung getragen. Emmanuel Chiva, Direktor der Agentur für Verteidigungsinnovation, wies darauf hin 21 ( * ) , dass die Themen Energie und Umwelt eigenständige Forschungsthemen sind . Spezielle Forschungsarbeiten zum Thema Wasserstoff sind im Gange, darunter ein Projekt für eine Wasserstoffstation für Drohnen (...) Die IDA ist sich der Klimaproblematik bewusst und beteiligt sich in gleicher Weise wie das gesamte Ministerium “.

Darüber hinaus stellte die Verteidigungsministerin am 3. Juli 2020 die Energiestrategie des Ministeriums vor, die Anstrengungen zur Energieeinsparung in allen Bereichen vorsieht, um die Energierechnung der Streitkräfte zu senken, mit dem Ziel, ihre Abhängigkeit von Öllieferungen auf manchmal unsicheren Seerouten zu verringern.

Im Luftfahrtbereich schließlich laufen bereits Studien über die Verwendung von Biokraftstoffen. Im Dezember 2017 unterzeichneten Airbus, Air France, Safran, Total und Suez Environnement mit der französischen Regierung die Verpflichtung für grünes Wachstum (Green Growth Commitment, ECV) zu Biokraftstoffen für die Luftfahrt. Ziel ist die Einführung einer Dosis von Biokraftstoffen zum Kerosin. Diese Biokraftstoffe werden in der Lage sein, die Anforderungen der Militärluftfahrt zu erfüllen 22 ( * ) . Darüber hinaus wird an der Einsparung der in Flugzeugen benötigten elektrischen Energie gearbeitet.

Wie bei den anderen Verteidigungsprogrammen scheint es daher notwendig, diesen Aspekt vom Beginn des FCAS-Projekts an zu berücksichtigen.

Vorschlag : Die höchstmögliche Leistung anstreben und dabei von Anfang an die Umweltanliegen in das FCAS-Programm integrieren.


* 16 Im Gegensatz zu wenig umkämpften Gebieten wie dem Sahel-Sahara-Streifen, wo MALE-Drohnen das Einsatzgebiet überfliegen können, ohne wirklich bedroht zu werden.

* 17 Verteidigungsministerium, Rede von Florence Parly, Verteidigungsministerin: Künstliche Intelligenz und Verteidigung“, April 2019

https://www.defense.gouv.fr/salle-de-presse/discours/discours-de-florence-parly/discours-de-florence-parly-ministre-des-armees_intelligence-artificielle-et-defense

* 18 Es ist zu vermerken, dass Airbus und das Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE, Bonn, Deutschland) Ende 2019 eine Gruppe unabhängiger Experten mit der Aufgabe eingesetzt haben, den verantwortungsvollen Einsatz neuer Technologien zu definieren und ethische und internationale rechtliche Schutzmaßnahmen“ im Rahmen des FCAS vorzuschlagen.

* 19 Auch der russische Präsident Wladimir Putin erklärte 2017 zum Thema KI: Wer auf diesem Gebiet führend wird, wird der Herr der Welt sein“, während die Firma Kalaschnikow bekannt gab, mehrere autonome Waffen (ALWS) entwickelt zu haben. Ähnliche Projekte gibt es in China.

* 20 Die künstliche Intelligenz im Dienst der Verteidigung, Bericht der IA-Task Force, September 2019.

* 21 Interview von Michel Cabirol, La Tribune, 11.09.2019.

* 22 Andererseits scheint es, dass die Frage der Elektroflugzeuge, sowohl zivil als auch militärisch, ausgeschlossen werden sollte. Die zu liefernde Energie würde in der Tat Batterien erfordern, deren Gewicht in der gleichen Größenordnung wie des Flugzeugs selbst läge.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page