AIの謎を解き明かす:AIと防衛

#IAここ、IAそこ、IAあなたはここにいくつか欲しいですか...
ここ数ヶ月、「AI」(人工知能)という用語が航空防衛の世界に侵入しました。 しかし、それは正確には何ですか?

AIによってもたらされた変化のすべての側面に対処したいと思うのは思いがけないことです。 これは、この2つの記事のシリーズの目標ではありません。
同様に、AIの特定の構成的側面(神経系など)は無視しますが、これらの記事の主題にとって重要ではありません。

CAD ソフトウェアからターミネーター、スマートフォンから DeepBlue や AlphaGo まで、AI にはさまざまなモードがあります。
これら 2 つの記事の目的は、あいまいではないにしても、漠然とした AI という用語の全面的な使用の背後に隠されているものを再普及させることです。

はじめに、AI への関心は航空学や防衛分野に特有のものではなく、いくつかの競技会の出現によって生じたことを思い出してください。

  • システムの計算能力
  • 利用可能なデータの量 (#BigData)
  • 異なるシステムの相互接続 (#IoT)
  • 高度なプログラミング言語
  • 基礎研究

したがって、AI は最近の概念ではありません。
しかし、上記で挙げたこれらのベクトルが指数関数的に進化するのと同じように、AI はこの無限の競争の中で「持ち去られ」、今日ではそのベクトルにより、以前は不可能だったレベルの複雑さが可能になります。

知性とは、自分の環境を理解し、適応する能力です。

第 1 回の記事: AI と防衛

概要

始める前に、先入観への扉を閉めましょう。 ターミネーター.

ia 2 アーカイブ |自動化 |ビッグデータ

コントロール.
正しく指摘されたように ジョスペ・ヘンロタン、軍隊はまず第一にその環境を制御しようとします(したがって、これらの正規軍を弱体化させるには「ゲリラ」手法が非常に効果的です)。
そこには危険は存在しません。それらを削除できない場合は、より複雑で最適ではない対応が必要になります。実際、「自由選挙」と同様、ターミネーターのような意思決定プロセスにおいて自律的なロボットの居場所はありません。

ターミネーターはいない。しかし、それでは AI とは何で、なぜでしょうか?
#ArtificialIntelligence という用語が、最も純粋な理論において知性と相互作用を備えた機械を指しているのが本当であれば、この「知性」の概念をめぐる競争は、一部の人々がいわゆる「弱い AI」を発明したことを意味しますが、それはもはや弱いものではありません。厳密に言えば、インテリジェンスと大きく関係しています。

  • 知性とは、自分の環境を理解し、適応する能力です (自分からこの環境へ、および/またはこの環境から自分へ) ラーニング (リテックス)。
  • しかし、「弱い」AI の大部分は、実際にはいわゆる「複雑な」アルゴリズムにすぎず、 機械学習機能がない
    (例: AlphaGo とは異なり、DeepBlue には学習能力がありませんでしたが、さまざまな可能性を研究しました...皮肉なことに、これはコンピューターが「最良の可能性」を見つけることができず、ランダムに 1 つを選択し、カスパロフを不安定にした点です。ビート)
  • 次に、マシンは多くの場合、システムのシステムです。 AI は特定のサブシステムまたはプロセスにのみ適用できます.
    (例: 航空機のおとり発射装置。したがって、NH90 はパイロットより優先して既知の脅威への対応を最適化できます。ただし、すべての行動においてパイロットを置き換えることはできません)

ビッグデータ、クローズドまたはオープンデータ、モノのインターネット、形状やオブジェクトの認識... 弱い AI、強い AI... AI の概念は、神聖な称号を獲得するためのこの競争のせいで、広大であると同時に曖昧ですそれはそれを汚す結果をもたらしました。
簡単にするために、3 つの軸の周りに被写体の焦点を合わせ直します。

  • まず、人工知能の「純粋な」側面を取り上げると、次の 2 つの要素を区別できます。
    • 感性 (または機械学習)、理解して学習する能力です。この容量自体は、次の 3 つの部分に区別できます。
      • 学習能力がない
      • 自分の理解領域を豊かにする能力
      • 学習する能力、つまり自分自身の教訓を発展させる能力
    • 相互作用、環境の認識を可能にします(これらの認識の翻訳である理解への最初のステップ)
      • パッシブ(受信するが送信しない)またはアクティブ(アクションを送信/決定する)
      • デジタル化 (データ交換) または Reality を使用
  • AI ベクトルビッグデータ、IoT など、AI に貢献しますが、厳密に言えばそれ自体は AI ではありません。
ia 6 アーカイブ |自動化 |ビッグデータ

主題の核心に入りましょう:
国防関係者が「AI」の裏で何を意味するのか?

国防省は、次の 6 つの軸を中心にデジタルの飛躍に焦点を当てています。

  • 意思決定のサポートと計画
  • 知能
  • 協力戦闘
  • ロボット工学
  • サイバースペースでの作戦
  • 物流とメンテナンス

1. 機能的かつ非グローバルな AI

ia 4 アーカイブ |自動化 |ビッグデータ

これが最初のポイントです。
冒頭で述べたように、AI (または他の同様の開発) は 1 つの機能のみに関係する場合があります。私たちは、システムのシステムを指揮するグローバルな AI に乗っているわけではありませんが、 機能専用の AI で、プロセスの全部または一部を自動化することでユーザーを支援できるようにする.

システムがますます複雑になるにつれて、必要なタスクも増えています。
したがって、 #ヘリコプター に搭乗する要員は2人から3人、そして現在は4人に増加し、同じ種類の任務を遂行するが、より深度が増している。
したがって、この影響を緩和するには、特定のプロセスを自動化することが適切です。

  • 重要ではない
  • 標準化および/または体系化された
  • または応答時間を改善するため

ヘリコプターに搭乗する人員は2名から3名に増え、さらに4名に増えました。

2. 世代の飛躍

#航空学 と #防衛学 は、そのシステムの物理的な複雑さから技術的に優れているという評判があるとしても、それにもかかわらず、「ソフトテクノロジー」では次のような点に後れを取っている。 2000 年代に入ると状況は変わりました :
技術革新はもはや A&D の指示対象から公共の世界に拡張されるのではなく、その逆です。 民間企業やその他の民間企業が、SOFINS や Le Bourget などの見本市の範囲、さらには #DGA の誘致にまで徐々に侵入してきました。.

理由 ?
防衛側の理由は非常に単純です。以前の装備、さらには教義さえも冷戦時代から、せいぜいアフリカ紛争の Retex から来たものです。

  • 教義の面では、アフガニスタンのような最近の非常に非対称的な紛争により、私たちは多くの側面の見直しを余儀なくされました。
  • 装備の側では、状況はより単純です。冷戦時代の装備は現在寿命を迎えているため、撤去し、新しい原則に適合する装備に置き換える必要があります。
SA321 NFRS02 10 014 アーカイブ |自動化 |ビッグデータ

この装備の更新は、原則の変更と、問題を再定義または再アプローチする新興企業の出現(#ThinkOutOfTheBox)と一致しており、防衛側がそれを奪うことは実際には間違っている恩恵である。
これは、それぞれ独自の流行語を持った他の世代の飛躍と何ら変わりはありません。

  • 1800年: 大砲
  • 1870: 列車 + ライフルの信頼性
  • 第一次世界大戦: 航空 + 化学
  • 第二次世界大戦: 機械学 + 工業化
  • 冷戦: エレクトロニクス + センサー
  • 2019: ドローン + AI?

この最初のフェーズでは、AI 自体よりも AI ベクトルの使用が中心となります。

それぞれの技術的飛躍に「 運転手)これらは中期で実際に成長を見せており、最初のバージョンは開発されるソリューションの検証に近いものでした。
しかし、これらの技術の飛躍は、以前の技術の成熟によっても強く支えられていました。これが自然の改善法則を登るデミングホイール効果です。

したがって、AI への熱意のこの第 1 段階は、中年期にこのビジョンを達成するために進化の車輪を始動させるために AI ベクトルを使用することになります。

Je gage par ailleurs que nous vivons là sans doute la dernière rupture technologique et allons quitter ce principe pour nous orienter vers un système analogue au POOGI (et le #FCAS, s'il est bien pensé en amont, pourrait tout à fait exploiter la méthode POOGI).
... Mais je m'éloigne du sujet...

3. デジタルディレイを追いつく

主要な技術ソリューションと国軍省が特定した 6 つの優先分野を比較した簡単な表を作成しました。
(答えは排他的なものではありません。これらは各分野に適応した主な解決策です)

ia ディフェンス 2 アーカイブ | 自動化 | ビッグデータ
6つの優先分野と技術的解決策を比較したQFD ©ジュリアン・メール

ご覧のとおり、提供される答えは AI に関するものではなく、大部分が 1 ~ 2 年にわたって存在してきたソリューションに関連しています。

  • 「従来の」ツール:
    • ユーザーヘルプアプリケーション
    • ビジネスインテリジェンスの研究
  • データ関連ツール:
    • ビッグデータ
    • 及びその交換(IoT)
  • AIと連携したソリューションもある
    • 主に形状認識と軌跡追跡用
ia 7 アーカイブ |自動化 |ビッグデータ

したがって、AI に関するものではなく、そのベクトルに関するものよりもはるかに重要です。 何ですか:

  • ビッグデータ
  • #InternetOfThings (モノのインターネット / 接続されたオブジェクト)
  • ビジネスインテリジェンス、つまりデータの(統計的)分析
  • システムの「ニューラル」モデリングも追加します (qui, selon moi, devrait émerger dans la décennie à venir)

分析。
BigData、IoT、BI、ニューラル モデリング…これらすべてのベクトルは、データとそのデータ間の関係の分析に使用されるツールです。なぜなら、問題の核心はそこにあるからです。
Google と同様に、陸軍も可能な限り環境を管理し、危険を軽減しようとしています。したがって、自分の環境を理解し、完全に制御して環境に影響を与えることができるようにするには、データ分析における大きな能力と深さが必要です。
意思決定支援と計画…インテリジェンス…メンテナンス…これらすべての分野ではデータの分析的使用が必要です。

BigData, IoT, modélisation neuronale...
C'est aussi : information, échange, structuration systémique...
C'est pourquoi, à titre personnel, plus qu'une révolution d'Intelligence Artificielle, j'augure une révolution en #Systèmes de Systèmes et #Networkability (soit l'habileté à fonctionner en réseau, de manière intégrée).
A ce titre, les projets #Scorpion (Armée de Terre) et #FCAS (Armée de l'Air) sont deux premiers pas sur le chemin de la Networkability.

ia ディフェンス 6 アーカイブ | 自動化 | ビッグデータ
FCAS と防衛の未来 ©エアバス・ディフェンス

4.「弱い」AI

弱い AI は知的ではありません。設計者はそうでした。

導入の際に私は次のような概念を提示しました。アルゴリズムの設計においてのみインテリジェントである「弱い」AI.
言い換えれば、弱い AI はインテリジェントではなく、その設計者はインテリジェントでした。

この同じ紹介文で述べたように、AI は次のような問題を引き起こします。 コントロールとの互換性の問題。そして、弱い AI であっても例外ではありません。
このように、DeepBlue はバグのおかげで勝利し、その結果制御不能につながる欠陥があり、カスパロフは人間が DeepBlue の決定を制御していると信じたほどでした。

私が常に AI と結びつけてきた課題は、#Gödel の定理です。
完全なシステムには一貫性がなく、実際、一貫したシステムは不完全です。したがって、問題全体は、一貫性を確保しながら可能な限り完全なシステムを構築することになります。そうでないと、AI のバグや AI の制御不能につながることは避けられません。これは、DeepBlue が経験したことと少し似ています。

私が常に AI と結びつけてきた課題は、ゲーデルの定理です。

この問題をまとめた表は次のとおりです。

ia ディフェンス 4 アーカイブ | 自動化 | ビッグデータ
防衛に対する AI の関心をまとめた、典型的な AI ケースの表 ©ジュリアン・メール

図示されているように、可能なインテリジェンスは、 AIはインタラクションのレベルに反比例します、まず第一に現実ですが、データ交換 (IoT) の点でも同様です。

そして常にそれに加えて、人間は次のことを行う必要があります。 最終的な意思決定権を保持する :

  • この AI をオフにする可能性があることにより (ケース 737 MAX を参照)
  • 強化学習の場合は調整するため
  • そして批判的な意見を持ち続けることによって(盲目的な信頼は禁物)。
ia 3 アーカイブ |自動化 |ビッグデータ

この最後の点は明白であるか、無駄に見えるかもしれませんが、それでも次のとおりです。
AI かどうかに関係なく、データ オペレーティング システムは、入力データの品質とそれに含まれるバグに関して、相対的な適切な結果しか提供しません。
この発言はあなたにとって不必要だと思われますか? 3 つの例:

  • Harfang ドローン: …これ以上の機能はなかったが、信頼性では際立っていなかった
  • ヴァレオと SAP: SAP への移行が(データ アーキテクチャとデータ品質の選択の点で)不十分に実施された後、ヴァレオは破産寸前になりました。 SAP での経験をもたらした顧客によって救われました。
  • 個人的に、私は当時 (SAP 以前) の有名な CAPM ソフトウェアの重大なバグを発見する機会がありました。このバグは要件の量を倍増させる結果をもたらしました。

ターミネーターではなく、知性の中心にいる人間です。

結論として

この記事は、AI の概念を大局的にとらえ、防衛プロジェクトとの関連で相対化することを目的としています。
ターミネーターなし、そこから遠く離れていて、さらには 人間は依然として知性の中心にいる、 どうにか 最終決定を下す運用スタッフ、またはアルゴリズム ソリューションの設計者による.

しかし、それではなぜそんなに ハイライトAI ?
世代の飛躍に関する章で述べたように、それは 方向性やビジョンを与える ; 自分を束縛しないこと あるいは自分自身に時期尚早な制限を課してしまうこともあります。

ia 8 アーカイブ |自動化 |ビッグデータ

ジュリアン・メール.

さらなる

リゾー・ソシャウ

最新の記事