ブリュッセルと人工知能:欧州の法的枠組みに向けて?

ニュースでは、特にアジアにおいて、人工知能による顔認識データの使用事例があふれていますが、欧州連合は、欧州諸国の個人データの保護をさらに強化するために、これらの技術の使用を規制することを目的とした特定の法律の採択を検討しています。国民。

意識

解像度 12年2019月2018日に採択された「人工知能とロボット工学に関する包括的な欧州産業政策」(2088/XNUMX(INI))において、欧州議会はAIをXNUMX世紀の戦略的技術として定義したe 欧州と北米およびアジア太平洋を隔てる溝を埋めることが不可欠であることを強調し、「第三国、特に米国と中国による巨額投資に対抗できるように、欧州レベルでの協調的なアプローチを推進したい」としている。 。

AI関連技術への民間投資(2,4年は3,2億~2016億ユーロ、アジア太平洋地域では6,5億~9,7億ユーロ、北米では12,1億~18,6億ユーロ)に関して欧州が積み上げてきた遅れを強調し、欧州議会は次のように述べた。は、強力なユーザー保護を開発しながら、AI に対する戦略的な規制環境に基づく世界的なアプローチを奨励することで、この課題に対処する予定です。

この決議案全体を通じて、欧州議会は「既存のスキームと原則は簡単に適用できる」と指摘しており、AIに関連するテクノロジーの運用、データベースのガバナンスとセキュリティ、およびアプリケーション層(社会の真のバックボーン)を管理できる一連の規制がすでに形成されていると述べている。このテクノロジーと、GDPR などの特定の規定によって管理される個人データ。

ただし、責任条項がないと法的確実性が損なわれます。このテクノロジーの性質そのものが、民事規定を必然的に不十分にするか、あるいは時代遅れにすることさえあります。

欧州議会決議 2018/2088(INI) も国内規則の調和を目指しており、一部の国ではすでに法制化されており、それが「ロボット工学や AI システムにおける過剰な規制」につながる可能性があると指摘しています。

このテキストでは、人工知能のもう 1 つの重要な側面であるサイバーセキュリティの問題にも焦点を当てています。サイバー攻撃と戦うことも、サイバー攻撃を受けることもできる二重技術である議会は、消費者保護規則「市場監視当局や規制当局による製品セキュリティ管理」を適用することで、AIの欠陥や悪用を防ぐことが不可欠であると考えている。これを実現するために、EU は、IT コンポーネント、特にプロセッサーだけでなく、能力と構造的な技術的独立性 (データセンター、システム、クラウド コンポーネント) を開発することを推奨しています。精神的には賞賛に値しますが、この最後の点は、現在の状況を考慮すると呪文のように思えます。

したがって、この決議では、倫理の概念に基づいた法的枠組みを確立し、データ保護一般規則 (GDPR) によって開発された「プライバシー・バイ・デザイン」モデルに近い形式で「倫理バイ・デザイン」テクノロジーを促進することを提案しています。 )。

規制への取り組みに向けて

記事 22 年 2019 月 XNUMX 日の、 フィナンシャル·タイムズ 報道によると、欧州委員会が民間および公共の関係者による顔認識監視技術の使用に対して制限措置を課す可能性を検討していることが明らかになった。この場合、同機関は、欧州国民の顔認識から得られるデータの使用に関する明示的な権利を付与することを目的とした、コミュニティレベルでの規制の草案を検討することになるだろう。

念のために言っておきますが、この EU レベルの主要機関は 1957 年のローマ条約 (第 155 条および第 163 条) によって創設され、立法主導権と共同体政策の実施という使命を持っています。連合内の一般利益を保証する上で中心的な役割を果たしていますが、それにもかかわらず、そのメンバーは普通選挙から選ばれていません。これらは加盟国ごとに27人の欧州委員(つまりXNUMX人の委員と英国のXNUMX人)で構成され、欧州理事会内の各国の国家元首または政府首脳によって提案され、欧州議会によって承認されます。

欧州議会が防衛を分析 |防衛機関のコミュニケーション |ヨーロッパ
欧州議会には、これらのデリケートで戦略的な問題を管理する法的枠組みを定義するという重い責任があります。

英国の経済金融日刊紙の情報筋によると、この取り組みは、欧州連合が人工知能に関連した技術の使用を規制する方法の法的見直しを支援したいという欧州委員会の表明した願望の一環となるだろう。国民は「(これらのデータの)適切な使用を確保するために厳密に監視される制限を除き、(顔認識からの)データがいつ使用されるかを知る」必要がある。

2016 年 XNUMX 月に一般データ保護規則 (GDPR または 一般データ保護規則 – GDPR)、これは現在、人工知能(AI)を管理する倫理法の枠組み(加盟国に共通)を作成することを目的としています。同紙が取材した関係者によると、 フィナンシャル・タイムズ、 その目的は、「(個人データの保護の観点から)特定のリスクを伴う」新技術に関する「国民の信頼と受け入れを促進する」ことだろう。欧州連合は、GDPR の影響を改めて強調し、「個人を適切に保護する、明確で予測可能な統一ルールを設定することにより、AI 規制の世界標準を確立する」ことを目指しています。

これらの取り組みは、欧州の機関が将来的に規制の進化に効果的に貢献できるよう、利害関係者の関与に基づいた独自のアプローチを採用することでAI分野での地位を確立しようとこれまで以上に努力しているという事実を反映している。

最初の推奨事項

これらの宣言は、これらの主題に関して欧州議会による取り組みが明らかに加速したことを受けてのものです。欧州委員会は、2018 年 XNUMX 月に、特に将来の倫理的、法的政策に関する政策の開発に関する勧告を通じて、人工知能に関する欧州戦略の実施を支援することを目的として、すでにハイレベルの専門家のグループを結成していました。社会経済的課題を含む AI の社会問題。

学界、産業界、市民社会からの独立した専門家 52 名で構成されています。 人工知能に関するハイレベル専門家グループ (AI HLEG)昨年 6 月に発行 最初のレポート 人工知能に関する一連の倫理ガイドラインを指定します。合法性 (適用される法律と規制の遵守)、倫理 (倫理的価値の絶対的尊重の保証)、堅牢性です。

AI HLEG が提供するアプローチ 人間中心 (人間中心の) AI と、法律や投資政策に関する推奨事項、およびシステムが「信頼できる」ために満たさなければならない 7 つの重要な要件のリストを示します。

  1. 人間による組織と監督 : AI の基本的権利、行動、人間による監督を含む。
  2. セキュリティと技術的な堅牢性 : 攻撃に対する回復力とセキュリティ、保護規定、正確性、信頼性、再現性を含みます。
  3. プライバシー保護とデータガバナンス : プライバシー、データの品質、完全性、およびデータへのアクセスの尊重を含みます。
  4. 透明性 : 収集されたデータのトレーサビリティ、利用および伝達を含みます。
  5. 多様性、無差別、公平性 : 虐待的な偏見の防止、アクセシビリティ、ユニバーサルデザイン、ステークホルダーの参加を含む。
  6. 社会と環境の幸福 : 実行可能性、持続可能性、環境への配慮、社会的、社会的、民主的影響を含む。
  7. responsabilité : 監査、悪影響の最小化および報告、仲裁および控訴を含みます。

これらの推奨事項とガイドラインは比較的理論的に見えるかもしれませんが、欧州委員会は、AI の信頼の枠組みの実現を目的とした約 33 の推奨事項を策定することで、政策の適用と投資の面で特別な努力を払ってきました。

これは確かに必要な前提条件であり、最終的には人工知能に関する将来のヨーロッパの法的枠組みの構築において重要な役割を果たすことになります。

この取り組みを通じて、EU とその機関は、この技術を管理する倫理的枠組みの構築に関する研究と議論を促進することを目指しています。 20カ国は、多国間機関、特にOECDやG27との本格的なロビー活動を継続し、これらの情勢の発展による影響から可能な限り恩恵を受けながらEUが競争力を維持できることを保証できるように、国際活動に影響を与えたいと考えている。テクノロジー。

次のステップは政治的なものになるかもしれない。ルクセンブルクのジャン=クロード・ユンケル氏の後任として欧州委員会委員長にウルスラ・ゲルトルート・フォン・デア・ライエン氏(CDU)が1日に就任する。er 来年の100月。ドイツ人首相はすでに、任命期間の最初のXNUMX日間に「人工知能の人的および倫理的影響に対するヨーロッパの調整されたアプローチ」を提供する法案を発表すると宣言している。


ジャン・ルブーグル

さらなる

リゾー・ソシャウ

最新の記事