Bruksela i sztuczna inteligencja: w stronę europejskich ram prawnych?

Chociaż w wiadomościach pełno jest przypadków wykorzystania danych pochodzących z rozpoznawania twarzy przez sztuczną inteligencję – zwłaszcza w Azji – Unia Europejska rozważa przyjęcie szczegółowych przepisów mających na celu uregulowanie wykorzystania tych technologii w celu dalszego wzmocnienia ochrony danych osobowych Europejczyków obywatele.

Świadomość

W rozkład przyjęta 12 lutego 2019 r. w sprawie „kompleksowej europejskiej polityki przemysłowej w zakresie sztucznej inteligencji i robotyki” (2018/2088(INI)) Parlament Europejski definiuje sztuczną inteligencję jako strategiczną technologię XXI wiekue stulecia, podkreślając bezwzględną potrzebę wypełnienia luki oddzielającej Europę od Ameryki Północnej i Azji i Pacyfiku oraz pragnie promować skoordynowane podejście na szczeblu europejskim, „aby móc konkurować z ogromnymi inwestycjami poczynionymi przez kraje trzecie, zwłaszcza Stany Zjednoczone i Chiny .

Podkreślając opóźnienia Europy w zakresie prywatnych inwestycji w technologie związane ze sztuczną inteligencją (2,4 do 3,2 miliarda euro w 2016 r. w porównaniu z 6,5 do 9,7 miliarda euro w regionie Azji i Pacyfiku oraz 12,1 do 18,6 miliarda euro w Ameryce Północnej), Parlament Europejski planuje sprostać temu wyzwaniu, zachęcając do globalnego podejścia opartego na strategicznym środowisku regulacyjnym dla sztucznej inteligencji, przy jednoczesnym rozwijaniu silnej ochrony użytkowników.

W całej tej rezolucji Parlament Europejski zauważa, że ​​„istniejące schematy i doktryny można łatwo zastosować”, tworząc już zestaw regulacyjny mogący regulować działanie technologii związanych ze sztuczną inteligencją, zarządzanie i bezpieczeństwo baz danych oraz warstwę aplikacji – prawdziwy szkielet tej technologii – oraz danych osobowych, które podlegają przepisom szczególnym, takim jak RODO.

Brak przepisu dotyczącego odpowiedzialności zagraża jednak pewności prawa. Sam charakter tej technologii nieuchronnie powoduje, że przepisy prawa cywilnego są niewystarczające lub nawet przestarzałe.

Rezolucja Parlamentu Europejskiego 2018/2088(INI) ma również na celu harmonizację przepisów krajowych, zauważając, że niektóre kraje wprowadziły już przepisy, co może prowadzić do „nadmiernych regulacji w zakresie robotyki i systemów sztucznej inteligencji”.

W tekście poruszono także kwestię cyberbezpieczeństwa, kolejnego istotnego aspektu sztucznej inteligencji. Parlament uważa, że ​​w przypadku podwójnej technologii, która może zarówno zwalczać cyberataki, jak i być przedmiotem nich, konieczne jest zapobieganie niedociągnięciom i niewłaściwemu wykorzystaniu sztucznej inteligencji poprzez stosowanie „kontroli bezpieczeństwa produktów przez organy nadzoru rynku i organy regulacyjne”. zasad ochrony konsumentów. W tym celu zaleca, aby Unia Europejska rozwinęła potencjał i strukturalną niezależność technologiczną (centrum danych, systemy i komponent chmury), a także komponenty IT, w szczególności procesory. Choć w duchu godny pochwały, ten ostatni punkt wydaje się jednak zaklęciem w świetle obecnej sytuacji.

W rezolucji proponuje się zatem ustanowienie ram prawnych opartych na pojęciu etyki i promujących technologie „etyczne od samego początku” w formacie zbliżonym do modelu „prywatności od samego początku”, opracowanego przez Ogólne przepisy o ochronie danych (RODO) ).

W stronę inicjatywy regulacyjnej

w sposób artykuł z dnia 22 sierpnia 2019 r., Financial Times ujawnia, że ​​według doniesień Komisja Europejska bada możliwość nałożenia środków ograniczających na korzystanie z technologii nadzoru wykorzystujących rozpoznawanie twarzy przez podmioty prywatne i publiczne. W tym przypadku instytucja rozważyłaby opracowanie przepisów – na poziomie wspólnotowym – mających na celu przyznanie jednoznacznych praw w zakresie wykorzystania danych wynikających z rozpoznawania twarzy obywateli Europy.

Przypominamy, że ta wiodąca instytucja na poziomie UE, utworzona na mocy Traktatu Rzymskiego w 1957 r. (art. 155 i 163), ma misję inicjatywy legislacyjnej i realizacji polityk wspólnotowych. Chociaż odgrywa kluczową rolę w gwarantowaniu ogólnego interesu w Unii, jego członkowie nie pochodzą jednak z prawa wyborczego. Składają się z jednego komisarza europejskiego z każdego państwa członkowskiego (tj. 27 komisarzy plus jeden dla Wielkiej Brytanii). Są oni proponowani przez szefów państw lub rządów każdego kraju w ramach Rady Europejskiej i zatwierdzani przez Parlament Europejski.

Parlament Europejski analizuje obronę | Komunikacja instytucjonalna w dziedzinie obronności | Europa
Na Parlamencie Europejskim spoczywa duża odpowiedzialność za określenie ram prawnych regulujących te delikatne i strategiczne kwestie.

Według źródeł brytyjskiego dziennika ekonomiczno-finansowego inicjatywa ta wpisuje się w wyrażoną przez Komisję wolę wsparcia legislacyjnej zmiany sposobu, w jaki Unia reguluje wykorzystanie technologii związanych ze sztuczną inteligencją. , co powinno umożliwić Europejczykom obywatelom „wiedzieć, kiedy wykorzystywane są dane [pochodzące z rozpoznawania twarzy], z wyjątkiem wszelkich ograniczeń ściśle nadzorowanych w celu zapewnienia odpowiedniego wykorzystania [tych danych]”.

Chociaż Komisja cieszy się dziś aurą pionierów po przyjęciu w kwietniu 2016 r. ogólnego rozporządzenia o ochronie danych (RODO lub Ogólne rozporządzenie o ochronie danych – RODO), ma to obecnie na celu stworzenie ram (wspólnych dla państw członkowskich) przepisów etycznych regulujących sztuczną inteligencję (AI). Według urzędnika, z którym rozmawiał portal Financial Times, celem byłoby „promowanie zaufania publicznego i akceptacji” w odniesieniu do nowych technologii, „które niosą ze sobą szczególne ryzyko [w zakresie ochrony danych osobowych]”. Unia Europejska stara się ponownie podkreślić skutki RODO, ustanawiając „globalny standard regulacji sztucznej inteligencji [poprzez ustalenie] jasnych, przewidywalnych i jednolitych zasad, które odpowiednio chronią jednostki”.

Inicjatywy te odzwierciedlają fakt, że instytucje europejskie bardziej niż kiedykolwiek dążą do pozycjonowania się w sektorze AI, przyjmując unikalne podejście, oparte na zaangażowaniu interesariuszy, aby w przyszłości mogły skutecznie przyczyniać się do ewolucji przepisów.

Pierwsze rekomendacje

Deklaracje te są następstwem wyraźnego przyspieszenia inicjatywy prawodawcy europejskiego w tych kwestiach. W czerwcu 2018 r. Komisja Europejska utworzyła już grupę ekspertów wysokiego szczebla, której celem jest wsparcie realizacji europejskiej strategii dotyczącej sztucznej inteligencji, w szczególności poprzez zalecenia dotyczące rozwoju polityk odnoszących się do przyszłości, etyki, legalności oraz kwestie społeczne związane ze sztuczną inteligencją, w tym wyzwania społeczno-gospodarcze.

Składa się z 52 niezależnych ekspertów ze środowisk akademickich i przemysłowych, a także społeczeństwa obywatelskiego Grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji (AI HLEG) opublikowany w czerwcu ubiegłego roku a pierwszy raport określające szereg wytycznych etycznych dotyczących sztucznej inteligencji: legalność (zgodność z obowiązującymi przepisami prawa i regulacjami), etyka (gwarancja bezwzględnego poszanowania wartości etycznych) i solidność.

AI HLEG oferuje podejście skoncentrowany na człowieku (skoncentrowana na człowieku) sztuczna inteligencja i zawiera listę zaleceń dotyczących prawodawstwa i polityki inwestycyjnej, a także listę siedmiu kluczowych wymagań, które muszą spełniać systemy, aby były „godne zaufania”:

  1. Organizacja człowieka i nadzór : W tym prawa podstawowe, działania i nadzór człowieka nad sztuczną inteligencją;
  2. Bezpieczeństwo i solidność techniczna : W tym odporność na ataki i bezpieczeństwo, przepisy dotyczące ochrony, dokładność, niezawodność i odtwarzalność;
  3. Ochrona prywatności i zarządzanie danymi : W tym poszanowanie prywatności, jakości i integralności danych oraz dostępu do danych;
  4. Przezroczystość : W tym identyfikowalność, wykorzystanie i przekazywanie zebranych danych;
  5. Różnorodność, niedyskryminacja i równość : W tym zapobieganie nadużyciom, dostępność i uniwersalne projektowanie, a także udział zainteresowanych stron;
  6. Dobro społeczeństwa i środowiska : W tym rentowność, zrównoważony rozwój i poszanowanie środowiska, a także wpływ społeczny, społeczny i demokratyczny;
  7. responsabilité : Obejmuje audyt, minimalizację i raportowanie negatywnych skutków, arbitraż i odwołania.

Chociaż te zalecenia i wytyczne mogą wydawać się stosunkowo teoretyczne, Komisja Europejska podjęła szczególny wysiłek w zakresie zastosowań politycznych i inwestycji, formułując około 33 zalecenia mające na celu stworzenie ram zaufania dla sztucznej inteligencji.

Jest to rzeczywiście niezbędny warunek wstępny, który ostatecznie odegra kluczową rolę w konstruowaniu przyszłych europejskich ram legislacyjnych dotyczących sztucznej inteligencji.

Za pośrednictwem tej inicjatywy UE i jej instytucje chcą zachęcać do badań i debaty na temat stworzenia ram etycznych regulujących tę technologię. Kontynuując prawdziwą akcję lobbingową w organach wielostronnych, w szczególności w OECD i G20, 27 państw pragnie wpłynąć na prace międzynarodowe, aby móc zagwarantować, że Unia pozostanie konkurencyjna, korzystając jednocześnie w jak największym stopniu z następstw rozwoju sytuacji w tych technologie.

Następny krok może mieć charakter polityczny. Zastępująca luksemburskiego Jean-Claude'a Junckera na czele Komisji Europejskiej Ursula Gertrud von der Leyen (CDU) zostanie zainaugurowana 1er następny listopad. Niemiecka zadeklarowała już, że w ciągu pierwszych 100 dni swojej kadencji przedstawi przepisy mające zapewnić „skoordynowane europejskie podejście do ludzkich i etycznych implikacji sztucznej inteligencji”.


Jeana Lebougre’a

Na dalej

PORTALE SPOŁECZNOŚCIOWE

Ostatnie artykuły