IA demistificata: IA e difesa
#AI qui, AI là, AI, ecco qui...
Negli ultimi mesi il termine “AI” (Intelligenza Artificiale) ha invaso il mondo dell’Aeronautica e della Difesa. Ma cos'è esattamente?
Sarebbe presuntuoso voler coprire tutti gli aspetti legati ai cambiamenti apportati dall’IA. Non è questo lo scopo di questa serie di 2 articoli.
Allo stesso modo, ignorerò alcuni aspetti costitutivi dell'IA (es: sistema neurale, ecc.) ma che non sono importanti per l'oggetto di questi articoli.
Dal software CAD a Terminator, dal tuo smartphone a DeepBlue o AlphaGo, esistono molte modalità di intelligenza artificiale.
Lo scopo di questi 2 articoli c’è: ripopolarizzare ciò che si nasconde dietro l’uso a tutto campo del termine vago, se non oscuro, AI.
In introduzione, ricordiamo che l'interesse per l'IA non è specifico dell'Aeronautica e della Difesa, ma dell'avvento di diverse competizioni:
- La potenza di calcolo dei sistemi
- Il volume di dati disponibili (#BigData)
- L’interconnessione di sistemi diversi (#IoT)
- Linguaggi di programmazione avanzati
- Ricerca di base
Quindi, l’intelligenza artificiale non è un concetto recente.
Ma, proprio come questi vettori sopra citati evolvono in modo esponenziale, l’IA si “trascina” in questa corsa infinita e i suoi vettori consentono oggi livelli di complessità che prima non erano possibili.
L'intelligenza è la capacità di comprendere il proprio ambiente e di adattarsi.
1° Articolo: IA e Difesa
Introduzione
Prima di iniziare, chiudiamo la porta a un’idea preconcetta: Terminator.
Controllo.
Come giustamente sottolineato Joseph Henrotin, un esercito cerca innanzitutto di controllare il suo ambiente (da qui la grande efficacia dei metodi di “guerriglia” nel indebolire questi eserciti regolari).
I pericoli non hanno posto lì; e se non possono essere rimossi, richiedono una risposta più complessa e meno ottimale. Infatti, come nelle “libere elezioni”, non trovano posto robot autonomi nel processo decisionale, come Terminator.
Nessun terminatore. Ma allora, cos’è l’IA e perché?
Se è vero che il termine #IntelligenzaArtificiale si riferisce nella sua teoria più pura a una macchina dotata di intelligenza e interazione, la corsa a questa nozione di “intelligenza” fa sì che alcuni abbiano inventato le cosiddette “IA deboli”, che non lo sono più hanno molto a che fare con l’intelligenza in senso stretto:
- L'intelligenza è la capacità di comprendere il proprio ambiente e di adattarsi (da se stessi a questo ambiente e/o da questo ambiente a se stessi) derivante da a apprendimento (Retex).
- Tuttavia, buona parte delle IA “deboli” sono in realtà solo algoritmi cosiddetti “complessi”, ma che non offrono nessuna capacità di apprendimento automatico
(es: A differenza di AlphaGo, DeepBlue non aveva capacità di apprendimento, ma studiava una serie di possibilità... Ironicamente, questo è il punto in cui il computer non è stato in grado di trovare una "migliore possibilità" e ne ha scelto una a caso che ha destabilizzato Kasparov e quindi colpo) - Inoltre, una macchina è spesso un sistema di sistemi; L’intelligenza artificiale può essere applicata solo a un particolare sottosistema o processo.
(ad esempio i lanciatori di esche di un aereo; quindi l'NH90 è in grado di avere la precedenza sul pilota e ottimizzare la risposta ad una minaccia nota; non è tuttavia in grado di sostituire il pilota per l'intera azione)
Big Data, dati chiusi o aperti, Internet delle cose, riconoscimento di forme o oggetti... IA debole, forte... La nozione di IA è tanto vaga quanto vasta, a causa di questa corsa all'ottenimento del titolo sacrosanto che ha avuto la conseguenza di offuscarlo.
Per semplificare, rimetterò a fuoco il soggetto attorno a 3 assi:
- Innanzitutto, se prendiamo l’aspetto “puro” dell’Intelligenza Artificiale, possiamo poi distinguere 2 fattori:
- La sensibilità (o Machine Learning), ovvero la capacità di comprendere e apprendere. Questa capacità può essere distinta in 3 parti:
- Nessuna capacità di apprendimento
- La capacità di arricchire la propria area di comprensione
- La capacità di apprendere, cioè di sviluppare le proprie lezioni
- Le interazioni, che permettono una percezione dell'ambiente (1° passo verso la comprensione di quale sia la traduzione di queste percezioni)
- Passivo (ricevere, ma non trasmettere) o Attivo (trasmettere azioni/prendere decisioni)
- Digitalizzato (scambio dati) o con la Realtà
- La sensibilità (o Machine Learning), ovvero la capacità di comprendere e apprendere. Questa capacità può essere distinta in 3 parti:
- I vettori dell'intelligenza artificiale, come BigData e IoT, che contribuiscono all'intelligenza artificiale ma non sono essi stessi intelligenza artificiale in senso stretto.
Entriamo nel vivo dell'argomento:
Cosa intendono gli stakeholder della Difesa dietro “AI”?
Il Ministero delle Forze Armate ha concentrato il suo salto digitale attorno a 6 assi:
- supporto alle decisioni e pianificazione
- intelligenza
- combattimento collaborativo
- la robotica
- operazioni nel cyberspazio
- logistica e manutenzione
1. Un’IA funzionale e non globale
Questo è il primo punto:
Come accennato nell’introduzione, l’intelligenza artificiale (o altri sviluppi simili) può riguardare solo una funzionalità. Non siamo qui su un’intelligenza artificiale globale, al comando di un sistema di sistemi, ma un'intelligenza artificiale dedicata a una funzione, che consente all'utente di essere assistito automatizzando tutto o parte di un processo.
Man mano che i sistemi diventano sempre più complessi, richiedono sempre più compiti.
Così, il personale a bordo di un #elicottero è passato da 2 a 3 e ora anche a 4, per svolgere lo stesso tipo di missione, ma con maggiore profondità.
Per moderare questo effetto è quindi opportuno automatizzare alcuni processi:
- Non critico
- Standardizzato e/o sistematico
- O per migliorare i tempi di risposta
Il personale a bordo di un elicottero è passato da 2 a 3 e ora addirittura a 4...
2. Il salto generazionale
Se l’#Aeronautica e la #Difesa ha una reputazione di eccellenza tecnologica per la complessità fisica dei suoi sistemi, è tuttavia rimasta indietro nel “soft tech” al punto che, nel corso degli anni 2000 la situazione è cambiata :
L’innovazione tecnologica non proveniva più dai referenti A&D per estendersi all’universo pubblico, ma il contrario: quindi, start-up e altri attori del mondo civile hanno progressivamente invaso il territorio di fiere come SOFINS o quello di Le Bourget, o anche l'attrazione della #DGA.
Il motivo?
Dal lato della Difesa, la ragione è abbastanza semplice: le attrezzature precedenti, e anche le dottrine, provenivano dalla Guerra Fredda, nella migliore delle ipotesi dalla Retex, dai conflitti in Africa.
- Dal lato della dottrina, i recenti conflitti molto asimmetrici come quello in Afghanistan ci hanno costretto a rivedere molti aspetti.
- Dal lato delle attrezzature la situazione è più semplice: quelle della Guerra Fredda sono ormai giunte al termine della loro vita e devono quindi essere ritirate e sostituite o meno con attrezzature rispondenti alle nuove dottrine.
Questo rinnovamento delle attrezzature, in coincidenza con i cambiamenti nella dottrina e l’arrivo di start-up che ridefiniscono o riavvicinano le questioni (#ThinkOutOfTheBox), è un vantaggio di cui la Difesa avrebbe davvero torto a privarsi.
Non è diverso dagli altri salti generazionali, ognuno dei quali aveva anche le proprie parole d'ordine:
- 1800: artiglieria
- 1870: il treno + l'affidabilità dei fucili
- Prima Guerra Mondiale: aviazione + chimica
- Seconda Guerra Mondiale: meccanica + industrializzazione
- Guerra Fredda: elettronica + sensori
- 2019: droni + IA?
Questa prima fase riguarderà più l’utilizzo dei vettori dell’IA che dell’IA stessa
Se ogni salto tecnologico avesse avuto il suo” autisti)“, questi hanno davvero visto la loro crescita a metà del loro ciclo di vita, le prime versioni essendo più una convalida delle soluzioni da sviluppare.
Tuttavia, questi progressi tecnologici sono stati fortemente sostenuti anche dalla maturità delle tecnologie precedenti. Questo è l’effetto Ruota di Deming che scala una legge naturale di miglioramento.
Questa prima fase di entusiasmo per l'intelligenza artificiale sarà quindi più l'uso dei vettori dell'intelligenza artificiale per lanciare la ruota dell'evoluzione per raggiungere questa visione nella mezza età.
Je gage par ailleurs que nous vivons là sans doute la dernière rupture technologique et allons quitter ce principe pour nous orienter vers un système analogue au POOGI (et le #FCAS, s'il est bien pensé en amont, pourrait tout à fait exploiter la méthode POOGI).
... Mais je m'éloigne du sujet...
3. Recuperare il ritardo digitale
Ho realizzato una veloce tabella confrontando le principali soluzioni tecnologiche con le 6 aree prioritarie individuate dal Ministero delle Forze Armate:
(le risposte non sono esclusive; queste sono le principali soluzioni adatte ad ogni ambito)
Come possiamo vedere, le risposte da fornire si riferiscono meno all’intelligenza artificiale che a soluzioni che esistono per la maggior parte da 1 a 2 decenni:
- Strumenti “tradizionali”:
- applicazioni di aiuto per l'utente
- della Business Intelligence
- Strumenti relativi ai dati:
- Grandi dati
- e il relativo scambio (IoT)
- Alcune soluzioni legate all’AI
- principalmente per il riconoscimento della forma e il tracciamento della traiettoria
Si tratta quindi in gran parte meno dell’intelligenza artificiale che dei suoi vettori quali sono:
- Grandi dati
- L'#InternetOfThings (Internet delle cose/Oggetti connessi)
- Business Intelligence, ovvero l’analisi (statistica) dei dati
- Aggiungerei anche la modellazione “neurale” dei sistemi (
qui, selon moi, devrait émerger dans la décennie à venir
)
Analitica.
BigData, IoT, BI, modellazione neurale... Tutti questi vettori sono strumenti utilizzati per l'analisi dei dati e delle relazioni tra questi dati. Perché il nocciolo della questione è lì:
Come Google, l’Esercito cerca di controllare il più possibile il proprio ambiente e quindi di ridurre i rischi. Ciò richiede quindi grande capacità e profondità nell'analisi dei dati per comprendere il proprio ambiente e poterlo influenzare con completo controllo.
Supporto decisionale e pianificazione... Intelligence... Manutenzione... Tutte queste aree richiedono l'uso analitico dei dati.
BigData, IoT, modélisation neuronale...
C'est aussi : information, échange, structuration systémique...
C'est pourquoi, à titre personnel, plus qu'une révolution d'Intelligence Artificielle, j'augure une révolution en #Systèmes de Systèmes et #Networkability (soit l'habileté à fonctionner en réseau, de manière intégrée).
A ce titre, les projets #Scorpion (Armée de Terre) et #SCAF (Armée de l'Air) sont deux premiers pas sur le chemin de la Networkability.
4. IA “debole”.
L’intelligenza artificiale debole non è intelligente: i suoi progettisti lo erano.
Durante l'introduzione ho presentato il concetto diUn’intelligenza artificiale “debole”, che è intelligente solo nella progettazione dei suoi algoritmi.
In altre parole, l’intelligenza artificiale debole non è intelligente: i suoi progettisti lo erano.
Come accennato in questa stessa introduzione, l'IA pone a problema di compatibilità con il suo controllo. E anche un’intelligenza artificiale debole non fa eccezione:
DeepBlue vinse così grazie a un bug, quindi un difetto che comportava una perdita di controllo, al punto che Kasparov credette che fosse un essere umano a controllare le decisioni di DeepBlue.
La sfida che ho sempre associato all'IA è il teorema di #Gödel:
Un sistema completo è incoerente e, di fatto, un sistema coerente è incompleto. L'intero problema sarà quindi quello di avere il sistema più completo possibile garantendone allo stesso tempo la coerenza, altrimenti questo porterà inevitabilmente ad un bug dell'IA o ad un'IA fuori controllo. Questo è un po’ quello che ha sperimentato DeepBlue.
La sfida che ho sempre associato all'intelligenza artificiale è il teorema di Gödel.
Ecco una tabella che riassume questo problema:
Come illustrato, l'intelligenza possibile per l’IA sarà inversamente proporzionale al suo livello di interazioni, con la Realtà in primis, ma anche in termini di scambio dati (IoT).
E, sempre in più, dovranno farlo anche gli esseri umani mantenere il potere decisionale finale :
- Avendo la possibilità di disattivare questa AI (vedi caso 737 MAX)
- Oppure per aggiustarlo, nei casi di apprendimento per rinforzo
- E mantenendo un’opinione critica (nessuna fiducia cieca).
Quest’ultimo punto può sembrare ovvio, o futile, eppure:
Intelligenza artificiale o no, qualsiasi sistema operativo dati fornisce solo un risultato rilevante e relativo, per quanto riguarda la qualità dei dati di input e i bug che contiene.
Ti sembra superflua questa osservazione? 3 esempi:
- Il drone Harfang: … in mancanza di meglio è servito, ma non si è distinto per la sua affidabilità
- Valeo e SAP: a seguito del passaggio a SAP, mal implementato (in termini di scelta dell'architettura e della qualità dei dati), Valeo è quasi fallita. È stato salvato dai suoi clienti che hanno portato la loro esperienza in SAP.
- Personalmente ho avuto l'opportunità di scoprire un bug critico in un rinomato software CAPM a suo tempo (pre-SAP), bug che aveva la conseguenza di moltiplicare le quantità di requisiti.
Nessun Terminator, ma l'umano al centro dell'intelligenza.
Insomma
Questo articolo mirava semplicemente a mettere in prospettiva la nozione di intelligenza artificiale e relativizzarla in relazione ai progetti di difesa.
Nessun terminatore, tutt'altro, e persino gli esseri umani sono ancora al centro dell’intelligenza, se dal personale operativo nella decisione finale, o dai progettisti di soluzioni algoritmiche.
Ma allora perché così tanto evidenziare l'intelligenza artificiale ?
Come accennato nel capitolo sui salti generazionali, lo è dare una direzione, una visione ; non costringerti o imporsi limiti prematuri.
royalties : È vietata la riproduzione, anche parziale, del presente articolo, salvo il titolo e le parti dell'articolo scritte in corsivo, se non nell'ambito di accordi di tutela del diritto d'autore affidati alla CFC, e se non espressamente concordato da Meta-defense.fr. Meta-defense.fr si riserva il diritto di utilizzare tutte le opzioni a sua disposizione per far valere i propri diritti.