Intelligenza Artificiale e applicazioni

Intelligenza Artificiale, sicurezza e visione antropocentrica

08 Luglio 2021

L’Intelligenza Artificiale (AI) è una tecnologia che rivoluziona il modo con cui l’uomo interagisce con la macchina, e le macchine tra di loro. La visione antropocentrica dell’Intelligenza Artificiale oramai è una questione dibattuta in ogni sede istituzionale, a partire dall’Unione Europea che vuole cogliere questa grande opportunità di investimento regolamentando un campo ancora “ignoto” per sfruttare le sue infinite potenzialità in più settori. Il rapporto tra Intelligenza Artificiale e sicurezza è uno dei temi più caldi della discussione.

Intelligenza artificiale: applicazioni

Grazie all’implementazione dell’ Intelligenza artificiale è possibile rendere le macchine capaci di compiere ragionamenti complessi, imparare dagli errori e svolgere numerose funzioni al posto della mente umana. L’AI studia, quindi, la teoria, le tecnologie e le metodologie con il fine di progettare sistemi hardware e software attraverso i quali elaborare prestazioni elettriche che riproducono una pertinenza dell’intelligenza umana. Obiettivo finale dello sviluppo dell’Intelligenza Artificiale sarà quello di risolvere problemi più o meno complessi in modo tale che il processo “artificiale” non sia distinguibile dal processo “umano”.

Esistono otto tipologie di aree in cui l’intelligenza artificiale trova applicazione:

  • Intelligent data processing (analisi dati per estrapolare informazioni e compiere azioni di conseguenza);
  • Virtual Assistant/Chatbot (per customer care aziendale);
  • Recommendation System (sistemi che consigliano un acquisto in base a quelli precedenti);
  • Natural Language Processing (sistemi per comprensione del testo, traduzioni, produzione di testi);
  • Computer Vision (per la comprensione di alto livello del contenuto di immagini o video);
  • Soluzioni fisiche (es. mezzi di trasporto autoguidati, oggetti che compiono azioni senza l’intervento umano, robot per automazione dei processi produttivi).

UE e normativa intelligenza artificiale

Il Piano Coordinato sull’AI con gli Stati Membri della Comunità Europea sarà il tassello fondamentale che permetterà all’UE di imporsi come leader e hub globale per un’Intelligenza Artificiale etica e affidabile, generando così competitività e sviluppo basati su valori sociali condivisi.

 “La fiducia è un must”. Il messaggio del Vicepresidente esecutivo per un’Europa adatta all’era digitale, Margrethe Vestager, è ben chiaro. Tutto ruoterà intorno all’affidabilità e alla fiducia che l’UE riporrà nell’intelligenza artificiale nel momento in cui bisognerà sviluppare una serie di norme globali da applicare a questa tecnologia. “Definendo gli standard, - afferma il Vicepresidente - possiamo aprire la strada alla tecnologia etica in tutto il mondo e garantire che l’UE rimanga competitiva lungo il percorso”. Il primo quadro giuridico sull’AI, combinato al nuovo piano coordinato con gli Stati Membri, dovrà tutelare la sicurezza e i diritti fondamentali di persone e imprese permettendo così di introdurre l’AI e di attrarre in Europa ingenti investimenti. L’Intelligenza Artificiale esiste da sempre, solo che ora ha ampliato talmente tanto il suo raggio d’azione da richiedere inevitabilmente una regolamentazione. AI, sicurezza, affidabilità dovranno andare di pari passo per permettere ai cittadini UE di fidarsi dello sviluppo dell’Intelligenza Artificiale grazie a norme flessibili e proporzionate con lo scopo di affrontare e limitare i rischi legati ai sistemi AI. Il piano coordinato sarà la linea guida per questa rivoluzione in cui verranno delineate strategie e investimenti degli Stati per supportare l’UE nello sviluppo della visione antropocentrica, sostenibile, sicura, inclusiva e affidabile di questa tecnologia.

Intelligenza artificiale: sicurezza e rischio

Gli standard che delineeranno il quadro normativo dell’AI a cui aderiranno tutti gli Stati membri dell’UE si basano su un approccio legato al concetto di rischio.

  • Rischio inaccettabile: verranno vietati tutti quei sistemi di AI considerati una chiara minaccia per la sicurezza, per i mezzi di sussistenza e i diritti delle persone (es. sistemi/applicazioni di AI che manipolano il comportamento umano).
  • Rischio alto: rientrano in questa categoria i sistemi in cui l’Intelligenza Artificiale è utilizzata in infrastrutture critiche (trasporti), istruzione/formazione professionale, componenti di sicurezza dei prodotti, nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (es. software di selezione di CV), in servizi pubblici o privati essenziali, in attività di contrasto, nell’amministrazione della giustizia o nella gestione della migrazione e del controllo delle frontiere.

Tutte queste applicazioni saranno soggette a obblighi estremamente rigorosi prima di entrare nel mercato.

  • Rischio limitato: è legato a tecnologie AI con specifici obblighi di trasparenza (es. chatbot).
  • Rischio minimo: la maggior parte dei sistemi AI fanno parte di questa categoria; la proposta legislativa permette il libero utilizzo di applicazioni quali videogames e filtri spam basati su AI.

L’ Unione Europea vuole farsi promotrice di questa visione antropocentrica dell’Intelligenza Artificiale per mantenere alta la competitività a livello globale promuovendo l’innovazione nello sviluppo e nella diffusione di tecnologie AI in tutti i settori industriali e in egual modo in tutti gli Stati membri. In questo momento, con il Piano coordinato sull’AI si stanno gettando le basi per rendere produttivi i numerosi campi di applicazione grazie a ingenti finanziamenti, in linea sempre con le strategie UE e il Green Deal europeo. Il regolamento sull’AI inoltre andrà di pari passo con quello che è il nuovo “regolamento macchine” che non si occuperà dei rischi per la sicurezza dei sistemi AI, bensì verificherà che ci sia un’integrazione sicura dei sistemi nei macchinari nel complesso, rispondendo alle esigenze di mercato.