News2 Novembre 2023 11:21

AI, Ascani: intelligenza artificiale non prevalga su quella umana

“Il panorama americano è ovviamente diversificato, perché si tratta di aziende che hanno core business non identici tra di loro. Abbiamo visitato la sede di Microsoft e quella di Amazon, poi quella di Meta, Google, di OpenAI e di Salesforce. Ciascuna di queste realtà ha una sua peculiarità, però hanno in comune l’intelligenza artificiale generativa”.

La deputata Anna Ascani, vice presidente della Camera e presidente del Comitato di Vigilanza sull’attività di Documentazione, racconta a PMINEWS il resoconto della missione organizzata la scorsa settimana negli Usa, insieme alle deputate Ilaria Cavo e Rosaria Tassinari, che ha avuto come focus l’intelligenza artificiale. La delegazione ha avuto l’opportunità di visitare alcuni dei principali attori nel campo dell’IA, tra cui Microsoft, AWS, Salesforce, OpenAI, Google e Meta, per comprendere meglio lo stato dell’arte e gli sviluppi futuri di questa tecnologia rivoluzionaria.

“Nella nostra visita abbiamo riscontrato un tasso di consapevolezza sulle potenzialità, ma anche sui rischi di questa tecnologia altamente trasformativa e questo è un dato di novità. Non era sicuramente accaduto con i social media, non era accaduto con altre tecnologie e probabilmente è la stessa natura dell’intelligenza artificiale generativa a determinare questo atteggiamento differente”, spiega la Ascani.

“Tutto questo, da un certo punto di vista, è tranquillizzante, perché i rischi che corriamo sono evidenti e sapere che non li vediamo solo noi è un elemento positivo.

In più, al ritorno dal nostro viaggio e con una casualità abbastanza interessante, è arrivato l’ordine esecutivo di Biden che riguarda proprio l’intelligenza artificiale e che è incentrato non solo sulla necessità di sviluppare al meglio la ricerca – e mantenere il ruolo guida degli Stati Uniti nell’ambito delle innovazioni -, ma anche sui rischi e quindi sulla necessità che il governo sia informato di quello che viene sviluppato. Addirittura è prevista una forma di informativa diretta, quella che viene chiamata Red Teaming, rispetto agli effetti che determinate innovazioni possono avere”.

Di fronte ad una tecnologia che rivoluzionerà tutti gli ambiti della conoscenza anche gli Usa hanno maturato la consapevolezza di una verifica costante, sia in ambito pubblico che in quello privato: “Già nei mesi scorsi avevamo visto il moltiplicarsi di statement, manifesti firmati da grandi sostenitori dell’innovazione e anche da grandi investitori e oggi tutto questo è arrivato a un ulteriore livello: sono le stesse grandi compagnie a chiedere regole chiare, che consentano uno sviluppo etico e responsabile dell’intelligenza artificiale”, sottolinea la vice presidente della Camera.

“Molte di queste società hanno divisioni dedicate alla Responsible A.I., cioè intelligenza artificiale responsabile nei confronti della società, un elemento che fa capire quanto sia rilevante questa nuova tecnologia e quanto sia diversa rispetto alle altre che abbiamo visto svilupparsi in passato”.

Dalla visita nei centri di sviluppo emerge un cambiamento che non viaggia verso in futuro indefinito, ma che sta già modificando il presente della nostra società: “Questa è una tecnologia totalmente trasformativa, nel senso che è in grado di modificare non un solo ambito ma tutti gli ambiti: il lavoro la creatività, la convivenza, il rapporto tra un governo e i cittadini, le democrazie, l’informazione. E quindi proprio per questo c’è una consapevolezza nuova, perché qui non si tratta di regolare un singolo settore, si tratta di capire come funzionerà la convivenza sociale in un mondo in cui l’intelligenza artificiale diventerà la nostra quotidianità – continua la Ascani -. “In parte lo è già, ce ne accorgiamo poco, ma noi applicazioni intelligenza artificiale le usiamo tutti i giorni sul nostro telefonino. Quando parliamo però di intelligenza artificiale generativa siamo un livello superiore di complessità e questa ha la necessità di essere governata, senza impedire all’innovazione, ma consentendo all’etica di prevalere sui rischi”.

L’accelerazione allo sviluppo prosegue grazie alla maggiore potenza dell’hardware: “Nel corso delle visite abbiamo dovuto firmare diversi “Non disclosure agreement”, accordi di non divulgazione. Quello che posso dire è che questa tecnologia corre enormemente. Vedremo cose straordinarie nel giro di pochissimo tempo, perché tutto dipende dalla capacità di calcolo e la capacità di calcolo sta aumentando in maniera esponenziale. Quindi le applicazioni sono potenzialmente infinite, soprattutto da quando c’è stata l’entrata in commercio. Basti considerare che Microsoft, che ha investito fortissimamente in OpenAI, si aspettava che arrivasse sul mercato per il 2030 invece di novembre 2022, gli stessi investitori sono stati sorpresi dalla rapidità”.

C’è poi la questione etica, che viaggia di pari passo con quella tecnologica. Negli Usa diverse università sono a lavoro per comprendere quali possano essere le implicazioni circa l’utilizzo dell’AI per avere risposte anche su temi sociali, politici ed economici: “Quella di Stanford è stata un’altra tappa importantissima, con alcuni docenti e ricercatori che si occupano di intelligenza artificiale. C’è un grande lavoro da fare, per esempio, sui bias, e sugli stereotipi, perché funzionando coi numeri e con la ripetizione dei numeri dei dati trasformati in numeri, Il rischio che ne deriva è che l’intelligenza artificiale non faccia altro che ripetere tutto quello che nella nostra società consideriamo uno stereotipo in negativo – continua la Ascani -. Quando si parla di correzione vuol dire che devi trasmettere alla macchina dei principi etici, ma lo Stato quanto lontano può andare in questa pedagogia e quanto rischio c’è che si vada troppo avanti nel sistema di correzione? Queste sono le grandi domande e noi dobbiamo trovare delle risposte molto presto perché questa realtà non arriverà domani, è già qui”.

Da tutto questo deriva la considerazione che la gestione delle intelligenze artificiali non potrà essere nelle mani delle sole istituzioni, anche globali, o solo in quelle delle aziende che le stanno sviluppando: “Gli Stati Uniti stanno studiando una forma di cooperazione molto stretta tra le aziende e il Governo, senza influire sulla competizione a livello di mercato. Noi in Europa abbiamo una difficoltà in più, visto che queste aziende sono basate per lo più in realtà extra europee e quindi abbiamo la funzione di meri regolatori e non di sviluppatori.

Io credo che alle istituzioni tocchi il compito di stabilire dei guardrail che siano universali, per tutte le applicazioni, a prescindere dal luogo in cui sono sviluppate, come ad esempio un paletto per evitare i rischi di controllo sociale. Diventa necessario che i governi e le istituzioni si pongano il problema e intervengano in questa direzione e non è un caso che lo facciano gli americani, che fin qui sono stati a dir poco timidi nel regolare l’innovazione, c’è una consapevolezza maggiore del fatto che qui ci sono dei rischi reali e imminenti”.

La scorsa settimana si svolta la prima riunione operativa il Comitato di Esperti per l’Intelligenza artificiale voluto dall’Onu per studiare una rivoluzione tecnologica che sta già avendo un importante impatto sulla nostra vita quotidiana, ma che aumenterà ancora di più la sua importanza nel corso dei prossimi anni e per questo potrebbe cambiare anche il diritto internazionale, così da far nascere una regolamentazione omogenea tra i paesi: “Io lo spero, perché non esiste una possibile barriera, un possibile confine territoriale, quando si parla di intelligenza artificiale generativa. Stabilire delle regole che valgono in Europa per metterci al sicuro dai rischi è oggettivamente un atteggiamento molto poco realistico. Ad esempio dobbiamo dialogare con la Cina, che va integrata nelle le regole del gioco”.

Parlare di Ai significa affrontare il tema della sicurezza, perché chi detiene il suo sviluppo ha in mano una forte arma strategica. Per questo l’Europa rischia di essere il vaso di coccio tra i due vasi di ferro, quello americano e quello cinese: “Noi continuiamo a fare i regolatori e continuiamo a dare regole a tecnologie che vengono sviluppate altrove. Quello che dobbiamo capire è che, per raggiungere la mole di investimento che è necessaria per sviluppare queste tecnologie, bisogna mettersi insieme. Nessun Paese potrà farlo da solo ne la Germania, ne la Francia”, sottolinea la deputata.

Parlare di utilizzo quotidiano dell’Intelligenza Artificiale significa affrontare anche l’aspetto della diffusione di idee, con il pericolo che la sua diffusione possa generare una sorta di “pensiero unico”: “Il rischio c’è e fa parte di quel sistema di stereotipi e bias di cui parlavamo prima. Però non dobbiamo sottovalutare le potenzialità dell’intelligenza artificiale generativa. Attenzione, si chiama generativa perché non ripete, ma è in grado di creare nuovi contenuti a partire da altri esistenti, sulla base di un codice che ormai è conversazionale.

Questo significa che è in grado anche di dare risultati differenti sulla base di input. Per cui più che del pensiero unico, quello che mi preoccupa è il pensiero artificiale, cioè che si rinunci ad essere l’origine di quegli algoritmi, essendo ormai la macchina pienamente in grado di generare i propri. Il rischio è che l’uomo rinunci a fare la propria parte e questo sarebbe pericolosissimo perché ovviamente alimenta un circolo vizioso per cui poi è difficile tornare in controllo. Dobbiamo ricordarci che l’intelligenza artificiale è il prodotto dell’intelligenza umana”.

https://ageei.eu/ai-trilaterale-italia-germania-francia-urge-quadro-normativo-ue-per-accelerare-investimenti-ed-essere-al-passo-di-usa-e-cina/