News9 Gennaio 2024 12:27

AI, Sellitto (Anthropic): azzerata la ricerca accademica, ma capacità crescerà 10 volte nei prossimi 2 anni, serve monitoraggio

“Anthropic è stata fondata nel 2021 ed è una società di utilità pubblica, il nostro obiettivo è costruire sistemi di intelligenza artificiale affidabili e di informare la classe politica e l’opinione pubblica delle tendenze attuali, così da individuare il percorso migliore. In particolare parliamo delle leggi di scala: con la crescita dei modelli abbiamo dei risultati migliori, per questo dobbiamo continuare a investire sulla tecnologia, per avere più capacità disponibile”.

Così Michael Sellitto, head of global affairs di Anthropic, nel corso di una audizione con il Comitato di vigilanza sull’attività di documentazione della Camera, sul tema dell’intelligenza artificiale, presieduto dall’onorevole Anna Ascani. Anthropic PBC è una startup americana di intelligenza artificiale, fondata da ex membri di OpenAI, che sviluppa sistemi generali di intelligenza artificiale e modelli linguistici di grandi dimensioni. È una società di pubblica utilità ed è stata collegata al movimento dell’altruismo efficace.

“Nelle applicazioni specifiche possono emergere andamenti imprevedibili: nel 2019 è uscito GPT-2, che poteva scrivere alcune righe, nel 2020 chat GPT-3 era capace di scrivere paragrafi e nel 2022 Chat GPT è diventata capace di fare cose ad un livello abbastanza competente. Questa progressione continuerà e i principali sviluppatori riusciranno ad aumentare fino a 10 volte la capacità entro i prossimi 24 mesi, con sorprese buone e allo stesso tempo preoccupanti.

Uno degli aspetti interessanti è che fino al 2015 era il mondo accademico ad occuparsi dell’AI, mentre negli ultimi anni la sua partecipazione si è ridotta fino quasi allo zero, questo perché tutto si è concentrato verso il privato.

Abbiamo fatto alcune raccomandazioni politiche: che i governi facciano investimenti ambiziosi per il monitoraggio e controllo, l’UE si è mossa con una legge apposita, ma ci siamo attivati anche negli Usa per incentivare una maggiore ricerca pubblica: per questo abbiamo proposto al Congresso degli Stati Uniti di creare cloud di ricerca nazionale.

Vogliamo che l’AI sia utile, onesta e non dannosa, con informazioni affidabili. Per l’AI costituzionale Anthropic si occupa di lavorare su alcuni principi, ma queste tecniche richiedono molto lavoro e con un costo umano alto. Con questa nuova tecnica ci siamo ispirati alla Dichiarazione Universale dei diritti dell’uomo e istruiamo il modello a seguire questi principi.

Attraverso questa tecnica vogliamo introdurre l’input dell’opinione pubblica nei nostri principi e abbiamo lavorato per creare i modelli futuri che consentono di verificare montagne di testo. Tutto questo ci permette di creare contenuti, sia attraverso la conoscenza acquisita sia grazie al contesto, automatizzando i flussi di lavoro e riassumendo gli incontri di lavoro.

Le AI possono potenziare le capacità positive delle persone, ma c’è chi le potrebbe utilizzare per creare cose negative, come la disinformazione, su cui va fatta maggiore ricerca e posta forte attenzione. Per quanto riguarda le etichette da apporre sui contenuti audiovisivi generati dall’intelligenza artificiale, negli Usa stiamo lavorando su questo aspetto, così da poterne indicare la provenienza. Le ricerche ci dicono, inoltre, che è possibile inserire watermark invisibili per i testi e stiamo stimolando i governi su questo aspetto”.