



L’intelligenza artificiale (IA) non è più soltanto materia per laboratori di ricerca o scenari futuristici. Dalle raccomandazioni sui social media alla generazione di testi e immagini, dall’utilizzo in ambito medico alla recente diffusione di veri e propri “agenti intelligenti”, l’IA è ormai parte integrante della nostra vita quotidiana.
Oltre a numerose e importanti opportunità, l’IA può generare anche significativi rischi e un impatto non sempre positivo. L’IA non è solo una questione tecnologica, vi è la necessità di orientarci verso una buona innovazione, capace di mettere sempre la persona al centro; in un contesto in cui algoritmi di IA influenzano il comportamento dei consumatori, selezionano i candidati per un impiego o ottimizzano le dinamiche della supply chain (catena di approvvigionamento), nel saperla gestire e orientare eticamente sta il nostro ruolo di esseri autenticamente umani.
La velocità dello sviluppo dei sistemi di IA è travolgente, in pochi anni si è passati da sistemi di IA di tipo deterministico a sistemi di tipo probabilistico, quelli di tipo deterministico sono progettati in modo che, dato un certo input, si produca sempre lo stesso output, le regole con cui il sistema è progettato sono ben definite, fisse e prevedibili. Alcuni hanno sviluppato i cosiddetti “sistemi esperti” che consentono una comprensione più ampia di ambiti specifici di conoscenza.
Il sistema esperto è un programma che emula le decisioni umane degli esperti: usa formule, regole e banche dati per raggruppare il sapere in un certo ambito; non aggiorna né modifica la sua conoscenza o il suo output in base a nuove informazioni. Dati determinati input, il sistema genera un output pienamente prevedibile, ma anche rigido.
Con il passare del tempo, però, si sono imposti i sistemi di intelligenza artificiale probabilistici, capaci di adattarsi agli ambiti più diversi.
A differenza dei sistemi di tipo deterministico, quelli di tipo probabilistico non seguono regole rigide, bensì valutano la probabilità che certi eventi accadano o che certe conclusioni siano corrette; in altri termini, modellano le decisioni sulla base di stime di probabilità elaborate a partire dai dati a disposizione e da modelli statistici. Questi sistemi includono approcci ormai dominanti come il machine learning e il deep learning.
Il machine learning (apprendimento automatico) fornisce al sistema grandi quantità di dati, grazie ai quali questo può allenarsi (fase di training) e “imparare” a riconoscere pattern, fare previsioni e prendere decisioni. In virtù di questo approccio, l’IA non fornisce più risposte certe, bensì stime probabilistiche basate su modelli statistici e sui dati disponibili ma dati non rappresentativi o etichettati in modo scorretto possono dar luogo a semplificazioni o addirittura a errori e discriminazioni. Se infatti i sistemi apprendono da dati inesatti o errati, per esempio dai social media e dal web, anche gli output che genereranno rischiano di essere imprecisi o fuorvianti.
Una sottocategoria del machine learning è il deep learning (apprendimento profondo), che utilizza reti neurali artificiali modellate sul funzionamento del cervello umano. Strati successivi di “neuroni” (o nodi), si collegano ad altri neuroni tramite una serie di connessioni ponderate. Il deep learning ha rivoluzionato campi come la visione artificiale, il riconoscimento vocale e la traduzione automatica, ed è alla base dei più avanzati modelli linguistici contemporanei. Un esempio è “Chat Gpt” che usa i Large Language Models o “llm” (modelli linguistici di grandi dimensioni), questi imparano a creare relazioni tra parole e, dunque, a produrre sequenze nuove, che sembrano realmente create da un essere umano. Tuttavia, poiché i llm imparano quali parole meritano maggiore attenzione, possono anche privilegiare dati testuali che contengono insulti o espressioni aggressive, in quanto sono proprio questi, spesso, a ricevere maggiore attenzione e a generare un maggior coinvolgimento degli utenti. Modelli così potenti possono anche essere molto nocivi poiché possono riprodurre o addirittura amplificare pregiudizi, insulti o discriminazioni.
I compiti svolti dall’IA sono sempre più complessi e interconnessi, tanto che alcuni parlano, oggi, di IA capace (Artificial Capable Intelligence – aci), in grado di eseguire compiti assegnati in modo coerente e affidabile, acquisendo ed elaborando dati multimodali, utilizzando diversi strumenti e coordinandosi con altri agenti di IA, il tutto ricordando ciò che hanno fatto in passato e imparando dall’esperienza, con poca o nessuna interazione umana: possiedono, infatti, una capacità di agire indipendentemente, pianificando ed eseguendo azioni per raggiungere un obiettivo specifico.
Questi sistemi trovano applicazione in una vasta gamma di settori, tra cui motori di ricerca in Internet, aggregatori di notizie, comunicazione e gestione dell’informazione sui social media, pubblicità e marketing, selezione del personale e occupazione, ammissione universitaria, mercato immobiliare, concessione del credito, giustizia penale, polizia, medicina (inclusa la scoperta di farmaci) e salute della persona, solo per citarne alcuni.
Uno dei casi più emblematici dell’uso di sistemi di IA in ambito decisionale, pubblico nello specifico, è rappresentato dalla cosiddetta Buona Scuola, la riforma del sistema scolastico introdotta dal governo Renzi nel 2015. Un aspetto centrale della riforma fu la procedura di mobilità straordinaria dei docenti, attuata attraverso un algoritmo incaricato di assegnare gli insegnanti alle sedi disponibili su scala nazionale. In molti casi, gli esiti delle assegnazioni sono apparsi incoerenti, iniqui o inspiegabili, alimentando la frustrazione di migliaia di docenti che si sono visti trasferiti lontano dalle proprie preferenze, senza sufficiente trasparenza nei criteri applicati.
Situazioni analoghe si sono verificate nell’utilizzo dei sistemi di IA nell’ambito della giustizia penale o, ancora, in quello della selezione del personale. COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un sistema di IA utilizzato per la valutazione del rischio di recidiva nel sistema giudiziario statunitense non solo non era trasparente nei suoi criteri di valutazione, ma mostrava anche evidenti discriminazioni razziali. Gli imputati afroamericani avevano una probabilità significativamente più alta di essere classificati come ad “alto rischio” rispetto ai bianchi, a parità di reati e condizioni pregresse. Al contrario, i soggetti bianchi erano più frequentemente sottovalutati nei loro livelli di rischio. Si sono verificate altresí discriminazioni di genere e razza sia nei principali software di riconoscimento facciale, sia nei sistemi di IA utilizzati nell’ambito della selezione del personale.
L’IA generativa o creativa è usata, già oggi, nella produzione di contenuti testuali, nella generazione di immagini, arte visiva e musica, e nella produzione di video. È possibile infatti generare articoli, riassunti, saggi, ma anche testi più creativi come racconti, poesie o dialoghi: nelle redazioni giornalistiche, ad esempio, l’IA viene già impiegata per redigere notizie brevi, rapporti finanziari o bollettini sportivi. Nel settore pubblicitario, viene utilizzata per creare slogan, e-mail promozionali e contenuti per i social media in modo rapido e personalizzato. Nell’ambito della generazione di immagini e arte visiva, è in grado di produrre illustrazioni, fotografie sintetiche, ritratti immaginari o reinterpretazioni di opere d’arte esistenti: strumenti come DALL·Eo Midjourney permettono di creare immagini molto realistiche a partire da semplici descrizioni testuali. Nell’ambito della musica, è in grado di comporre melodie originali in diversi stili, di arrangiare brani esistenti o di creare colonne sonore personalizzate per video, videogiochi o contenuti multimediali: ad esempio alcune applicazioni permettono di creare musica su misura in pochi minuti, adattando il tono e il ritmo alle esigenze del caso. Infine, nell’ambito audiovisivo sono già in grado di trasformare testi in brevi video esplicativi, creando automaticamente narrazione, immagini e talvolta anche una voce narrante sintetica.
Le tecnologie potenzialmente autonome, sono sistemi capaci non solo di eseguire compiti, ma anche di prendere decisioni in ambienti dinamici, adattandosi a contesti nuovi e talvolta imprevedibili. L’autonomia tecnologica non è più un semplice esecutore di istruzioni, ma un agente che apprende, decide e agisce. Pensiamo, ad esempio, ai sistemi di raccomandazione algoritmica: piattaforme come Netflix o YouTube non si limitano a presentare contenuti su richiesta, ma anticipano le preferenze dell’utente, influenzandone attivamente le scelte future. Oppure, pensiamo all’ecosistema Apple, in particolare al modo in cui dispositivi come iPhone, iPad e MacBook interagiscono tra loro. Alcune funzionalità sono sempre più in grado di agire in autonomia, anticipando i bisogni dell’utente e compiendo operazioni senza che sia necessaria una richiesta esplicita. Prendiamo il caso della connessione automatica a Internet. Quando un utente apre l’iPad e questo non rileva una rete Wi-FI disponibile, può automaticamente attivare l’hotspot dell’iPhone collegato allo stesso account Apple, senza che il possessore debba intervenire o dare un comando diretto. Il sistema “apprende” che l’utente vuole navigare e agisce di conseguenza, attivando una funzione – l’hotspot – che in passato avrebbe richiesto diversi passaggi manuali.
L’IA quindi è in grado di escogitare strategie proprie, di adattarsi, di suggerire, addirittura di creare. Ma, proprio per questo, è in grado di produrre effetti in larga misura imprevedibili, che vanno spesso al di là della nostra capacità di comprensione. Inoltre, a mano a mano che affidiamo all’IA il compito di svolgere compiti per noi, rischiamo anche di perdere la nostra autonomia e la consapevolezza del processo che porta a certe azioni. Proprio per questo è necessario evitare che l’IA raggiunga un livello di piena autonomia, e garantire sempre, al contempo, adeguate forme di controllo umano.
Ogni tecnologia è il frutto di decisioni: si sceglie che cosa sviluppare, come farlo e per quali fini. Riconoscere questo significa rifiutare l’idea che la tecnologia si evolva in modo autonomo, quasi fosse un’entità indipendente dalla volontà umana, non si deve rinunciare invece alla possibilità di scegliere quali tecnologie vogliamo, per quale società e con quali effetti; riprendersi il diritto e il dovere di orientare lo sviluppo tecnologico significa anche riaffermare la nostra libertà e responsabilità di governare una trasformazione epocale.
Oggi più che mai è necessario che la trasformazione tecnologica alla quale stiamo assistendo venga ben orientata: perché è in gioco la nostra stessa umanità. Non tanto nel senso della sua possibile estinzione quanto piuttosto nel senso dello sviluppo delle sue piene capacità. In questo senso l’IA può offrire grandi opportunità ma presenta anche molti rischi. È necessario quindi un approccio prospettico, critico ed equilibrato, che riconosca la centralità dell’essere umano e l’importanza di avere sistemi tecnologici che possano supportarlo e coadiuvarlo, piuttosto che depotenziarlo o sostituirlo.
Roberto Merico
I commenti degli utenti:
Non sono presenti commenti di altri utenti