19 marzo, 2024

Cosa è l’intelligenza artificiale, a cosa serve e come funziona

Un pericolo più rischioso della bomba atomica. Una macchina in grado di svolgere la maggior parte dei lavori umani. Un algoritmo in grado di decidere per noi. Sono tante le definizioni apocalittiche accostate all’Intelligenza artificiale, la tecnologia già diffusa in molti ambiti delle nostre vite con un misto di fascinazione e scetticismo. Ma cos’è l’intelligenza artificiale? E perché la temiamo? Abbiamo provato a rispondere con l’aiuto di Giovanni Comandè, docente ordinario di Diritto privato comparato ed esperto di Intelligenza artificiale.

CHE COS’È L’INTELLIGENZA ARTIFICIALE?

“L’intelligenza artificiale è un’intelligenza collettiva. È come se avessimo la possibilità di unire insieme più cervelli: l’intelligenza artificiale è un super-cervello che normalmente sa fare molto bene una cosa sola. Ma per nascere e funzionare ha bisogno di alcuni ingredienti: i dati, la capacità computazionale (la capacità di leggere e analizzare i dati) e infine la capacità di archiviazione (conservare i dati elaborati). Si tratta di un processo già ideato nei primi anni del Novecento”.

QUAL È LA GRANDE NOVITÀ DELL’INTELLIGENZA ARTIFICIALE?

“Rispetto alle macchine elaborate in precedenza, programmate per eseguire un compito, l’Ai è in grado di trovare da sola la soluzione per svolgere quel compito, trovando informazioni nascoste nei dati. Grazie al machine learning, i software imparano da soli a fare alcune cose: l’intelligenza artificiale trova le informazioni che le servono per uno specifico scopo. Si tratta dell’apprendimento automatico che è alla base dell’intelligenza artificiale. Con l’automazione del secolo scorso il traguardo era stato programmare una macchina perché, dato un comando, fosse in grado di eseguire un compito come avvitare un bullone. Oggi, con l’Ai, è la stessa macchina a capire come deve svolgere il compito che le è stato assegnato”.

UN ESEMPIO: L’APPLICAZIONE DELL’AI IN AMBITO MEDICO

“Per capire come funziona l’Intelligenza artificiale, possiamo ipotizzare di applicarla in ambito medico. Per capire se una macchia della pelle è un tumore benigno o maligno, abbiamo la possibilità, attraverso l’intelligenza artificiale, di mettere insieme la conoscenza dei medici che studiano i tumori della pelle. Attingendo ai loro studi e alla catalogazione dei referti, l’Ai, come se fosse un super-medico, potrebbe presentarci poi il suo parere sull’immagine mostrata. Per questo parliamo di intelligenza collettiva: perché è attraverso la condivisione delle esperienze collettive che l’Ai impara a distinguere, catalogare e valutare, per esempio, le varie immagini di tumori della pelle. Noi forniamo le indicazioni, e l’Ai trova come collegarle. L’intelligenza artificiale esteriorizza le competenze per raggrupparle in un luogo virtuale fruibile. Le scelte sono prese su base statistica, ma chiediamo all’Ai di spiegare anche i fattori e le variabili che le hanno fatto dare quella risposta”.

L’INTELLIGENZA ARTIFICIALE È DA CONDANNARE?

“Visto che l’Ai impara dai dati che le diamo per apprendere, se le diamo in pasto dei dati carichi di pregiudizi ecco che imparerà ad avere pregiudizi. Quindi se chiedessimo ad un motore di ricerca di mostrarci foto di un amministratore delegato, quasi sicuramente ci mostrerà un uomo e per di più bianco (la ricerca va fatta in inglese per usare una lingua gender neutral). Questo vuol dire che l’Ai discrimina? Non esattamente, perchè l’Ai non dà giudizi, ma sono i nostri comportamenti ad essere spesso discriminatori. L’Ai basa le sue risposte sui dati. Potremmo sintetizzare dicendo: dimmi i tuoi dati e ti dirò chi sei”.

ALLORA PERCHÉ SI DICE CHE L’AI POTREBBE ESSERE RISCHIOSA?

“La paura esiste ed è legittima. Il problema non sono le macchine, ma il fatto che deleghiamo alle macchine le nostre scelte. Negli anni Ottanta i sistemi di controllo automatico dell’Unione Sovietica erano programmati per rispondere immediatamente a un attacco nucleare. In caso di attacco nucleare sul territorio russo, il sistema avrebbe reagito preventivamente. Nel settembre del 1983 il sistema radar dell’Urss rilevò un lancio di missili balistici dalle basi Usa. Ma l’ufficiale della difesa aerea Petrov fermò la risposta, ritenendo che si trattasse di un errore. Ed effettivamente si trattava di un falso allarme dovuto all’equinozio di autunno: i riflessi solari sulle nubi erano stati confusi con dei lanci di missili. Grazie a Petrov, che capì l’inganno della macchina, non abbiamo avuto una guerra nucleare. Oggi corriamo il rischio di riporre eccessiva fiducia nell’intelligenza artificiale. Dobbiamo sì fidarci, ma anche governare l’intelligenza artificiale come ogni altra tecnologia”.

COS’È L’AUTOMATION BIAS?

“L’atteggiamento dell’essere umano nei confronti dell’Ai è quello di chi è consapevole che non potrà mai avere la stessa capacità di calcolo, e quindi si chiede: chi sono io per dire che l’Intelligenza artificiale sbaglia? Ma in realtà l’Ai è programmata per fare una sola cosa, e farla molto bene. Nel caso dell’analisi dei tumori, è vero che l’Ai può essere un prezioso strumento per l’analisi delle immagini, ma poi è necessario un controllo approfondito di un medico, una supervisione umana. Sono strumenti già utilizzati negli ospedali, nelle strutture, nelle amministrazioni”.

DOMINARE E NON ESSERE DOMINATI, DUNQUE?

“Come per tutte le tecnologie, la scelta è se governarle o esserne governati. Ma le tecnologie di per sé sono neutre. Un fucile può essere usato come strumento di caccia per sfamare il villaggio o strumento per uccidere qualcuno. Sono solo strumenti, a cui però non dobbiamo affidare tutte le nostre scelte. E che dobbiamo utilizzare con molta attenzione”.

Chiara Adinolfi