MAMMA IA

di Giulio Cananzi da Messaggero di Sant'Antonio 3 aprile 2023

L’intelligenza artificiale fa ormai parte integrante della nostra vita, ma ne siamo poco coscienti. Il rischio è che le ineguagliabili opportunità che essa ci apre nascondano le insidie di una tecnologia potentissima, invasiva e molto poco regolata.

 

Entro dal portone, la voce di Alexa mi fa sapere che «è bello riaverti a casa». Il saluto dell’assistente digitale vocale di Amazon mi provoca irritazione: è tardi e non ho niente in frigo. Mi consolo con una pizza ordinata su Just Eat, che arriverà per le 20.30. Tempo di una doccia e di un po’ di relax. Chiedo ad Alexa della musica tranquilla, lei rumina qualche secondo e inizia a inondare di note il soggiorno. Ne approfitto per controllare il mio conto online: la banca mi informa che questo mese ho speso 200 euro in più dei clienti come me; poi consulto le notizie del giorno grazie a Google e tiro il fiato sui social media: uno dei miei 3.500 amici annuncia, in un diluvio di cuoricini e abbracci, che è nato Mattia, ci sono due articoli che mi tengono incollata al video, mentre un post sponsorizzato consiglia, guarda caso, alle cinquantenni, miracolosi esercizi fisici ormonali invece di stressanti diete. Chiudo la serata in bellezza con una raccolta di film e serie tv, selezionata apposta per me da Netflix.

Ne siamo poco consapevoli, ma l’intelligenza artificiale (IA) è già tra noi. Sembra di vivere in un nuovo ecosistema, dove accanto alle cose di sempre si materializzano inedite «presenze», che fanno le fusa alla porta di casa o ci cuciono addosso una vita su misura. Sappiamo che dovremmo vegliare sui nostri dati, ma tutto sommato accettiamo di cedere parti della nostra privacy pur di entrare in questo mondo affascinante e pieno di possibilità. «Più che il grande fratello sembra la grande madre – ironizza Adriano Pessina, ordinario di Filosofia morale all’Università Cattolica del Sacro Cuore di Milano, autore del libro L’essere Altrove, ed. Mimesis, incontrato al Dies Academicus, della Facoltà Teologica del Triveneto –. La rivoluzione digitale, di cui l’IA è un aspetto importante, sta modificando profondamente la nostra esperienza quotidiana, perché ci immette in un nuovo ambiente culturale, che il filosofo Luciano Floridi ha definito “infosfera”». Un ambiente, cioè, in cui le tecnologie dell’informazione e della comunicazione ci portano il mondo sul nostro display. «Si tratta di tecnologie che influiscono sulle nostre scelte e decisioni, trasformandoci spesso in spettatori di una realtà che sta altrove, come succede per esempio nelle relazioni sui social media, dove siamo presenti ma al contempo assenti, in compagnia ma soli, in connessione più che in relazione».

Imitatori inconsapevoli

Le intelligenze artificiali sono di vario tipo. Essenzialmente sono macchine o programmi in grado di imitare alcune caratteristiche dell’intelligenza umana, possono imparare, raggiungere obiettivi, parlare, scrivere, selezionare, tradurre in varie lingue, mettersi in contatto con altri oggetti e servizi. E, a differenza di una qualsiasi macchina del passato, sono dotate di un certo grado di autonomia. Mentre un tempo il frigorifero era solo un elettrodomestico per conservare il cibo, oggi è in grado di fare la spesa collegandosi al supermercato e basandosi sui dati dei gusti e delle scelte dei suoi padroni. Non è frutto di magia, ma di una procedura di calcolo, chiamata algoritmo, capace di processare una grande mole di dati per arrivare a un risultato desiderato, grazie a una serie di istruzioni definite dai programmatori. Per esempio, nel caso del frigorifero l’obiettivo è quello di avere sempre alcuni cibi freschi in casa o, nel caso di una piattaforma di food delivery, di far arrivare la pizza a domicilio all’orario stabilito.

Un’interazione macchina-persona così stretta è possibile per una serie di ragioni: innanzitutto perché internet è utilizzato da tutti ed è collegato a molti oggetti di uso comune, poi perché gli algoritmi, questi rastrellatori ed elaboratori di dati, sono sempre più raffinati e, infine, perché viviamo nella società dei big data. Qualsiasi azione facciamo, una ricerca su Google, un acquisto con carta, un post sui social lascia dietro di noi una scia di dati – chi siamo, che gusti abbiamo, dove siamo andati, che cosa abbiamo comprato o mangiato, che opinione abbiamo su un dato fatto – che vengono profilati e utilizzati da chi ha un interesse. Per esempio, da chi sta cercando cinquantenni salutiste per vender loro un nuovo programma di fitness, in una data zona. Internet, gli algoritmi e un’enorme disponibilità di dati sono i fattori che hanno fatto fare passi da gigante a questa tecnologia, che di per sé è stata concepita negli anni ’30 grazie al matematico Alan Turing, il quale per la prima volta teorizzò i due oggetti matematici alla base della rivoluzione digitale di oggi: la macchina e il software. I progenitori della tecnologia che ha reso ricchi e famosi i colossi tecnologici della Silicon Valley.

Il nome «intelligenza artificiale» per la verità è fuorviante, perché induce a pensare che si tratti di un’intelligenza sovrapponibile a quella umana: «In realtà è molto diversa – spiega il professore –. La macchina usa la capacità sintattica, mette cioè una parola dietro l’altra, secondo un ordine, cioè un algoritmo, stabilito dal programmatore, ma non sa che cosa sta facendo e perché; l’intelligenza umana invece è semantica, ovvero non ha bisogno di alcun algoritmo per raggiungere l’obiettivo: è capace da sé di capire che cosa sta facendo, perché lo sta facendo e che significato ha la sua azione». L’intelligenza artificiale quindi mima l’intelligenza umana, ma ne è solo una rappresentazione, «non è cosciente, non comprende, non prova sentimenti».

Un esempio eloquente è ChatGpt, sviluppato da OpenAI, una tecnologia che ha destato la meraviglia e la preoccupazione di molti quando è stata accessibile a tutti, lo scorso novembre. Si tratta di un prototipo evoluto di chatbot, ovvero di un programma che simula le conversazioni umane, basato sull’intelligenza artificiale e il machine learning. Il programma è in grado di rispondere a qualsiasi domanda, di scrivere articoli e persino poesie, di elaborare curriculum e tesine, di fare traduzioni, di scrivere codici di programmazione grazie a una enorme mole di dati che si incrementano di continuo attraverso la Rete, migliorando la sua performance. La tecnologia è più raffinata, ma il concetto di base non cambia: «La macchina, semplificando al massimo, mette una parola dietro l’altra, perché segue delle istruzioni – conferma Pessina –, ma non comprende assolutamente il senso del suo scritto; può scrivere libri, ma non sa cos’è un libro». Il risultato finale, però, è impressionante, perché si è di fronte a una macchina che genera un testo autonomamente da un semplice suggerimento umano, proprio come fosse uno scrittore in carne e ossa. È normale chiedersi se un giorno sostituirà traduttori e giornalisti, se farà i temi al posto dei nostri figli o renderà obsoleti i programmatori.

L’altra faccia della comodità

Le caratteristiche umane mimate dall’intelligenza artificiale in effetti non sono neutre, ma hanno un impatto rilevante sulla nostra vita. Un impatto a più livelli, a volte inimmaginabile. Innanzitutto, espongono a rischi imprevedibili, come nessuna tecnologia prima d’ora: «Per ognuno di noi le tecnologie sono comode e familiari – spiega il professore –, ma sappiamo poco di come funzionano. La grande quantità di dati che noi stessi cediamo usando tecnologie all’apparenza gratuite, ci rende fragili e trasparenti in un modo che difficilmente riusciamo a controllare». L’altro risvolto possibile è una progressiva perdita di autonomia, perché le macchine intelligenti possono sostituirci in molti modi: «Noi siamo disponibili a cedere la nostra autonomia ogni volta che ci sembra che in questo modo venga garantito il nostro benessere individuale. In realtà, l’autonomia esiste solo se c’è responsabilità e relazione con gli altri. Nessuna tecnologia può sostituirci nel compito, non facile, del prendersi cura delle persone, della vita e persino del mondo in cui viviamo».

Un’altra tendenza è quella di affidarci ai risultati ottenuti attraverso l’intelligenza artificiale come se l’esattezza di calcolo fosse una garanzia. «Esatto non vuol dire vero – specifica il professore –. I nuovi sistemi pescano i dati da molte fonti, ma chi può controllare l’autorevolezza e la sicurezza di quelle fonti? Chi ha elaborato e con quali fini l’algoritmo che porta a un dato risultato?». Una macchina intelligente può, per esempio, fare una diagnosi meglio di qualsiasi medico, perché ha a disposizione una mole impressionante di diagnosi precedenti e può eseguire un compito infinite volte, senza stancarsi e senza errori; ma se i dati di partenza non sono esatti o se l’algoritmo che porta alla diagnosi ha delle istruzioni che favoriscono, per esempio, le assicurazioni sanitarie, il risultato è esatto dal punto di vista del calcolo, ma è sbagliato e addirittura truffaldino dal punto di vista della realtà e dell’etica. Un altro esempio che può accadere a ciascuno di noi è quello relativo alla richiesta di un prestito in banca; se la banca usasse come unico parametro le decisioni asettiche dell’algoritmo, senza considerare altre variabili umane, come per esempio il valore intrinseco del progetto per cui chiediamo il prestito, potremmo rischiare di non aver accesso al credito.

Non è l’unico rischio personale. L’intelligenza artificiale, se usata senza controllo e spirito critico, può addirittura standardizzarci e renderci sempre più prevedibili. Un effetto che stiamo già notando nei social media. Gli algoritmi che governano i social non hanno come scopo l’accrescimento della nostra conoscenza, ma l’aumento dei click e quindi degli introiti pubblicitari. Ciò fa in modo che i contenuti che ci vengono proposti siano il più possibile simili ai nostri gusti e ai nostri pregiudizi, per incentivarci a cliccarli. In questo modo finiamo in una gabbia autoreferenziale che polarizza le nostre posizioni, disabituandoci al confronto, dal quale solo nasce l’accrescimento della conoscenza e la tolleranza. Ciò ci rende più prevedibili per l’algoritmo, che così massimizza i risultati, «ma rischia di alimentare, per esempio, il razzismo, perché le posizioni estreme sono le più prevedibili» conclude Pessina. Una tendenza che può essere sfruttata anche in senso politico, diventando un rischio per la democrazia.

Tra i rischi per la collettività creati da intelligenze artificiali poco trasparenti e poco regolate c’è quello di aggravare le diseguaglianze sociali. Un caso emblematico è l’uso degli algoritmi per la ricerca di manodopera nei Paesi in cui costa meno, innescando una guerra tra poveri che abbassa il costo del lavoro e l’accesso ai diritti. L’esempio più vicino a noi è quello dei rider che ci portano la pizza a casa nel tempo stabilito. A gestire il loro lavoro non è un capo in carne e ossa, ma un algoritmo che assegna a ognuno un ranking, cioè un punteggio, sulla base del quale smista le commesse. «Vince» chi è più veloce ed efficiente, in una sorta di cottimo digitale, che tende ad azzerare i diritti e ad assoggettare l’uomo alla macchina.

A complicare le cose è la constatazione che i padroni del mondo digitale, quelli che posseggono sia le tecnologie sia i nostri dati, sono ampiamente rappresentati nei primi 10 posti nella classifica dei più ricchi al mondo, stilata da «Forbes»: Elon Musk, AD di Tesla e proprietario di Twitter, Jeff Bezos, patron di Amazon, Bill Gates, fondatore di Microsoft, Mark Zuckerberg, fondatore di Facebook e oggi AD di Meta, Larry Page, fondatore di Google. È abbastanza intuibile con quali criteri tali compagnie costruiscano gli algoritmi dei servizi digitali che utilizziamo ogni giorno. «La linfa vitale delle tecnologie è l’economia – esplicita Pessina –, che tende a conservare lo status quo e ad aumentare i consumi».

Il nuovo mondo, quindi, è anche il vecchio mondo che cambia pelle per rimanere com’è, una situazione complessa che ha bisogno di tutta la nostra attenzione. «Non avrebbe senso pensare di fermare lo sviluppo tecnologico per i rischi che può comportare, e non solo per i vantaggi che da esso derivano – argomenta Adriano Pessina –. Ormai le persone sono già parte di questa nuova dimensione. Ciò che invece occorrerebbe è il recupero del senso della comunità e della responsabilità politica che è di ciascuno di noi». Delegare ad altri o ad altro questi due aspetti fondamentali della vita sociale significa consegnarsi all’indifferenza dell’algoritmo, al puro calcolo. «Ne uscirebbe un essere umano “disincarnato”, efficiente e procedurale, che tende a spostare nel digitale la maggior parte delle sue attività e delle sue capacità di relazione, perdendo il senso della concretezza della sua condizione umana, che è fatta comunque di “sudore e sangue”».

Rischi e opportunità a parte, il futuro degli esseri umani, anche nell’era dell’intelligenza artificiale, non è ancora stato scritto. «Non c’è un destino o un fato che ci sovrasta – afferma Adriano Pessina –. Anche l’intelligenza artificiale è un prodotto umano e come tale può essere guidata». Di fronte all’ambivalenza del potere tecnologico abbiamo ancora la possibilità di scegliere in che mondo vogliamo vivere. «Ognuno ha compiti e responsabilità proprie e quello che possiamo chiedere ai programmatori, ai legislatori, agli educatori e a tutti noi come fruitori è differente. Tuttavia – conclude il professore – come singoli dovremmo evitare di chiuderci in gabbie volontarie e, soprattutto, di perdere lo spirito critico, abbagliati dalle comodità. In questo momento storico abbiamo bisogno di un supplemento di intelligenza umana per essere all’altezza dei nostri prodotti tecnologici».

Puoi leggere l’intero dossier e un approfondimento nel «Messaggero di sant’Antonio» di aprile. Prova la versione digitale della rivista!

https://messaggerosantantonio.it/content/mamma-ia-0

condividi su