L'Intelligenza Artificiale sta ricostruendo il mondo - Singola | Storie di scenari e orizzonti
Luciano Floridi
Luciano Floridi | Copyright: Francesco Pierantoni, CC BY 2.0

L'Intelligenza Artificiale sta ricostruendo il mondo

Un dialogo con Luciano Floridi su macchine, rete e singolarità.

Luciano Floridi | Copyright: Francesco Pierantoni, CC BY 2.0
Intervista a Luciano Floridi
di Diego De Angelis
Luciano Floridi

è un filosofo e professore ordinario ad Oxford, fondatore del Digital Ethics Lab e docente di Etica dell'Informazione. Dal 2021 insegna Sociologia dei Processi Culturali e Comunicativi all'Alma Mater di Bologna. Ha pubblicato più di una decina di saggi, tra cui "La Quarta Rivoluzione. Come l'Infosfera sta trasformando il mondo" e "Il Verde e il Blu. Idee ingenue per migliorare la politica".

Diego De Angelis

è un programmatore informatico e da anni scrive sul web. Ha collaborato con Vice, Esquire, UltimoUomo e altre riviste scrivendo di cultura popolare, questioni sociali e scienza.

Ricordo che qualche anno fa, durante una lezione del corso di Informatica all’Università, il professore di programmazione se ne uscì con una frase del genere: “Nel codice informatico non esiste nessun dio.”
La sua affermazione non voleva avere nessuna pretesa filosofica, si parlava di errori. Se qualcosa non torna nel codice di un software la responsabilità è di chi lo ha scritto. 
Esiste però una linea, un filo filosofico che unisce informatica e speculazione sulla vita (e la morte).
Qualche anno fa il giornalista irlandese Mark O’Connell ha viaggiato l'America per incontarare dei pensatori, per lo più esperti programmatori o ingegneri, convinti di poter sconfiggere la morte e l'invecchiamento. Del suo reportage ne ha  scritto un libro, che si chiama Essere una macchina, pubblicato nel 2018. 

La California attraversata da O'Connell è costellata di milionari convinti dalle possibilità di cancellazione della morte. Sono i transumanisti, fervidi credenti di un possibile futuro nel quale saremo immortali. La singolarità è una sorta di profezia religiosa dalle parti della Silicon Valley; dove le intuizioni da mescalina nel deserto si combinano con le idee di menti brillanti. Come quella di Raymond Kurzweil: genio fin dall’adolescenza, inventore per oltre cinquant’anni (suo il primo sintetizzatore elettronico in grado di simulare il suono di uno strumento musicale tradizionale), ingegnere capo in Google. Nel credo transumanista arriverà il giorno in cui l'evoluzione tecnologica libererà l’intelligenza (il software), ingabbiata in un corpo (l’hardware) biologico. I nostri cervelli saranno digitalizzabili e riproducibili nella rete, quindi installati, come un programma. Saremo in grado di scaricare il nostro cervello in un tostapane se, questo sarà dotato di un hard-disk e scheda wi-fi.
Toccare la trascendenza tramite l’informatica. C'è stato un momento, a metà degli anni dieci, in cui la longevità e l'allungamento della vita erano diventati temi caldi nella Valley. Nel 2013 Google fonda Calico, un centro biotecnologico focalizzato sulla longevità e l'allungamento della vita. Un aneddoto tratto dal libro di O'Connell ci descrive un desiderio diffuso in California: un signore protestava di fronte la sede di Mountain View con un cartellone che aveva scritto “IMMORTALITA’ SUBITO E GOOGLE, PER FAVORE, RISOLVI IL PROBLEMA MORTE.”

In Essere una macchina la fauna di milionari e ingegneri pieni di visioni sul futuro è eterogenea: non mancano quei "singolaristi" convinti che l'apocalisse della specie umana avverrà per mano delle IA (sono Elon Musk, Steve Wozniak, Bill Gates e tanti altri). 
In Italia siamo carenti di transumanisti o filosofi dell’apocalisse IA, ma l’attenzione nei confronti delle intelligenze artificiali e dei rischi ad essa legati è negli ultimi tempi sempre più focalizzata sui temi di governance. Lo dimostra, ad esempio, la nascita di associazioni come Privacy Network o la fondazione dell’European Lab for Digital Ethics and Governance all’Alma Mater bolognese, diretto da Luciano Floridi
Filosofo e ordinario di Filosofia ed etica presso Oxford, Floridi si occupa da molti anni delle implicazioni della quarta rivoluzione industriale - quella che vede il mondo fisico e digitale compenetrarsi, che posiziona i dati (la raccolta, classificazione e utilizzo) come elemento di valore fondamentale. 


L’università Bicocca ha da poco ospitato una nuova edizione della Martini Lecture, serie di incontri sui dilemmi tra religione e scienza. Dilemmi che il cardinale Carlo Maria Martini si era posto negli anni in cui era in vita e sui quali sono focalizzati gli incontri. L'edizione 2021 è stata dedicata alle Intelligenze Artificiali, accompagnata dagli interventi di Federico Cabitza (professore associato di Rapporto Uomo-Macchina alla Bicocca e responsabile del laboratorio di “Modelli di incertezza per decisioni e interazioni”) e il professor Floridi. Gli interventi dei due docenti sono stati pubblicati da Bompiani in un piccolo ma interessante volume, Intelligenza Artificiale. L’uso delle nuove macchine. Nello specifico, le pagine dell’intervento di Floridi mi sembrano preziose in un contesto di presa coscienza delle vere emergenzialità causate da una presenza sempre più massiccia dell’IA nella quotidianità di noi cittadini del pianeta.

Vi è ancora un posto visibile per Dio nella storia dell’universo?” è la questione che si poneva il cardinale Martini. Floridi assicura che l’idea di Dio non solo sia dura a morire, ma è una forma di resistenza, viva nella necessità di trascendenza degli uomini.
Pietra scagliata già da Aristotele (“Tutti gli uomini tendono per natura al sapere”) ed elaborata da Galileo ne Il Saggiatore (1623), la filosofia è scritta nell’universo: il libro della natura che per essere compreso richiede la conoscenza del linguaggio matematico.
Sapere la matematica e le sue relative applicazioni significava, quindi, avere uno strumento epistemologico sulla natura. Nel corso dei millenni l’uomo è passato da un approccio rappresentativo (mimetico) a uno costruttivo (poietico) del mondo. E nella trasformazione poietica l'informatica si è, dalla sua nascita, fatta indispensabile per le altre scienze:  analizzare e collezionare complessi dati biologici come il codice genetico, prevedere l’andamento delle borse nel mondo della finanza, scansionamento di immagini di un terreno in un contesto di pianificazione urbana, acquisizione e rappresentazione di dati astronomici, e così via; sono tutti processi che richiedono la scrittura di codice e implementazione di algoritmi più o meno complessi. 


Galileo “scopriva” il metodo scientifico, e che il mondo si può replicare, sottoforma di variabili e funzioni; ma secoli dopo, con lo sviluppo dell’Informatica, il concetto di digitale non descrive solamente il mondo, ma lo ri-ontologizza. Scrive Floridi, “Scrittura e lettura appartengono ora alla stessa categoria concettuale della codifica e decodifica della realtà.”
Nell'intervento Floridi propone una divisione tra due macrocategorie: le IA riproduttive e quelle produttive (o anche debole e forte). Una IA riproduttiva (debole)  “cerca di ottenere con mezzi non biologici l’esito del nostro comportamento intelligente”. Come, ad esempio, un robot tagliaerba. Non è importante è il come viene realizzato il processo (al netto di eventuali rischi calcolati e gestiti), ma che l'obiettivo venga raggiungo.
Invece una IA produttiva (forte)  “cerca di ottenere l’equivalente non biologico della nostra intelligenza”: un robot tagliaerba produttivo sarebbe in grado di selezionare con precisione gli angoli del giardino da curare, scegliere cosa fare basandosi su una forma di gusto che potremmo definire personale. Quel tipo di intelligenza è drasticamente simile a quella umana e la conosciamo solamente come fiction (i replicanti di Blade Runner, per dire). 

Oggi l’IA riproduttiva prende piede in campi sempre più numerosi, grazie alla mole di dati con la quale viene allenata, alla potenza di calcolo disponibile e alle regole statistiche che le vengono applicate.
Non c’è intelligenza nei dispositivi riproduttivi, motivo per il quale Floridi  parla di “nuove forme dell’agere”, piuttosto che “dell’intelligere”, proponendo una nuova rilettura dell’equazione:

AI = agere artificiale

Si deve adesso introdurre il concetto di infosfera: è lo spazio dell’informazione nell'era digitale, dei suoi agenti (persone, dispositivi, interfacce, etc) e delle operazioni (funzioni) che la attraversano.  Per far sì che  l’AI riproduttiva sia sempre più utilizzata l’infosfera si modifica, adattandosi. Ne è derivato un processo, quindi, di ri-ontologizzazione dell’infosfera stessa. Avviene un “divorzio” (termine caro a Floridi, una separazione) tra l’agire e l’intelligenza biologica. Si può vincere senza essere intelligenti per definizione: un computer può sconfiggere il miglior giocatore di scacchi.
Entriamo quindi nel regno dove agire e intelligere non camminano più assieme: un sistema AI può essere causa di un male, ma non sarà mai “moralmente” responsabile delle sue azioni.
Inoltre, nota Floridi, tutto ciò non fa altro che ingigantire la responsabilità umana su tutto ciò che una AI può fare.

Il rischio del mondo machine-friendly è la perdita della centralità  che l’uomo si è costruito. Rischia di sembrare un’opinione antropocentrica, ma vuol essere il suo esatto contrario: non siamo mai stati destinati ad essere il fine dell'Universo, ma ci avevamo sperato.

Secondo il professor Floridi i rischi legati alla scrittura (di codice) nel libro del mondo è chiaro sotto gli occhi di tutti, ma non ha nulla a che vedere con i timori descritti dai profeti dell’apocalisse descritti da O’Connell in Essere una macchina. L’IA può e deve essere uno strumento vantaggioso: sostenere l’auto-realizzazione dell’uomo, supportare tolleranza e coltivare la coesione, rafforzare il legame tra gli uomini in una società.

Si arriva quindi al punto critico, alla sfida per il futuro. Che non è l'innovazione (o solamente quella). In un contesto di libero mercato è futile pensare che la sfida sia tutta lì: il rodato sistema delle grandi aziende in cima alla piramide (leggi Google) e dell’oceano delle start-up è una gara all'innovazione perenne. La sfida e i rischi sono nella governance, ovvero nell’insieme delle regole e delle norme che descrivono il mondo dell’IA (e degli effetti, più in generale, della digitalizzazione sul mondo).

Quindi le priorità del professor Floridi sono l’antitesi di un profilo come quello del transumanista incontrato in O’Connell, nello specifico uno come Aubrey De Grey. Biorentologo, esperto di genetica, matematico e informatico: alla costante ricerca di fondi privati ed erede di una famiglia di milionaria, fondatore di un progetto (SENS) che vuole allungare la vita degli uomini ad almeno mille anni. Secondo De Grey la morte per cause legate alla vecchiaia è un genocidio silenzioso.
De Grey è la manifestazione più evidente di uno stile di uomini (quasi esclusivamente maschi) che ha fatto proseliti nella Silicon Valley. Anche a Mountain View: secondo Bill Maris, che ha guidato Google Ventures, in futuro gli uomini potranno vivere fino a cinquecento anni.
Gli ingegneri filosofi di O'Connell sono determinati e si sentono predestinati, dotati di un esasperato tecno-positivismo che lì fa sembrare più che santi dei santoni dotati di tanto privilegio sociale. Un privilegio che influenza la loro visione del mondoe che sembra - colpevolmente o no - dimenticare tutte le urgenze della contemporaneità.
Con il professore Floridi ho trascorso un’oretta in videochiamata, discutendo, anche in parte, dei temi sopra introdotti.

Diego De Angelis - Mettiamo da parte alcune personalità “complicate” come Elon Musk. Ma se penso a Wozniak o Bill Gates e al loro timore di una singolarità che oggi sembra fantascienza non posso non dare loro un minimo di credito - visto il profilo da scienziati e pensatori. Lei è piuttosto avverso a questo tipo di ragionamento, ne dà una spiegazione basata sulla grossa differenza tra AI riproduttiva e produttiva. Ma c’è anche una spiegazione politica?

Luciano Floridi - Anzitutto c’è un po’ di superficialità: si parla senza fare attenzione a quello che si dice. Se prendessimo le previsioni di Bill Gates fatte in passato le troveremmo ridicole: nel 2004 annunciò al World Economic Forum  che lo spam sarebbe sparito entro 2 anni. Anche i grandi possono prendere abbagli, come quando il presidente dell’IBM profetizzò che al mondo sarebbero bastati cinque grandi computer (Thomas Watson, 1943, ndr). Quindi attenzione, le parole di un esperto in materia, per quanto esperto, non sono sempre corrette a priori. Ricordiamoci che  nostri problemi effettivi sono ancora far funzionare correttamente una videochiamata su Zoom, o impedire che un auto a guida autonoma investa una persona. Per questo non mi sento vicino con nessuna speculazione di tipo californiano. È curioso come provengano tutte da un’area concentrata in quella regione, certe speculazioni sembrano essere figlie di una cultura  troppo vicina a Hollywood. 

C’è poi un fenomeno di rafforzamento mediatico: le parole apocalittiche fanno un certo effetto, semplicemente vendono. Infine c’è un valore di irresponsabilità, di cattiva gestione di aspettative di problemi reali, di priorità da realizzare. È un punto che vorrei elaborare: in un mondo in cui la società sta virando male e la democrazia è in crisi, tra ingiustizie sociali ed economiche, in più con la crisi climatica… Pensare che la nostra prima preoccupazione sia una IA distruttrice a là Terminator, come ha sostenuto Elon Musk, non solo è ridicolo, è anche irresponsabile, una preoccupazione da 1% dell’umanità. 


DDA -Pubblicato pochi giorni fa il programma stratetegico IA : termini ricorrenti sono “antropocentrismo” e “ambiente”, quindi un obiettivo che lei considera fondamentale. Rimettere al centro l’uomo e trovare un punto di contatto comune, la sfida dell’ambiente. Ma nella pratica, oggi in UE, stiamo lavorando da questo punto di vista? Dove l’IA sta supportando la lotta per salvare l’ambiente?

LF - Sta facendo già tantissimo: per esempio, qui ad Oxford abbiamo un progetto che dirigo con la Professoressa Taddeo, realizzato con fondi donati da Google, Microsoft, Amazon, per creare una prima analisi e banca dati di progetti sparsi in tutto il mondo in cui l’AI sostiene la realizzazione dei 17 Sustainable Development Goals delle Nazioni Unite. . Al momento sono oltre un centinaio. Ambiente, tecnologia e business possono convivere. Ci sono sicuramente rischi: penso all’utilizzo militare e a quello illegale del crimine organizzato (come il machine learning nel furto di credenziali). E poi i problemi sociali che già conosciamo, come privacy, bias, allocazione di risorse disomogeneo… ”


DDA
- E come sarà il futuro con l’avvento del computer quantistico? Il mondo affronterà una crisi sulla sicurezza informatica?

LF - Sì, ci sono almeno due sfide su questo tema. Quella relativa alla sicurezza informatica: la nostra impossibilità analogica verrà scavalcata dal Quantum Computing ed è un bel problema. Da questo punto di vista potrebbe venirci in aiuto la biometria in futuro. L’altro problema del Quantum Computing, sul quale qui ad Oxford stiamo lavorando assieme ad un’azienda leader nella ricerca sul tema, è quello della simulazione. Simulazione in campo quantistico vuol dire che un’azienda potrà avere poteri quasi divinatori per prevedere il futuro, per esempio per simulare il mercato finanziario delle settimane successive. Chi arriverà prima alla possibilità di computare quello che non si poteva prima sarà padrone del futuro. Magari solamente per qualche mese, ma sarà un vantaggio competitivo enorme. Di qui l’interesse anche geopolitico e militare dei governi. 


DDA - Si mette in crisi il modello P vs NP?

LF - No, perché rimaniamo legati al vincolo che un computer, anche se quantistico, rimane una macchina di Turing, con le sue funzioni computabili e non. Detto questo si può lavorare per approssimazione, statisticamente parlando. La pianificazione militare, finanziaria e in altri campi subirà un'impennata di fattibilità a causa del computer quantistico.

DDA - È una corsa a “chi arriva primo” che mi ricorda quella che fu ai tempi per il nucleare, con la differenza che oggi non è una corsa tra stati ma tra aziende.

LF - Lo slittamento dal pubblico al privato è un simbolo del ventunesimo secolo. Certo, già Eisenhower metteva in guardia contro il complesso militare-industriale e politico. Ora succede in modo macroscopico e oggi le grandi aziende sono quelle che possono permettersi l’innovazione tecnologica. Non abbiamo un CERN per il computer quantistico. Rimane tuttavia una partita aperta: traghettare queste tecnologie da pubblico a privato comporta un ripensando del pubblico, ed è una partita che il pubblico può vincere. Chi controllerà queste aziende? Potrebbe farlo la politica con la p maiuscola. In Europa si sta cercando di fare questa cosa.

Computer quantistico dell'IBM

Computer quantistico dell'IBM | IBM

DDA - Lei parla molto nei suoi interventi del concetto di enveloping. In questo senso, Meta di Zuckerberg mi sembra un sorta di sguardo asintotico, il “sogno” di un digitale che possa sostituire il fisico anche in alcune operazioni che ci sembrano “indigitalizzabili” (scrivere su di una tastiera digitale piuttosto che fisica). E’ una fuga politica e mediatica (dovuto agli ultimi problemi e scandali sul social) oppure è un obiettivo possibile e necessario per l’uomo? 
Le do infine una suggestione: possiamo considerare i proprietari di Facebook (e quindi Google, Amazon) non lontani dai despoti descritti da Hobbes ne "Il Leviatano". Che Meta sia la costruzione, a tutti gli effetti, di uno Stato?

LF - Avrà successo Meta? Secondo me no, almeno per come ce l’hanno presentato. In due contesti già attuali quello che vogliono fare già succede: fin dalla prima guerra del golfo la telemedicina viene attuata, con medici che operano a migliaia di chilometri di distanza. Oppure se pensiamo all’addestramento dei piloti, che è per lo più virtuale, il discorso è lo stesso. Bene, vedremo che cosa succederà quando questa tecnologia calerà nelle applicazioni civili… Ma quello che non torna è la retorica da Second Life o Matrix, la decisione di un individuo che si stufa del mondo fisico per scappare in una simulazione. Scadiamo di nuovo in un immaginario hollywoodiano che non fa i conti con la realtà: con l’apparato sensoriale enorme dell’essere umano, dell’equilibrio, dei suoi disturbi, della percezione del freddo e del caldo, dell'umidità, così via. Tutto quel mondo è irriproducibile al digitale, che deve accontentarsi del vedere e sentire. Il resto è complicato o impossibile. Vale lo stesso per l’olfatto: tempo fa ero in viaggio di lavoro con mia moglie, che è neuroscienziata. Ho incontrato un team che lavorare sulla neuroscienza dell’olfatto. Hanno dei sistemi che sono in grado di rilasciare nell’aria odori specifici, ma sono in grado anche di neutralizzarli e introdurne di nuovi. Una cosa difficile, che funziona solo in parte e in modo molto elementare, eppure possibile. Ma la verità è che non possiamo pensare che un giorno lei mi inviterà in un appartamento digitale che odorerà di una pizza (digitale) che ha, digitalmente, cucinato. 



DDA
- Sono d’accordo. Mi chiedo però cosa avremmo pensato, dieci anni fa, di milioni di persone che si truccano il viso tramite realtà aumentata. Gli umani si adattano, a volte sfidando la logica.

LF - Questo è vero. È successo a tutti di fare almeno un aperitivo digitale, soprattutto qualche tempo fa. Lo facevamo perché era un meglio di niente. L’analogico vince sul digitale a parità di condizioni. C’è poi un altro problema. Nel mondo dei videogames chi è che controlla il mondo virtuale? È la società stessa, che può accendere o spegnere la vita digitale. Succederà la stessa cosa con Meta e operazioni simili. L’impressione è che Zuckerberg abbia tentato una fuga  verso il virtuale 3D, alla ricerca di uno spazio senza legislazione. Metaverso è anche un riposizionamento legale dell’azienda: questa è un’operazione astuta. Ma rrimane comunque, a lungo termine, un’operazione perdente. Perché arriverà una legislazione anche per i mondi virtuali, così come è arrivata per l’IA.


DDA
-  Franco "Bifo" Berardi in un suo saggio, che si chiama Congiunzione e che tratta di psicopatologie e infosfera, scrive che “Il problema è che il cervello umano, sottoposto a un bombardamento ininterrotto di stimolazioni a-significanti, perde la capacità di elaborare intellettualmente gli stimoli informativi e a maggior ragione perde la capacità di elaborarli emotivamente.”

LF - Mi sembra una visione semplicistica e inutilmente cupa: ci possiamo preoccupare dell’iperstimolazione, ma non mi lancerei in profezie distopiche. Abbiamo sistemi di autodifesa dei quali dobbiamo fidarci e sul versante dell’eccesso informatico mi pare che si perda di vista la nostra capacità di essere estremamente malleabili. L’iperstimolazione è totalmente negativa? Se pensiamo che le generazioni siano destinate a perdere elaborazione cognitiva in un attimo allora stiamo mettendo da parte Darwin e la plasticità del cervello. Poi se parliamo di cultura, certo, quella cambia in brevi lassi di tempo. Ma su questo possiamo fare tanto. Ultimamente si parlava di creare un Facebook per under 13: una pessima idea. C’è una ragione per cui non facciamo bere vino a un bambino di cinque anni e non è una questione morale. Si aspetta l’età giusta e il fisico giusto. C’è un’età adatta anche per un social. Qui però il problema diventa anche educativo, un problema difficile oggi perché non abbiamo precedenti. Non abbiamo una tradizione familiare da ereditare da questo punto di vista: la cultura educativa digitale si sta formando e si deve ancora solidificare. È un momento di transizione culturale straordinario, al pari della rivoluzione dell’agricoltura che ci ha reso  sedentari, e di quella industriale che ha portato al mondo contemporaneo. 
Immaginiamo di essere nel 1930 e dopo un attimo nel 1960. Sarebbe incredibile. Questa corsa era già cominciata nel Novecento, seppur legata più a questioni culturali (immaginiamo  di raccontare a un uomo del 1930 i Beatles e la guerra in Vietnam). La verità è che il vero spartiacque oggi è invece tutta la questione digitale. Chiudo tornando all’inizio del discorso: beati coloro che vedono già il futuro come se avessero una sfera di cristallo, non so come fanno. Il futuro si può anticipare e costruire sulla base del presente, non prevedere come se fosse già scritto.

Hai letto:  L'Intelligenza Artificiale sta ricostruendo il mondo
Italia - 2021
Pensiero
Luciano Floridi

è un filosofo e professore ordinario ad Oxford, fondatore del Digital Ethics Lab e docente di Etica dell'Informazione. Dal 2021 insegna Sociologia dei Processi Culturali e Comunicativi all'Alma Mater di Bologna. Ha pubblicato più di una decina di saggi, tra cui "La Quarta Rivoluzione. Come l'Infosfera sta trasformando il mondo" e "Il Verde e il Blu. Idee ingenue per migliorare la politica".

Diego De Angelis

è un programmatore informatico e da anni scrive sul web. Ha collaborato con Vice, Esquire, UltimoUomo e altre riviste scrivendo di cultura popolare, questioni sociali e scienza.

Pubblicato:
17-12-2021
Ultima modifica:
20-12-2021
;