L’espressione “Industria 4.0” venne coniata per la prima volta alla Fiera di Hannover nel 2011. Per quarta rivoluzione industriale si intende, prevalentemente, lo sviluppo dell’ intelligenza artificiale (IA), della robotica, dell’Internet delle Cose (IoT), della stampa in 3D, dell’ingegneria genetica e dei computer quantistici, il futuro prossimo venturo della nostra società.
Le spinte di quest’ultima innovazione sono partite, così come le precedenti, dall’alleanza tra l’industria privata, banche, università e centri di ricerca. Straordinari i risultati ottenuti in pochi anni.
Secondo vari studiosi (Antonio Negri e Naomi Klein), ma anche secondo il New York Times, che ha intentato una causa milionaria contro OpenAI e Microsoft per violazione di copyright, saremmo di fronte ad un furto della conoscenza e del patrimonio comune senza precedenti. Questo non solo, come già da tempo avviene, attraverso l’acquisizione, da parte delle multinazionali, di brevetti e privatizzando produzioni naturali (vegetali e animali). Adesso, anche con appropriazione dei dati personali e delle conoscenze intellettuali che vengono incamerati per allenare i Chatbot dell’Intelligenza artificiale.
Inoltre, mentre i fautori dell’intelligenza artificiale ne esaltano gli effetti positivi e i benefici, non solo per l’industria, ma anche a livello sociale, secondo la Klein saremmo di fronte ad una drammatica esclusione di massa da conoscenze strategiche da un lato; dal lavoro, dall’altro.
Saremmo, cioè, “vittime di allucinazioni mascherate dall’idea di una prospettiva di benessere per tutti grazie all’introduzione dell’intelligenza artificiale, alla risoluzione delle crisi climatiche, alla razionalizzazione della politica, all’introduzione di un codice etico, alla eliminazione di lavori usuranti, all’accesso per tutti a conoscenze e soluzioni, oggi indisponibili e inaccessibili per la maggioranza degli individui” (Naomi Klein, “Le allucinazioni del capitalismo”, Rivista Internazionale, 9 giugno 2023).
Secondo i suoi fautori più convinti, invece, per esempio Protiviti (Global Business Consulting), l’Intelligenza Artificiale (AI), “cambierà radicalmente il business, ma anche la qualità dei servizi e della produzione con nuove automazioni, controlli di qualità, analisi della domanda e stoccaggio delle merci”.
Al di là delle diverse opinioni, è un dato di fatto che, in tutti i settori, dalla tecnologia alla sanità, dai servizi finanziari ai prodotti di consumo, dalla sicurezza al controllo, le grandi imprese (ma ormai anche le PMI) stanno già adottando modelli di AI, automazione intelligente e strumenti di Advanced Analytics, per migliorare la gestione e il controllo dei processi, per abilitare nuove opportunità di business e per aumentare il vantaggio competitivo.
Nel 2022, il 6% delle PMI italiane già utilizzava l’intelligenza artificiale a fronte di una media UE è al 12%
Nei settori bancari e finanziari, per esempio, in relazione ai pagamenti digitali, alle assicurazioni e alla ricerca di mercato, tutto questo è già realtà e pone problemi relativi ad un trasferimento di nuove competenze di gestione (cfr. SAP, Società Automazione di Processo, Italia).
L’utilizzo di algoritmi e la possibilità di effettuare simulazioni, valutando i rischi e le conseguenze delle strategie di impresa, consentirà nel prossimo futuro di effettuare un tracciamento senza margini di errore e con una precisione assoluta nella riproduzione e identificazione di immagini, traumi, incidenti, strategie di mercato.
La prospettiva, non lontana, quindi, sarà di realizzare la fabbrica intelligente, dove, con questo concetto, si dovrà intendere tutto il processo di produzione, distribuzione e vendita, che sarà completamente affidato alla robotica e gestito con algoritmi specifici.
I rischi che comporta l’Intelligenza Artificiale
Le istituzioni e i governi, rispetto a questa ultima impetuosa innovazione tecnologica, sembrano divisi, tra chi, come l’UE, ha deciso di varare una normativa (A.I. Act – DG Connect Industria Digitale – cfr. anche “Il libro bianco”, Ue 2020) per tentarne una regolamentazione, e chi, come il governo americano, preferisce non frenare la ricerca, auspicando l’adozione di un semplice codice di autoregolamentazione da parte delle imprese.
In linea generale, a livello istituzionale, insieme ai benefici, si intravede una potenziale pericolosità di questi modelli di Intelligenza artificiale, soprattutto in una prospettiva di possibile sorveglianza digitale a cui potrebbe essere sottoposto ogni individuo.
Questa potenzialità di tracciamento facciale, infatti, attraverso la biometria, se collegata alla profilazione effettuata dalle piattaforme social informatiche, come in parte già avviene, rischia di consegnare un potere di conoscenza nelle mani di pochi privati. Tutto questo, in una situazione che, di fatto, non è ancora sottoposta a procedure e a regolamenti di tutela, né se ne conoscono esattamene le possibili evoluzioni.
Per questo motivo, l’Unione europea ha avviato in fretta e furia una discussione con l’obiettivo, in parte già raggiunto, di una regolamentazione dell’intelligenza artificiale, in particolare riguardo ai dati personali e in riferimento ai processi di consultazione elettorale.
Un dibattito che non mette in dubbio l’Intelligenza artificiale, ma solo il suo campo di utilizzo
Quello che fa discutere è se possa divenire a breve una metodologia ordinaria o se debba essere circoscritta, per esempio limitando il riconoscimento facciale a situazioni di emergenza (attentati terroristici). Di fatto, questo è uno dei punti per i quali CHAT GPT è sotto accusa, e per cui è considerato un software ad alto rischio. In particolare, per due motivi essenziali: la reticenza a fornire le fonti e l’indistinguibilità tra intelligenza artificiale e intelligenza umana (Deepfake). Secondo dati recenti, il 63,2% delle medie e piccole imprese fa uso dell’intelligenza artificiale. Il 25,4% dei nuovi lavoratori nel 2022, invece, è stato esposto all’IA con un indice superiore alla media europea.
I timori e i rischi sono espressi anche a livello scientifico. Per esempio, da Eric Schmidt, ex CEO di Google, che ha ammesso che l’intelligenza artificiale potrebbe comportare rischi per l’esistenza umana e che i governi dovranno sapere come accertarsi che la tecnologia non venga utilizzata in modo improprio da malintenzionati (Eric Schmidt, intervento al Ceo Council Summit del Wall Street Journal a Londra).
Prima di Schmidt, altre figure di alto profilo avevano manifestato preoccupazioni per il rapido successo e i rischi dell’IA, tra cui il fondatore di OpenAI Sam Altman, Elon Musk, e, perfino, Sundar Pichai, l’attuale Ceo di Google.
Secondo il prof. Russel, responsabile di Computer science all’Università di Beckley, Chat Gpt sarebbe in grado di elaborare risposte globali, ma risulterebbe spesso contraddittorio. Russel, inoltre, non esclude che nel lungo periodo l’intelligenza artificiale possa essere più potente dell’intelligenza umana; tanto che potrebbe non essere più disponibile a seguire gli indirizzi umani, qualora li ritenesse inadeguati rispetto ai criteri di efficienza per cui è stato programmato.
Bisogna considerare, infatti, che un’intelligenza artificiale è una macchina che prescinderà da condizionamenti etici o legati a valori sociali, o del rispetto dei diritti o, addirittura, della vita stessa delle persone.
Nel corso degli Stati Generali dell’IA 2023 (www.classagora.it ) si sono alternati interventi più o meno allarmati su questo punto. Una delle relazioni più apprezzate è stata quella proposta dalla dott.ssa Taddeo, membro della Commissione etica del Ministero della difesa britannico e docente all’Internet Institute dell’Università di Oxford sui temi morali dell’intelligenza artificiale, che ha invocato un’urgente regolamentazione. Questo, al fine di utilizzare algoritmi non discriminanti o pregiudizievoli e per sottoscrivere un trattato internazionale vincolante, dal momento che è già caduto il tabù sulle armi autonome.
Secondo la Taddeo, infatti, “nella guerra in Ucraina è caduto il tabù delle armi autonome (per esempio, i. droni kubelek che selezionano e attaccano autonomamente il bersagli, le mine “intelligenti” o i droni kamikaze “drone kube blacks”). Da entrambe le parti decisioni operative sugli scenari di combattimento sono affidate ad algoritmi. È la prima volta che accade nella storia umana. Manca, però, del tutto una regolamentazione internazionale adeguata“. Per inciso, lo stesso sta accadendo nel conflitto tra Israele e Palestina.
Soprattutto, ciò che è inquietante, secondo la Taddeo, è che l’intelligenza artificiale impara da sé stessa, sfruttando il sistema di rete delle proprie applicazioni. L’evoluzione, dunque, non può essere controllata in modo certo perchè, per esempio, consentirebbe di apprendere nozioni e strategie elaborando e incrociando i dati con altre unità di IA che gli umani potrebbero non aver previsto.
Le perplessità, infine, deriverebbero anche dal fatto che siamo in grado di progettare l’intelligenza artificiale. Tuttavia, non siamo in grado di leggere e di interpretare completamente i risultati ottenuti; sul piano della gestione dei dati, dunque, non è detto che avremo un controllo certo.
Gli appelli di una moratoria della ricerca, così come gli allarmi riguardo ai rischi dell’Intelligenza artificiale si sono moltiplicati tra il 2022 e il 2023. Fra i tanti, vanno ricordati: l’appello di mille ricercatori e imprenditori capitanati da E. Musk, l’appello firmato da Sam Altman, capo di Open AI e padre di Chat Gpt, e quello sottoscritto da Eric Horvitz, capo dei ricercatori Microsoft.
Tuttavia, questi appelli sono probabilmente destinati a cadere nel vuoto. Innanzitutto perché è impossibile, come la storia insegna, bloccare la ricerca; tanto più che, a differenza dello sviluppo della ricerca nucleare che è materialmente verificabile, nel caso dell’IA questo sarebbe impossibile. Ma anche perché questi appelli risultano tutti viziati da sospetti (Musk, per esempio, è proprietario di Twitter, Tesla e Space X.O., ed è sospettato di voler rallentare la ricerca all’unico scopo di consentire un recupero del ritardo accumulato da X.A.I., la sua neonata società di IA).
Un’analisi chiara sui rischi dell’intelligenza artificiale l’avrebbe fornita, nella primavera del 2023, Geoffrey Hinton, ex manager di Google e ideatore delle tecniche di microtargeting. Dopo essersi licenziato da Google, Hinton avrebbe rilasciato una preoccupata serie di interviste sull’argomento. Ma anche questo appello suona ambiguo: licenziarsi a 75 anni, non sembra una scelta di grande coraggio.
Secondo Hinton, l’IA porrebbe due categorie di rischi
La prima riguarderebbe l’estrema difficoltà di “individuare e neutralizzare “attori maligni” che si apprestano ad utilizzare l’IA con lo scopo di diffondere immagini, video, codici informatici falsi, al punto che, a breve, la verità, sempre più incerta, potrebbe risultare irrilevante, senza contare i rischi di attacchi hacker in grado di colpire aziende e infrastrutture (elettricità, acqua, reti informatiche di interi Paesi. (Massimo Gaggi, Corriere della Sera, 3 maggio 2023),
La seconda categoria di rischio riguarderebbe la possibilità di una perdita di controllo della macchina. Già oggi saremmo entrati, secondo Hinton, in un territorio ad alto rischio, dal momento che “all’intelligenza artificiale viene consentito, non solo di generare codici informatici, ma anche di gestirli in modo autonomo, arrivando a prendere decisioni e a formulare ragionamenti, le cui conclusioni non possono essere previste dai creatori dei programmi”.
Naturalmente, Hinton dimentica di ricordare i danni che lui stesso ha già determinato con il suo programma di profilazione (microtargeting) degli utenti (attraverso l’uso dei like e la ricerca in rete osservata per inviare pubblicità mirata).
Secondo tutti gli esperti che hanno lanciato appelli alla prudenza, “una ulteriore difficoltà deriva dalla differenza tra intelligenza umana, che è biologica ed unica, e quella artificiale. che è digitale e dunque replicabile all’infinito. Una super intelligenza potrebbe, quindi, nascere semplicemente dalla moltiplicazione delle copie di una IA. Ognuna di esse, infatti, impara separatamente, ma condivide la conoscenza acquisita con le altre macchine gemelle” (Massimo Gaggi, Corriere della Sera, 3 maggio 2023).
Non poche le opinioni più ottimistiche e addirittura entusiastiche
Come quella di Mario Rasetti, professore emerito di fisica teorica al Politecnico di Torino, secondo il quale: “È in corso una rivoluzione, quella dei “big data” e dell’intelligenza artificiale, travolgente e unica: una rivoluzione culturale e industriale al tempo stesso, che condivide speranze e rischi di tutti i cambiamenti drastici che avvengono nei due ambiti. I bit faranno ben di più, in termini di spostamento degli equilibri del potere, di accesso alla conoscenza e del suo trasferimento dalle mani di pochi a comunità sempre più allargate, di quanto abbiano fatto i caratteri mobili di Gutenberg nel ’400. E si produrrà un cambio di paradigma che, attraverso il lavoro ,muterà la struttura profonda delle relazioni umane e sociali, come fece nel ’700 la macchina a vapore di Watt.
(…) Una rivoluzione, infine, che muterà i nostri valori fondamentali: lavoro, democrazia, relazioni umane, modo di fare scienza, affari, cultura, modo di perseguire salute e felicità, prospettando un futuro di progresso, crescita e qualità della vita senza precedenti, ma con i vincoli etici più severi che mai abbiamo dovuto affrontare. L’intelligenza artificiale, che mira a decifrare il codice dell’intelligenza umana, per ora nelle sue capacità di imparare e auto-addestrarsi (il cosiddetto “machine learning”), ne è lo strumento e sta facendo progressi mozzafiato. Esistono già algoritmi in grado di svolgere compiti intelligenti che hanno prestazioni migliori di quelle degli uomini, e presto le capacità umane saranno superate in così tante applicazioni che si stima che, entro un decennio, il lavoro intellettuale sarà sostituito per il 60% dalla tecnologia e che metà dei lavori scompariranno” (Massimo Gaggi, Corriere della Sera, 3 maggio 2023).
Prospettive politiche
La speranza di Rasetti ricorda molto le speranze (Florida e la teoria delle 3 T – Tolerance, thecnology and Talent) che si riponevano nella new economy e nella prospettiva di una rigenerazione urbana, con conseguente ampliamento delle opportunità per tutti.
Salvo poi dover constatare, nel 2007, la concentrazione fuori controllo di dati e informazioni sensibili nelle mani di Microsoft e Google e una condizione globale di esclusione e precarietà del lavoro senza precedenti.
Secondo Rifkin, nell’era dell’accesso, la proprietà è stata già sostituita dall’accesso a pagamento ad ogni bene e servizio, o ad ogni esperienza culturale. Perciò il fossato, tra chi è connesso alla rete e chi non lo è, sarà sempre più profondo e i più grandi provider internazionali, che avranno le chiavi di accesso, sono destinati a controllare la vita di ognuno di noi.
L’intelligenza artificiale dovrebbe garantire una maggiore protezione e un aumento del livello di sorveglianza, grazie all’introduzione del tracciamento biometrico e della profilazione degli utenti social, peraltro già in atto da tempo.
Per alcuni, questa accumulazione di informazioni e dati personali, questa profilazione accurata e di massa, in mano a pochissime multinazionali con fatturati equivalenti a quelli di molti Stati, in un prossimo futuro potrebbe significare la capacità di un controllo politico e sociale capillare. Ma anche determinare un “socialtotalitarismo” a cui nessuno sarebbe in grado di sottrarsi.
La questione chiave che si pone, infatti, di fronte ad un tale scenario, come lasciano presagire le parole di Rasetti, è che questa distanza culturale e tecnologica significherà la fine di ogni possibile democrazia, nonché la crescita di fenomeni legati al populismo e al sovranismo come reazione alla insicurezza sociale diffusa. Da cui, la domanda di difesa e protezione attraverso l’uomo (o la donna) forte che possa promettere riscatto sociale.
Prospettive sociali
Lo scenario del lavoro, invece, sembra essere più chiaro: la riduzione o la totale eliminazione del lavoro variabile. Così come va ripetendo Elon Musk, secondo il quale, l’umanità, prima o poi, non sarà più costretta a lavorare (Summit su intelligenza artificiale – Londra – Lancaster House, 02.11.2023).
Un’incognita senza precedenti nella storia moderna, che riguarda il giorno dopo
La riduzione dei costi del lavoro dovrebbe aumentare il profitto delle imprese. Anche se non è chiaro chi potrà sostenere il consumo, vista la disoccupazione che questa automazione determinerà. Una soluzione sembra essere l’introduzione dei servizi low cost che sono possibili proprio a causa della riduzione del costo del lavoro.
Se questa ipotesi dovesse rivelarsi sostenibile a lungo termine, la conseguenza sarà che due terzi dell’umanità dovrà accettare servizi e prodotti sempre più scadenti sul modello indicato dai “fast food”.
La progressiva privatizzazione, che va di pari passo con l’automazione, avrà, inoltre, la conseguenza di consegnare al suo destino la popolazione più povera che non potrà pagarsi servizi e prodotti (sanità, formazione, assistenza sociale, protezione legale, ecc.). Il che, potrebbe accentuare un conflitto verticale tra Stati e società.
La riduzione del welfare e della rottura di un patto sociale, la fine del rapporto fiduciario tra società e Stato potrebbero, infatti, determinare una reazione diffusa malessere ed esplosioni di rabbia. Con la conseguenza di aggressioni ad esponenti istituzionali e agli addetti ai servizi, come già dimostrano i ripetuti attentati a medici, insegnanti, operatori sociali.
Per altri versi, questa situazione di disperazione diffusa, potrebbe determinare frequenti conflitti orizzontali all’interno della società. Come sembra confermarsi con l’incremento di aggressioni e omicidi per futili motivi, l’aumento delle violenze sulle donne, le crisi tra coniugi all’interno delle famiglie, con i fenomeni di bullismo adolescenziale, con l’aumento dei consumi di droga e l’incremento dei reati comuni.
Prospettive economiche
Ma, soprattutto, ciò che rende l’ipotesi di una nuova fase di sviluppo e di benessere diffuso una pura illusione è che il sistema capitalistico sembra, tendenzialmente ed irreversibilmente, destinato ad una prospettiva di “costo marginale zero”, se utilizziamo la lettura della teoria di Rifkin, cioè in una continua decrescita dei prezzi e dei costi.
La teoria del costo marginale zero, secondo Rifkin, insisterà sulla progressiva diminuzione del costo di ogni singola unità aggiuntiva di prodotto, tale per cui, in assenza di regimi di monopolio/oligopolio, il mark up dell’imprenditore risulterà nullo, ovvero, si determinerà un azzeramento dei profitti da produzione. Il che, secondo Rifkin porterebbe, giocoforza, ad un mondo “collaborativo e solidale” e alla fine del capitalismo. Se si può condividere la prima parte della teoria di Rifkin, cioè della progressiva riduzione dei costi e dei profitti, la prospettiva di un futuro solidale e collaborativo sembra, invece, del tutto utopistica.
Quello che sta accadendo, piuttosto, è che si stanno trasferendo le risorse dal campo degli investimenti a quello della rendita. Sembra dimostrarlo la tendenza a dirottare i capitali sui mercati finanziari. Perciò, non sembra proprio che vi sarà qualcosa da redistribuire o da rendere patrimonio comune, tantomeno per i precari e, di certo, nessuna speranza di re-inclusione degli esclusi.
Ecco perché, alla teoria nordamericana, in lingua inglese, delle 3T dei ricchi, (Talent, Tolerance and Thecnology) enunciata da Florida, i poveri del Sudamerica hanno risposto proponendo una loro versione della teoria, in lingua spagnola: Tierra, Techo y Trabajo (Terra, Casa e Lavoro).
Confrontando questi due slogan, quello che sembra evidente è una divaricazione della domanda e dell’offerta. Da un lato, l’offerta di uno scenario economico è rivolta ai creativi della middle class, da cui hanno tratto vantaggio le 5 principali Big Tech americane con fatturati valutati in borsa senza precedenti. Dall’altro, la domanda di sopravvivenza genera una massa di poveri che cresce su tutto il pianeta. Con la prospettiva di una accentuazione della distanza, riguardo alle conoscenze tecniche e culturali, tra una ristretta élite mondiale di privilegiati, barricati entro le mura, e una massa abnorme di diseredati, relegati nelle periferie urbane e nei Paesi fuori dall’Occidente.
Sarà, questo sistema di fortezza neo-medioevale che respinge l’assalto degli intrusi, sostenibile, nel medio, lungo periodo? O sarà necessario ricorrere al reset con una guerra, per determinare le condizioni di riavvio di una nuova fase di sviluppo?