L’intelligenza artificiale è un falso Dio (articolo di Navneet Alang)

Nel famoso racconto di Arthur C. Clarke “I nove miliardi di nomi di Dio”, una setta di monaci in Tibet crede che l’umanità abbia uno scopo divinamente ispirato: iscrivere tutti i vari nomi di Dio. Una volta completata la lista, pensavano, Egli avrebbe posto fine all’universo. Dopo aver lavorato a mano per secoli, i monaci decidono di ricorrere alla tecnologia moderna. Due ingegneri scettici arrivano sull’Himalaya con potenti computer al seguito. Invece di 15.000 anni per scrivere tutte le permutazioni del nome di Dio, il lavoro viene svolto in tre mesi. Mentre gli ingegneri cavalcano i pony lungo il pendio della montagna, il racconto di Clarke si conclude con una delle battute finali più economiche della letteratura: “Sopra di noi, senza alcun clamore, le stelle si spegnevano”.

È un’immagine del computer come scorciatoia per l’oggettività o il significato ultimo, che è anche, almeno in parte, ciò che oggi anima il fascino dell’intelligenza artificiale.
Sebbene le tecnologie alla base dell’IA esistano da tempo, è solo dalla fine del 2022, con la comparsa di ChatGPT di OpenAI, che la tecnologia che si avvicina all’intelligenza sembra essere molto più vicina. In un rapporto sul 2023 di Microsoft Canada, il presidente Chris Barry proclama che “l’era dell’IA è arrivata, inaugurando un’ondata trasformativa con il potenziale di toccare ogni aspetto della nostra vita” e che “non si tratta solo di un progresso tecnologico, ma di un cambiamento della società che ci spinge verso un futuro in cui l’innovazione è al centro della scena”. Questa è una delle reazioni più lucide. Artisti e scrittori sono in preda al panico per il rischio di essere resi obsoleti, i governi si affannano per recuperare e regolamentare il fenomeno e gli accademici dibattono furiosamente.

L’arte

L’immagine qui sopra, che mostra ciò che l’intelligenza artificiale è in grado di fare nelle mani di un artista, è stata realizzata dalla designer Marian Bantjes utilizzando Midjourney, una piattaforma che genera immagini sulla base di suggerimenti testuali. La composizione, composta da venti immagini selezionate tra centinaia create nel corso di diverse sessioni, raffigura l’IA (simboleggiata da un bambino ultraterreno) che viene venerata e promette cose impossibili.

Le aziende sono state ansiose di salire sul treno dell’entusiasmo.

Alcune delle più grandi aziende del mondo, tra cui Microsoft, Meta e Alphabet, stanno puntando tutto sull’IA. Oltre ai miliardi spesi dalle big tech, i finanziamenti per le start-up dell’IA raggiungeranno quasi 50 miliardi di dollari (USA) nel 2023. In occasione di un evento tenutosi in aprile presso l’Università di Stanford, l’amministratore delegato di OpenAI Sam Altman ha dichiarato che non gli importa se l’azienda spenderà 50 miliardi di dollari all’anno per l’IA. Parte della sua visione è quella di una sorta di super-assistente, un “collega super-competente che sappia tutto della mia vita, di ogni email, di ogni conversazione che ho avuto, ma che non si senta un’estensione”.

Ma c’è anche una profonda convinzione che l’IA rappresenti una minaccia. Il filosofo Nick Bostrom è tra le voci più autorevoli che affermano che l’IA rappresenta un rischio esistenziale. Come spiega nel suo libro del 2014 Superintelligence: Paths, Dangers, Strategies, se “costruiamo cervelli di macchine che superano i cervelli umani in intelligenza generale … il destino della nostra specie dipenderebbe dalle azioni della superintelligenza della macchina”. La storia classica è quella di un sistema di intelligenza artificiale il cui unico obiettivo, apparentemente inoffensivo, è produrre graffette. Secondo Bostrom, il sistema si renderebbe subito conto che gli esseri umani sono un ostacolo a questo compito, perché potrebbero spegnere la macchina. Inoltre, potrebbero consumare le risorse necessarie per la produzione di altre graffette.

Questo è un esempio di quello che i sostenitori dell’IA chiamano “problema del controllo”: il timore che perderemo il controllo dell’IA perché le difese che abbiamo costruito saranno annullate da un’intelligenza che è milioni di passi avanti a noi.

Prima di cedere ulteriore terreno ai nostri signori della tecnologia, vale la pena di tornare indietro con la mente alla metà degli anni Novanta e all’arrivo del World Wide Web. Anche quello fu accompagnato da profonde affermazioni su una nuova utopia, un mondo connesso in cui sarebbero finiti i confini, le differenze e le privazioni. Oggi sarebbe difficile sostenere che Internet sia stato una sorta di bene senza problemi. La fantasia si è avverata: possiamo portare in tasca la conoscenza di tutto il mondo. Questo ha solo avuto lo strano effetto di far impazzire le persone, di favorire il malcontento e la polarizzazione, di assistere a una nuova ondata di estrema destra e di destabilizzare sia la democrazia che la verità. Non è che si debba semplicemente resistere alla tecnologia; dopo tutto, può anche avere effetti liberatori. Piuttosto, quando le grandi tecnologie portano dei doni, si dovrebbe guardare con attenzione a ciò che c’è nella scatola.

Ciò che chiamiamo AI al momento è prevalentemente incentrato sugli LLM, o modelli linguistici di grandi dimensioni. I modelli vengono alimentati con enormi insiemi di dati – ChatGPT ha essenzialmente raccolto l’intero Internet pubblico – e addestrati a trovare modelli in essi. Le unità di significato, come parole, parti di parole e caratteri, diventano token e vengono assegnati valori numerici. I modelli imparano come i token si relazionano con altri token e, nel tempo, imparano qualcosa come il contesto: dove una parola può apparire, in quale ordine e così via.

Di per sé non è un’affermazione impressionante. Ma quando di recente ho chiesto a ChatGPT di scrivere una storia su una nuvola senziente che era triste per il sole, i risultati sono stati sorprendentemente umani. Non solo il chatbot ha prodotto le varie componenti di una favola per bambini, ma ha anche incluso un arco in cui, alla fine, “Nimbus” la nuvola ha trovato un angolo di cielo e ha fatto pace con una giornata di sole. Non si può dire che la storia sia bella, ma di certo divertirebbe mio nipote di cinque anni.

Robin Zebrowski, professore e titolare della cattedra di scienze cognitive al Beloit College nel Wisconsin, spiega così l’umanità che ho percepito: “Le uniche cose veramente linguistiche che abbiamo incontrato sono quelle che hanno una mente. Così, quando incontriamo qualcosa che sembra fare il linguaggio nel modo in cui lo facciamo noi, tutti i nostri precedenti vengono coinvolti e pensiamo: ‘Oh, questa è chiaramente una cosa con una mente’”.

Per questo motivo, per decenni, il test standard per stabilire se la tecnologia si stesse avvicinando all’intelligenza è stato il test di Turing, dal nome del suo creatore Alan Turing, matematico britannico e decifratore di codici della Seconda Guerra Mondiale. Il test prevede che un interrogatore umano ponga domande a due soggetti invisibili, un computer e un altro umano, tramite messaggi di testo, per determinare quale sia la macchina. Un certo numero di persone diverse svolge il ruolo di interrogatore e di intervistato e se una percentuale sufficiente di intervistatori viene ingannata, si può dire che la macchina dimostra intelligenza. Il ChatGPT è già in grado di ingannare almeno alcune persone in alcune situazioni.

Questi test rivelano quanto siano strettamente legati al linguaggio i nostri concetti di intelligenza. Tendiamo a pensare che gli esseri che possono “fare il linguaggio” siano intelligenti: ci meravigliamo dei cani che sembrano capire comandi più complessi, o dei gorilla che possono comunicare nel linguaggio dei segni, proprio perché ci avvicinano al nostro meccanismo di rendere il mondo sensato.

Ma il fatto di essere in grado di fare linguaggio senza pensare, sentire, volere o essere è probabilmente il motivo per cui la scrittura fatta dai chatbot AI è così generica e senza vita. Poiché i LLM guardano essenzialmente a enormi insiemi di modelli di dati e analizzano il modo in cui si relazionano l’uno con l’altro, spesso possono sputare fuori affermazioni perfettamente ragionevoli che sono sbagliate o insensate o semplicemente strane. Questa riduzione del linguaggio a una semplice raccolta di dati è anche il motivo per cui, ad esempio, quando ho chiesto a ChatGPT di scrivere una biografia per me, mi ha detto che ero nato in India, avevo frequentato la Carleton University e mi ero laureato in giornalismo, il che era sbagliato su tutti e tre i fronti (Regno Unito, York University e inglese). Per ChatGPT, era la forma della risposta, espressa con sicurezza, a essere più importante del contenuto, il modello giusto contava più della risposta giusta.

Tuttavia, l’idea dei LLM come depositi di significato che vengono poi ricombinati si allinea con alcune affermazioni della filosofia del XX secolo sul modo in cui gli esseri umani pensano, sperimentano il mondo e creano arte.

Ferdinand de Saussure ha suggerito che il significato è differenziale: il significato di ogni parola dipende da quello di altre parole. Pensate a un dizionario: il significato delle parole può essere spiegato solo da altre parole, che a loro volta possono essere spiegate solo da altre parole. Manca sempre una sorta di significato “oggettivo” al di fuori di questa catena infinita di significazione che la porti a un punto morto. Siamo invece sempre bloccati in questo circolo vizioso della differenza. Alcuni, come lo studioso di letteratura russa Vladimir Propp, hanno teorizzato la possibilità di scomporre le narrazioni folcloristiche in elementi strutturali costitutivi, come nella sua opera fondamentale, Morfologia del racconto popolare. Naturalmente questo non si applica a tutte le narrazioni, ma si può vedere come si potrebbero combinare le unità di una storia – un’azione iniziale, una crisi, una risoluzione e così via – per creare una storia su una nuvola senziente.

L’idea che i computer siano in grado di pensare rapidamente sembra diventare sempre più praticabile. Raphaël Millière è professore assistente alla Macquarie University di Sydney, in Australia, e ha trascorso la sua carriera pensando alla coscienza e poi all’intelligenza artificiale. Racconta di aver fatto parte di un grande progetto collaborativo chiamato BIG-bench test. Il test presenta deliberatamente ai modelli di IA sfide che vanno oltre le loro normali capacità, per verificare la rapidità con cui “imparano”. In passato, la gamma di compiti destinati a testare la sofisticazione dell’IA comprendeva indovinare la mossa successiva in una partita a scacchi, interpretare un ruolo in un processo simulato e anche combinare concetti.

Se vi trovate a chiedere all’AI il senso della vita, non è la risposta che è sbagliata. È la domanda.

Oggi l’intelligenza artificiale può prendere cose precedentemente non collegate, persino casuali, come lo skyline di Toronto e lo stile degli impressionisti, e unirle per creare ciò che non è mai esistito prima. Ma qui c’è una sorta di implicazione fastidiosa o snervante. Non è forse anche questo, in un certo senso, il nostro modo di pensare? Millière dice che, ad esempio, sappiamo cos’è un animale domestico (una creatura che teniamo con noi a casa) e sappiamo anche cos’è un pesce (un animale che nuota in grandi bacini d’acqua); combiniamo queste due cose in un modo che mantiene alcune caratteristiche e ne scarta altre per formare un concetto nuovo: un pesce domestico. I modelli di intelligenza artificiale più recenti vantano questa capacità di amalgamarsi in un concetto apparentemente nuovo – ed è proprio per questo che sono chiamati “generativi”.

Anche argomenti relativamente sofisticati possono essere visti funzionare in questo modo. Il problema della teodicea è stato per secoli un argomento di dibattito continuo tra i teologi. Si chiede: Se un Dio assolutamente buono è onnisciente, onnipotente e onnipresente, come può esistere il male quando Dio sa che accadrà e può fermarlo? Si tratta di una semplificazione eccessiva della questione teologica, ma anche la teodicea è in qualche modo una sorta di puzzle logico, uno schema di idee che possono essere ricombinate in modi particolari.

Non intendo dire che l’IA possa risolvere le nostre domande epistemologiche o filosofiche più profonde, ma suggerisce che la linea di demarcazione tra esseri pensanti e macchine per il riconoscimento dei modelli non è così dura e luminosa come forse speravamo.

L’idea che dietro i chatbot di IA ci sia un essere pensante è dettata anche dalla consapevolezza, ormai comune, che non sappiamo esattamente come funzionano i sistemi di IA. Quello che viene chiamato il problema della scatola nera viene spesso inquadrato come misticismo: i robot sono così avanti o così alieni che stanno facendo qualcosa che non possiamo comprendere. Questo è vero, ma non nel modo in cui sembra. Il professore della New York University Leif Weatherby suggerisce che i modelli stanno elaborando così tante permutazioni di dati che è impossibile per una singola persona capirci qualcosa. Il misticismo dell’IA non è una mente nascosta o imperscrutabile dietro il sipario, ma ha a che fare con la scala e la potenza bruta.

Tuttavia, anche se si distingue che l’IA è in grado di fare linguaggio solo grazie alla potenza di calcolo, c’è ancora una domanda interessante su cosa significhi pensare.

La professoressa Kristin Andrews dell’Università di York, che si occupa di ricerca sull’intelligenza animale, suggerisce che ci sono molti compiti cognitivi – ricordare come procurarsi il cibo, riconoscere oggetti o altri esseri – che gli animali svolgono senza essere necessariamente autocoscienti. In questo senso, l’intelligenza può essere attribuita all’IA perché è in grado di fare ciò che di solito chiamiamo cognizione. Ma, come nota Andrews, nulla suggerisce che l’IA abbia un’identità, una volontà o dei desideri.

Molto di ciò che produce volontà e desiderio è localizzato nel corpo, non solo nel senso ovvio di desiderio erotico, ma nella relazione più complessa tra una soggettività interiore, il nostro inconscio, e il modo in cui ci muoviamo come corpo nel mondo, elaborando informazioni e reagendo ad esse. Zebrowski suggerisce che “il corpo è importante per come possiamo pensare, perché pensiamo e a cosa pensiamo”. E aggiunge: “Non è che si può prendere un programma per computer e metterlo nella testa di un robot per avere una cosa incarnata”. I computer potrebbero infatti avvicinarsi a ciò che chiamiamo pensiero, ma non sognano, né vogliono, né desiderano, e questo è più importante di quanto i sostenitori dell’IA lascino intendere: non solo per il motivo per cui pensiamo, ma anche per ciò che finiamo per pensare. Quando usiamo la nostra intelligenza per elaborare soluzioni alle crisi economiche o per affrontare il razzismo, lo facciamo per un senso di moralità, per un obbligo nei confronti di coloro che ci circondano, della nostra progenie, per la nostra coltivata sensazione di avere la responsabilità di migliorare le cose in modi specifici e moralmente significativi.

Forse il modello del computer nella storia di Clarke, qualcosa che è una specie di scorciatoia per la trascendenza o l’onniscienza, è quindi quello sbagliato. Invece, Deep Thought, il computer della Guida galattica per gli autostoppisti di Douglas Adams, potrebbe essere più vicino. Quando gli viene chiesta “la risposta alla domanda definitiva sulla vita, l’universo e tutto quanto”, ovviamente sputa fuori la famosa risposta ottusa: “42.”

L’umorismo assurdo era già sufficiente di per sé, ma la ridicolaggine della risposta indica anche una verità facilmente dimenticata. La vita e il suo significato non possono essere ridotti a una semplice affermazione o a un elenco di nomi, così come il pensiero e il sentimento umano non possono essere ridotti a qualcosa articolato da quelli che in definitiva sono uno e zero. Se vi trovate a chiedere all’AI il significato della vita, non è la risposta che è sbagliata. È la domanda. E in questo particolare momento storico, vale la pena chiedersi cosa ci spinga a cercare risposte da un Dio digitale benevolo e onnisciente – che, a quanto pare, potrebbe non essere nessuna delle due cose.

Lo scorso marzo ho trascorso due giorni presso la sede di Microsoft, appena fuori Seattle. Microsoft è una delle aziende tecnologiche più “all in” nell’IA. Per dimostrarlo, ha invitato giornalisti di tutto il mondo a partecipare a un “tour del campus dell’innovazione”, che comprendeva una serie vertiginosa di conferenze e dimostrazioni, pasti nell’offerta apparentemente infinita di ristoranti in loco e un paio di notti nel tipo di hotel che gli scrittori di solito non possono permettersi.

Siamo stati accompagnati in un centro di ricerca, indossando tappi per le orecchie per bloccare il rumore di un mini campo di tifosi. Abbiamo assistito a numerosi panel: come i team integrano l’IA, come chi si occupa di “IA responsabile” ha il compito di controllare la tecnologia prima che vada a rotoli. Si è parlato molto di come questo lavoro sia il futuro di tutto. In una sessione, l’affabile Seth Juarez, principal program manager delle piattaforme di IA, ha parlato dell’IA come di un passaggio da una pala a un trattore: a suo dire, “migliorerà l’umanità”.

Desideriamo cose fatte da esseri umani perché ci interessa ciò che gli esseri umani dicono e sentono riguardo alla loro esperienza di essere una persona.

Alcune delle cose che abbiamo visto sono state davvero stimolanti, come la presentazione di Saqib Shaikh, che è cieco e ha lavorato per anni a SeeingAI. Si tratta di un’applicazione che migliora sempre di più l’etichettatura degli oggetti in un campo visivo in tempo reale. Se la si punta verso una scrivania con una lattina, la app dirà: “Una lattina di soda rossa, su una scrivania verde”. Altrettanto ottimistica è stata l’idea che l’IA possa essere utilizzata per preservare le lingue in via di estinzione, per effettuare una scansione più accurata dei tumori o per prevedere in modo più efficiente dove dispiegare le risorse di risposta alle catastrofi, di solito elaborando grandi quantità di dati e riconoscendo e analizzando gli schemi al loro interno.

Eppure, nonostante i discorsi altisonanti su ciò che l’IA potrebbe fare un giorno, molte delle funzioni che l’intelligenza artificiale sembra svolgere al meglio sono del tutto quotidiane: redigere bilanci e riconciliare le cifre, rendere le pratiche di sicurezza più reattive ed efficienti, trascrivere e riassumere le riunioni, gestire le e-mail in modo più efficiente. L’enfasi sulle attività quotidiane ha suggerito che l’IA non produrrà un mondo nuovo e grandioso ma, a seconda della prospettiva, renderà un po’ più efficiente quello che esiste ora o, piuttosto, intensificherà e solidificherà la struttura del presente. Certo, alcune parti del vostro lavoro potrebbero essere più semplici, ma ciò che sembra probabile è che questi compiti automatizzati saranno a loro volta parte di un maggior numero di lavori.

È vero che la capacità dell’IA di elaborare milioni di fattori contemporaneamente può superare di gran lunga la capacità degli esseri umani di analizzare particolari tipi di problemi, soprattutto quelli in cui il fattore in gioco può essere ridotto a dati. Al termine di un panel di Microsoft sulla ricerca sull’IA, a ciascuno di noi è stata offerta una copia di un libro intitolato AI for Good, che illustra gli usi più altruistici. Alcuni dei progetti discussi includono l’uso dell’apprendimento automatico per analizzare i dati raccolti dal monitoraggio della fauna selvatica tramite suoni o satelliti o per prevedere dove sia meglio collocare i pannelli solari in India.

È roba incoraggiante, il genere di cose che, soprattutto se si vive nel 2020, permette di provare momentaneamente un pizzico di sollievo o di speranza che, forse, alcune cose andranno meglio. Ma i problemi che impediscono, ad esempio, la diffusione dell’energia solare in India non sono semplicemente dovuti alla mancanza di conoscenze. Ci sono invece problemi legati alle risorse, alla volontà, agli interessi radicati e, più semplicemente, al denaro. È questo l’aspetto che spesso sfugge alla visione utopica del futuro: se e quando avverrà il cambiamento, le questioni in gioco riguarderanno se e come determinate tecnologie verranno distribuite, impiegate e adottate.

Si tratterà di come i governi decidono di allocare le risorse, di come si bilanciano gli interessi delle varie parti interessate, di come un’idea viene venduta e promulgata, e altro ancora. Si tratterà, in breve, di volontà politica, di risorse e di competizione tra ideologie e interessi contrastanti. I problemi che affliggono il Canada o il mondo – non solo il cambiamento climatico, ma anche la crisi degli alloggi, la crisi delle droghe tossiche o il crescente sentimento anti-immigrati – non sono causati da una mancanza di intelligenza o di potenza di calcolo. In alcuni casi, le soluzioni a questi problemi sono superficialmente semplici. I senzatetto, ad esempio, si riducono quando ci sono più case e meno costose. Ma le soluzioni sono difficili da attuare a causa di forze sociali e politiche, non per una mancanza di intuizione, di pensiero o di novità. In altre parole, ciò che frenerà il progresso su questi temi sarà in ultima analisi ciò che frena tutto: noi.

L’idea di un’intelligenza esponenzialmente maggiore, tanto favorita dalle big tech, è una strana fantasia che astrae l’intelligenza da una sorta di superpotere che può solo aumentare, concependo la soluzione dei problemi come una capacità su un quadrante che può essere semplicemente alzato e aumentato. Questo è ciò che viene chiamato “soluzionismo tecnologico”, un termine coniato un decennio fa da Evgeny Morozov, lo scrittore bielorusso progressista che si è assunto il compito di criticare spietatamente le grandi tecnologie. È stato tra i primi a sottolineare come la Silicon Valley tendesse a vedere la tecnologia come la risposta a tutto.

Alcuni uomini d’affari della Silicon Valley hanno portato il risoluzionismo tecnologico all’estremo. Sono questi acceleratori dell’IA le cui idee sono le più terrificanti. Marc Andreessen è stato intimamente coinvolto nella creazione dei primi browser web e ora è un venture capitalist miliardario che ha intrapreso una missione per combattere il “virus della mente woke” e abbracciare in generale il capitalismo e il libertarismo. In un articolo pubblicato l’anno scorso, intitolato “The Techno-Optimist Manifesto”, Andreessen ha esposto la sua convinzione che “non c’è problema materiale – sia esso creato dalla natura o dalla tecnologia – che non possa essere risolto con più tecnologia”. Quando lo scrittore Rick Perlstein ha partecipato a una cena nella casa da 34 milioni di dollari (USA) di Andreessen in California, ha trovato un gruppo fermamente contrario alla regolamentazione o a qualsiasi tipo di vincolo sulla tecnologia (in un tweet alla fine del 2023, Andreessen ha definito la regolamentazione dell’IA “la nuova base del totalitarismo”). Quando Perlstein ha raccontato l’intera esperienza a un collega, “ha notato una somiglianza con un suo studente che insisteva sul fatto che tutti i problemi secolari di cui si preoccupavano gli storici sarebbero stati presto ovviamente risolti da computer migliori, e quindi considerava l’intera impresa umanistica leggermente ridicola”.

Il manifesto di Andreessen comprendeva anche una sezione perfettamente normale e non minacciosa in cui elencava una serie di nemici. Tra questi ci sono tutti i soliti nemici della destra: la regolamentazione, gli accademici saccenti, la limitazione dell’“innovazione”, i progressisti stessi. Per il venture capitalist, questi sono tutti mali evidenti. Dal 2008 Andreessen fa parte del consiglio di amministrazione di Facebook/Meta, un’azienda che ha permesso alla disinformazione e all’errore di devastare le istituzioni democratiche. Tuttavia, insiste, apparentemente senza una traccia di ironia, sul fatto che gli esperti stanno “giocando a fare Dio con le vite degli altri, con un isolamento totale dalle conseguenze”.

Il concetto comune di tecnologia è che si tratta di uno strumento. Si ha un compito da svolgere e la tecnologia aiuta a portarlo a termine. Ma ci sono alcune tecnologie significative – il rifugio, la stampa, la bomba nucleare o il razzo, Internet – che quasi “ri-rendono” il mondo e quindi cambiano qualcosa nel modo in cui concepiamo noi stessi e la realtà. Non si tratta di una semplice evoluzione. Dopo l’arrivo del libro, e con esso della capacità di documentare conoscenze complesse e di diffondere informazioni al di fuori dei custodi stabiliti, il terreno stesso della realtà è cambiato.

L’IA occupa una posizione strana, in quanto probabilmente rappresenta uno di quei cambiamenti epocali nella tecnologia, ma allo stesso tempo è sopravvalutata. L’idea che l’IA ci condurrà a una grande utopia è profondamente sbagliata. La tecnologia, in effetti, apre nuove strade, ma ciò che c’era nel terreno non scompare.

Dopo aver parlato con gli esperti, mi sembra che la promessa dell’IA risieda nel gestire insiemi di dati che esistono a una scala a cui gli esseri umani non possono semplicemente operare. Le macchine per il riconoscimento dei modelli utilizzate in biologia o in fisica daranno probabilmente risultati affascinanti e utili. Gli altri usi dell’IA sembrano più ordinari, almeno per ora: rendere il lavoro più efficiente, semplificare alcuni aspetti della creazione di contenuti, facilitare l’accesso a cose semplici come itinerari di viaggio o riassunti di testi.

Siamo sommersi da detriti digitali e per questo cerchiamo un assistente sovrumano per individuare ciò che è vero.

Questo non significa però che l’IA sia un bene benefico. Un modello di intelligenza artificiale può essere addestrato su miliardi di dati, ma non può dirvi se una di queste cose è buona o se ha un valore per noi, e non c’è motivo di credere che lo farà. Arriviamo alle valutazioni morali non attraverso enigmi logici, ma attraverso la considerazione di ciò che è irriducibile in noi: la soggettività, la dignità, l’interiorità, il desiderio – tutte cose che l’IA non ha.

Dire che l’intelligenza artificiale sarà in grado da sola di produrre arte significa fraintendere il motivo per cui ci rivolgiamo all’estetica. Desideriamo cose fatte da esseri umani perché ci interessa ciò che gli esseri umani dicono e sentono riguardo alla loro esperienza di essere una persona e un corpo nel mondo.

C’è anche una questione di quantità. Abbattendo le barriere alla creazione di contenuti, l’intelligenza artificiale inonderà il mondo di spazzatura. Già oggi Google sta diventando sempre più inutilizzabile perché il web è invaso da contenuti creati dall’IA per ottenere clic. C’è un problema reciprocamente costitutivo: la tecnologia digitale ha prodotto un mondo pieno di così tanti dati e complessità che, in alcuni casi, abbiamo bisogno della tecnologia per setacciarli. Il fatto che si consideri questo ciclo vizioso o virtuoso dipende probabilmente dal fatto che si possa trarre vantaggio da esso o che si debba arrancare nella melma.

Tuttavia, è anche l’integrazione dell’IA nei sistemi esistenti a destare preoccupazione. Come mi ha fatto notare Damien P. Williams, professore dell’Università del North Carolina a Charlotte, i modelli di addestramento assorbono masse di dati basati su ciò che è e ciò che è stato. È quindi difficile per loro evitare i pregiudizi esistenti, sia del passato che del presente. Williams sottolinea come, se si chiede di riprodurre, ad esempio, un medico che urla a un’infermiera, l’IA renderà il medico un uomo e l’infermiera una donna. L’anno scorso, quando Google ha rilasciato in fretta e furia Gemini, il suo concorrente di altri chatbot AI, ha prodotto immagini di nazisti “diversi” e dei padri fondatori dell’America. Questi strani errori sono stati un tentativo malriuscito di evitare il problema dei pregiudizi nei dati di addestramento. L’intelligenza artificiale si basa su ciò che è stato, e cercare di tenere conto della miriade di modi in cui incontriamo e rispondiamo ai pregiudizi del passato sembra essere semplicemente al di là della sua portata.

Il problema strutturale dei pregiudizi esiste da tempo. Gli algoritmi sono già stati usati per cose come i punteggi di credito e l’uso dell’intelligenza artificiale in cose come le assunzioni sta già replicando i pregiudizi. In entrambi i casi, i pregiudizi razziali preesistenti sono emersi nei sistemi digitali e, in quanto tali, il problema è spesso rappresentato dai pregiudizi, piuttosto che dal tropo di un sistema di IA canaglia che lancia bombe. Questo non significa però che l’IA non ci ucciderà. Recentemente è stato rivelato che Israele utilizzava una versione dell’IA chiamata Lavender per attaccare obiettivi in Palestina. Il sistema è destinato a contrassegnare i membri di Hamas e della Jihad islamica palestinese e a fornire le loro posizioni come potenziali obiettivi per gli attacchi aerei, comprese le loro case. Secondo +972 Magazine, molti di questi attacchi hanno ucciso civili.

Per questo motivo, la minaccia dell’IA non è quella di una macchina o di un sistema che uccide l’umanità in modo casuale. È il presupposto che l’IA sia di fatto intelligente che ci spinge a esternalizzare una serie di funzioni sociali e politiche al software: non è solo la tecnologia in sé a integrarsi nella vita quotidiana, ma anche la logica e l’etica particolari della tecnologia e la sua ideologia libertaria-capitalista. La domanda è quindi: a quali fini l’IA viene impiegata, in quale contesto e con quali limiti. “L’IA può essere usata per far guidare le auto da sole?” è una domanda interessante. Ma se dovremmo permettere alle auto a guida autonoma di circolare su strada, a quali condizioni, in quali sistemi – o addirittura se dovremmo eliminare del tutto l’automobile – sono domande più importanti, alle quali un sistema di IA non può rispondere per noi.

Tutto, da un broker tecnologico che ripone le sue speranze per il progresso umano in un’intelligenza sovrumana a un militare che si affida a un software di intelligenza artificiale per elencare gli obiettivi, evoca lo stesso desiderio di una figura autoritaria oggettiva a cui rivolgersi. Quando ci rivolgiamo all’intelligenza artificiale per dare un senso al mondo – quando le poniamo domande sulla realtà o sulla storia o ci aspettiamo che rappresenti il mondo così com’è – non siamo forse già legati alla logica dell’IA? Siamo sommersi dai detriti digitali, dalla cacofonia del presente, e in risposta cerchiamo un assistente sovrumano per estrarre ciò che è vero dal pantano del falso e del fuorviante, spesso per essere noi stessi fuorviati quando l’IA sbaglia.

La forza trainante del desiderio di vedere una voce obiettiva dove non c’è è forse il fatto che i nostri apparati di creazione del senso sono già stati minati in modi che non sono unici per l’IA. Internet è già stata una forza destabilizzante e l’IA minaccia di peggiorare la situazione. Parlando con il professore dell’Università del Vermont Todd McGowan, che si occupa di cinema, filosofia e psicoanalisi, ho capito che il nostro rapporto con l’IA riguarda essenzialmente il desiderio di superare questa destabilizzazione.

Viviamo in un’epoca in cui la verità è instabile, mutevole, costantemente contestata. Pensate all’abbraccio delle teorie cospirative, all’ascesa del movimento anti-vax o alla diffusione della pseudoscienza razzista. Ogni epoca ha la sua grande perdita – per il modernismo, la coerenza del sé; per il postmodernismo, la stabilità delle narrazioni principali – e ora, nel XXI secolo, c’è una crescente pressione sulla nozione di visione condivisa della realtà. Nel frattempo, le figure sociali, dai politici alle celebrità agli intellettuali pubblici, sembrano essere soggette, più che mai, all’attrazione della fama, dei paraocchi ideologici e delle idee palesemente false.

Quello che manca, dice McGowan, è ciò che il pensatore psicoanalitico Jacques Lacan chiamava “il soggetto che dovrebbe sapere”. Si suppone che la società sia piena di coloro che si suppone sappiano: insegnanti, clero, leader, esperti, che funzionano tutti come figure di autorità che danno stabilità alle strutture di significato e ai modi di pensare. Ma quando i sistemi che danno forma alle cose cominciano a svanire o a essere messi in dubbio, come è successo alla religione, al liberalismo, alla democrazia e ad altro ancora, ci si ritrova a cercare un nuovo Dio. C’è qualcosa di particolarmente toccante nel desiderio di chiedere a ChatGPT di dirci qualcosa su un mondo in cui a volte sembra che nulla sia vero. Per gli esseri umani immersi in un mare di soggettività, l’intelligenza artificiale rappresenta la cosa trascendente: la mente impossibilmente logica che può dirci la verità. Nel racconto di Clarke sui monaci tibetani si avverte un’idea simile della tecnologia come di ciò che ci permette di superare i nostri limiti mortali.

Ma il risultato di questo superamento è la fine di tutto. Rivolgendosi alla tecnologia per rendere più efficiente un compito profondamente spirituale, manuale e minuzioso, i personaggi di Clarke finiscono per cancellare lo stesso atto di fede che ha sostenuto il loro viaggio verso la trascendenza. Ma qui, nel mondo reale, forse l’obiettivo non è incontrare Dio. È la tortura e l’estasi del tentativo di farlo. L’intelligenza artificiale può continuare a crescere in termini di portata, potenza e capacità, ma le ipotesi alla base della nostra fede in essa – che, per così dire, potrebbe avvicinarci a Dio – potrebbero solo portarci più lontano da Lui.

Tra dieci o vent’anni, l’IA sarà senza dubbio più avanzata di quanto non lo sia ora. I suoi problemi di imprecisioni, allucinazioni o pregiudizi non saranno probabilmente risolti, ma forse riuscirà finalmente a scrivere un saggio decente. Tuttavia, se avrò la fortuna di essere nei paraggi, uscirò di casa con il mio assistente AI che mi sussurra all’orecchio. Ci saranno ancora crepe sul marciapiede. La città in cui vivo sarà ancora in costruzione. Il traffico sarà probabilmente ancora un casino, anche se le auto si guidano da sole. Forse mi guarderò intorno, o guarderò il cielo, e il mio assistente AI mi dirà qualcosa su ciò che vedo. Ma le cose continueranno ad andare avanti solo in modo leggermente diverso da come vanno ora. E le stelle? A fronte di quello che potrebbe sembrare un grande cambiamento, il cielo sarà ancora pieno di stelle.

Fonte: AI Is a False God, The real threat with super intelligence is falling prey to the hype BY NAVNEET ALANG

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *