Nel mondo della tecnologia e dell’intelligenza artificiale, uno dei concetti più affascinanti e allo stesso tempo spaventosi è quello dell’AGI, ovvero l’Intelligenza Artificiale Generale. Questo tipo di intelligenza è quella che potrebbe rivoluzionare completamente il nostro rapporto con le macchine, facendo sì che queste non solo eseguano compiti specifici come fanno le IA tradizionali, ma che acquisiscano una vera e propria intelligenza autonoma, simile a quella umana. Si tratta di un obiettivo che ha fatto sognare scienziati e ricercatori per decenni, ma che ora sembra essere più vicino che mai. Sam Altman, CEO di OpenAI, ha recentemente dichiarato che l’AGI potrebbe arrivare nel 2025. Quindi, tra poco più di un anno, potremmo trovarci di fronte a macchine in grado di pensare, apprendere e risolvere problemi come noi umani. Un’idea che, seppur affascinante, lascia non pochi dubbi.
L’AGI è ancora un concetto in fase di sviluppo e, per molti, è una vera e propria chimera. In sostanza, un’intelligenza artificiale generale sarebbe un sistema capace di affrontare una varietà di compiti senza essere stato specificamente addestrato per ognuno di essi, proprio come fa il cervello umano. Questo la distingue sia dall’IA debole, che è limitata a compiti specifici e ben definiti, sia dall’IA forte, che rappresenta una sorta di “intelligenza completa”, potenzialmente in grado di replicare tutte le capacità cognitive umane. Ma se davvero l’AGI sta per diventare realtà, come sostiene Altman, il 2025 è la data che dobbiamo segnare sul calendario. È incredibile pensare che l’arrivo di una macchina pensante come un umano sia dietro l’angolo, eppure c’è ancora molta incertezza. Non tutti sono convinti che questo obiettivo sia raggiungibile nei tempi indicati. Alcuni esperti sottolineano che non esiste nemmeno una definizione univoca di AGI, e che persino le macchine più avanzate, come GPT-4, faticano a risolvere problemi che non rientrano nei dati con cui sono state addestrate.
Le capacità di apprendimento e di adattamento sono la chiave per definire una vera AGI, eppure anche i più sofisticati modelli di IA, come quelli di OpenAI, si trovano in difficoltà quando vengono messi alla prova con compiti nuovi, mai visti prima. Per esempio, un benchmark recente, chiamato FrontierMath, ha messo alla prova i modelli di IA più avanzati con problemi matematici che non avevano mai incontrato, ottenendo risultati deludenti. Nonostante ciò, si vocifera che OpenAI stia lavorando su un modello segreto, chiamato OpenAI o1, che potrebbe essere molto più capace di ragionare rispetto alle versioni precedenti. E non è solo OpenAI a puntare in alto: anche Anthropic, con il suo CEO Dario Amodei, prevede che l’AGI potrebbe arrivare già nel 2026 o 2027.
Un altro aspetto interessante della questione è la strategia commerciale dietro le dichiarazioni di Altman e OpenAI. Si vocifera che l’AGI, una volta raggiunta, potrebbe segnare un punto di svolta per i contratti di OpenAI con Microsoft, che scadranno proprio intorno alla data in cui l’AGI dovrebbe essere finalmente una realtà. Se la promessa di un’intelligenza artificiale super-intelligente diventasse concreta, OpenAI potrebbe ottenere un nuovo accordo con Microsoft che prevederebbe una cifra decisamente più alta per l’utilizzo dei suoi modelli nel sistema Copilot. Un altro fattore che alimenta i dubbi sulla rapidità con cui l’AGI arriverà è il fatto che questa evoluzione potrebbe avvenire per gradi. OpenAI ha delineato una serie di “livelli” che i suoi sistemi AI dovrebbero attraversare prima di arrivare a una forma di intelligenza veramente generale. Si parte dai chatbot, per arrivare a sistemi che risolvono problemi come gli esseri umani, per poi passare a quelli in grado di svolgere compiti autonomamente, come Jarvis di Google, e infine a sistemi che potrebbero essere capaci di compiti creativi e addirittura gestire intere organizzazioni.
Ma, a parte le speculazioni sul futuro, c’è anche un lato oscuro di questa ricerca. Se, da un lato, l’arrivo dell’AGI potrebbe portare enormi vantaggi, dall’altro c’è il rischio che questa tecnologia venga usata in modo irresponsabile o addirittura dannoso per l’umanità. È la tematica che viene affrontata in film come Terminator, dove l’intelligenza artificiale, una volta raggiunta una forma superiore di autonomia, si ribella agli esseri umani e inizia a causare il caos. Non vogliamo certo trovarci nella situazione di Miles Dyson, che in Terminator 2 sviluppa Skynet senza sapere che avrebbe scatenato l’inferno. Insomma, come con tutte le innovazioni potenti, è fondamentale che i ricercatori e le aziende che stanno sviluppando l’AGI siano consapevoli delle implicazioni etiche e sociali di questa tecnologia.
In definitiva, l’AGI è un campo che sta evolvendo rapidamente, ma è anche uno degli argomenti più controversi e dibattuti nel mondo dell’intelligenza artificiale. Sam Altman e i suoi colleghi di OpenAI sembrano convinti che nel 2025 l’AGI non sarà più solo un sogno, ma una realtà concreta. Tuttavia, la strada per arrivarci potrebbe essere più lunga e tortuosa di quanto sembri, e chissà, magari l’AGI arriverà davvero in tempi più brevi, ma sarà importante fare in modo che non diventi troppo potente troppo presto. Perché, come ci insegna la fantascienza, con grandi poteri arriva anche una grande responsabilità.
Aggiungi commento