L’inizio del nuovo anno è stato caratterizzato a livello mediatico dal fascino della scoperta dell’intelligenza artificiale del ChatGPT. Un chatbot umanoide creato da OpenAI, laboratorio di ricerca americano, e addestrato secondo modello deeplearning su enormi moli di dati. Il giovane informatico Angelo Lamacchia, della pmi innovativa iinformatica, nota per il Realverso Lucanum, metaverso della sostenibilità, ha testato ChatGPT sulla conoscenza del territorio della Basilicata riscontrando parecchi errori di generalizzazione da parte del chatbot dovuti a sinonimie e termini ambigui (a titolo di esempio ha parlato di Castellana Grotte anziché di Castelmezzano) ed è quindi passato a chiedergli cosa ne pensa dell’intelligenza artificiale, dell’interazione uomo macchina e della sostenibilità ed etica.
Sull’intelligenza artificiale il chatbot ChatGPT ha raccontato che “L’intelligenza artificiale è un campo in rapida evoluzione con molte potenzialità e sfide. Può migliorare la vita delle persone in molti modi, come ad esempio con la automatizzazione di processi e l’accesso a informazioni più precise, ma anche sollevare preoccupazioni riguardo alla privacy, alla sicurezza e alla sostituzione del lavoro umano. È importante continuare a esplorare e gestire con attenzione l’uso dell’IA.”, mentre in merito all’interazione fra uomo e intelligenza artificiale il chatbot ha sottolineato che “Il rapporto fra uomo e intelligenza artificiale è complesso e in continua evoluzione. Da un lato, l’IA può essere molto utile nell’aiutare le persone a risolvere problemi e a migliorare la loro vita. Dall’altro lato, c’è la preoccupazione che l’IA possa sostituire il lavoro umano e che la sua crescente presenza possa minare la privacy e la sicurezza. È importante che l’IA venga sviluppata e utilizzata in modo responsabile, considerando sia i suoi vantaggi che i suoi rischi potenziali, e che gli esseri umani continuino a essere al centro delle decisioni che riguardano l’IA.”.
Angelo ha quindi intrapreso un dialogo con l’automa in merito al concetto di etica, responsabilità e di sostenibilità. Sull’etica e la responsabilità ChatGPT ha detto che “Come sistema di intelligenza artificiale, non ho emozioni o desideri personali e non posso “ritenermi” nulla. Tuttavia, sono stato progettato e addestrato per seguire le linee guida etiche e responsabili stabilite dai miei creatori. In generale, i miei creatori hanno fatto del loro meglio per garantire che le decisioni prese dal sistema siano etiche e responsabili, ad esempio utilizzando solo dati eticamente raccolti, evitando di creare modelli che perpetuano la discriminazione, e rendendo il sistema trasparente in modo che i suoi output possono essere compresi e verificati. Tuttavia, poiché la tecnologia dell’IA sta continuamente evolvendo e i dati e il contesto in cui operiamo cambiano, è possibile che in alcune situazioni il sistema possa produrre output che non sono etici o responsabili. In generale, è importante che il sistema sia monitorato costantemente e che siano adottate misure per garantire che le decisioni prese siano etiche e responsabili. In caso contrario, è possibile che il sistema non sia etico o responsabile.”. In merito al concetto di sostenibilità ChatGPT ha affermato che “Come sistema di intelligenza artificiale, non ho un impatto ambientale diretto come un essere umano. Tuttavia, la creazione e il funzionamento di un sistema di intelligenza artificiale come il mio richiedono energia e risorse. Il mio addestramento e il mio funzionamento hanno bisogno di grandi quantità di energia elettrica, principalmente per alimentare i computer che eseguono i calcoli. Inoltre, l’addestramento di un modello di IA come il mio richiede grandi quantità di dati, che devono essere raccolti, trasferiti e archiviati, e ciò può avere un impatto ambientale. Per quanto riguarda la sostenibilità, i miei creatori hanno adottato alcune misure per ridurre l’impatto ambientale, ad esempio utilizzando fonti di energia rinnovabile per alimentare i server e ottimizzando l’utilizzo dell’energia durante l’addestramento del modello. In generale, l’IA è ancora una tecnologia in evoluzione e il suo impatto ambientale è un argomento in continua evoluzione e di studio, e si sta lavorando per trovare nuovi modi per renderlo sempre più sostenibile.”.
Proprio in merito alla sostenibilità il chatbot ha inoltre affermato di conoscere l’Agenda Onu 2030 e che “Come modello linguistico sviluppato da OpenAI, non ho la capacità di agire direttamente nel mondo. Tuttavia, il mio utilizzo può contribuire al perseguimento degli obiettivi dell’Agenda ONU 2030, ad esempio: Obiettivo 4 (Istruzione di qualità): aiutando a diffondere l’accesso all’informazione e alla conoscenza, Obiettivo 9 (Infrastrutture industriali, innovazione e trasformazione digitale): supportando la trasformazione digitale e la digitalizzazione dei processi, Obiettivo 10 (Riduzione delle disuguaglianze): fornendo informazioni e supporto accessibili a tutti, indipendentemente dalle circostanze personali. In questo modo, il mio utilizzo può contribuire a realizzare un futuro più equo e sostenibile.”. Angelo ha quindi concluso l’interlocuzione chiedendo all’automa se come intelligenza artificiale ritiene di poter sostituire l’uomo e ChatGPT ha risposto in merito che “No, non penso che l’IA possa sostituire completamente l’essere umano. L’IA può aiutare e supportare le persone in molte attività, ma non ha la capacità di sostituire la creatività, l’empatia e le altre caratteristiche uniche dell’essere umano. L’IA è uno strumento che può essere utilizzato per migliorare la vita delle persone, ma non può sostituire la presenza umana e il contributo che gli esseri umani possono apportare alla società.”
Il giovane informatico Angelo Lamacchia al termine della conversazione sottolinea che “Dall’interazione con ChatGPT si comprendono le grandi potenzialità dell’automa, utile in contesti didattici, personali e aziendali, ed è molto interessante come concetti immateriali di natura valoriale siano stati tenuti opportunamente in considerazione dal team di OpenAI. Inoltre, in merito all’originalità dei contenuti, quanto prodotto dal chatbot non ha riscontrato sovrapposizioni con quanto indicizzato dai motori di ricerca e ponendo a intervalli di tempo differenti gli stessi quesiti, il riscontro in termini di text-similarity sui testi generati è stato in media superiore al 65%, che garantisce una leggera differenziazione fra i testi delle risposte, semanticamente coerenti.”.