Oggi 01 agosto 2024, in una giornata rovente, carica della promessa delle vacanze estive e dei frutti maturi del raccolto, entra in vigore l’AI Act dell’Unione Europea. È il primo giorno di una nuova era, non solo per gli abitanti del Vecchio Continente, ma per il mondo intero. Il primo tentativo concertato e coordinato di governare l’impetuoso fiume dell’Intelligenza Artificiale, che da tempo ha abbandonato i suoi argini, trasformando paesaggi sociali e tecnologici con una velocità mai vista prima.
Immaginate per un momento di essere un cittadino dell’Unione Europea, immerso in una quotidianità che da tempo è pervasa dalla presenza silenziosa e persistente dell’IA. Ogni interazione, ogni clic, ogni battito di ciglia può essere un dato, una parte infinitesimale di un enorme algoritmo che plasma la realtà. Ebbene da oggi questo scenario cambia radicalmente. L’Unione Europea ha finalmente posto le fondamenta di un’architettura legale ambiziosa e senza precedenti: l’AI Act.
Il principio cardine di questa nuova normativa è il rischio. Come il saggio comandante che valuta i venti prima di prendere il mare, l’AI Act classifica le tecnologie di intelligenza artificiale in base al loro potenziale di causare danni agli interessi pubblici e ai diritti fondamentali dei cittadini. Vi sono i sistemi di rischio inaccettabile, veri e propri spettri del futuro che ora sono banditi dalle terre europee: i sistemi di punteggio sociale, le tecnologie manipolatorie che sfruttano le vulnerabilità individuali, la categorizzazione biometrica discriminatoria. Questi sono i demoni tecnologici che, come il mostro di Frankenstein, hanno dimostrato di non poter essere controllati e dunque devono essere eradicati.
Poi ci sono i sistemi ad alto rischio, creature più ambigue e sfuggenti, che possono essere tanto angeli quanto demoni. Essi trovano impiego in settori critici come la giustizia, l’occupazione, l’istruzione e l’accesso ai servizi essenziali. La loro potenziale benevolenza non esime dalla necessità di una stretta sorveglianza: la valutazione e la mitigazione dei rischi, la governance dei dati, la documentazione tecnica e la supervisione umana sono i nuovi guardiani di queste tecnologie.
Non meno importante è l’obbligo di trasparenza per i sistemi di rischio specifico, come i chatbot e i deepfake, che ora devono dichiarare la loro vera natura agli utenti. È una sorta di patto di onestà, un ritorno alla chiarezza e alla fiducia, in un mondo digitale spesso oscuro e ingannevole.
Ma in questo nuovo ecosistema normativo, ci sono anche zone di luce, dove la regolamentazione non si avventura. I videogiochi basati su IA e i filtri antispam sono esempi di sistemi a rischio minimo, lasciati liberi di prosperare senza le catene della burocrazia.
Un’attenzione particolare è riservata all’IA generativa, quei modelli di intelligenza artificiale capaci di stupire e talvolta spaventare per la loro versatilità e potenza. Chatbot come ChatGPT, capaci di conversare con l’uomo in modo quasi indistinguibile da un interlocutore umano, devono ora fornire una documentazione tecnica dettagliata, rispettare la direttiva sul copyright e pubblicare informazioni sui dati utilizzati per l’addestramento. In caso di sistemi ad “alto impatto”, sono previsti ulteriori obblighi: valutazione dei rischi sistemici, test di resistenza e la segnalazione di incidenti gravi.
La strada verso la piena attuazione dell’AI Act è delineata con precisione matematica.
Il 2 febbraio 2025, i divieti sulle pratiche IA inaccettabili entreranno in vigore, segnando il primo giro di boa. Il 2 agosto dello stesso anno, sarà il turno delle norme sugli organismi notificati, la struttura di governance e le sanzioni, nonché degli obblighi per i fornitori di IA generativa. Da qui, un crescendo di date cruciali scandirà il cammino fino al 31 dicembre 2030, quando tutti i sistemi IA ad alto rischio dovranno essere conformi alle nuove norme.
Il rispetto dell’AI Act sarà vigilato dalle autorità nazionali competenti, con l’AGCM in Italia a capo della sorveglianza del mercato. L’Ufficio IA della Commissione Europea, creato alla fine di maggio, coordinerà il tutto a livello continentale, supervisionando l’attuazione e l’applicazione delle nuove norme sui modelli di IA per scopi generali.
Le sanzioni per le violazioni saranno severe, ma proporzionate. Le aziende che osano infrangere queste nuove regole si troveranno a fronteggiare multe che possono raggiungere i 35 milioni di euro o il 7% del fatturato annuo globale per le infrazioni più gravi. Le sanzioni saranno minori, ma non meno incisive, per le PMI e le start-up.
Così, oggi, mentre il sole di agosto splende sui campi e sulle città d’Europa, si inaugura una nuova epoca di responsabilità e trasparenza nell’uso dell’intelligenza artificiale. È un momento che Isaac Asimov stesso avrebbe forse apprezzato, vedendo in esso l’inizio di un futuro dove la tecnologia, governata con saggezza, può finalmente servire l’umanità senza compromettere i suoi valori fondamentali.