Meta sta lavorando a un nuovo strumento per identificare le immagini generate da intelligenza artificiale (IA) che vengono caricate sul social network.
Non c’è ancora un annuncio ufficiale, ma il ricercatore e sviluppatore italiano Alessandro Paluzzi, ha rivelato di aver trovato un nuovo menu nel codice dell’app che mostra un avviso quando viene visualizzato un post con contenuti generati da IA.
L’obiettivo è ridurre la diffusione del deep fake?
L’obiettivo di questa nuova funzionalità potrebbe essere quello di limitare la diffusione di fake news e deep fake, ovvero foto e video falsi che sembrano reali ma che vengono creati al computer, spesso utilizzando chatbot o altri programmi, o almeno avvisare gli utenti con un disclaimer.
Questo aiuterebbe a mitigare polemiche inutili riguardo a contenuti fake casualmente o volutamente diffusi in rete.
Secondo Paluzzi, Instagram potrebbe inviare un messaggio all’apertura di un post creato da IA, che avvisa l’utente della generazione artificiale del contenuto.
Meta, l’azienda madre di Instagram, non ha ancora specificato come riuscirà a individuare questi post, ma questa mossa segue gli impegni presi dalle grandi aziende tecnologiche nei confronti del governo americano nel documento “Ensuring Safe, Secure, and Trustworthy AI” (Garantire un’intelligenza artificiale sicura, protetta e affidabile). Il rapporto si focalizza principalmente sul miglioramento degli strumenti a disposizione dei consumatori per distinguere tra immagini e video reali e quelli creati digitalmente, al fine di evitare truffe e manipolazioni. Paluzzi ha anche scoperto segnali di altri strumenti generativi basati sull’IA su Instagram, come una funzione di riepilogo dei messaggi per creare sintesi delle conversazioni private sulla piattaforma e opzioni di editing per le storie.
Aggiungi commento