Wikipedia è una delle risorse di conoscenza più popolari al mondo, ma può essere difficile garantire l’accuratezza di tutte le voci. Un nuovo sistema di intelligenza artificiale (AI) potrebbe aiutare a migliorare l’affidabilità di Wikipedia, individuando le fonti non affidabili o mancanti di informazioni e proponendo valide alternative.
Il sistema, chiamato SIDE, è stato sviluppato dalla compagnia londinese Samaya AI. Si basa su reti neurali, modelli matematici ispirati al sistema nervoso umano, che sono in grado di imparare e migliorare nel tempo.
SIDE è stato addestrato su un set di dati di voci di Wikipedia considerate particolarmente accurate, i cosiddetti “featured articles”. Questo ha permesso al sistema di imparare a riconoscere le caratteristiche delle fonti affidabili.
Una volta addestrato, SIDE può essere utilizzato per verificare le fonti citate in qualsiasi voce di Wikipedia. Il sistema analizza la fonte originale e la confronta con le altre fonti disponibili per quella voce. Se SIDE ritiene che la fonte non sia affidabile, propone una o più alternative.
I ricercatori hanno testato SIDE su un set di voci di Wikipedia non ancora verificate. In generale, SIDE è stato in grado di identificare le fonti non affidabili con un’accuratezza del 90%. Inoltre, le fonti alternative proposte da SIDE sono state giudicate affidabili dagli utenti di Wikipedia nel 70% dei casi.
I risultati di questo studio suggeriscono che sistemi di intelligenza artificiale come SIDE potrebbero essere utilizzati per migliorare l’affidabilità di Wikipedia. Questi sistemi potrebbero aiutare i revisori a identificare e correggere le fonti non affidabili, rendendo Wikipedia una risorsa ancora più preziosa per tutti gli utenti.
Aggiungi commento