In dodici mesi è aumentato del 50% il traffico su Wikipedia, in particolare quello relativo al download di immagini e video. Ad affermarlo è la Wikimedia Foundation che gestisce l’enciclopedia, secondo cui il ‘boom’ è dovuto all’intelligenza artificiale generativa. Ad incrementare in maniera smisurata il numero di accessi non sono però gli utenti tradizionali, ma i ‘crawler’, ossia i software automatizzati che estraggono per l’appunto i contenuti multimediali della piattaforma per indottrinare e addestrare i modelli di intelligenza artificiale di ultima generazione. L’operazione, spiega la fondazione, «è lecita» perché Wikipedia ospita file liberi da copyright, però non è esente da conseguenze. L’infrastruttura «è costruita per sostenere picchi di traffico improvvisi durante eventi di grande interesse – spiega la Wikimedia Foundation sul proprio blog ufficiale – ma la quantità di traffico generata dai bot è senza precedenti e presenta rischi e costi crescenti». Wikipedia, di base, fornisce i propri contenuti agli utenti attraverso una rete globale di data center, e quando un articolo viene richiesto più volte, il contenuto è conservato nel data center più vicino all’utente. Ma a differenza dei navigatori, che tendono a concentrarsi su argomenti specifici, i bot di intelligenza artificiale accedono a un’ampia gamma di articoli in blocco, inclusi file, immagini e video poco richiesti: questo comporta un maggiore dispendio di risorse per Wikimedia, che deve rendere disponibile un archivio maggiore, a costi più elevati per il suo data center centrale. La fondazione sottolinea inoltre l’importanza di riconoscere la fonte dei contenuti, per incentivare nuovi utenti a partecipare e contribuire. «I nostri contenuti sono gratuiti, la nostra infrastruttura no», sottinea la fondazione. Tra le possibili soluzioni, la Wikimedia Foundation valuta la creazione di sistemi di attribuzione più rigorosi e la definizione di linee guida chiare per l’addestramento dei modelli di intelligenza artificiale.
Fausto Diaz



