Gli algoritmi di intelligenza artificiale generativa dipendono fortemente da enormi quantità di dati, come immagini, testi e altre forme di espressione umana, per funzionare efficacemente. Ma cosa succede quando queste risorse cominciano a scarseggiare? In uno scenario inquietante, le AI potrebbero ritrovarsi a fare affidamento su dati sintetici creati da loro stesse, con conseguenze potenzialmente disastrose.
Un recente studio condotto da ricercatori della Rice University e della Stanford University ha messo in luce un problema emergente, battezzato “Model Autophagy Disorder” (MAD). Questo fenomeno si verifica quando le IA vengono addestrate utilizzando dati generati da altre IA: la qualità delle loro produzioni inizia a peggiorare progressivamente.
Il parallelismo con la malattia della mucca pazza, che colpisce i bovini alimentati con resti infetti di altri bovini, è significativo: anche le IA soffrono quando si “nutrono” dei propri output sintetici. Senza un costante afflusso di dati reali, il contenuto che queste IA producono diventa meno accurato e diversificato.
Richard Baraniuk, ingegnere informatico della Rice University, avverte:
Le nostre ricerche ci hanno permesso di prevedere cosa accadrà quando i modelli generativi diventeranno onnipresenti e inizieranno a essere addestrati su cicli auto-ripetitivi. Senza un flusso continuo di dati reali, i futuri modelli generativi sono destinati alla ‘follia’ della MAD.
Nell’esperimento, i ricercatori hanno addestrato un modello generativo visivo utilizzando tre diversi set di dati: uno completamente sintetico, uno misto con dati reali statici e uno misto con dati reali aggiornati costantemente. Nei primi due casi, gli output del modello hanno mostrato un degrado significativo, con volti generati al computer che diventavano deformati e numeri scritti a mano che diventavano incomprensibili.
Questo studio sottolinea l’importanza della freschezza dei dati. Se i modelli generativi non potranno attingere continuamente a nuovi dati reali, potrebbero andare incontro a un inevitabile declino qualitativo, sollevando preoccupazioni per il futuro dell’IA.