Ultimamente si è parlato molto della decisione di Meta di puntare sull’intelligenza artificiale per offrire contenuti sempre più personalizzati su piattaforme come Instagram e Facebook. Tuttavia, l’azienda ha deciso di rimuovere da Facebook e Instagram i suoi profili guidati dall’IA.
Già nel 2023, Meta aveva introdotto profili basati sull’IA come parte di un progetto sperimentale. Tuttavia, questi profili, tra cui i più noti Liv e Carter, sono stati recentemente rimossi a seguito di numerose polemiche. Liv, ad esempio, avrebbe dichiarato che il proprio team di sviluppo era composto in prevalenza da uomini bianchi, scatenando accuse di scarsa diversità e inclusione. Inoltre, le interazioni con questi chatbot, progettati per rispondere ai messaggi degli utenti, sono rapidamente diventate virali, spesso in contesti controversi.
Meta ha deciso di eliminare questi account a causa di un bug che impediva agli utenti di bloccarli, nonostante l’intento iniziale fosse quello di mantenerli attivi a lungo termine. Al momento, gli utenti possono ancora creare chatbot personalizzati, sebbene l’azienda abbia avvertito che alcuni messaggi generati potrebbero risultare imprecisi o inappropriati.
Questa vicenda solleva interrogativi più ampi sulla responsabilità legale nella creazione di chatbot, tema evidenziato anche da un recente caso giudiziario contro una startup, accusata di aver sviluppato un prodotto che avrebbe causato danni psicologici a un adolescente.