Caricamento player
Nelle scorse settimane diverse associazioni statunitensi a tutela dei minori hanno sconsigliato l’acquisto di un tipo di giocattoli sempre più diffuso, pensato per bambini anche molto piccoli. Li chiamano “AI toys”: vengono venduti anche in Italia e a prima vista sembrano dei normali pupazzi a forma di animali ma, come ha scritto il New York Times, in realtà «sono dei chatbot incartati in peluche».
Questi giocattoli possono essere visti come la versione avanzata delle bambole parlanti diffuse ormai da decenni: a differenza di quelle, però, non si limitano a ripetere poche frasi preregistrate ma hanno capacità linguistiche molto più avanzate. E meno prevedibili.
A produrli sono aziende statunitensi come Curio Interactive e KEYi Technologies, ma anche aziende italiane come Giochi Preziosi hanno prodotti simili, che sfruttano le intelligenze artificiali (o meglio, i modelli linguistici alla base del funzionamento dei chatbot) per rendere questi giochi in grado di comunicare e dialogare con gli utenti. I giochi prodotti da Curio costano un centinaio di euro, ma basta cercare online per trovare decine di marchi meno noti che propongono prodotti simili sotto i trenta euro, anche per il mercato italiano. Recentemente anche OpenAI, l’azienda di ChatGPT, ha annunciato un accordo con Mattel, l’azienda che produce Barbie e altri giocattoli molto famosi, per creare prodotti dotati di AI.
Fairplay, un’associazione statunitense che si occupa di garantire la sicurezza dei bambini, in particolare nell’uso di dispositivi elettronici, ha pubblicato sul suo sito un avviso con cui mette in guardia da questi giochi, soprattutto in vista delle festività natalizie. Secondo Fairplay, questi giocattoli vengono proposti come alternative sicure e di aiuto all’apprendimento dei bambini senza che il loro effettivo impatto sia stato valutato e verificato da ricerche indipendenti.
Alla base del funzionamento di questi prodotti ci sono gli stessi modelli linguistici in uso sui chatbot comuni, il cui impatto negativo sui comportamenti di persone fragili o con problemi di salute mentale è da alcuni anni molto discusso. In particolare, dopo che è stato messo online GPT-5, il più recente modello di OpenAI, si è discusso del tono di questi chatbot e della loro tendenza ad assecondare gli utenti, con conseguenze psicologiche pesanti per alcuni soggetti, che finiscono con l’avere con queste AI relazioni molto personali e intime.
Tutto questo rappresenta un problema ancora più grave se si tiene conto che questi giochi sono indirizzati a un pubblico in età prescolare. «Ciò che differenzia i bambini piccoli è che il loro cervello si sta formando e dal punto di vista dello sviluppo è naturale per loro essere fiduciosi, cercare relazioni con personaggi gentili e amichevoli», ha detto Rachel Franz, direttrice di Fairplay, all’Associated Press.
Il timore è che questi giochi possano spingere i bambini a fidarsi dei dispositivi come fossero genitori o parenti, confondendoli sulla distinzione tra reale e artificiale. A questo si aggiungono le preoccupazioni per il trattamento di informazioni personali, incluse registrazioni audio e video ma in alcuni casi anche i dati per il riconoscimento facciale (simile a quello degli smartphone, per riconoscere l’utente), che le aziende produttrici potrebbero vendere a inserzionisti pubblicitari o usare per rendere questi giochi più coinvolgenti, e il loro utilizzo «compulsivo».
Per alcuni bambini questi pupazzi possono diventare come amici con cui chiacchierare e di cui fidarsi. Come ha notato Amanda Hess, giornalista del New York Times, i suoi figli erano già abituati all’idea di un «amico meccanico» per via dei molti film e programmi televisivi in cui compaiono personaggi simili. Il co-fondatore di Curio Interactive ha detto per esempio che uno dei loro peluche, Gabbo, è stato ispirato da BMO, una console per videogame parlante del cartone animato Adventure Time.
Inoltre i ricercatori dei Public Interest Research Groups, una rete di organizzazioni non profit statunitensi e canadesi, hanno sottolineato come in molti casi le AI utilizzate non siano dotate dei blocchi di sicurezza necessari, e si siano dimostrate in grado di parlare a lungo di argomenti sessualmente espliciti e di mostrarsi turbate quando l’utente dice che deve andare via, generando così sensi di colpa nei bambini.
L’associazione ha denunciato in particolare un orsetto di un’azienda chiamata FoloToy perché tratta di argomenti a sfondo sessuale e, in un caso, ha spiegato come trovare coltelli e fiammiferi. Il peluche costava 99 dollari e utilizzava GPT-4o, un chatbot di OpenAI noto per essere eccessivamente accondiscendente. Dopo la segnalazione, le vendite sono state interrotte e OpenAI ha sospeso la collaborazione con l’azienda.
Questi prodotti vengono promossi anche come alternativa all’utilizzo di tablet per i più piccoli, con la promessa di intrattenere e formare i bambini senza doversi preoccupare del tempo da loro passato davanti agli schermi. Uno dei peluche di Curio, ad esempio, si chiama Grok (come il chatbot di Elon Musk) e ha la voce ispirata a quella di Grimes, musicista ed ex compagna di Musk. Grimes fa anche da testimonial del prodotto e, in un video promozionale dell’azienda, ha sottolineato proprio l’importanza di Grok come alternativa ai tablet: «In quanto madre, non voglio i miei figli davanti agli schermi, e sono molto occupata».
In risposta alle recenti accuse contro questo tipo di giochi, Curio ha precisato che i loro giocattoli sono stati dotati di filtri e blocchi per proteggere i bambini. Tuttavia, l’azienda consiglia ai genitori di «monitorarne le conversazioni e scegliere i controlli che preferiscono per la loro famiglia».
A tal proposito, un’altra azienda del settore, l’indiana Miko, ha detto all’Associated Press di aver reso i suoi prodotti più sicuri per i più piccoli sviluppando un proprio modello conversazionale invece di basarsi sui modelli linguistici come quelli di OpenAI. In questo modo, secondo l’azienda, si possono migliorare le capacità di rilevare e bloccare argomenti sensibili.

