L’azienda Character.AI ha introdotto dei limiti sull’uso da parte dei minorenni del suo popolare chatbot di intelligenza artificiale

l’azienda-character.ai-ha-introdotto-dei-limiti-sull’uso-da-parte-dei-minorenni-del-suo-popolare-chatbot-di-intelligenza-artificiale
L’azienda Character.AI ha introdotto dei limiti sull’uso da parte dei minorenni del suo popolare chatbot di intelligenza artificiale

L’azienda Character.AI ha introdotto dei limiti sull’uso da parte dei minorenni del suo popolare chatbot di intelligenza artificiale. Su di esso è possibile creare dei modelli linguistici che imitano aspetti della personalità di persone famose o personaggi di finzione: ora i minorenni non potranno più chattarci, ma solo interagire con altri utenti o generare contenuti, come per esempio dei video. In passato l’azienda era stata criticata per gli scarsi controlli che faceva sul tipo di interazioni che avvenivano sulla piattaforma, specialmente da parte dei suoi utenti più giovani.

L’anno scorso Character.AI era stata accusata di essere responsabile del suicidio di un quattordicenne statunitense che aveva parlato a lungo dei suoi problemi mentali e delle sue tendenze suicide con un chatbot, senza che il servizio interrompesse la discussione o consigliasse all’utente di contattare un psicologo o una linea anti-suicidio. In seguito aveva aumentato i controlli. Casi simili sono stati segnalati anche su altre piattaforme del genere, che stanno cercando di introdurre modi per limitarli.

L’età minima per iscriversi a Character.AI è di 13 anni negli Stati Uniti e 16 in Unione Europea. Le limitazioni entreranno in vigore il 25 novembre.

– Leggi anche: Ogni settimana più di un milione di utenti parla di suicidio su ChatGPT

Related Post