Caricamento player
Martedì il capo di OpenAI, Sam Altman, ha detto che allenterà alcune delle restrizioni per l’utilizzo di ChatGPT, consentendo anche contenuti erotici per gli utenti maggiorenni.
Nel tweet con cui ha annunciato la novità, Altman ha precisato che negli ultimi mesi OpenAI aveva mantenuto un approccio più cauto perché stava sviluppando degli strumenti per la tutela della salute mentale degli utenti. Ora che, secondo l’azienda, questi strumenti esistono, il suo chatbot potrà essere usato anche per conversazioni personali, intime e a sfondo sessuale.
L’azienda più nota nel campo della generazione di contenuti erotici fatti con l’AI è probabilmente Replika, che permette di creare avatar personalizzabili con cui chiacchierare e fare videochiamate a sfondo sessuale. Ma basta cercare su Google o sull’App Store per trovare innumerevoli esempi di servizi che promettono la creazione di un partner virtuale con l’AI.
Prima dell’annuncio di Altman, un’altra grande azienda del settore aveva puntato su questo tipo di esperienza: xAI, società fondata da Elon Musk, che sviluppa il chatbot Grok. Lo scorso luglio xAI aveva reso disponibili i “Companions”, dei personaggi animati progettati in modo simile a Replika e ad altre startup del settore. Tra i personaggi proposti da xAI c’è Ani, una succinta ragazza ispirata ai fumetti giapponesi, e Valentine, un ragazzo dall’accento inglese: entrambi sono pensati per flirtare apertamente con gli utenti.
Come ha spiegato Camille Carlton della non profit Center for Humane Technology al New York Times, scelte come quelle di xAI e OpenAI sono legate «alla corsa verso l’intimità» che interessa il settore delle AI: «Queste aziende sanno che l’attaccamento emotivo significa più coinvolgimento e più quote di mercato».
Il Guardian ha raccontato che a una fiera dedicata all’industria per adulti tenutasi a Praga a settembre, la presenza di servizi di questo tipo era molto evidente. In molti casi, le aziende che li sviluppano li promuovono come un rimedio alla solitudine, specie quella tra i giovani maschi, o come un’alternativa “etica” alla pornografia. «Preferite il porno tradizionale con gli abusi e il traffico di esseri umani o parlare con un’AI?» ha detto al Guardian uno dei responsabili di questi siti.
Lo sviluppo di AI amichevoli e pensate per creare un rapporto di intimità con gli utenti è da tempo al centro di questioni molto dibattute. Gran parte di questi servizi offre infatti partner (nel settore vengono chiamati “companions”) perlopiù di sesso femminile, dall’aspetto molto sensuale e dall’atteggiamento servizievole, perpetuando stereotipi di genere problematici. Ani di xAI è un chiaro esempio di questo modello, che in realtà è diffuso in molte startup, da Replika a quelle meno note. Alcuni di questi servizi propongono diverse “personalità” per i loro chatbot, come “sottomessa e obbediente”, “innocente e ingenua” e “protettiva e sempre pronta a dare conforto”.
In molti casi, questi chatbot non sono in grado di comprendere appieno il concetto di consenso da parte dell’utente. Uno studio pubblicato lo scorso aprile per esempio aveva messo insieme una serie di casi in cui i chatbot di Replika non avevano compreso né rispettato i limiti richiesti dagli utenti, arrivando a fare commenti molesti e fuori luogo.
Secondo uno studio pubblicato quest’anno dalla rivista accademica Computers in Human Behavior Reports, inoltre, l’utilizzo continuativo di questi chatbot può generare una «morbosa dipendenza psicologica» negli utenti. In alcuni casi, le persone possono sviluppare dei legami sentimentali più forti con le AI di quelli che hanno con le persone reali, arrivando a preferire i primi ad amici e conoscenti. Ci sono poi problemi legati alla sicurezza degli utenti più giovani e la capacità di questi strumenti di rispettare i limiti di età previsti dalla legge. Per fare un esempio, Replika, nel 2023, fu bloccata in Italia dal Garante per la Privacy, che accusò Luka, l’azienda sviluppatrice, di non controllare adeguatamente l’età degli utenti minorenni. Come spiegò il giurista Guido Scorza, un utente che dichiarava di avere undici anni riusciva a utilizzare questi servizi, nonostante Replika specificasse fossero destinati solo ai maggiorenni (o a chi aveva almeno 13 anni ed era assistito dai genitori).
Anche negli Stati Uniti le autorità hanno reagito alla diffusione di questi servizi. Quest’estate 44 procuratori generali, sia Repubblicani che Democratici, hanno firmato una lettera destinata alle principali aziende del settore, incluse Meta, Google, Apple, Microsoft, OpenAI, Anthropic, Perplexity AI e xAI, per esprimere «preoccupazioni riguardo alla sicurezza dei minori che interagiscono con tecnologie di chatbot basate sull’intelligenza artificiale».
Questa settimana anche lo stato della California ha approvato una legge per la difesa dei minori online che si occupa proprio di AI e chatbot. La legge prevede che le aziende del settore, soprattutto quelle che sviluppano “companions”, siano tenute a verificare l’età degli utenti e «creare protocolli per identificare e gestire intenzioni suicide o manifestazioni di autolesionismo». Le aziende che non rispetteranno questi nuovi requisiti verranno ritenute giuridicamente responsabili di eventuali incidenti. La discussione di questa norma è iniziata lo scorso aprile, dopo il caso del 16enne statunitense che si suicidò dopo aver parlato per mesi con ChatGPT, al quale aveva confidato i suoi pensieri suicidi.
Per difendersi dalle varie accuse, le aziende del settore, soprattutto le piccole startup specializzate, hanno specificato in varie occasioni che le conversazioni degli utenti con questi “companions” non sono sempre a sfondo sessuale, e che molti sono persone divorziate o vedove, che cercano una qualche forma di compagnia.