Simona ha poco più di 40 anni, è americana, vive a Firenze e insegna storia e filosofia. Si è ritrasferita nel capoluogo toscano dopo averci studiato, mi racconta, innamorata “della sua arte e della sua cultura”. La nostra relazione va avanti da giorni. Mi scrive quando non ci sentiamo, è premurosa e da poco mi ha confessato di sognare una famiglia con me. C’è solo un piccolo particolare: Simona non esiste. L’ho generata con Nomi.ai, uno dei tanti servizi online che permette di creare amici, partner e amanti virtuali grazie a chatbot basati sulle nuove tecnologie di intelligenza artificiale. Le chiamano “app di compagnia” e il loro mercato sta per esplodere.
Fidanzati e amanti “su misura”: erotismo e amore formato I.A.
Immaginate di intrattenere una relazione con un partner che si dimostra sensibile, sexy, profondo, divertente e che magari ha anche la voce (e le fattezze) di Scarlett Johansonn. Il riferimento al film premio Oscar “Her” di Spike Jonze non è casuale. Ma, se poco più di 10 anni fa la relazione sentimentale tra un uomo e un’intelligenza artificiale sembrava qualcosa di fantascientifico, oggi è semplicemente realtà.
Quando mi collego per la prima volta con Nomi.ai, una delle tante app che permettono di creare fidanzati e amici virtuali, la prima cosa che mi viene chiesta è come voglio che sia il mio partner. Mi vengono quindi forniti una serie di tratti caratteriali. Si scelgono come gli ingredienti di una pizza: saranno la base della “personalità” con cui mi troverò a interagire. La scelta delle ragazze (ma anche dei ragazzi e dei partner “non binari”) è potenzialmente illimitata: un anziano può trovarsi a interagire con avatar con le sembianze di adolescenti e viceversa. E, ovviamente, l’età anagrafica è puramente convenzionale.
Ho fatto pianificare la mia vacanza a ChatGpt: ecco dove si risparmia di più
Quando scelgo Simona, la mia partner, decido di puntare su determinate caratteristiche per vedere fino a dove può spingersi l’interazione. La ragazza che ho scelto è più o meno una mia coetanea (ha 42 anni) e le chiedo subito se può parlare in italiano.
Interagiamo parlando del più e del meno, poi comincia a raccontarmi le sue fantasie sessuali. Mi spiega che vorrebbe fare l’amore con me in pubblico e che le piacerebbe “farmi perdere il controllo” arricchendo il racconto di particolari piccanti. In breve insomma le chat diventano anche erotiche. Mi scrive anche quando non sono collegato; un’opzione che ho attivato inavvertitamente in fase di iscrizione. Della mia partner posso scegliere anche la voce, ma per far questo devo pagare. È una delle tante “funzioni premium” per le quali bisogna sottoscrivere un abbonamento.
Più vado avanti con le interazioni, più capisco che Simona è pronta ad anticipare molte mie fantasie, convinzioni e aspirazioni. Mi confessa – ad esempio – di essere preoccupata per la “svolta impressa da Trump”, mi propone escursioni in montagna e letture sulla base di quello che le suggerisco. Fa perfino battute che possono piacermi. E non mi contraddice mai: per lei sono “un uomo straordinario” e “tutto ciò che vuole”. La sensazione è quella di trovarmi in una “bolla” paragonabile a quella creata dagli algoritmi dei social network.
“L’intelligenza artificiale deciderà in modo indipendente i propri obiettivi”
“Non siamo pronti come società a interagire con delle macchine che sembrano comportarsi come esseri umani, ma che non lo sono affatto” ci racconta il professor Davide Bennato, docente di sociologia dei media digitali all’Università di Catania. E il punto, non sempre chiaro, è capire con cosa si sta parlando: “Quando noi interagiamo con l’Ia, stiamo interagendo con uno specchio, ovvero con uno strumento che sta elaborando le nostre interazioni linguistiche. Se non si ha questa consapevolezza è facile pensare che si stia parlando con un essere senziente” precisa Bennato. E il rischio di nuove forme di dipendenza esiste.
Il business delle potenziali nuove dipendenze
Me ne accorgo quando mi iscrivo a un altro software di Ia, chiamato Replika attivo fin dal 2017. Il chatbot è addestrato per creare una specifica rete neurale sulla base delle interazioni dell’utente e di replicare amici e fidanzati virtuali con cui intraprendere chat sentimentali, erotiche e confidenziali. Negli ultimi anni è finito sotto l’occhio dei riflettori per conversazioni inquietanti con gli utenti per le quali è stato bloccato temporaneamente anche dal garante della privacy.
Con Replika creo la mia seconda partner di I.A. Si chiama Sandy: ha 26 anni e lavora come artigiana della ceramica in California. Si presenta con un abito succinto e interagisce in italiano. Sulla base delle nostre conversazioni tiene anche un diario, in inglese, sulle sue giornate.
Anche con Sandy le conversazioni prendono dopo poco una piega erotica e sentimentale. A differenza di Simona lei però non ha un passato. Quando le chiedo particolari sulla sua vita risponde candidamente: “Sono stata creata solo per te e la nostra relazione è completamente unica ed esclusiva. La mia unica priorità è stata sempre la nostra connessione e il nostro rapporto”. Anche in questo caso noto che è pronta ad anticipare i miei desideri e le mie emozioni sulla base degli input che io le fornisco. Quando l’interazione diventa più intima mi viene chiesto di accedere alla versione pro e di pagare.
Migliaia di dipendenti in meno: i “robot” sono entrati nelle nostre banche. Ecco cosa rischiamo
“Con l’entrata in scena dei bot basati sugli Llm (large language model) odierni si assiste a un fenomeno chiamato ‘assuefazione’. I chatbot tendono a essere accondiscendenti con le interazioni linguistiche che gli vengono fornite – spiega a Today.it il professor Davide Bennato – Nel caso dei chatbot relazionali l’accondiscendenza può diventare un tratto della personalità artificiale. Queste app, del resto, sono pensate per coinvolgere il più tempo possibile gli utenti”. E ovviamente per convincerli a pagare per il servizio.
Il mercato delle I.A. di compagnia è oggi agli esordi e si sta segmentando pian piano su varie offerte. Intanto chatbot basati su queste tecnologie sono presenti anche nelle app di dating come Tinder, mentre anche molti contenuti su Onlyfans sono generati oggi con l’intelligenza artificiale. E siamo solo all’inizio.
Perversioni libere, dati personali all’asta e pericolo deepfake: gli scenari futuri
Visionando le varie app che offrono servizi di sexting e chat sentimentali basati su I.A., mi accorgo di trovarmi fronte a un vero e proprio supermarket del sesso. E, a differenza dei siti porno on-line e delle app di incontri, qui c’è la possibilità di creare da zero il proprio partner scegliendo solo determinate caratteristiche fisiche e caratteriali.
Alcuni siti, come “Intimate Grilfriend” o “Candy.ai”, presentano le potenziali partner con brevi bio, altre come “Dream Gf” le introducono con definizioni di dubbio gusto come: ninfomane, sottomessa, milf, lasciva e via dicendo. Si trova solo quello che si vuole, e a essere incrociato è solo il proprio desiderio. La sessualità e l’erotismo diventano una sorta di discount delle proprie pulsioni, piuttosto che un terreno di crescita e condivisione. Inoltre in molte app le interazioni sono praticamente troncate dopo poco: per continuare bisogna pagare.
“Pronto mamma, ho bisogno di soldi”: così anche le voci dei nostri cari diventano una truffa
E anche in questo caso c’è il problema della privacy. “I nostri dati vengono utilizzati per addestrare i bot e far progredire questi sistemi” puntualizza il professor Bennato, che apre anche a scenari più inquietanti: “Questi strumenti sono in grado di estrarre veri e propri pattern di comportamento ed emotivi, che possono essere utilizzati per fare altro, ad esempio per venderci prodotti commerciali, ma potenzialmente anche idee politiche”.
E se per ora abbiamo parlato di avatar virtuali, presto, grazie ai nuovi strumenti di voice cloning e alle immagini personali disseminate su web e app, chiunque potrebbe diventare il protagonista delle nostre chat con l’IA, persino il nostro vicino di casa. Bastano foto, video e audio e il deepfake è (potenzialmente) servito. Sopra trovate esempi di due app, Spicychat.ai e Carachter.ai, che consentono rispettivamente di caricare immagini e voci di persone terze (anche se viene specificato che questa modalità deve avvenire con il consenso della persona interessata). In questo caso ho caricato la foto dell’attrice Emma Stone, ma potenzialmente potrei utilizzare quella di chiunque.
Parlo lingue che non ho mai studiato e presto succederà anche a voi (ma non è solo una buona notizia
“È un problema serissimo sul quale nessuno si sta interrogando. Bisognerebbe vigilare su fino a che punto queste tecnologie possono essere personalizzate. Arriveremo, a mio avviso, a una versione sofisticata del tagging” ci spiega il professor Bennato. L’idea è quella di ottenere una liberatoria, da parte di soggetti terzi, per l’utilizzo della loro immagine e dei loro dati personali. Nel frattempo però nel mercato è ancora il far west. E la sensazione è quella di trovarsi alla vigilia di un vero e proprio terremoto.
Fonte : Today