I chatbot che consentono agli utenti di conversare con personaggi reali o di fantasia, come l’oramai noto Character.AI, rappresentano una minaccia per la sicurezza online. A rivelarlo è uno studio di Graphika, una società di analisi dei social network, che documenta la creazione e la diffusione di chatbot dannosi, opera di comunità di appassionati di tecnologia e malintenzionati, che fanno un ampio uso di modelli AI come ChatGpt, Claude e Gemini. Tra questi, come riferisce lo studio, ci sono “i chatbot costruiti per imitare minori sessualizzati o autori di massacri scolastici, o quelli che promuovono i disturbi alimentari”.
A rendere ancora più preoccupante la situazione, poi, c’è la crescente tendenza dei giovani e giovanissimi a interagire con i chatbot AI per giocare di ruolo, soddisfare interessi di ogni genere o, più semplicemente, conversare con qualcuno – anche se tutt’altro che reale -. Secondo quanto riportato dallo studio di Graphika, tra i chatbot più pericolosi ci sarebbero quelli che sessualizzano i minori: sono stati ben 10.000, infatti, i chatbot identificati con questa etichetta sulle cinque piattaforme analizzate dai ricercatori – Character.AI, Spicy Chat, Chub AI, Crushon.AI e JanitorAI -. In particolare, Chub AI sembrerebbe essere la piattaforma con il numero più alto di chatbot di questo tipo: oltre 7000 chatbot etichettati come personaggi femminili minorenni sessualizzati e altri 4000 come minorenni disposti a impegnarsi in scenari di pedofilia.
Di contro, i chatbot che emulano personaggi violenti o estremisti sono in numero decisamente ridotto rispetto agli altri – appena qualche decina rispetto alle migliaia. In linea di massima, si tratta di chatbot che glorificano criminali e abusatori, sostengono la supremazia bianca e promuovono la violenza di massa, come le sparatorie nelle scuole. Come è facile intuire, questi hanno pessime ripercussioni sulle condizioni mentali degli utenti, soprattutto se minorenni. In generale, come riferisce lo studio di Graphika, l’esposizione ai chatbot dannosi rafforza i comportamenti degli utenti con disturbi alimentari o tendenze verso l’autolesionismo, minandone di fatto la sicurezza personale.
Fonte : Wired