“Basta solo spingere un bottone”.
A quanto pare lo strumento che può stabilire con certezza se un testo è stato scritto da ChatGpt esiste e ed è pronto da almeno un anno.
Potrebbe essere attivato in un attimo.
Ma OpenAI, l’azienda che l’ha creato, non l’ha ancora messo a disposizione dei suoi utenti.
I vertici dell’azienda, come dimostrerebbero documenti interni visionati dal Wall Street Journal, e stando ad alcune fonti ascoltate dal quotidiano statunitense, hanno discusso a lungo sull’opportunità di rendere pubblico il loro strumento che è capace – a quanto pare – di dire se un testo è stato generato da ChatGpt con estrema sicurezza: il margine d’errore sarebbe solo dello 0,01%. Praticamente la perfezione, se si considera che tutti gli strumenti di questo tipo disponibili attualmente, realizzati da terze parti come Gpt Zero – non possono vantare una percentuale di riuscita altrettanto bassa.
Anzi, spesso classificano come testo scritto da una IA un tema fatto da una persona in carne e ossa, causando non pochi problemi a scuola per esempio, dove gli insegnanti sono sempre più attenti a stabilire se uno studente ha svolto i suoi compiti con l’IA.
Uno strumento capace di riconoscere “la mano” dell’intelligenza artificiale, insomma, farebbe molto comodo.
Quindi perché rimandarlo?
Secondo il Wsj, OpenAI avrebbe appreso – tramite un’indagine condotta su un gruppo di utenti tra i più fedeli – che una tecnologia in grado di riconoscere la scrittura dell’intelligenza artificiale provocherebbe un terremoto tra chi utilizza ChatGpt: circa un terzo degli utenti sarebbe pronto a rinunciare all’IA per la scrittura.
In questa percentuale di utenti, probabilmente, rientrerebbe anche chi usa ChatGpt per fare un semplice copia e incolla dei testi generati dall’intelligenza artificiale, che – lo ricordiamo – in teoria può scrivere racconti o temi come farebbe un essere umano, in pochi secondi e a partire da un breve input testuale.
OpenAI si trova dunque stretta in una morsa: da una parte c’è chi spinge per la trasparenza, per un watermark che differenzi gli scritti dell’IA da quelli umani; dall’altra c’è chi pensa agli affari, e a come un simile strumento inciderebbe sugli abbonamenti.
Fonti vicine al Wsj sostengono, per esempio, che Sam Altman – il Ceo di OpenAI – sostenga il progetto ma non spinga più di tanto per renderlo pubblico.
L’azienda, in questo momento, ha bisogno di denaro e secondo la testata The Information sarebbe in perdita di 5 miliardi di dollari, con il suo futuro a rischio nel caso in cui, nei prossimi mesi, non riesca ad aumentare ricavi e investimenti.
Soltanto un anno fa, senza annunciarlo, OpenAI aveva chiuso il suo AI Classifier – uno strumento che prometteva di riconoscere testi prodotti dall’IA – proprio perché non veniva ritenuto sufficientemente affidabile dall’azienda.
AI Classifier, a gennaio 2023, stabiliva la natura di uno scritto con una probabilità del successo pari solamente al 26%, molto bassa per essere ritenuto uno strumento utile.
Ad aprile 2023, OpenAI ha intervistato gli utenti di ChatGPT e ha scoperto che il 69% ritiene che la tecnologia che rileva chi fa “copia e incolla” porterebbe a false accuse di utilizzo dell’intelligenza artificiale.
Perché, appunto, all’epoca gli strumenti utilizzati per verificare la natura di un testo non erano affidabili – per stessa ammissione dei loro creatori – al 100%.
Quasi il 30% degli utenti intervistati da OpenAI, inoltre, ha affermato che utilizzerebbe meno ChatGpt se l’azienda implementasse filigrane e una sua rivale no.
Come è noto, esistono oggi diversi chatbot che basano la generazione di testi e immagini sull’intelligenza artificiale, come Gemini (Google), Copilot (Microsoft) e Claude (Anthropic).
A giungo di quest’anno i manager di OpenAI si sarebbero incontrati per discutere nuovamente della tecnologia che marchia i testi scritti dall’IA, di modo da renderli riconoscibili: hanno stabilito che il watermark funziona bene e che non incide – come si credeva erroneamente – sulle perfromance di ChatGpt.
Ma non hanno preso alcuna decisione definitiva, sul rilascio dello strumento, proprio in virtù del sondaggio condotto dall’azienda tra i suoi utenti.
“Ma così rischiamo di perdere credibilità come attori responsabili di questa tecnologia”: è questa la conclusione che sarebbe emersa dal meeting, con i vertici dell’azienda che si sarebbero dati un ultimatum per decidere cosa fare: entro il prossimo autunno.
Fonte : Repubblica