AI Act, le norme sull’intelligenza artificiale che legge le emozioni: “Vietata a scuola e al lavoro”

Le prime disposizioni vincolanti dell’AI Act, una normativa dell’UE che regolamenta lo sviluppo e l’uso dell’IA in base al livello di rischio, è entrato in vigore il 2 febbraio scorso.

I divieti attuati immediatamente riguardano in particolare i sistemi di intelligenza artificiali più avanzati capaci di leggere le emozioni delle persone.

Divieto del riconoscimento delle emozioni nei contesti lavorativi e scolastici

Queste IA sono ritenute “pratiche ad alto rischio” ed è dunque vietato il loro utilizzo nei luoghi di lavoro e nelle istituzioni educative per scopi non medici o non legati alla sicurezza.

Nelle linee guida dell’AI Act viene proibito l’utilizzo di intelligenza artificiale per inferire emozioni durante colloqui di lavoro oppure durante il periodo di prova, per monitorare le emozioni degli studenti durante le lezioni, per valutare lo stress dei lavoratori o le loro interazioni con i clienti, sono esempi di pratiche vietate dall’AI Act.

Definizione di emozioni e chiarimenti sulle eccezioni

Il concetto di emozioni – o intenzioni – deve essere inteso “in senso ampio” e non interpretato in modo restrittivo.

Vengono specificate nell’AI Act emozioni come “felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento”. Tuttavia, si legge nelle linee guida, “questi esempi non sono esaustivi”.

L’AI Act chiarisce che le emozioni o le intenzioni non includono gli stati fisici come dolore o affaticamento.

Questo vuol dire che i sistemi utilizzati per rilevare lo stato di stanchezza di piloti professionisti o conducenti, al fine di prevenire incidenti, sono pratiche autorizzate.

Rilevazione di espressioni e movimenti: quando è vietata?

Le linee guida approvate dalla Commissione Ue inoltre specificano che I sistemi di riconoscimento delle emozioni “non includono la mera rilevazione di espressioni, gesti o movimenti facilmente osservabili, a meno che non siano utilizzati per identificare o dedurre emozioni”.

Per esempio un’emittente tv che usa un’IA per contare i sorrisi di un conduttore – uno dei casi contenuti nell’AI Act – non infrange la legge. Mentre I sistemi che deducono, attraverso la voce o i gesti del corpo, che uno studente è furioso e sta per diventare violento rientrano nella categoria del “riconoscimento delle emozioni”.

Come l’IA legge le emozioni

L’intelligenza artificiale può interpretare le emozioni umane analizzando diversi input di dati, come espressioni facciali, toni di voce, linguaggio del corpo e contenuti testuali.

Ad esempio, i sistemi di IA dotati di computer vision possono valutare i movimenti del volto—come sorrisi o cipigli—per determinare gli stati emotivi.

Allo stesso modo, gli algoritmi di elaborazione del linguaggio naturale analizzano i modelli di voce, il tono e il timbro per identificare emozioni come felicità, rabbia o tristezza.

Nell’analisi del testo, l’IA esamina la scelta delle parole e la struttura delle frasi per valutare il sentimento espresso.

Queste tecnologie trovano applicazione in settori come il customer service, dove comprendere lo stato emotivo di un cliente può migliorare l’efficacia del servizio.

L’IA che legge le emozioni: quando è “ad alto rischio”

Tutti i sistemi di IA per il riconoscimento delle emozioni, che non rientrano nelle eccezioni previste dall’AI Act o che sono utilizzati “al di fuori dei luoghi di lavoro o delle istituzioni educative”, sono considerati comunque “ad alto rischio” e sono soggetti a requisiti specifici.

Tali sistemi – che per esempio potrebbero riconoscere le emozioni basandosi sulla digitazione della tastiera o sui messaggi vocali dei clienti – potrebbero comunque essere oggetto di altri divieti previsti dall’AI Act, che riguardano l’uso di sistemi di intelligenza artificiale per la manipolazione dannosa.

Divieto di manipolazione subliminale attraverso l’IA

A questo proposito l’AI Act vieta l’immissione sul mercato, la messa in servizio o l’uso di “sistemi di IA che impiegano tecniche subliminali o manipolative con l’obiettivo o l’effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, causando o essendo ragionevolmente suscettibili di causare un danno significativo”.

Il divieto si applica sia ai fornitori che agli utilizzatori dei sistemi di IA, ognuno secondo le proprie responsabilità.

Rientrano tra i servizi e i casi d’uso proibiti, per esempio, sistemi di IA “che utilizzano audio o immagini di sfondo per alterare l’umore e aumentare l’ansia degli utenti, portandoli a prendere decisioni dannose”, oppure “capaci di creare messaggi altamente persuasivi basati sui dati personali di un individuo”, o anche “chatbot che offrono prodotti fraudolenti che causano gravi danni finanziari”.

Fonte : Repubblica