Anthropic lancia l’IA per gli studenti: li stimola a ragionare invece di dare soluzioni pronte

Secondo il Digital Education Council ben l’86% degli studenti universitari a livello globale utilizza l’intelligenza artificiale per supportare i propri studi. “Supportare” può d’altronde voler dire qualunque cosa: da approfondire un argomento a realizzare una tesina fatta e finita in pochi minuti. Si tratta di un dato effettivamente impressionante, destinato ad avere un impatto significativo nel tempo sulle metodologie di apprendimento, sulla stessa natura dei percorsi formativi e sulle implicazioni cognitive a livello cerebrale. In questi anni stiamo vivendo lo scatenato entusiasmo per l’AI, nel medio termine vedremo invece cambiare competenze, retroterra culturali e potenzialità individuali: è senz’altro una sfida epocale. Ma c’è anche chi prova a interpretarla in chiave un po’ più etica di altri.

Che cos’è Claude for Education

Non sorprende, infatti, che un’azienda come Anthropic abbia appena lanciato Claude for Education, un’iniziativa pensata per aiutare le università a svolgere un ruolo attivo nella definizione del rapporto tra AI e società. Al centro di questo programma c’è una modalità innovativa battezzata Learning Mode, che modifica il modo in cui il chatbot Claude interagisce con gli studenti. Invece di fornire risposte immediate – leggi anche: la pappa pronta – Claude cercherà di guidare gli utenti verso una soluzione, stimolandoli a ragionare autonomamente. Come farebbe un tutor responsabile più che un amico onnisciente. Inoltre, adotterà il cosiddetto metodo socratico, ponendo domande come “Quali prove supportano la tua conclusione?” per favorire una comprensione più profonda dei concetti.

Questa funzionalità è alimentata da 3.7 Sonnet, un nuovo modello ibrido di ragionamento sviluppato da Anthropic, e si integra con Claude’s Projects, uno strumento versatile che consente di organizzare e personalizzare le conversazioni in base a specifici argomenti di studio. Sono tentativi lodevoli di indirizzare l’intelligenza artificiale verso obiettivi che possano arricchire, e non devastare, lo studio e l’apprendimento.

Claude for Education è accessibile a tutti gli utenti con un’email accademica con dominio .edu e Anthropic ha già avviato collaborazioni con istituzioni prestigiose come la Northeastern University, la London School of Economics and Political Science e il Champlain College, garantendo l’accesso gratuito a tutti i loro studenti a questo ambiente in qualche modo cucito su misura per gli studenti universitari.

Gli altri progetti per lo studio e la formazione

In parallelo, l’azienda fondata nel 2021 da un gruppo di ex ricercatori di OpenAI, tra cui i fratelli Dario Amodei (attuale Ceo) e Daniela Amodei (presidente), insieme ad altri esperti come Tom Brown, il principale ricercatore dietro GPT-3, sta introducendo due nuovi programmi educativi: il primo è Claude Campus Ambassadors, che offre agli studenti l’opportunità di collaborare direttamente con Anthropic per promuovere iniziative accademiche legate all’AI nelle loro università (sarebbe bello, in questo senso, vedere dell’interesse anche da parte delle istituzioni italiane), e il secondo Assegnazione di crediti API, destinati a studenti che sviluppano progetti basati su Claude.

La filosofia di Anthropic sull’IA

Anthropic, gruppo in cui Google e Amazon hanno investito nel tempo miliardi di dollari, si distingue fin dai primi passi in questo ambito per il suo focus sulla sicurezza e l’interpretabilità dell’AI, sviluppando modelli avanzati progettati per essere più affidabili, trasparenti e allineati ai valori umani. Uno degli obiettivi centrali dell’azienda di San Francisco è quello di creare sistemi di intelligenza artificiale meno inclini a generare contenuti fuorvianti o dannosi, attraverso tecniche di apprendimento controllato e l’uso di metodi come la “costituzional AI”, un approccio che incorpora principi etici direttamente nell’addestramento del modello. E, com’è evidente anche da quest’ultimo progetto, anche nella sua modalità di fruizione da parte degli utenti. Proprio degli ultimi giorni è la proposta di Dario Amodei: durante una conferenza organizzata dal Council of Foreign Relations,un think tank statunitense specializzato in politica estera e affari internazionali di New York, Amodei ha proposto un concetto che sembra uscito da un romanzo di fantascienza: un pulsante “Mi dimetto” per l’intelligenza artificiale.

“Una delle idee che stiamo valutando è introdurre, nei modelli che distribuiamo nei loro ambienti operativi, un pulsante che permetta loro di dire ‘Mi dimetto’ – ha spiegato il Ceo – in pratica si tratterebbe di un sistema di preferenza molto semplice: se un modello ha un’esperienza negativa e “odia” il compito assegnato, potrebbe avere la possibilità di premere il pulsante per rifiutarlo”.

I modelli di linguaggio di Anthropic, come la serie Claude 3, si distinguono per capacità di ragionamento avanzato, contestualizzazione migliorata e interazioni più naturali. In effetti proprio grazie a queste caratteristiche, Claude è particolarmente adatto all’ambito accademico, fornendo agli studenti strumenti per sviluppare il pensiero critico anziché semplicemente restituire risposte preconfezionate.

Tornando alle novità, Anthropic sta infine lavorando con Instructure, la società dietro la piattaforma di apprendimento Canvas, per facilitare l’integrazione dell’AI negli strumenti didattici utilizzati dalle università.

Che cosa si può fare davvero con Claude for Education

Come si legge nella nota di lancio, gli studenti possono redigere revisioni della letteratura con citazioni appropriate, risolvere problemi di calcolo con una guida passo dopo passo e ricevere feedback sulle tesi prima della consegna finale. I docenti possono invece creare rubriche allineate a specifici risultati di apprendimento, fornire feedback personalizzati sui saggi degli studenti in modo efficiente e generare equazioni di chimica con diversi livelli di difficoltà. Il personale amministrativo può analizzare le tendenze di iscrizione nei dipartimenti, automatizzare le risposte e-mail ripetitive alle richieste comuni e convertire documenti di policy densi in formati FAQ accessibili, il tutto da un’interfaccia di chat familiare con controlli di sicurezza e privacy di livello aziendale.

Fonte : Repubblica