Un recente studio condotto dall’EPFL (Scuola Politecnica Federale di Losanna) ha esplorato l’impatto degli assistenti di intelligenza artificiale (IA) come ChatGPT sull’istruzione universitaria. La ricerca ha rivelato che modelli avanzati di linguaggio come GPT-4 possono rispondere correttamente all’85% delle domande degli esami universitari utilizzando strategie di prompting adeguate. Questo risultato apre un dibattito su come l’IA stia influenzando non solo i metodi di valutazione, ma anche il modo in cui gli studenti apprendono.
L’ascesa di ChatGPT e il suo utilizzo nell’educazione
Da quando ChatGPT è stato lanciato alla fine del 2022, il suo utilizzo è esploso, raggiungendo 100 milioni di utenti in solo un mese. Nell’ambito dell’istruzione superiore, gli assistenti IA vengono sempre più adottati dagli studenti per supportare l’apprendimento. Tuttavia, la loro diffusione solleva interrogativi sull’efficacia delle attuali metodologie di insegnamento e valutazione.
Lo studio dell’EPFL, pubblicato nei Proceedings of the National Academy of Sciences (PNAS), ha analizzato 50 corsi universitari, coprendo un ampio spettro di discipline STEM (scienza, tecnologia, ingegneria e matematica). Con l’aiuto di un vasto consorzio di docenti e assistenti, i ricercatori hanno raccolto dati su materiali didattici e valutazioni per testare le performance di GPT-3.5 e GPT-4. Utilizzando otto diverse strategie di prompting, i risultati hanno mostrato che GPT-4 è in grado di rispondere correttamente al 65,8% delle domande in media e all’85,1% in almeno una delle strategie adottate.
Opportunità e rischi per l’apprendimento
Secondo Antoine Bosselut, responsabile del Laboratorio di Trattamento del Linguaggio Naturale dell’EPFL, questi risultati sono sorprendenti. “È incredibile che un modello di IA possa raggiungere tali percentuali senza una conoscenza tecnica avanzata. Tuttavia, ciò solleva preoccupazioni sul fatto che gli studenti possano saltare passaggi fondamentali nell’apprendimento dei concetti di base, compromettendo la capacità di affrontare argomenti più complessi in futuro”.
Lo studio evidenzia due vulnerabilità principali legate all’uso dell’IA: la vulnerabilità delle valutazioni, con il rischio che i modelli IA possano “distorcere” i risultati degli esami, e la vulnerabilità educativa, ovvero la possibilità che gli studenti evitino i percorsi cognitivi tradizionali necessari per sviluppare competenze solide.
Adattare l’istruzione al futuro dell’IA
Le raccomandazioni dei ricercatori sono chiare: occorre progettare valutazioni più complesse che richiedano agli studenti di integrare competenze diverse, favorendo un apprendimento più orientato ai progetti. “Questo tipo di apprendimento non solo è più impegnativo per i modelli di IA, ma è anche benefico per gli studenti”, afferma Bosselut.
Pierre Dillenbourg, vicepresidente per le questioni accademiche all’EPFL, sottolinea l’importanza di adattare i sistemi educativi ai progressi dell’IA. “Dobbiamo ridefinire le competenze richieste ai laureati del futuro, garantendo che l’IA sia un alleato nell’apprendimento senza diventare un ostacolo alla crescita cognitiva.”
Un esempio utile è l’analogia con l’introduzione delle calcolatrici. Inizialmente accolte con scetticismo, le calcolatrici sono ora strumenti essenziali per compiti complessi, permettendo agli studenti di concentrarsi su concetti avanzati. “Con gli assistenti IA, ci aspettiamo un’evoluzione simile, con un uso progressivo e controllato che massimizzi le opportunità di apprendimento”, conclude Beatriz Borges, co-autrice dello studio.
La sfida principale sarà trovare il giusto equilibrio tra innovazione tecnologica e apprendimento tradizionale, per preparare gli studenti a un futuro in cui l’IA giocherà un ruolo centrale.
Fonte: Questo articolo è basato su contenuti distribuiti sotto licenza Creative Commons CC BY-SA 4.0, originariamente pubblicati dall'EPFL.