Nel febbraio del 2025, una studentessa dell’ultimo anno alla Northeastern University di Boston, Ella Stapleton, ha scoperto che il materiale didattico fornito dal suo professore di economia conteneva tracce evidenti dell’uso dell’intelligenza artificiale, in particolare di ChatGPT. Questa scoperta ha sollevato un acceso dibattito sull’uso dell’IA nella preparazione dei corsi universitari e sulle implicazioni etiche e accademiche di tale pratica.

Durante la revisione degli appunti per una lezione sui “modelli di leadership”, Ella ha notato frasi come “Approfondire tutti gli aspetti. Essere più dettagliati e specifici”, che sembravano istruzioni tipiche per un modello di linguaggio come ChatGPT. Proseguendo nell’analisi, ha identificato ulteriori segnali: testo distorto, immagini di persone con caratteristiche fisiche incoerenti e errori ortografici evidenti. Questi elementi l’hanno portata a concludere che il materiale fosse stato generato o almeno modificato con l’ausilio dell’IA.

Sconcertata dal fatto che agli studenti fosse vietato l’uso di strumenti come ChatGPT, mentre il professore li utilizzava per creare il materiale didattico, Ella ha deciso di agire. Ha presentato un reclamo formale all’università, chiedendo un risarcimento per il corso, che costava 8.000 dollari per il semestre. La sua richiesta si basava sull’argomentazione che, se l’uso dell’IA era proibito agli studenti, non era equo che i docenti ne facessero uso senza una comunicazione trasparente.

L’università ha convocato Ella per discutere la sua richiesta. Il professore coinvolto, Rick Arrowood, con vent’anni di esperienza, ha ammesso di aver utilizzato ChatGPT, il motore di ricerca Perplexity e un generatore di presentazioni chiamato Gamma per preparare il materiale del corso. Ha riconosciuto che, sebbene l’uso di tali strumenti fosse inteso a migliorare l’efficienza, avrebbe dovuto prestare maggiore attenzione alla qualità e all’accuratezza del contenuto prodotto. Arrowood ha dichiarato: “Sono felice se qualcuno può imparare dal mio caso”.

La Northeastern University ha dichiarato che contempla l’uso dell’intelligenza artificiale per migliorare tutti gli aspetti della sua didattica, ricerca e operatività. L’università fornisce numerose risorse per supportare l’uso appropriato dell’IA e continua ad aggiornare e applicare le politiche in merito.

Questo episodio solleva interrogativi importanti sull’uso dell’intelligenza artificiale nell’educazione superiore. Se da un lato l’IA può essere uno strumento potente per supportare l’insegnamento e l’apprendimento, dall’altro è fondamentale stabilire linee guida chiare e trasparenti su come e quando può essere utilizzata. La mancanza di chiarezza e uniformità nelle politiche universitarie può portare a situazioni di disuguaglianza e a conflitti tra studenti e docenti.

Inoltre, l’uso dell’IA nella preparazione dei corsi solleva questioni riguardanti la qualità del materiale didattico, la responsabilità accademica e la fiducia degli studenti nell’integrità del processo educativo. È essenziale che le istituzioni educative sviluppino politiche che bilancino l’innovazione tecnologica con i principi fondamentali dell’educazione, garantendo equità, trasparenza e qualità.

Di Fantasy