ChatGPT entra in università. Tra perplessità e promesse di rivoluzione

Marco Pedroni
HomoAcademicus
Published in
9 min readApr 4, 2024

L’ascesa dell’intelligenza artificiale (IA) ha scatenato accesi dibattiti in vari campi, inclusa l’università, focalizzandosi in particolare su ChatGPT, un chatbot di OpenAI basato su IA e machine learning.

ChatGPT è stato progettato per interagire in modo naturale con gli utenti, imitando una conversazione reale. A inizio 2023, a meno di due mesi dal suo lancio, il Dipartimento di Istruzione di New York ha vietato l’uso di ChatGPT nelle scuole, citando preoccupazioni riguardanti l’effetto sull’apprendimento degli studenti e sulla sicurezza e accuratezza dei contenuti.

Questa decisione riflette una diffusa preoccupazione (tra docenti ed educatori) che gli studenti possano usare la tecnologia per barare. La questione solleva un dibattito più ampio su come l’IA potrebbe essere integrata o ostacolata dalle istituzioni educative, esplorando sia i rischi sia le opportunità offerte dalla tecnologia nell’ambito dell’educazione.

In questo post offro un riassunto dell’articolo ChatGPT Goes to Academia.
Una ricerca esplorativa su usi e immaginari dell’intelligenza artificiale da parte di studenti e accademici
, scritto con i colleghi e amici Gianni Ciofalo e Francesca Setiffi, e fresco di pubblicazione su Sociologia della comunicazione.

Metodologia della ricerca

D’accordo, una nota metodologica in un blog non è la strategia narrativa migliore per invogliarvi alla lettura. Ma almeno una slide riassuntiva ce la concedete? Eccola.

Le slide che seguono sono estratte dalla presentazione del paper intitolato “ChatGPT Goes to Academia: An Exploratory Research on the Uses of Artificial Intelligence Among Students and Academics”. Questo studio è stato presentato da Giovanni Ciofalo (Sapienza Università di Roma), Marco Pedroni (Università di Ferrara) e Francesca Setiffi (Università di Padova) al convegno di fine mandato del PIC-Ais, tenutosi presso l’Università di Urbino nel settembre 2023.

L’intelligenza artificiale tra opportunità, rischi e implicazioni etiche

L’IA entra nelle aule universitarie e scatena un acceso scontro. Da un lato, la promessa di innovazione e di una didattica più personalizzata. Dall’altro, il timore di disinformazione, plagio e perdita di autonomia intellettuale.

Quali sono i rischi dell’IA in ambito accademico?

  • Disinformazione: le inesattezze nelle risposte dell’IA possono minare la qualità e la credibilità scientifica.
  • Plagio: l’uso improprio di chatbot come ChatGPT rende più facile imbrogliare e compromette l’integrità dei lavori accademici.
  • Perdita di autonomia intellettuale: gli studenti che si affidano troppo all’IA potrebbero perdere la capacità di pensare criticamente e di sviluppare autonomamente le proprie idee.

Ma l’IA può anche essere un’alleata preziosa per l’apprendimento:

  • Personalizzazione: l’IA può adattare i contenuti didattici alle esigenze di ogni studente, favorendo un apprendimento più efficace.
  • Interattività: chatbot e tutor virtuali possono rendere l’apprendimento più coinvolgente e interattivo.
  • Nuove opportunità di ricerca: l’IA può aprire nuove strade alla ricerca scientifica in diversi campi.

La sfida per le università è trovare un equilibrio tra le opportunità e i rischi dell’IA.

  • Formazione dei docenti: è fondamentale che i docenti siano formati per utilizzare l’IA in modo efficace e responsabile. Pensare all’IA sono come a uno strumento che gli studenti usano per ‘imbrogliare’ è riduttivo e fuorviante.
  • Nuove metodologie didattiche: le università dovranno ripensare le metodologie didattiche per sfruttare al meglio le potenzialità dell’IA e al contempo scongiurarne i rischi.
  • Etica dell’IA: è necessario un dibattito pubblico sull’etica dell’IA e sulle sue implicazioni per l’istruzione e la società.

ChatGPT sconvolge l’Università: tra entusiasmo e timori

Immaginate un futuro in cui l’intelligenza artificiale vi aiuti a scrivere saggi, preparare esami e persino a sostenere discussioni a lezione. Sembra fantascienza, ma con l’avvento di modelli linguistici avanzati come ChatGPT, questa realtà è ormai vicina.

La nostra ricerca, condotta nelle prime fasi di sviluppo e adozione di ChatGPT in ambito accademico, ha esplorare l’impatto di questa tecnologia.

L’Università rappresenta un terreno fertile per l’adozione di nuove tecnologie. ChatGPT, con la sua capacità di generare testi, tradurre lingue e rispondere a domande in modo complesso e articolato, ha il potenziale di trasformare notevolmente il modo in cui insegniamo e apprendiamo.

Ma quali sono le reali implicazioni di questa trasformazione? Per comprenderlo, abbiamo adottato un approccio interpretativo basato su due macro-aree, facendoci guidare da varie domande:

1. Usi e conoscenza:

  • Come gli studenti e i docenti utilizzano ChatGPT?
  • Quali sono le loro aspettative e immaginari rispetto a questa tecnologia?
  • In che modo ChatGPT modifica le pratiche didattiche e di apprendimento?

2. Percezioni e aspettative:

  • Come ChatGPT influenza la percezione del ruolo dell’intelligenza artificiale nell’Università?
  • Quali opportunità e sfide si prospettano all’orizzonte?
  • In che modo ChatGPT può contribuire a migliorare l’esperienza formativa?

Dall’analisi dei dati emerge un quadro complesso e sfaccettato, dove entusiasmo e timori si intrecciano:

  • Da un lato, la possibilità di personalizzare l’apprendimento, automatizzare compiti ripetitivi e accedere a una vastità di informazioni in modo più rapido ed efficiente.
  • Dall’altro, il timore di disinformazione, plagio e perdita di autonomia intellettuale.

Pratiche e immaginari tra accettazione e resistenza

L’analisi delle dinamiche di accettazione e resistenza nei confronti di ChatGPT tra studenti e docenti, rivelando un panorama complesso di uso, conoscenza e immaginari. Ecco i punti chiave:

Divergenza tra uso e conoscenza:

  • Tra gli studenti c’è una bassa adozione di ChatGPT (64,4% non lo ha mai usato), ma una conoscenza medio-alta (64% afferma di conoscerlo).
  • Tra i docenti, l’uso è medio-alto (circa 7 su 10 lo usano) con una conoscenza ancora più elevata (9 su 10).

Pratiche e immaginari:

  • Studenti e docenti condividono immaginari simili su ChatGPT, vedendolo come: (a) un chatbot basato su IA; (b) uno strumento di generazione di testo; (c) una piattaforma che integra algoritmi e big data.
  • La discrepanza uso-conoscenza tra studenti riflette l’influenza di ambienti mediatici e contesti socio-culturali nell’informare la loro comprensione di ChatGPT senza una diretta esperienza d’uso.

Abbiamo notato due modalità d’uso prevalenti:

  • Uso esplorativo, caratterizzato da una curiosità generale senza obiettivi definiti, più comune tra gli studenti (32,6%).
  • Uso strumentale, finalizzato a obiettivi specifici, predominante tra i docenti (6 su 10) per attività didattiche, ricerca e organizzative.

Un significativo 46% degli studenti vede positivamente l’uso futuro di ChatGPT in ambito accademico, a condizione di mantenere un controllo efficace sullo strumento e maturare le competenze necessarie all’utilizzo. La maggior parte dei docenti (7 su 10) è favorevole all’uso di ChatGPT per l’insegnamento e la ricerca, pur mantenendo una visione cauta sull’impatto generale dell’IA sull’università.

La tensione tra usi e conoscenza di ChatGPT genera un intervallo concettuale tra accettazione e resistenza del tool, influenzato da immaginari collettivi, pratiche adottate e potenziali applicazioni future in ambito accademico.

La percezione di ChatGPT tra innovazione e trasformazione, opportunità e sfide

La percezione di ChatGPT tra studenti e docenti si muove su un continuum che oscilla tra la visione dell’IA come strumento di innovazione tradizionale e la sua considerazione come motore di trasformazione digitale, con varie implicazioni per il mondo accademico.

Innovazione vs. trasformazione
Molti partecipanti al nostro studio vedono ChatGPT come un’innovazione che riorganizza elementi esistenti più che come una rivoluzione digitale. La percezione comune è che ChatGPT migliori o integri pratiche esistenti, piuttosto che sostituirle o trasformarle radicalmente.

Opportunità e sfide secondo gli studenti
Tra le opportunità, gli studenti menzionano l’accesso rapido alle informazioni, la facilitazione di ricerca e studio, l’efficienza. Tra le sfide, la potenziale perdita di capacità critica e creatività, nonché rischio di ridurre lo sforzo personale. Circa il 25% degli studenti non sa dire come ChatGPT influenzerà il loro studio, mentre il 37% lo vede come un complemento e non un sostituto dell’apprendimento.

Uso di ChatGPT tra gli accademici
Si nota un ottimismo diffuso (70%) riguardo le potenziali applicazioni di ChatGPT e altri strumenti di IA. ChatGPT è usato per una varietà di compiti come preparazione di lezioni, stesura di articoli, correzioni grammaticali, e alleggerimento del carico amministrativo. È percepito come un “assistente accademico” per attività routinarie e un avanzato motore di ricerca per il recupero di informazioni.

Preoccupazioni del corpo accademico
Tuttavia, vi è una divisione nelle opinioni sull’impatto di ChatGPT: metà dei docenti non prevede effetti negativi, l’altra metà esprime riserve. Le preoccupazioni includono il rischio di plagio, compromissione della fiducia, riduzione della qualità della ricerca e omogeneizzazione degli stili di scrittura.

Insomma, l’adozione di ChatGPT offre vantaggi pratici ma solleva preoccupazioni sull’alterazione dell’educazione e della ricerca tradizionali. Viene percepito il rischio che l’IA minacci capacità critica, creatività e individualità, potenzialmente ampliando il divario digitale. Un uso etico di ChatGPT è accettato, a patto che non si contrapponga a valori quali l’autorialità e il mantenimento del pensiero critico.

Conseguenze etiche e implicazioni sociali di ChatGPT

Solo il 44% degli studenti intervistati riesce a evidenziare una o più questioni etiche associate all’utilizzo di ChatGPT, rispetto a una porzione più ampia di docenti (35 su 64) che hanno rilevato possibili problemi etici. Le preoccupazioni principali si aggirano attorno a integrità intellettuale, autorialità, plagio e corretto riconoscimento delle fonti. Si notano anche dubbi riguardanti la possibile emersione di una nuova fascia di lavoratori a rischio di sfruttamento per il training dell’IA.

Emergono per gli studenti rischi legati al diritto d’autore, all’affidabilità delle fonti e alla mancanza di sicurezza e privacy nelle interazioni con ChatGPT. Questi temono inoltre la perdita di indipendenza nella ricerca scientifica e il declino dell’importanza del pensiero critico, evidenziando i pericoli che ChatGPT può rappresentare per determinate professioni e la preoccupazione per un aggravamento delle disuguaglianze tra chi utilizza e chi non utilizza la tecnologia.

I docenti, da parte loro, identificano questioni etiche nell’uso di ChatGPT, pur considerandolo un’evoluzione avanzata di Wikipedia. Le preoccupazioni condivise con gli studenti includono l’autorialità, il plagio e l’affidabilità delle fonti, con un accademico che propone di stabilire criteri per differenziare i testi prodotti dagli umani da quelli generati da ChatGPT. Emergono preoccupazioni anche per i bias nei dataset e le dinamiche di potere sbilanciate a favore delle corporation di IA, oltre al timore per le conseguenze ambientali e il non riconoscimento del lavoro poco remunerato impiegato nell’addestramento dell’IA.

Confrontando le visioni di studenti e docenti, emerge una comune preoccupazione per la gestione dell’evoluzione della conoscenza, accentuata dall’assenza di regolamenti su come impiegare ChatGPT nell’ambito dello studio e della ricerca.

Verso un equilibrio adattivo

Nel nostro studio ci siamo confrontati con opinioni e pratiche legate all’utilizzo di ChatGPT e altri strumenti di IA nel contesto accademico, scoprendo un mix di accettazione e resistenza. Abbiamo introdotto alcuni frame concettuali per decifrare come studenti e docenti navigano in questo nuovo territorio, identificando due approcci prevalenti: uno pragmatico e orientato agli strumenti, e un altro più critico e orientato a comprendere il cuore stesso dell’IA.

La tensione tra questi approcci ci ha portato a coniare il concetto di“equilibrio adattivo all’IA”, una sorta di approccio zen all’adozione dell’intelligenza artificiale. Non si tratta di accettare acriticamente l’IA né di rifiutarla per principio, ma piuttosto di cercare un punto di mezzo dinamico, che permetta un utilizzo consapevole e critico dei suoi strumenti. Questo equilibrio è caratterizzato da:

  • Un approccio riflessivo che valuti i pro e i contro dell’IA, mantenendo una visione critica sulle sue potenziali derive.
  • La coesistenza dinamica tra pratiche tradizionali (usare l’IA come versione potenziata di strumenti già esistenti) e l’esplorazione di nuovi modi di usare e interagire con l’IA.
  • La costante evoluzione nella modalità di interazione con l’IA, che necessità di curiosità e insieme cautela nell’integrarla per potenziare le capacità umane senza sostituirle.

L’idea di “equilibrio adattivo” offre spunti per pensare le policy di adozione dell’IA in università: come possiamo sfruttare i vantaggi dell’IA mitigandone i rischi? ma anche per riflettere sul potenziale dell’IA: come può l’IA contribuire all’innovazione e alla trasformazione nel mondo accademico?

Il cammino verso un “equilibrio adattivo all’IA” sarà sicuramente costellato di sfide, ma è un percorso che vale la pena di esplorare per garantire che l’intelligenza artificiale arricchisca il mondo accademico, evitando che l’università accumuli un ritardo incolmabile nella comprensione, integrazione e, laddove necessario, rifiuto dell’IA.

--

--

Marco Pedroni
HomoAcademicus

Proudly a sociologist, whatever that means. I write about digital media, cultural industries, artificial intelligence, and academia