Compiti con ChatGPT: ma sei sicuro che sia una buona idea?

Sfatare il mito dell’LLM come bacchetta magica

Nell’era dell’intelligenza artificiale generativa strumenti come ChatGPT sono entrati prepotentemente nelle nostre vite, promettendo di rivoluzionare il modo in cui lavoriamo, studiamo e creiamo. Fare i compiti con ChatGPT, cosa di cui spesso accusiamo i nostri ragazzi, fa il pari con il fatto che autorevoli avvocati ne fanno uso. Proprio così: e se la scarsa consapevolezza è in qualche modo giustificabile da ragazzi che non sono stati educati a dovere, lo stesso dovrebbe dirsi per certi adulti.

Come raccontato di recente da Paolo Attivissimo ci sono stati casi in cui professionisti, tra avvocati, giornalisti e funzionari governativi, hanno subito conseguenze negative a causa della loro dipendenza acritica da contenuti generati dall’intelligenza artificiale. Giugno 2023: gli avvocati Peter LoDuca e Steven Schwartz hanno presentato in tribunale precedenti legali falsi generati mediante ChatGPT: molti articoli sui quotidiani e nei blog, del resto, vengono generati allo stesso modo.

No, non è una buona idea 🙂 e adesso voglio spiegarti perchè

I problemi nell’uso degli LLM

Di base, un LLM genera testo, e siccome raramente esprime dubbi nel farlo – tranne Gemini di Google, che sembra l’unica che in alcuni casi va in crisi e non genera nulla – da’ la sensazione che sia tutto corretto, sempre e comunque. Gli articoli generati dall’IA possono in realtà contenere citazioni false, attribuendole ad autori inventati, e anche i ragionamenti che propone non sono da meno. Questo avviene tecnicamente perchè, a differenza dei dimostratori automatici di teoremi, gli LLM non si basano esclusivamente su  logica formale e regole di inferenza (induzione, risoluzione, modus ponens, …), ma prendono esempi a campione dall’esterno, sfruttando algoritmi di classificazione per decidere in futuro come riutilizzarlo. Il processo è molto complesso, e di fatto se non esistesse nessuno farebbe uso massivamente di semplici “dimostratori”. L’equivoco tuttavia sta proprio in questo “doloroso” compromesso: aprire un LLM ai dati esterni ci espone alle imperfezioni e alle ambiguità linguistiche del mondo in cui viviamo. Per cui no, davvero: non fare mai i compiti con ChatGPT. Semmai, usalo come strumento per farti interrogare, per verificare se ragioni bene, per curiosare su come ragiona “lui”. La tecnologia non è mai passiva, ricordalo.

Un LLM non è un motore di ricerca: un grande equivoco

Il fraintendimento più comune e pericoloso riguarda la natura degli LLM: molti utenti, ingenuamente, li considerano alla stregua di motori di ricerca avanzati. “Chiedi a ChatGPT e lui ti darà la risposta“, si pensa: nulla di più sbagliato.

Un motore di ricerca, come Google o Bing, è progettato per indicizzare miliardi di pagine web e presentarti i risultati più pertinenti in base alle tue query, fornendoti link a fonti originali e verificabili. La sua forza risiede nella capacità di “trovare” informazioni esistenti nel vasto mare di internet.

Un LLM, al contrario, non “cerca” informazioni nel senso tradizionale del termine: è un modello addestrato su un’enorme quantità di dati testuali e il suo compito è generare sequenze di parole che siano statisticamente probabili e coerenti con il contesto della domanda. Nel caso più estremo, se ci hai fatti caso, un LLM come ChatGPT ribadisce ciò che contiene la domanda, lo ripete più volte, è un sistema verboso quanto impattante per l’ambiente – e ne andrebbe fatto uso sempre in modo moderato.

Quando chiedi a ChatGPT o chi per “lui” di farti i compiti, LLM “predice” la parola successiva nella frase basandosi sui pattern appresi durante il suo addestramento. Ciò significa che può creare contenuti che suonano plausibili e convincenti, ma questo non vuol dire che siano necessariamente veri nè accurati. Spesso, peraltro, gli LLM “allucinano”, ovvero inventano fatti, citazioni o riferimenti che non esistono, presentandoli con la stessa sicurezza di un dato verificato. Questo è un problema serio quando si tratta di compiti che richiedono precisione e verifica delle fonti.

Facci caso: se non conosci una parola di cinese o russo, ad esempio, non sarai in grado di capire se una persona stia facendo un discorso reale o stia farfugliando senza significato. Studiare, come al solito, è sempre necessario per poter capire.

Fidarsi ciecamente

L’utilizzo indiscriminato di ChatGPT per compiti accademici o professionali può generare una serie di problematiche significative:

  • Inaccuratezza e allucinazioni: Come accennato, la tendenza a generare informazioni errate è una realtà. Consegnare un lavoro basato su dati inesatti non solo può portare a una valutazione negativa, ma anche a una diffusione di disinformazione.
  • Mancanza di pensiero critico: Affidarsi a un LLM per generare testi preclude l’opportunità di sviluppare e affinare il proprio pensiero critico, la capacità di analisi e di sintesi. Il processo di ricerca, selezione delle fonti, valutazione e rielaborazione delle informazioni è fondamentale per l’apprendimento e la comprensione profonda.
  • Plagio e originalità: Anche se il testo generato da un LLM è tecnicamente “originale” nel senso che non è una copia diretta di un’altra fonte, la paternità intellettuale e la comprensione reale dell’argomento rimangono un problema. Le istituzioni educative e professionali stanno sviluppando metodi per rilevare i testi generati da AI, e le conseguenze del plagio possono essere gravi.
  • Dipendenza e atrofia delle competenze: L’eccessivo affidamento su questi strumenti può portare a una dipendenza che ostacola lo sviluppo di competenze essenziali come la scrittura autonoma, la ricerca efficace e la risoluzione creativa dei problemi.

Un altro aspetto cruciale da considerare è che un LLM, pur essendo abile nel manipolare il linguaggio, non possiede una comprensione intrinseca del mondo o la logica profonda necessaria per affrontare compiti complessi in ogni disciplina. Pensiamo ad esempio alla matematica: Sebbene un LLM possa sembrare capace di risolvere problemi matematici, la sua “comprensione” è basata su pattern testuali e non su una vera e propria capacità di ragionamento logico-matematico. È più probabile che commetta errori logici in problemi complessi o non standardizzati. Per l’informatica, è vero: può generare codice, ma senza una reale comprensione del suo funzionamento o della sua efficacia non andrete lontano. Se fate i compiti così, rischiate di ritrovarvi con strutture dati che non sono mai state fatte.

La macchina come strumento

Mentre ChatGPT e altri LLM rappresentano strumenti tecnologici straordinari con un potenziale immenso, è fondamentale approcciarsi al loro utilizzo con consapevolezza critica. Non sono bacchette magiche capaci di risolvere ogni problema o di sostituire il pensiero umano. Al contrario, sono strumenti potentissimi che, se usati in modo oculato e consapevole dei loro limiti, possono supportare la produttività, stimolare nuove idee e automatizzare compiti ripetitivi.

Per i compiti che richiedono accuratezza, pensiero critico, originalità e comprensione profonda di una disciplina, l’essere umano rimane insostituibile. L’AI generativa dovrebbe essere vista come un collaboratore, un assistente che può velocizzare alcune fasi del lavoro, ma mai come un sostituto del proprio intelletto, della propria capacità di ricerca e del proprio processo di apprendimento. La vera sfida non è far scrivere un saggio a ChatGPT, ma imparare a usarlo per affinare la propria ricerca, migliorare la propria scrittura e stimolare la propria creatività, mantenendo sempre saldo il controllo e la responsabilità dei contenuti prodotti.