Al momento stai visualizzando ChatGPT, NYT, regurgitation!

ChatGPT, NYT, regurgitation!

  • Autore dell'articolo:
  • Categoria dell'articolo:News

Come risaputo qualche settimana fa il New York Times ha portato in tribunale Open AI e ChatGPT in particolare, quantificando un danno per miliardi di dollari e accusandola di aver creato una tecnologia (nonchè un business online) basato sulla “violazione massiccia del copyright”. Secondo quanto riportato dallo stesso Nyt, milioni di articoli del loro giornale sarebbero stati impiegati per addestrare chatbot, software che simulano conversazioni umane scritte o parlate, creando così una vera e propria concorrenza al quotidiano come fonte affidabile di informazioni. Dal canto suo OpenAI afferma che la storia è parziale e manca di dettagli, tra cui il fatto che il NYT avrebbe tentato una collaborazione con l’azienda, sentendosi in qualche modo sminuire per il contributo informativo che potevano dare e, di fatto, questo avrebbe finito per dare il la alla causa in corso. Tecnicamente, è bene ricordare, software come ChatGPT aggregano contenuti da più fonti, non solo da una, che quindi non possono considerare più autorevole di altre per lo stesso motivo per cui nessuno può avanzare tale “pretesa”, dal punto di vista della completezza e della varietà informativa offerta.

OpenAI nella propria dichiarazione pubblica parla di regurgitation che contano di evitare a stretto giro, come se fosse un bug informatico; di sicuro è un neologismo, o almeno sembra tale a prima vista, nel contesto tecnologico quantomeno, un po’ come avvenuto per allucinazione algoritmica. Ovviamente allucinazione possiede un significato letterale ed uno, da qualche tempo, anche tecnologico, riferendosi a risposte errate che un algoritmo produce in determinate condizioni. E se il senso di allucinazione algoritmo è pressappoco chiaro (un software potrebbe “avere le allucinazioni”, come sappiamo, nel senso che potrebbe produrre risultati sconnessi), non possiamo dire lo stesso di regurgitation, che oltre ad essere il nome della band death metal anni Novanta dell’album Tales of Necrophilia (si scherza), implica una difficoltà di traduzione e comprensione corretta sulla quale, peraltro, discutevo poco fa su Twitter / X.

Come ricordato nel post di Licia Corbolante, infatti, rigurgitare sarebbe la traduzione letterale ma è inadeguata, così come ogni equivalente come ad esempio “vomitare“. Nello specifico di OpenAI (calarsi nel contesto è fondamentale), si fa infatti riferimento alla regurgutation come potenziale bug dovuto ad una condizione di memorization. Memorization non è semplicemente “memorizzazione”, bensì è un termine tecnico del mondo del deep learning che indica a sua volta l’overfitting (sovra-adattamento, adattamento eccessivo), ovvero l’incapacità di un modello di generalizzare su dati non visti in precedenza. In quest’ottica la regurgitation può essere considerata come effetto dell’overfitting, un po’ come mangiare cibo avariato può provocare vomito, per l’appunto. Il concetto di overfitting è mutuato dalla statistica e si verifica in tutti quei casi in cui, da un punto di vista matematico, l’addestramento del modello corrisponde troppo strettamente a un particolare sottoinsieme di dati, a discapito di tutti gli altri possibili casi. Le Intelligenze Artificiali in genere vengono addestrate su un campione corposo di casistiche e sono così “abituate” a produrre nuova conoscenza da quello che “imparano” volta per volta. Se c’è overfitting possono perdere in affidabilità, o altresì tendere a generare contenuti che non si adattano al campione sottoposto, ovvero che non valgono in generale e che sono frutto, verrebbe da dire, di un bias / allucinazione algoritmica. L’overfitting si contrappone generalmente all’underfitting, che si verifica al contrario quando i dati usati per l’addestramento sono troppo pochi o troppo sporadici, e anche in questo caso minano l’affidabilità delle risposte.

Il concetto di overfitting è illustrato da questa immagine di Wikipedia, in cui un modello statistico “regolarizzato è rappresentato in nero”, quello affetto da overfitting è la linea a zig-zag in verde e tende pertanto a “ubriacare” o confondere l’orientamento dei nuovi dati (rappresentati dai pallini neri in grassetto) sottoposti al modello stesso. Un modello regolare appare più “equilibrato” e indica un andamento più chiaro e netto, quello overfitted al contrario sembra seguire meglio i dati ma è come se, a suo modo, fosse troppo “letterale” nella sua “intepretazione”.

Pubblicità - Continua a leggere sotto :-)
Credits: By Chabacano - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3610704
Credits: By Chabacano – Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3610704

Come legare il concetto di regurgitation all’affidabilità delle risposte è ancora poco chiaro, probabilmente, ma mi verrebbe da mantenere la metafora della digestione e riferire una ennesima allucinazione algoritmica: la stessa che produrrebbe un drink avariato / corretto con sostanze psicoattive, che può probabilmente produrre risultati distanti dalla realtà delle cose o vere e proprie fake news.

Si potrebbe pensare che le misure che sta prendendo OpenAI (sostanzialmente in corso d’opera, forse in fase di sviluppo o ancora parzialmente attive) servano a bilanciare casi di questo tipo, intendendo così la regurgitation (parola che non sembra comparire nella letteratura deep learning) come riproposizione indebita di dati di addestramento di cui l’algoritmo ha abusato (ha fatto una “scorpacciata”). Ecco perchè rigurgito è la parola scelta, probabilmente, anche se sembra un termine forte: perchè è quello che succede quando l’addestramento è troppo localizzato e, a livello interno, viene malamente metabolizzato, con risultato di alterare la percezione ed in meccanismi di induzione della macchina stessa. “Manipolare intenzionalmente i nostri modelli per rigurgitarli“, aspetto ancora più interessante citato dall’azienda, “non è un uso appropriato della nostra tecnologia ed è contrario ai nostri termini di utilizzo“: non possiamo, quindi, “far ubriacare” ChatGPT tanto per divertirci.

Se da un lato le rimostranze del NYT sono lecite, e sono piuttosto sicuro che ci siano molte persone che accolgono quella posizione e la fanno propria, non bisognerebbe forse dimenticare che queste problematiche andrebbero anzitutto divulgate in modo corretto. Il concetto di apprendimento e creatività applicati ad un software non sono una novità di oggi, ma non sono mai state accettate pienamente e comprese nel modo corretto: se una persona apprende qualcosa del mondo poi, sulla base di quanto voglia e sappia capire, potrà essere in grado di scrivere libri, articoli, fare quadri, film e via dicendo.Per costruire un modello di macchina universale che possa risolvere qualsiasi problema (almeno, idealmente) è indispensabile che le fonti siano numerose e variegate, molte più di quanto una persona potrebbe leggere o studiare per tutta la vita (anche se questo ha probabilmente finito per indispettire il celebre quotidiano). E questo ragionamento su larga scala non deve mai sfuggire, in teoria, alle nostre considerazioni sul tema, perchè altrimenti rischiamo di mostruosizzare l’altro e leggere l’ennesimo articolo sulle intelligenze artificiali che divorano esseri umani e/o decidono di aggredire i gattini su internet. Sul diritto d’autore ovviamente ci sono delle limitazioni: ma queste vanno messe in atto caso per caso, parola per parole, e sembra abbastanza improbabile riuscire a generalizzare in merito, fornendo una potenziale “legge universale” che regolamenti la macchina universale di cui sopra. I plagi, peraltro, esistono da molto prima delle intelligenze artificiali, le quali fungono ovviamente da catalizzatore ma non dovrebbero mai avere più peso della sostanza, per lo stesso motivo per cui l’autore di un fotomontaggio osceno è sicuramente più personalmente nresponsabile dell’atto di quanto non lo siano strumenti come GIMP o Photoshop che gli hanno permesso di crearlo.

Nell’attuale marasma concettuale è chiaro che, vista in questi termini (ammesso e non concesso che la mia interpretazione sia corretta, sulla quale non finirò di confrontarmi con colleghi ed esperti oggi) è banalizzante, comunque la si pensi, pensare a ChatGPT come a sistemi per clonare e scopiazzare su larga scala, dato che non sono pensati per quello e per lo stesso motivo per cui, ad esempio, poter creare opere visuali con un software sulla base della descrizione non ci autorizza a creare deepfake di natura oscena. È quasi fastidioso ripeterselo, al giorno d’oggi, ma è tutto l’uso che ne facciamo a fare la differenza.

Pubblicità - Continua a leggere sotto :-)
Cerchi alternative a Google Adsense per il tuo sito? Prova TheMoneytizer!
Usa il codice 189ed7ca010140fc2065b06e3802bcd5 per ricevere 5 € dopo l'iscrizione

(Foto di OpenClipart-Vectors da Pixabay, fonte)

Pubblicità - Continua a leggere sotto :-)
Sei un webmaster? Prova TheMoneytizer per il tuo sito

👇 Contenuti da non perdere 👇



Trovalost.it esiste da 4670 giorni (13 anni), e contiene ad oggi 4353 articoli (circa 3.482.400 parole in tutto) e 23 servizi online gratuiti. – Leggi un altro articolo a caso

Numero di visualizzazioni (dal 21 agosto 2024): 0
Pubblicità - Continua a leggere sotto :-)
Segui il canale ufficiale Telegram @trovalost https://t.me/trovalost
Seguici su Telegram: @trovalost

Trovalost.it

Ho creato Trovalost.it e ho scritto quasi tutti i suoi contenuti relativi all'informatica. Credits immagini: pexels.com, pixabay.com, wikipedia.org, Midjourney, StarryAI, se non diversamente specificato.