Seguici su Telegram, ne vale la pena ❤️ ➡ @trovalost
Vai al contenuto

ChatGPT quasi umana. O forse no

ChatGPT che esibisce comportamento “da essere umano”, quindi in grado di fare considerazioni, apprezzare un tramonto o mostrarsi empatica è una delle ossessioni della ricerca di questi anni. Ed è quello che sembra aver rilevato una recente ricerca della rivista scientifica PNAS qualche giorno fa, riportata da molte testate anche in Italia. La rivista è considerata peer-reviewed, ad alto impatto e, in poche parole, più affidabile di uno studio in preprint o di un articolo “buttato lì”, anche perchè confermato da altri ricercatori indipendenti.

Superare il test di Turing, ma è possibile davvero?

Vuoi pubblicare il tuo articolo su questo portale? Cercaci su Rankister (clicca qui) .

Sicuramente l’argomento merita un minimo di attenzione, soprattutto per sgombrare il campo come al solito da potenziali equivoci che potrebbero ingenerarsi: tanto per cominciare, ad esempio, non sembra molto corretto dire che chatGPT nella versione 4 abbia addirittura superato il test di Turing. perché non lo ricordasse il test di Turing è un esperimento fondamentalmente concettuale, in cui viene evidenziato un paradosso fin dagli anni 50 per cui un Chatbot rischia di non essere distinguibile da una persona in termini esclusivamente comunicativi, ovvero ipotizzando come nell’esperimento originale che è una macchina possa esibire un comportamento intelligente. La chiave per comprendere questa questione, che è enormemente dibattuta tra gli informatici e non ha una risposta ben precisa neanche in termini di effettiva ed attuale verificabilità dell’ipotesi, prescinde da questioni di hardware e software, in effetti, ed è una domanda squisitamente filosofica a cui molti ricercatori si sono divertiti in questi anni a trovare una risposta.

Periodicamente leggiamo di intelligenza artificiale che superano il test di Turing, ma per superare i test di Turing significa che devono essere riprodotte esattamente le stesse condizioni, e soprattutto non si può (io ritengo che sia un errore di concetto tanto sostanziale quanto ricorrente, soprattutto in certa stampa) trattare un “esperimento mentale” come se fosse un esperimento in laboratorio. Non perchè il contributo di Turing non sia valido o perchè metterlo in discussione sia sbagliato in sè, ma per una questione di metodo, o se preferite per lo stesso motivo per cui non puoi usare una calcolatrice per confutare una questione di sociologia o di psicoanalisi, nè puoi risolvere un problema del Millennio in matematica andando dal gastroenterologo. 

Il punto chiave dell’esperimento di Turing, semmai, è che la persona che è chiamata a comprendere se stia parlando con una macchina o con un essere umano è soggetta al vincolo di poter valutare esclusivamente le risposte che vengono fornite, un vincolo non da poco che Turing aveva intuito essere sostanziale. Per cui diventa una questione squisitamente linguistica, se vogliamo, anche perché sappiamo bene che CPT riesce a scrivere molto bene nella nostra lingua, e ne sanno qualcosa i docenti che vengono periodicamente imbrogliati (uso totalmente errato della tecnologia, s’intende) da alunni che fanno uso di chatGPT per farsi i compiti a casa. Anche se si volesse ammettere (cosa che sono disposto a fare, ad oggi, per quanto ne so) il realismo e la credibilità di una comunicazione – o per dirla alla Popper, la falsificabilità del linguaggio elevata all’ennesima potenza da internet –  da qui a parlare di comportamento umano, a nostro avviso, ce ne passa un bel po’.

Non sottovalutare il concetto di inferenza

Sono questi i motivi che mi lasciano perplesso quando mi capita di leggere titoli come Un’Intelligenza Artificiale che Mostra Tratti Umani, IA poco amichevole, IA non molto affabile, IA che fa amicizia, IA sovrapponibile a quella umana e che supera il test di Turing. Comprendo bene la necessità di comunicare la notizia in una maniera comprensibile a più, e non intendo fare moralismo su eventuali tentazioni di clickbait visto che la notizia è reale ed è apparsa su rivista Peer Reviewed.  Il punto che vorrei sottolineare è che qualsiasi intelligenza artificiale opera sul concetto di inferenza, ovvero in termini teorici estrapola nuova nuova conoscenza a partire da una base di dati ben nota.

Il concetto di inferenza è quello per cui io memorizzo un fatto come ad esempio

capitale(Roma, Italia)

e l’intelligenza artificiale sarà in grado di rispondere a una qualsiasi delle seguenti domande in modo corretto:

  • Qual è la capitale d’Italia?
  • Roma la capitale del paese che ha dato la nascita a Dante Alighieri?
  • La città di Roma che cos’è per l’Italia?
  • Come si chiama la capitale d’Italia?

Senza scendere in dettagli troppo tecnici, e sulla falsariga di libri divulgativi come Hello World, ogni processo che a che fare con l’intelligenza artificiale si può ricondurre a un’inferenza, visto che è più facile da trattare in questi termini e abbiamo degli strumenti rigorosi per poter poterlo fare.

By Juan Alberto Sánchez Margallo - File:Test_de_Turing.jpg, CC BY 2.5, https://commons.wikimedia.org/w/index.php?curid=57298943
By Juan Alberto Sánchez Margallo – File:Test_de_Turing.jpg, CC BY 2.5, https://commons.wikimedia.org/w/index.php?curid=57298943

Tanto per andare un po’ di più nello specifico, che i risultati di vari test psicologici a cui è stato sottoposto suo malgrado ChatGPT versione 4 siano sovrapponibili con quelli di un campione eterogeneo di essere umani non dovrebbe sorprendere più di tanto, per lo stesso motivo per cui – ad esempio – una rete neurale è in grado di imitare la nostra scrittura dopo aver analizzato un numero sufficiente di campioni di nostri scritti precedenti. Grazie al meccanismo di inferenza intelligenza artificiale si addestra sulla base dei dati dati che gli vengono forniti, e sicuramente avrà imparato come reagire a determinate domande sulla base di un campione di conoscenza derivato dal mondo che conosciamo. Sarebbe stato clamoroso, al contrario, con le dovute riserve, se non avesse esibito un comportamento allineato con quello di un campione umano, perché in quel caso sarebbe stato lecito pensare che avesse sviluppato una sorta di autocoscienza. Naturalmente sono soltanto ipotesi che stiamo facendo, per il gusto di dibattere su una questione che trovo enormemente intrigante, e che non dovrebbe mai essere ridotta nè a narrazioni suggestive quanto favolistiche (è l’unica cosa che mi viene da pensare in tutta sincerità quando assisto a questa mania di umanizzare le nuove tecnologie, sulla falsariga di “mostrare amore” ad Alexa o mettersi a discutere con Google Maps lungo la strada), nè tantomeno arriverei alla dialettica di Terminator di James Cameron per cui, brutalmente, moriremo tutti.

Il meccanismo di inferenza è incredibilmente efficace per dimostrare quanto sia semplice comprendere una tecnologia nuova come quella delle intelligenze generative, che saranno sempre più migliorate sia per via dell’incremento della potenza computazionale e sia per il miglioramento progressivo dei campioni che vengono usati per il suo addestramento.

Nel momento in cui decidiamo di attribuire delle delle caratteristiche umane niente intelligenza artificiale dobbiamo fare molta attenzione: il grado di apertura mentale – per esempio – che è risultato più sovrapponibile di altri rispetto ad una reazione umana a determinati stimoli andrebbe interpretato sempre nell’ottica dell’imitazione, senza dimenticare il caso di Tai, l’intelligenza artificiale sviluppata da Microsoft qualche anno fa che si rivelò clamorosamente razzista per il fatto di essere stata trollata da vari utenti di Twitter (l’attuale X di Elon Musk). In quel caso la notizia fece scalpore e il botto venne semplicemente chiuso, anche perché all’epoca probabilmente lo stato dell’arte non consentiva di fare particolari aggiustamenti.

E in modo corretto, a mio avviso, per onorare la memoria di Alan Turing è proprio quello di non dimenticare la sua idea di gioco dell’imitazione, visto che il test di Turing non era altro che questo. Una macchina in grado di evitare la scrittura di un essere umano ma non per questo è un essere umano, né mai potrà diventarlo (penso), per lo stesso motivo per cui la voce di un navigatore può essere umana o affascinante quanto vogliamo ma non sarà mai una persona, e stesso discorso vale per un avatar di un’intelligenza artificiale e per qualsiasi altro strumento digitale che utilizziamo ogni giorno.

👇 Da non perdere 👇



Trovalost esiste da 4476 giorni (12 anni), e contiene ad oggi 8419 articoli (circa 6.735.200 parole in tutto) e 15 servizi online gratuiti. – Leggi un altro articolo a caso
Non ha ancora votato nessuno.

Ti sembra utile o interessante? Vota e fammelo sapere.

Questo sito contribuisce alla audience di sè stesso.
Il nostro network informativo: Lipercubo.it - Pagare.online - Trovalost.it.