L’11 giugno del 2022 è una delle date destinate a passare alla storia nell’ambito delle tecnologie: è il giorno in cui il Washington Post pubblica un articolo destinato a lasciare il segno, sollevando mille dibattiti sulla natura della scienza, dell’etica e dell’informatica. Il titolo è bellissimo, altisonante, e recita qualcosa tipo “ecco l’ingegnere di Google che pensa che l’intelligenza artificiale della sua azienda abbia preso vita“. Si racconta della singolare storia di Blake Lemoine, dipendente e ingegnere di Google che ha scosso l’opinione pubblica con le sue affermazioni: lavorava sul progetto noto come LaMDA, un chatbot basato sull’intelligenza artificiale.
Un chatbot che aveva bisogno di essere “addestrato”, in modo che se ne comprendessero i limiti tecnologici, etici e sostanziali, e che – a dire di Lemoine – avrebbe virtualmente l’età di 7 o 8 anni umani, conoscerebbe la fisica ed avrebbe addirittura fatto cambiare idea all’uomo su una questione inerente la terza legge della robotica di Asimov (quella che afferma, in sintesi, che un robot può proteggere la propria esistenza a condizione la sua autodifesa non rechi danno all’uomo o qualora rifiuti di obbedirgli). Lemoine ne è rimasto molto impressionato. Anche troppo. Non è difficile immaginare il processo mentale di preoccupazione e paura che potrebbe aver coinvolto l’ingegnere, a questo punto, ma rimarrà nel campo delle ipotesi ma, in sostanza, resta il fatto che Lemoine si è convinto che LaMDA fosse senziente, ne avrebbe portato le prove e – per tutta risposta – Google lo ha messo in congedo amministrativo. Le congetture complottistiche, a questo punto, sono letteralmente dilagate, facendo sembrare LaMDA il “progetto segreto” della parte più oscura di Google.
L’autrice dell’articolo che ha svelato questo clamoroso leak di informazioni è Nitasha Tiku, reporter tecnologica dal 2019 in servizio sul giornale, con annessi titoli di prestigio a corredo: Columbia University, New York University, master in giornalismo. Nonostante l’articolo sia encomiabile e tecnicamente preciso da vari punti di vista, già nel titolo si potrebbe ravvisare una sorta di terminologia impropria: che la tecnologia possa “prendere vita” (come to life nell’originale) è a nostro avviso indebito, e rischia di essere più suggestivo che tecnologico.
La vita così come la intendiamo, del resto, resta nel campo della biologia e della bioetica, e non basta certo un chatbot a ritenere che un software “viva” o respiri. Negli anni 50, del resto, gli esperimenti di Turing e di Weizenbaum (il creatore del chatbot parodistico ELIZA) sul linguaggio o sulla capacità di una telescrivente di essere, posta in termini puramente testuali, non distinguibile da un essere umano, ha creato dibattiti che sono accesissimi da ben prima che l’intelligenza artificiale diventasse mainstream. Il tutto per ricordarci che spesso, in questi ambiti, sono le suggestioni a colpire prima degli aspetti scientifici, e che bisognerebbe stare attenti a fare certi titoli per non ingenerare idee semplicemente sbagliate.
Usa il codice
189ed7ca010140fc2065b06e3802bcd5
per ricevere 5 € dopo l’iscrizione
Per la prima volta, ad ogni modo, la data è epocale perchè si è posto pubblicamente (e senza alcuna ironia) il problema che film come Terminator 2 di James Cameron avevano posto solo idealmente: non solo che le macchine possano pensare ma siano anche in grado, in qualche modo, di provare sentimenti.
Che cosa significa senzienza?
Il termine senziente è molto speculativo e teorico, e sorprende come il suo uso sia ormai entrato nelle cronache anche più generaliste per amor di clickbait: a dimostrazione del fatto, per inciso, che una questione teorica che sembra astrusa o da parrucconi possa, nonostante tutto, diventare materia di interesse per tutti solo perchè uno sconosciuto (con tutto il rispetto dovuto a Blake Lemoine) ne fa uso. Sorvolando per semplicità sulla questione che ciò genera – ovvero il dilagare inevitabile di qualunquismo social in merito, in cui tutti avranno un’opinione sulle macchine che pensano, soffrono e possono essere empatiche – diciamo che:
Usa il codice
189ed7ca010140fc2065b06e3802bcd5
per ricevere 5 € dopo l’iscrizione
la senzienza consiste nella capacità di ricevere e reagire agli stimoli in maniera cosciente, percependoli con la propria interiorità.
Nel trattato De Corpore del 1655 Hobbes aveva definito la senzienza nel contesto della sensazione, ovvero “il principio della conoscenza, e ogni specie di sapere ne deriva. La sensazione stessa non è altra cosa che un movimento di certe parti, che esistono all’interno dell’essere senziente”. Concetto ripreso da giuristi famosi come Romagnosi, e che – senza volerci addentrare ulteriormente in materia bioetica e filosofica – si applica al mondo dell’informatica in modo quasi inevitabile, sulla falsariga di concetti in bilico tra libri e cultura pop, a ben vedere.
Se il concetto di macchina senziente pone uno dei suoi antesignani a livello popolare nella figura del cyborg di Terminator 2 (interpretato da A. Schwarznegger), una macchina solo apparentemente spietata quanto in grado di provare empatìa per il giovane protagonista umano. Senza dimenticare che quello fu solo un film di successo, che le questioni etiche reali sono di natura più sottile (esempio: riusciremo a liberarci del bias di automazione che ci porta a sopravvalutare qualsiasi output prodotto su uno schermo, dal banner “CLICCA QUI” fino al chatbot che calcola quanti giorni ti restano da vivere analizzando il tuo viso?) e che, di fatto, si fa un po’ fatica a ravvisare più rischio in un software testuale in sè che nella sua reazione catastrofista o biased da parte di un essere umano nel farne uso.
Del resto già negli anni 60, se ricordate la storia, ELIZA (un chatbot burlone che parodiava uno psicologo rogersiano) convinse tante persone di essere un autentico psicologo, pure estremamente empatico, e si trattava semplicemente di un centinaio di righe di codice, con un parser di testo all’interno un po’ più evoluto della media.
Figurarsi oggi, allora, che effetto può produrre uno basato su BERT o su altre tecniche di intelligenza artificiale più avanti ancora…
Che cos’è il progetto LaMDA di Google?
Ecco un esempio visuale: scrivo ad un chatbot in inglese, lui è in grado di rispondermi in modo preciso, pertinente e ben strutturato nella stessa lingua. In questo caso gli chiediamo cosa fare se TV e lavatrice smettono di funzionare nello stesso momento, e LaMDA ci risponde che probabilmente sono da cambiare, oppure – al limite – che potrebbe essere un problema elettrico.
Stando ad un post pubblicato nel blog ufficiale a marzo 2022, Google inventa il software di intelligenza artificiale LaMDA (il significato dell’acronimo è Language Models for Dialog Applications, ovvero Modelli di Linguaggio per Applicazioni basate su Dialogo) abbastanza sulla falsariga di BERT, un software evoluto per trattare il linguaggio naturale ed elaborarlo già esistente da un paio d’anni.
BERT… chi?
Per intenderci, esso forniva la capacità a Google di capire che cosa stia cercando un utente anche nel caso in cui non dovesse esprimere le query mediante parole chiave rilevanti, ad esempio “hotel roma” (ricerca classica via keyword secche), bensì “trova un hotel a roma senza spendere un capitale” (formulato in linguaggio naturale). Facendo un esempio un po’ più sostanziale, ecco cosa succede con e senza BERT in risposta alla ricerca “gli estetisti fanno un sacco di lavoro“: senza BERT, esce fuori una pagina web che riporta semplicemente le corrispondenze delle parole utilizzate nella ricerca. Con BERT, al contrario, le parole della ricerca sono contestualizzate meglio, e Google comprende la sfumatura esistente del verbo stand, che non va inteso come “stare in piedi” e non va matchato nella pagina così com’è (screen a sinistra, sotto BEFORE), ma va inteso nel contesto di un sito differente che si occupa, ad esempio, della salute e dello sforzo fisico legato alla professione di estetista (screen a destra, AFTER). Per riassumere il funzionamento di BERT potremmo dire, pertanto, che è in grado di “intendere” meglio il contesto delle parole usate dentro una frase anche complessa.
Per approfondire suggerisco di leggere l’articolo a tema pubblicato nel nostro blog.
Che cos’è LaMDA
LaMDA è frutto di progettazione avanzata di intelligenza artificiale che ha avuto inizio nel 2017; esso è in grado non solo di fornire risposte strettamente pertinenti alle domande (domande che possono essere poste via chat o motore di ricerca, è indifferente per i nostri scopi) ma anche di farlo in modo “sensibile” al contesto, tanto che sensible e specific sono le parole chiave usate da Google per descriverne le funzionalità. Non solo: altre caratteristiche di LaMDA sono legati al grado di interesse delle risposte (evitare le risposte grossolane che spesso i motori forniscono ancora adesso), correttezza e factuality degli output prodotti (termine traducibile come “realismo”, più o meno).
Perchè secondo noi LaMDA NON è senziente (…nè potrebbe diventarlo)
È chiaro che chiunque conosca un minimo le tecnologie di Intelligenza artificiale sa che alla base vi è un addestramento dei dati, concetto puramente statistico che riconduce l’informatica alla matematica più avanzata. Per cui anche i modelli software più “umanizzati” sono “solo” molto ben addestrati, e probabilmente la questione etica è quasi fuori luogo (basterebbe rivedere criticamente, forse, gli scritti teorici di Alan Turing per convincersene, dato che già negli anni 50 si era chiesto se una macchina potesse pensare o no, pur mantenendo qualche dubbio in merito), nel senso che non è troppo funzionale al contesto.
Sono “solo” numeri, e più dati anni più diventano precisi più possono impressionare. Del resto, se è vero quanto scriveva Hobbes, la senzienza consiste nella capacità di ricevere e reagire agli stimoli in maniera cosciente, percependoli con la propria interiorità. Un software può reagire agli stimoli, ovviamente, e questo lo sapeva anche Alan Turing con i suoi fantasiosi esperimenti sulle macchine bambino (che mai funzionarono: una pedagogia elettro-meccanica, in sostanza, mai dimostrata); ma non può, di fatto, percepirli nell’interiorità, perchè non ne ha una che non sia indotta dalle circostanze. Rimarrà sempre, e speriamo per sempre, un “imitatore” di esseri umani, spaventosamente realistico a volte, certo, ma pur sempre un imitatore.
E il vero problema, forse, è un altro.
Dopo aver letto le chat di LaMDA è chiaro che siamo arrivati al punto in cui abbiamo modelli che sono in grado di ingannare un certo numero di persone, esattamente come fanno già i deepfake. Certo una piccola parte di noi sa bene, per lavoro o per cultura, che si tratta semplicemente di matematica e grandi quantità di dati in training, per cui nulla di cui spaventarsi troppo, alla fine. Pero’ sarà molto difficile convincere e far capire alle persone comuni di cosa si tratta, questo sembra certo.Dal 2020 sappiamo per certo come sia facile ingannare le persone, condizionarle in negativo o alimentare false credenze di massa: non dovremmo mai fare l’errore di sottovalutare le istanze di Lemoine, che potrebbero addirittura diventare prevalenti.
Probabile che non succederà mai nulla, e noi ci sentiamo di pensarla così, a ragion veduta. O dovremmo per caso aspettarci che un giorno, come nei film di Cameron, le macchine abbiano la meglio sull’uomo. Ipotesi da valutare razionalmente, per quanto venga da dire che i veri rischi sono di tutt’altra natura e non dipendono più da un chatbot di quanto non avvenga per altri potenziali abusi tecnologici.
Foto di MetsikGarden da Pixabay
👇 Da non perdere 👇
- intelligenza artificiale 👁
- Internet 💻
- Marketing & SEO 🌪
- Programmare 🖥
- Spiegoni artificiali 🎓
- 💬 Il nostro canale Telegram: iscriviti
- 🟠 Errore di chiamata iPhone: cosa fare
- 🟡 HaLow: la nuova generazione di Wi-Fi per sfruttare internet ovunque
- 🔵 Cosa vuol dire escatologico