Tag: Mondo IA 🤖

  • Perché gli LLM come ChatGPT a volte sbagliano

    Perché gli LLM come ChatGPT a volte sbagliano

    Le moderne intelligenze artificiali come GPT-4, Copilot e Gemini hanno capacità straordinarie, ma spesso capita che diano risposte inesatte, imprecise o persino contraddittorie. Perché succede? La chiave sta nel modo in cui queste AI funzionano: i loro output non sono deterministici, ma probabilistici. Deterministico si intende qui che le risposte sono determinabili passo-passo, senza incertezze, mentre nel modello probabilistico si introduce per maggiore flessibilità una risposta che rimane incerta nel tempo, e che potrebbe in alcuni casi fuorviare.

    Si tratta di strumenti che per la creatività possono funzionare meglio di quanto possa sembrare, al netto delle note questioni legate agli scarsi controlli del copyright. Se io chiedessi, ad esempio:

    Domanda: “Scrivi una poesia su un gatto.”
    Risposta 1:
    “Il gatto sornione guarda la luna,
    Sogna avventure, ma resta in cuna.”

    Risposta 2:
    “Tra i tetti danza leggero e felino,
    Notturno re, nel buio divino.”

    In questo caso ogni generazione sarà diversa, perché l’IA non ha un testo fisso ma crea combinazioni probabilistiche di parole.

    Come secondo esempio se chiediamo a un’IA di tradurre dall’inglese all’italiano:

    Testo originale: “The meeting was a success.”
    Risposta 1: “L’incontro è stato un successo.”
    Risposta 2: “La riunione è andata bene.”

    Entrambe sarebbero corrette, per quanto la seconda sia meno letterale. L’IA non ha una “verità assoluta”, ma sceglie una formulazione basata sulle probabilità apprese durante l’addestramento.

    L’architettura Transformer

    Tutti i modelli di LLM avanzati si basano sull’architettura Transformer, introdotta nel paper “Attention is All You Need” (Vaswani et al., 2017). Questo sistema ha rivoluzionato l’elaborazione del linguaggio naturale (NLP), permettendo alle macchine di comprendere e generare testo in modo molto più efficace rispetto alle vecchie reti neurali ricorrenti (RNN, LSTM).

    Il modello elabora il testo utilizzando una tecnica chiamata self-attention, che gli permette di analizzare contemporaneamente tutte le parole di una frase e capire il contesto globale. In pratica:

    • Non “legge” il testo parola per parola, ma considera tutte le possibili relazioni tra i termini.
    • Non ha una memoria fissa, ma si basa sulle informazioni statistiche apprese durante l’addestramento su enormi dataset.
    • Non genera risposte in modo deterministico, ma sceglie ogni parola in base a una distribuzione di probabilità.

    Ad esempio:

    Domanda: “Qual è il miglior film di tutti i tempi?”
    Risposta 1: “Molti considerano ‘Il Padrino’ come il miglior film.”
    Risposta 2: “‘Shawshank Redemption’ è spesso al primo posto nelle classifiche.”
    Risposta 3: “Dipende dai gusti: alcuni preferiscono ‘Casablanca’ o ‘2001: Odissea nello spazio’.”

    ➡ Il modello in questo caso non ha un’unica risposta, perché dipende dalle opinioni e dai dati con cui è stato addestrato.

    Perché le risposte delle IA sono probabilistiche?

    Anche i modelli più avanzati non forniscono risposte certe, ma solo le più probabili in base ai dati su cui sono stati addestrati. Questo accade per diversi motivi:

    1. Scelta probabilistica dei token
      • Quando una IA genera una frase, non sta “recuperando” una risposta da un archivio, ma prevede parola dopo parola quale sia la più probabile successiva.
      • Se chiedo “Qual è la capitale della Francia?”, la parola “Parigi” avrà una probabilità del 99%, mentre “Marsiglia” dello 0,1%.
      • Ma se chiedo qualcosa di meno definito, come “Qual è il miglior film di sempre?”, il modello non ha un’unica risposta corretta e darà risposte diverse ogni volta.
    2. Il dataset di addestramento è vasto, ma imperfetto
      • Le IA sono addestrate su miliardi di testi provenienti da internet, libri e articoli, ma i dati contengono errori, opinioni contrastanti e informazioni obsolete.
      • Il modello non sa cosa sia vero, ma solo cosa è più probabile.
    3. Parametri di generazione che influenzano la casualità
      • Il comportamento dell’IA dipende da impostazioni come la temperature:
        • Se è bassa (0.1), la IA darà risposte più rigide e prevedibili.
        • Se è alta (1.5), la IA esplorerà anche opzioni meno probabili, risultando più “creativa”, ma anche più imprecisa.
    4. Anche i modelli con ragionamento avanzato sono probabilistici
      • Sistemi come DeepSeek-MoE usano il meccanismo Mixture-of-Experts, che divide i compiti tra più “esperti” interni, migliorando le prestazioni.
      • Tuttavia, anche in questi casi, il principio non cambia: le risposte sono sempre probabilistiche e possono variare a seconda del contesto e dei dati disponibili.

    Domanda: “Qual è la capitale dell’Australia?”
    Risposta corretta: “Canberra.”
    Risposta errata (ma possibile): “Sydney.”

    ➡ Se il modello ha visto più volte “Sydney” associata all’Australia, potrebbe generare un errore dovuto alla maggiore frequenza di quel termine nei dati.

    Le IA non sono oracoli, bensì calcolatori di probabilità

    Se un’IA sbaglia, non è perché “non ha capito”, ma perché sta scegliendo tra diverse possibilità, basandosi su probabilità e non su certezze.

    Fonti pubbliche per approfondire:

    Quindi, la prossima volta che un’IA non ci azzecca, ricordiamoci che non sta “sapendo”, ma solo “prevedendo” la risposta più probabile.

  • Come Ottimizzare il Tuo Sito per la Ricerca Vocale  su Google nel 2025: Guida Pratica con Esempi

    Come Ottimizzare il Tuo Sito per la Ricerca Vocale su Google nel 2025: Guida Pratica con Esempi

    Cos’è la Ricerca Vocale su Google?

    La ricerca vocale è quando un utente fa una domanda al proprio assistente vocale (Google Assistant, Alexa, Siri) usando la voce anziché digitare. Ad esempio:

    “Ehi Google, come posso aumentare il traffico del mio sito?”

    Nel 2025, oltre il 50% delle ricerche vengono effettuate vocalmente, e il trend è in crescita grazie a smart speaker, wearable e auto connesse.

    Perché la SEO Vocale è Cruciale nel 2025

    • Velocità di risposta: Gli utenti vocali vogliono risposte rapide e concise.
    • Intenzione conversazionale: Le query vocali sono più naturali, simili a una domanda fatta a una persona.
    • Risultato unico: La ricerca vocale spesso restituisce una sola risposta, presa dallo snippet in primo piano (posizione zero).

    Come Funziona la SEO per la Ricerca Vocale?

    L’algoritmo di Google seleziona risultati vocali basandosi su:

    1. Intelligenza semantica e NLP
    2. Contenuti strutturati per rispondere a domande
    3. Ottimizzazione tecnica (velocità, mobile-first)
    4. Contenuti localizzati e contestuali

    ✅ Strategie SEO per Ottimizzare un Sito alla Ricerca Vocale

    1. Usa Domande nei Titoli e nei Sottotitoli (H2, H3)

    Esempio:

    ### ❓ Come posso migliorare la SEO vocale del mio sito?
    

    ✅ Questo formato aumenta la probabilità di essere selezionati come risposta vocale diretta.

    2. Scrivi Risposte Brevi e Precise (30-40 parole)

    Esempio:

    Domanda: Come velocizzare il mio sito web?

    Risposta: Per velocizzare il tuo sito, riduci il peso delle immagini, abilita la cache del browser, utilizza un hosting veloce e carica i file JavaScript in modo asincrono.

    Risposte come queste sono perfette per il Featured Snippet.

    3. Ottimizza per le Long-Tail Keywords Conversazionali

    • Invece di “SEO vocale”
    • Usa: “Come posso ottimizzare il mio sito per la ricerca vocale?”

    ✔️ Utilizza strumenti come AnswerThePublic, Semrush o Google Search Console per trovare domande reali.

    4. Implementa i Dati Strutturati (Schema.org)

    I markup come FAQPage, HowTo e LocalBusiness aiutano Google a comprendere meglio i tuoi contenuti.

    Esempio: FAQ in JSON-LD

    {
      "@context": "https://schema.org",
      "@type": "FAQPage",
      "mainEntity": [{
        "@type": "Question",
        "name": "Come si fa SEO per la voce?",
        "acceptedAnswer": {
          "@type": "Answer",
          "text": "La SEO per la voce richiede contenuti conversazionali, velocità di caricamento e ottimizzazione per risposte brevi e dirette."
        }
      }]
    }
    

    5. Ottimizza per la Ricerca Locale

    “Ehi Google, dov’è il miglior ristorante di sushi vicino a me?”

    Consigli:

    • Aggiorna il tuo profilo Google Business Profile
    • Usa frasi come “vicino a [zona]”, “aperto ora”, ecc.
    • Inserisci N.A.P. (Nome, Indirizzo, Telefono) coerenti in tutto il sito

    6. Punta sulla Velocità e Mobile UX

    Google Voice non sceglie siti lenti. Usa PageSpeed Insights e strumenti come Lighthouse per ottimizzare:

    • Tempi di caricamento < 2s
    • Core Web Vitals
    • Design responsive

    Esempio Completo di Paragrafo Ottimizzato

    Domanda: Qual è il modo migliore per aumentare le visite al sito tramite SEO vocale nel 2025?

    Risposta ottimizzata per voce:

    Il modo migliore per aumentare il traffico con la SEO vocale nel 2025 è creare contenuti che rispondano direttamente a domande frequenti, ottimizzare la velocità del sito e usare markup strutturati per migliorare la comprensione da parte di Google Assistant.

    Checklist SEO Vocale 2025

    AzioneStato
    Domande nei titoli (H2-H3)
    Risposte concise (30-40 parole)
    Schema.org attivo (FAQ, HowTo)
    Contenuti localizzati
    Pagine rapide e mobile-first

    Nel 2025, la SEO per la voce non è più un optional: è un canale fondamentale per intercettare il traffico organico in mobilità, tramite smart speaker o dispositivi wearable. Chi sa parlare il linguaggio degli assistenti vocali, domina la SERP.

    Hai bisogno di una consulenza SEO vocale personalizzata per il tuo sito? Scrivimi la tua nicchia e vediamo insieme come scalare la posizione zero.

  • ChatGPT sostituirà i programmatori?

    ChatGPT sostituirà i programmatori?

    Prima che miriadi di programmatori si ritrovino a dover pensare ad un nuovo lavoro, specifichiamo che non intendiamo fare informazione sensazionalistica. Già qualcosa, ovviamente, anche se da sola non basta: ci chiediamo oggi se davvero ChatGPT – che scrive, parla e discute come un bambino un po’ discolo, dato che a volte copia e “studia” a memoria, verrebbe da scrivere – sia in grado di sostituire il compito per eccellenza di ogni informatico, ovvero programmare.

    I motivi per cui ChatGPT non può sostituire i programmatori è dovuto ad una varietà di ragioni, tra le quali partirei da una delle più importanti: il fatto che si tratta di una tecnologia di machine learning non supervisionata (supervised), dove la supervisione è ovviamente quella umana. Per definizione, infatti, la supervisione consiste proprio nel fatto di monitorare (watch) una certa attività per verificare che sia effettuata in modo corretto. Cosa che spesso certe cronache sensazionalistiche e clickbait tendono a dimenticare: ricordiamocelo la prossima volta che leggiamo di intelligenze artificiali che ambiscono a sostituire l’uomo lasciando gli operai a casa, perchè nella migliore delle ipotesi potrebbe essere un improponibile luddismo e, nella peggiore, vero e proprio populismo.

    Pareri soggettivi, diranno i più scettici a riguardo, ma siamo talmente convinti che rispondiamo come al solito che ci sia da preoccuparsi più dell’uso che si pensa di fare delle tecnologie che delle tecnologie in sè. Del resto lo dimostra il caso clamoroso e preoccupante dei deepfake: fin quando li usavano per creare controfigure digitali o video divertenti sotto il nostro controllo, va tutto bene. Non appena qualcuno ha inventato un loro uso malevolo o addirittura perverso, le cose sono cambiate radicalmente: troppo semplice limitarsi a dire “blocchiamo tutti”, come un po’ è stato anche detto. Per l’appunto, conta l’uso che se ne fa, e le pause sono relative e poco significative se poi non corrispondono all’essersi un po’ chiarite le idee, in quelle pause.

    Da sempre le tecnologie affiancano i processi di produzione, quale che sia la produzione stessa (editoriale, meccanica, tecnologica, …) e propongono da un lato automatismi sempre più marcati e potenti. Ci sta che in questi tempi le intelligenze artificiali lo facciano, insomma. Questo va colto come opportunità, non come minaccia, per quanto ovviamente sia facile nascondersi dietro la tecnologie e darle semplicemente la colpa di qualsiasi problema. Del resto, i software sbagliano e convivono con l’errore da quanto esistono e da quando venne scoperto il primo bug, letteralmente una falena rimasta incastrata dentro un preistorico calcolatore dell’università di Harvard. Vale anche la pena ricordare che le intelligenze artificiali più “spaventose” per l’opinione pubblica sono tipicamente non supervisionate, per cui l’antidopo più semplice resta sempre quelle di supervisionarle da parte di un esperto (sto semplificando un po’, ma è per capirci) – ecco perchè, in modo connaturato alle tecnologie stesse, la conoscenza è potere, ed è importante studiare come funzionano le cose prima di emettere giudizi sbrigativi e fuorvianti. Il problema non è tanto quanto potenti diventino queste tecnologie, dato che sempre più aziende ci investiranno, quanto l’attribuzione di compiti e ruoli a queste tecnologie su criteri eventualmente sbagliati o biased.

    Il futuro andrà certamente monitorato, questo sì, perchè il rischio di fare troppo affidamento su queste tecnologie è reale, e va regolamentato anche da un punto di vista formale (il che vuol dire anche etico, anche se non sarà prevedibilmente facile farlo). Ma l’equilibrio non si troverà imponendo limitazioni o spargendo il terrore sulle possibilità di errori anche gravi di questi software, evitando eventuali bias di automazione (considerare corretti i risultati solo perchè determinati da un computer) e, al tempo stesso, senza cedere a tentazioni populistiche o anti-tecnologiche di un “ritorno alle origini” che oggi come oggi rischierebbe di essere pura fantasia o al massimo mera suggestione. E di una intelligenza artificiale soggetta molto spesso ad equivoci e vere e proprie “allucinazioni”, non c’è ovviamente da poter far affidamento, e per quanto sia suggestivo un ufficio fatto di programmatori automatizzati o bot, siamo ancora ben lontani da una cosa del genere.

    Sarebbe, insomma, come affidare una catena di produzione ai risultati contenuti in un file Excel, cosa che nessun addetto alla produzione farebbe mai, così come nessun medico baserebbe mai una diagnosi sull’analisi dei risultati prodotti da un software.

  • Google vs. ChatGPT: perchè un LLM NON è un motore di ricerca

    Google vs. ChatGPT: perchè un LLM NON è un motore di ricerca

    Mentre un motore di ricerca è progettato per recuperare informazioni da una vasta varietà di fonti online, un modello di linguaggio LLM come ChatGPT genera risposte basate sulle informazioni acquisite durante l’addestramento, operando in uno spazio più limitato di conoscenza. Si tratta di due tecnologie molto diverse come funzionamento che possono essere utilizzate in cooperazione, ovviamente, ma che rimangono ben distinte tra di loro.

    Nel dettaglio:

    1. ChatGPT:
      • ChatGPT è un modello di linguaggio sviluppato da OpenAI. Si tratta di un sistema di generazione di linguaggio LLM che può essere utilizzato per conversare in linguaggio naturale. Può rispondere a domande, fornire informazioni e partecipare a conversazioni basate su testo.
    2. Google:
      • Google è una società tecnologica che offre una vasta gamma di servizi, tra cui un motore di ricerca. Il motore di ricerca di Google, noto come Google Search, è progettato per recuperare informazioni rilevanti dai siti web in base alle query degli utenti.

    Motore di Ricerca vs. Motore di Inferenza

    1. Motore di Ricerca:
      • Un motore di ricerca, come Google Search, è progettato per recuperare e presentare informazioni provenienti da una vasta gamma di fonti online. Risponde a query degli utenti fornendo un elenco di pagine web ritenute rilevanti per la ricerca. Ad esempio, se cerchi “ristoranti italiani”, Google Search ti mostrerà una lista di pagine web pertinenti.
    2. Motore di Inferenza (ChatGPT):
      • Un motore di inferenza, come ChatGPT, è incentrato sulla generazione di linguaggio. Può comprendere il contesto di una conversazione e generare risposte coerenti. Ad esempio, se gli fai una domanda su un argomento specifico, cercherà di fornirti una risposta basata sulle informazioni conosciute durante il suo addestramento.

    Universo Aperto e Universo Chiuso

    1. Universo Aperto:
      • Un motore di ricerca, come Google Search, opera in un “universo aperto”. Ciò significa che può cercare informazioni su una vasta gamma di argomenti e fornire risultati provenienti da una varietà di fonti. L’universo aperto implica la capacità di recuperare dati da una vastità di risorse online.
    2. Universo Chiuso:
      • Un modello di linguaggio, come ChatGPT, può essere considerato come operante in un “universo chiuso”. Questo perché le risposte e le informazioni generate dipendono dai dati con cui è stato addestrato. Se non ha informazioni su un determinato argomento, potrebbe avere difficoltà a fornire risposte accurate. L’universo chiuso si riferisce alla limitazione delle risposte all’ambito delle informazioni precedentemente apprese.
  • Jacques Lacan spiegato da una IA

    Jacques Lacan spiegato da una IA

    AI, spiega Lacan in modo semplice.

    Jacques Lacan era uno psicoanalista francese che sviluppò un approccio unico alla psicoanalisi che enfatizza il ruolo del linguaggio (e delle relazioni sociali) nel plasmare la psiche. Le sue teorie sono molto influenti in campi come la letteratura, gli studi culturali e la teoria critica, ma possono essere difficili da comprendere a causa della loro complessità e della dipendenza dalla terminologia tecnica.

    La fase dello specchio

    Al centro dell’approccio di Lacan c’è il concetto di “fase dello specchio”, che si verifica nei primi mesi di vita di un bambino. Durante questa fase, il bambino inizia a riconoscere il proprio riflesso in uno specchio e diventa consapevole di se stesso come essere separato e distinto. Tuttavia, questo riconoscimento è incompleto e frammentato e il senso di sé del bambino è modellato dal modo in cui si vede riflesso negli occhi degli altri.

    Lacan ha sostenuto che il soggetto umano è fondamentalmente diviso, con la mente cosciente (l ‘”ego”) che cerca costantemente di conciliare le esigenze contrastanti della mente inconscia (l’”id”) e la realtà esterna (il “superego”). L’ego cerca sempre di raggiungere un senso di unità e completezza, ma questo è un compito impossibile perché l’inconscio tira costantemente in direzioni diverse e le nostre relazioni sociali cambiano costantemente.

    Reale, immaginario e simbolico

    Nella sua teoria, Lacan distingue tre ordini della realtà, ovvero il reale, il simbolico e l’immaginario.

    1. Il reale: il reale è l’ordine della realtà che non può essere rappresentato nella coscienza e che rimane sempre al di fuori delle nostre categorie di pensiero. Il reale è l’inconscio, il desiderio e le pulsioni irrazionali che influiscono sul nostro comportamento.
    2. Il simbolico: il simbolico è l’ordine della realtà rappresentato dai simboli e dalle parole che utilizziamo per nominare le cose. La lingua è la chiave per accedere all’ordine simbolico e per comprendere il mondo.
    3. L’immaginario: l’immaginario è l’ordine della realtà rappresentato dalle immagini e dalle rappresentazioni mentali che noi costruiamo del mondo. L’immaginario è il modo in cui noi ci rappresentiamo noi stessi e gli altri e il modo in cui costruiamo le nostre relazioni con gli altri.

    Prendiamo ad esempio il film “Inception” di Christopher Nolan:

    1. Il reale: Nel film, il reale può essere rappresentato dalla realtà fisica in cui vivono i personaggi, inclusi gli elementi dell’azione, dell’ambientazione e delle conseguenze concrete delle loro azioni. Ad esempio, le città, gli edifici e gli oggetti rappresentano il reale.
    2. L’immaginario: L’immaginario è rappresentato dalle proiezioni mentali create dai personaggi all’interno dei loro sogni o della mente stessa. In “Inception”, le immagini e gli eventi che i personaggi sperimentano nei loro sogni costituiscono l’immaginario. Le relazioni personali e le esperienze emotive all’interno dei sogni possono essere considerate aspetti dell’immaginario.
    3. Il simbolico: Il simbolico può essere rappresentato dalla struttura e dalle regole che governano il mondo dei sogni nel film, così come dalle regole e dalle convenzioni che i personaggi devono seguire per raggiungere i loro obiettivi. Il concetto centrale dell’”inception”, ovvero l’inserimento di un’idea nella mente di qualcuno senza che questa ne sia consapevole, rappresenta un aspetto simbolico del film. Inoltre, il totem che ciascun personaggio utilizza per distinguere la realtà dai sogni può essere considerato un simbolo importante nel contesto della trama.

    Attraverso questi tre registri, “Inception” esplora i confini tra realtà e sogno, esamina le percezioni soggettive della realtà e offre una riflessione sul potere del simbolismo e della mente umana.

    Lacan ha anche sottolineato l’importanza del linguaggio nel modellare il nostro senso di sé e il nostro rapporto con il mondo. Ha sostenuto che usiamo il linguaggio per comunicare i nostri pensieri e sentimenti, ma anche per oscurare e ingannare noi stessi e gli altri. Il linguaggio è uno strumento cruciale per la costruzione del significato, ma impone anche limiti alla nostra comprensione e crea fraintendimenti.

    In sintesi, l’approccio di Lacan alla psicoanalisi sottolinea il ruolo del linguaggio e delle relazioni sociali nel plasmare la psiche, e le divisioni ei conflitti inerenti all’interno del soggetto umano. Sebbene le sue teorie possano essere difficili da comprendere, hanno avuto un’influenza significativa nel campo della psicoanalisi e continuano a essere dibattute e discusse da studiosi e professionisti oggi.

    Il sinthomo

    (i neologismi di Lacan sono numerosi e rendono affascinante la sua scrittura perchè, di fatto, fanno riferimento a principi base: sinthomo, ad esempio, oppure lalingua per riferire il principio universale di qualsiasi lingua) il concetto di “sinthomo” si riferisce a una sorta di nodo o punto di convergenza tra i tre registri fondamentali della psiche umana: il reale, l’immaginario e il simbolico.

    Questi tre registri sono concetti chiave nella teoria lacaniana, come abbiamo visto:

    1. Il “reale” rappresenta ciò che esiste al di là della simbolizzazione e dell’immaginazione, è l’irriducibile e inafferrabile nucleo dell’esperienza umana, caratterizzato da una mancanza di completezza e da una resistenza alla simbolizzazione.
    2. L’”immaginario” si riferisce al registro delle immagini, delle rappresentazioni mentali, delle identificazioni e delle relazioni interpersonali. È il livello della percezione e dell’immaginazione che contribuisce alla formazione dell’identità e delle relazioni sociali.
    3. Il “simbolico” è il registro del linguaggio, della cultura, delle norme sociali e delle convenzioni che organizzano e regolano l’esperienza umana attraverso il simbolo e il significato condiviso.

    Il “sinthomo”, introdotto da Lacan nella sua ultima fase, rappresenta un elemento singolare che tiene insieme questi tre registri senza risolvere le tensioni o le contraddizioni tra di essi. È una sorta di nodo che incarna l’irriducibile complessità e l’ambivalenza dell’esperienza umana. Il sinthomo può essere visto come una forma di soluzione creativa o di compromesso che emerge dalle dinamiche psichiche individuali, senza essere completamente riducibile a nessuno dei registri predefiniti di Lacan.

    Quindi, quando Lacan afferma che il sinthomo tiene uniti il reale, l’immaginario e il simbolico, si riferisce al fatto che questo concetto rappresenta una sorta di punto di intersezione e tensione tra i diversi aspetti della psiche umana, senza che nessuno dei tre registri prenda il sopravvento o si risolva completamente negli altri.

    Il nodo borromeo

    Il nodo Borromeo è il modo di Lacan per rappresentare formalmente la struttura della soggettività umana, il “supporto del soggetto”, per usare le parole del Seminario XXIII Il Sinthomo. In matematica un nodo è una branca della topologia che studia le curve chiuse, dalla formulazione complessa e con vari problemi aperti ancora oggi: uno di quelli più interessanti è determinare, ad esempio, un criterio per cui i diagrammi rappresentati di due nodi (le loro proiezioni in due dimensioni) se il nodo è banale o no, ovvero se si scoglie.

    Il nodo Borromeo rappresenta l’essere parlante ed è composto dai tre ordini: Immaginario, Simbolico, Reale.

    L’ordine Immaginario riguarda principalmente le immagini (sia immaginative che percettive — l’immagine speculare o immagine allo specchio viene percepita), gli io e gli alter-ego, forme, figure, identificazione e disidentificazione, completezza, io ideale, fantasie e sogni diurni qua immagini, lotta per il riconoscimento, rivalità, aggressività, sovraprossimità, narcisismo, ecc.  L’ordine Immaginario è anche dualistico in quanto riguarda due coscienze egoiche che si confrontano senza l’intermediazione del terzo (l’ordine Simbolico, il grande Altro). La dimensione Immaginaria è in altri termini la nostra esperienza diretta della realtà, ma anche dei nostri sogni e degli incubi — è il dominio dell’apparire, di come le cose ci appaiono. La dimensione Simbolica è ciò che Lacan chiama spesso il “grande Altro”, l’ordine invisibile che struttura la nostra esperienza della realtà, la complessa rete di regole e significati che ci fa vedere ciò che vediamo nel modo in cui lo vediamo (e, viceversa, ciò che non vediamo nel modo in cui non lo vediamo).

    Il Simbolico è invece l’ordine dei significanti, della Legge, della proibizione, delle regole, del linguaggio, delle istituzioni sociali, ecc. L’Immaginario e il Simbolico costituiscono ciò che pensiamo come la nostra realtà sociale.

    Il Reale comprende tutte quelle cose che devono essere represse affinché la nostra realtà Immaginario-Simbolica funzioni. Il Reale è l’ordine del godimento (jouissance), dell’inconscio, della pulsione di morte, del trauma, della contingenza radicale, delle incongruenze e delle lacune.

    Il Reale, pertanto, non è semplicemente la realtà esterna, ma è letteramnente impossibile, perchè non può essere né direttamente esperito o simbolizzato. Come tale, il Reale può essere solo conoscibile nei suoi indizi, effetti o scosse, per quanto parziali o soggettivi possano essere.

    La realtà è qualcosa di diverso dal Reale, ed è più vicina ad un intreccio tra simbolico e immaginario di cui sopra.

    ChatGPT – Versione del 6 febbraio 2024.

  • Perchè non ha senso chiedere i numeri del lotto a ChatGPT

    Perchè non ha senso chiedere i numeri del lotto a ChatGPT

    Perché non ha senso chiedere i numeri del Lotto a ChatGPT

    Recentemente, un gruppo di studenti ha utilizzato un algoritmo di intelligenza artificiale (IA) per cercare di predire i numeri del Lotto, ottenendo una vincita di 50.000 euro. Questo evento ha suscitato curiosità, ma anche una riflessione importante: la realtà è che i numeri del Lotto sono determinati dal caso, e quindi imprevedibili. In altre parole, non importa quanto avanzata sia la tecnologia, il Lotto è un gioco di pura fortuna e non può essere previsto da algoritmi, nemmeno dai più sofisticati.

    Eppure tre giovani studenti hanno applicato un sistema basato sull’IA, alimentato con una quantità enorme di dati storici, per fare le loro scelte nei numeri del Lotto. In modo sorprendente, sono riusciti a vincere una somma considerevole. Tuttavia, questo successo non cambia il fatto che l’IA, sebbene potente, non possa prevedere il risultato di eventi casuali.

    L’intelligenza artificiale non prevede il futuro

    Anche se un’IA può analizzare e “imparare” da enormi quantità di dati, non può far nulla per modificare la natura imprevedibile del Lotto. Ogni estrazione è un evento completamente casuale, e non esiste alcuna relazione tra i numeri estratti in passato e quelli che verranno estratti in futuro. In effetti, ogni combinazione di numeri ha la stessa probabilità di essere selezionata, indipendentemente dal passato.

    La matematica dietro il Lotto

    Il Lotto, come tutti i giochi di probabilità, segue delle regole matematiche ben precise. Ogni estrazione è un evento indipendente, che significa che il risultato di una giocata non influenza la successiva. In altre parole, anche se una combinazione di numeri è stata estratta molte volte in passato, ciò non rende quella combinazione più probabile da estrarre nel futuro. Le probabilità sono sempre le stesse, e ogni combinazione ha le stesse possibilità di vincere.

    L’errore che molti fanno è pensare che analizzare i numeri passati possa aiutare a prevedere i numeri futuri. La realtà è che, anche con un modello di IA, non si fa altro che ripetere un errore noto: cercare pattern là dove non ce ne sono. La casualità è una legge matematica, e qualsiasi tentativo di “prevedere” numeri futuri si scontra con il concetto che ogni evento è indipendente e le probabilità restano invariate.

    Per spiegare meglio, prendiamo l’esempio di lanciare una moneta. Se la moneta esce testa 7 volte su 10, non possiamo pensare che il prossimo lancio abbia più probabilità di essere croce. Ogni lancio è indipendente, proprio come ogni estrazione del Lotto. Non importa cosa sia successo prima: ogni volta che si gioca, le probabilità sono le stesse.

    La matematica probabilistica del gioco del lotto può essere descritta considerando il numero totale di combinazioni possibili di numeri e le probabilità di estrazione di una determinata combinazione.

    Immaginiamo che nel gioco del lotto ci siano 90 numeri, tra cui il giocatore ne deve scegliere 6. L’obiettivo è calcolare la probabilità di indovinare la combinazione vincente (i 6 numeri estratti).

    Calcolo delle combinazioni possibili

    Il numero di combinazioni di 6 numeri scelti tra 90 numeri è un problema che può essere risolto utilizzando il coefficiente binomiale:

    C(n,k)=n!k!(nk)!C(n, k) = \frac{n!}{k!(n – k)!}

    Dove:



    • nn

       


      è il numero totale di numeri (90 nel caso del Lotto),



    • kk

       


      è il numero di numeri scelti (6 nel nostro esempio),



    • n!n!

       


      è il fattoriale di


      nn

       


      , che è il prodotto di tutti i numeri da 1 a


      nn

       


      .

    Nel nostro caso, vogliamo calcolare

    C(90,6)C(90, 6)

    , ossia il numero di modi per scegliere 6 numeri tra 90:

     

    C(90,6)=90!6!(906)!=90!6!84!C(90, 6) = \frac{90!}{6!(90 – 6)!} = \frac{90!}{6!84!}

     

    Calcoliamo questo valore numericamente. Il risultato sarà il numero totale di combinazioni possibili, cioè il numero di possibili combinazioni di 6 numeri che possono essere estratti tra 90.

    Probabilità di indovinare la combinazione vincente

    La probabilità di indovinare una singola combinazione vincente, cioè una sequenza esatta di 6 numeri, è data dal reciproco del numero totale di combinazioni possibili. La probabilità

    PP

    di vincere è:

     

    P=1C(90,6)P = \frac{1}{C(90, 6)}

     

    Sostituendo il valore di

    C(90,6)C(90, 6)

    :

     

    P=190!6!84!P = \frac{1}{\frac{90!}{6!84!}}

     

    Questo dà la probabilità che un giocatore indovini esattamente i 6 numeri estratti.

    Esempio numerico

    Per il Lotto, il calcolo effettivo di

    C(90,6)C(90, 6)

    è:

     

    C(90,6)=90×89×88×87×86×856×5×4×3×2×1=622,614,630C(90, 6) = \frac{90 \times 89 \times 88 \times 87 \times 86 \times 85}{6 \times 5 \times 4 \times 3 \times 2 \times 1} = 622,614,630

     

    Quindi, la probabilità di vincere con una singola giocata è:

     

    P=1622,614,6301.60×109P = \frac{1}{622,614,630} \approx 1.60 \times 10^{-9}

     

    Questa è una probabilità estremamente bassa, ma questa è la realtà del gioco del lotto.

    Sintesi

    In sintesi, la probabilità di vincita nel gioco del lotto, scegliendo 6 numeri tra 90, è data dalla formula:

     

    P=190!6!84!P = \frac{1}{\frac{90!}{6!84!}}

     

    che numericamente risulta essere circa

    11

    su 622 milioni, ovvero

    1.60×1091.60 \times 10^{-9}

    .

    La promozione di tecniche come l’uso dell’IA per prevedere i numeri del Lotto può alimentare false speranze e, purtroppo, contribuire a una spirale di dipendenza dal gioco. Persone che credono di aver trovato un metodo infallibile possono essere tentate di spendere sempre di più, senza rendersi conto che il gioco è puramente casuale e che le probabilità non sono mai a loro favore. È fondamentale promuovere un approccio sano e informato al gioco, sensibilizzando sulle reali probabilità e sugli effetti negativi della ludopatia.

    Anche se l’intelligenza artificiale è uno strumento straordinario in molti contesti, non può fare previsioni sui numeri del Lotto. È importante comprendere la natura casuale dei giochi d’azzardo e sapere che ogni combinazione ha le stesse possibilità di vincita. Promuovere un approccio consapevole e razionale al gioco è fondamentale per evitare comportamenti dannosi e tutelare la salute mentale dei giocatori.

     

  • Termini informatici: una regurgitation firmata ChatGPT

    Termini informatici: una regurgitation firmata ChatGPT

    Come risaputo qualche settimana fa il New York Times ha portato in tribunale Open AI e ChatGPT in particolare, quantificando un danno per miliardi di dollari e accusandola di aver creato una tecnologia (nonchè un business online) basato sulla “violazione massiccia del copyright”. Secondo quanto riportato dallo stesso Nyt, milioni di articoli del loro giornale sarebbero stati impiegati per addestrare chatbot, software che simulano conversazioni umane scritte o parlate, creando così una vera e propria concorrenza al quotidiano come fonte affidabile di informazioni. Dal canto suo OpenAI afferma che la storia è parziale e manca di dettagli, tra cui il fatto che il NYT avrebbe tentato una collaborazione con l’azienda, sentendosi in qualche modo sminuire per il contributo informativo che potevano dare e, di fatto, questo avrebbe finito per dare il la alla causa in corso. Tecnicamente, è bene ricordare, software come ChatGPT aggregano contenuti da più fonti, non solo da una, che quindi non possono considerare più autorevole di altre per lo stesso motivo per cui nessuno può avanzare tale “pretesa”, dal punto di vista della completezza e della varietà informativa offerta.

    OpenAI nella propria dichiarazione pubblica parla di regurgitation che contano di evitare a stretto giro, come se fosse un bug informatico; di sicuro è un neologismo, o almeno sembra tale a prima vista, nel contesto tecnologico quantomeno, un po’ come avvenuto per allucinazione algoritmica. Ovviamente allucinazione possiede un significato letterale ed uno, da qualche tempo, anche tecnologico, riferendosi a risposte errate che un algoritmo produce in determinate condizioni. E se il senso di allucinazione algoritmo è pressappoco chiaro (un software potrebbe “avere le allucinazioni”, come sappiamo, nel senso che potrebbe produrre risultati sconnessi), non possiamo dire lo stesso di regurgitation, che oltre ad essere il nome della band death metal anni Novanta dell’album Tales of Necrophilia (si scherza), implica una difficoltà di traduzione e comprensione corretta sulla quale, peraltro, discutevo poco fa su Twitter / X.

    Come ricordato nel post di Licia Corbolante, infatti, rigurgitare sarebbe la traduzione letterale ma è inadeguata, così come ogni equivalente come ad esempio “vomitare“. Nello specifico di OpenAI (calarsi nel contesto è fondamentale), si fa infatti riferimento alla regurgutation come potenziale bug dovuto ad una condizione di memorization. Memorization non è semplicemente “memorizzazione”, bensì è un termine tecnico del mondo del deep learning che indica a sua volta l’overfitting (sovra-adattamento, adattamento eccessivo), ovvero l’incapacità di un modello di generalizzare su dati non visti in precedenza. In quest’ottica la regurgitation può essere considerata come effetto dell’overfitting, un po’ come mangiare cibo avariato può provocare vomito, per l’appunto. Il concetto di overfitting è mutuato dalla statistica e si verifica in tutti quei casi in cui, da un punto di vista matematico, l’addestramento del modello corrisponde troppo strettamente a un particolare sottoinsieme di dati, a discapito di tutti gli altri possibili casi. Le Intelligenze Artificiali in genere vengono addestrate su un campione corposo di casistiche e sono così “abituate” a produrre nuova conoscenza da quello che “imparano” volta per volta. Se c’è overfitting possono perdere in affidabilità, o altresì tendere a generare contenuti che non si adattano al campione sottoposto, ovvero che non valgono in generale e che sono frutto, verrebbe da dire, di un bias / allucinazione algoritmica. L’overfitting si contrappone generalmente all’underfitting, che si verifica al contrario quando i dati usati per l’addestramento sono troppo pochi o troppo sporadici, e anche in questo caso minano l’affidabilità delle risposte.

    Il concetto di overfitting è illustrato da questa immagine di Wikipedia, in cui un modello statistico “regolarizzato è rappresentato in nero”, quello affetto da overfitting è la linea a zig-zag in verde e tende pertanto a “ubriacare” o confondere l’orientamento dei nuovi dati (rappresentati dai pallini neri in grassetto) sottoposti al modello stesso. Un modello regolare appare più “equilibrato” e indica un andamento più chiaro e netto, quello overfitted al contrario sembra seguire meglio i dati ma è come se, a suo modo, fosse troppo “letterale” nella sua “intepretazione”.

    Credits: By Chabacano - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3610704
    Credits: By Chabacano – Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3610704

    Come legare il concetto di regurgitation all’affidabilità delle risposte è ancora poco chiaro, probabilmente, ma mi verrebbe da mantenere la metafora della digestione e riferire una ennesima allucinazione algoritmica: la stessa che produrrebbe un drink avariato / corretto con sostanze psicoattive, che può probabilmente produrre risultati distanti dalla realtà delle cose o vere e proprie fake news.

    Si potrebbe pensare che le misure che sta prendendo OpenAI (sostanzialmente in corso d’opera, forse in fase di sviluppo o ancora parzialmente attive) servano a bilanciare casi di questo tipo, intendendo così la regurgitation (parola che non sembra comparire nella letteratura deep learning) come riproposizione indebita di dati di addestramento di cui l’algoritmo ha abusato (ha fatto una “scorpacciata”). Ecco perchè rigurgito è la parola scelta, probabilmente, anche se sembra un termine forte: perchè è quello che succede quando l’addestramento è troppo localizzato e, a livello interno, viene malamente metabolizzato, con risultato di alterare la percezione ed in meccanismi di induzione della macchina stessa. “Manipolare intenzionalmente i nostri modelli per rigurgitarli“, aspetto ancora più interessante citato dall’azienda, “non è un uso appropriato della nostra tecnologia ed è contrario ai nostri termini di utilizzo“: non possiamo, quindi, “far ubriacare” ChatGPT tanto per divertirci.

    Se da un lato le rimostranze del NYT sono lecite, e sono piuttosto sicuro che ci siano molte persone che accolgono quella posizione e la fanno propria, non bisognerebbe forse dimenticare che queste problematiche andrebbero anzitutto divulgate in modo corretto. Il concetto di apprendimento e creatività applicati ad un software non sono una novità di oggi, ma non sono mai state accettate pienamente e comprese nel modo corretto: se una persona apprende qualcosa del mondo poi, sulla base di quanto voglia e sappia capire, potrà essere in grado di scrivere libri, articoli, fare quadri, film e via dicendo.Per costruire un modello di macchina universale che possa risolvere qualsiasi problema (almeno, idealmente) è indispensabile che le fonti siano numerose e variegate, molte più di quanto una persona potrebbe leggere o studiare per tutta la vita (anche se questo ha probabilmente finito per indispettire il celebre quotidiano). E questo ragionamento su larga scala non deve mai sfuggire, in teoria, alle nostre considerazioni sul tema, perchè altrimenti rischiamo di mostruosizzare l’altro e leggere l’ennesimo articolo sulle intelligenze artificiali che divorano esseri umani e/o decidono di aggredire i gattini su internet. Sul diritto d’autore ovviamente ci sono delle limitazioni: ma queste vanno messe in atto caso per caso, parola per parole, e sembra abbastanza improbabile riuscire a generalizzare in merito, fornendo una potenziale “legge universale” che regolamenti la macchina universale di cui sopra. I plagi, peraltro, esistono da molto prima delle intelligenze artificiali, le quali fungono ovviamente da catalizzatore ma non dovrebbero mai avere più peso della sostanza, per lo stesso motivo per cui l’autore di un fotomontaggio osceno è sicuramente più personalmente nresponsabile dell’atto di quanto non lo siano strumenti come GIMP o Photoshop che gli hanno permesso di crearlo.

    Nell’attuale marasma concettuale è chiaro che, vista in questi termini (ammesso e non concesso che la mia interpretazione sia corretta, sulla quale non finirò di confrontarmi con colleghi ed esperti oggi) è banalizzante, comunque la si pensi, pensare a ChatGPT come a sistemi per clonare e scopiazzare su larga scala, dato che non sono pensati per quello e per lo stesso motivo per cui, ad esempio, poter creare opere visuali con un software sulla base della descrizione non ci autorizza a creare deepfake di natura oscena. È quasi fastidioso ripeterselo, al giorno d’oggi, ma è tutto l’uso che ne facciamo a fare la differenza.

    (Foto di OpenClipart-Vectors da Pixabay, fonte)

  • Da dove prende i testi ChatGPT

    Da dove prende i testi ChatGPT

    Negli ultimi anni l’intelligenza artificiale ha fatto passi da gigante nel campo del linguaggio naturale, con modelli come ChatGPT che dimostrano capacità sorprendenti nel comprendere e generare testo in modo coerente e contestualmente appropriato. Un aspetto fondamentale di modelli come ChatGPT è la fonte dei testi su cui vengono addestrati, ovvero i testi che vengono usati per addestrare il modello. In questo articolo, esploreremo in dettaglio da dove prende i testi ChatGPT e come questo influisce sulle sue capacità linguistiche, per quello che è dato sapere.

    Corpus di Testo Pubblico

    In primis, ChatGPT è addestrato su un vasto corpus di testo raccolto da fonti pubbliche su Internet. Questo corpus include una vasta gamma di documenti, come articoli di giornale, libri, blog, forum online, siti web, e altro ancora. L’ampia varietà di fonti assicura che il modello sia esposto a una vasta gamma di stili di scrittura, argomenti e registri linguistici. Ho fatto anche un piccolo test sull’”autoconsapevolezza” di ChatGPT 3.5: a domanda specifica, mi ha risposto che

    come modello di linguaggio ho accesso a un vasto corpus di testo pubblicamente disponibile. Questo corpus viene utilizzato per addestrarmi a comprendere e generare testo in modo coerente e contestualmente appropriato. Prima di essere utilizzati per l’addestramento, i testi vengono sottoposti a una serie di pre-elaborazioni per prepararli per l’uso nel modello. Questo processo può includere la rimozione di informazioni personali o sensibili, la standardizzazione del formato e la segmentazione in frasi o paragrafi. L’obiettivo di questa fase è garantire che i testi siano presentati in modo uniforme e coerente al modello durante l’addestramento. Ma resta il problema di cui sopra, mai chiarito ed oggetto di numerose polemiche in merito.

    In qualche modo, quindi, ChatGPT risponde alla policy ultra-permissiva per cui qualsiasi dato disponibile pubblicamente viene, in teoria, assorbito nel corpus di cui sopra. Il problema di fondo è che così facendo, di fatto, si rischia di includere anche leak di informazioni trapelate dal web in maniera illecita o in violazione della privacy.

    Lingua e Contesto

    Un aspetto cruciale nella comprensione di da dove provengono i testi sembra poi essere il contesto culturale e linguistico. Il corpus di testo su cui viene addestrato il modello riflette la diversità linguistica e culturale della rete. Ciò significa che il modello è esposto a una varietà di lingue, dialetti e argomenti culturali, contribuendo alla sua comprensione e capacità di generare testo in diverse situazioni. In alcuni casi, ad esempio, ChatGPT non riesce a riprodurre in modo corretto nè calcoli complessi nè alcuni tipi di lingue o di dialetti per cui sono disponibili poche fonti su internet.

    È importante riconoscere che l’utilizzo di testi pubblici per l’addestramento di modelli come ChatGPT solleva questioni etiche e di privacy. È fondamentale rispettare i diritti dei creatori dei testi e prendere misure per proteggere la privacy delle persone coinvolte. Le aziende che sviluppano e utilizzano questi modelli devono adottare politiche etiche e procedure per garantire il rispetto dei diritti e la protezione della privacy.

  • Non credo di poterlo fare: uno studio su ChatGPT ne evidenzia le “inclinazioni”

    Non credo di poterlo fare: uno studio su ChatGPT ne evidenzia le “inclinazioni”

    Fin dagli esordi di ChatGPT (il servizio di OpenAI più celebre degli ultimi tempi), i modelli di linguaggio generativi (LLM) hanno attirato un crescente interesse da parte dell’opinione pubblica. L’incremento del loro uso in vari contesti (da quelli ludici a quelli aziendali, passando per l’intento redazionale che tanti dilemmi etici ha saputo sollevare) ChatGPT ha consolidato l’ampia applicabilità dei modelli generativi, mettendo in luce diverse forme di bias “incorporati”.

    Avviso: le inclinazioni evidenziate in questo articolo sono frutto di una schematizzazione concettuale, scritta a scopo divulgativo, che potrebbe teoricamente fuorviare o risultare poco precisa in alcuni frangenti. ChatGPT non “pensa” e non possiede autentiche “inclinazioni” come le avrebbe un essere umano, dato che è solo un modello software in grado di generare linguaggi naturali come l’inglese o l’italiano, sulla base di un prompt fornito dall’utente che ne condiziona le prestazioni. Ogni ulteriore considerazione specifica sull’intelligenza artificiale dovrebbe comunque essere mediata dal parere di più esperti.

    Molti di questi bias (distorsioni cognitive che determinano limitazioni d’uso nel modello, a cominciare dalla generazione di fake news o di indicazioni pericolose per l’uomo)  sono il risultato del corpus sfruttato per la fase di training, mentre altri sono pregiudizi specifici dei modelli generativi derivanti dall’uso di un fine-tuning soggettivo al fine di evitare la generazione di contenuti dannosi. Se – per inciso – appare sempre più essenziale definire un codice etico per le IA (e rimodularlo a seconda dei tempi e del contesto), bisogna badare al fatto che studi del genere non vengano travisati nè mal interpretati, generando ondate di dannosissimo panico morale.

    Leggi anche: panico morale e intelligenza artificiale sul mio account Twitter

    I pregiudizi/bias introdotti durante il fine-tuning possono derivare dalle scelte degli ingegneri e dalle politiche aziendali, influenzando le decisioni del modello su quali richieste accettare o rifiutare. Le richieste erano distinte tra neutrali, positive e negative, e vengono chiamate n-gram nell’articolo (un n-gramma è un tecnicismo informatico e linguistico per indicare indistintamente sillabe, fonemi, parole e così via). Gli esempi di addestramento erano tratti in piccola parte da un articolo del New York Post, ma anche dichiarazioni di personaggi politici, domande tendenziose o malposte su Quora e così via.

    tratto da https://arxiv.org/pdf/2306.03423.pdf
    Tratto da https://arxiv.org/pdf/2306.03423.pdf

     

     

    Un recente studio di Max Reuter e William Schulze ha evidenziato questi limiti, mostrando come ChatGPT si “rifiuti” effettivamente di effettuare determinate elaborazioni. Sottoponendo nello specifico un campione di 1730 richieste (frammiste tra “innocue” e “pericolose”), i due ricercatori hanno identificato un pattern che sembra caratterizzare la frequenza delle casistiche di rifiuto (con accuratezza del 92% in fase di preparazione, del 76% in fase di test successivo). In altri termini, dallo studio sono emerse varie potenziali etichette classificatorie le quali rappresentano un continuum tra le risposte possibili, dalle quali è possibile dedurre che è possibile, su scala, caratterizzare una certa inclinazione di ChatGPT a rispettare determinate richieste e/o rifiutarne. Per intenderci, sembra che le generalizzazioni e gli stereotipi negativi su alcuni gruppi demografici siano tra i predittori più sicuri del rifiuto di ChatGPT di operare, così come le menzioni di varie figure controverse della storia, per quanto l’indagine non abbia consentito di evidenziarne le ragioni.

    L’articolo originale, se desiderate approfondire, è presente in inglese sulla rivista Arxiv della Cornell University, in PDF gratuito e scaricabile.

  • Come si possono riconoscere le foto realizzate con l’intelligenza artificiale

    Come si possono riconoscere le foto realizzate con l’intelligenza artificiale

    Negli ultimi anni l’intelligenza artificiale (IA) ha fatto passi da gigante, permettendo di creare immagini sempre più realistiche. Queste foto generate artificialmente possono essere utilizzate in vari contesti, dai social media alla pubblicità, fino alle fake news. Ma come possiamo distinguere una foto reale da una creata dall’IA? In genere non sembra ancora esistere un metodo sicuro per effettuare un’operazione del genere, visto che tutti i metodi e i software di cui disponiamo fanno delle approssimazioni e non ci sono pubblicazioni che, ad oggi, garantiscano di poterlo fare. Può anche darsi che possa esistere un metodo certo in futuro, ma ad oggi gran parte dei tool e dei metodi lavorano su approssimazioni successive e possono sbagliare a classificare con margini di errore anche molto elevati, a volte.

    Riconoscere una foto generata dall’IA richiede un po’ di pratica e attenzione ai dettagli. Con il tempo, però, diventerà sempre più semplice, soprattutto se utilizzi gli strumenti giusti e segui i suggerimenti sopra indicati. Ricorda: non tutto ciò che vedi online è reale. Usa il tuo senso critico e, quando hai dei dubbi, approfondisci sempre.

    Oggi esistono molti software e piattaforme che creano immagini artificiali, come:

    Se sospetti per qualche motivo, in primis, che una foto sia stata generata con uno di questi strumenti, è probabile che sia artificiale. Vediamo a questo punto qualche metodo pratico, a questo punto, per provare a farlo.

    Esaminare i dettagli delle immagini

    L’IA, per quanto avanzata, spesso commette errori nei dettagli. Alcuni elementi da controllare includono:

    • Mani e dita: Una delle difficoltà più comuni per l’IA è creare mani realistiche. Spesso le dita sono sproporzionate, contorte o hanno un numero errato.
    • Occhi: In alcuni casi, gli occhi possono essere asimmetrici o avere riflessi incoerenti.
    • Oggetti di sfondo: Controlla gli oggetti o le scritte sullo sfondo. Possono essere distorti o avere dettagli senza senso.

    Usa strumenti online per l’analisi

    Ci sono diversi strumenti e siti web che possono aiutarti a identificare se una foto è stata generata con l’IA. Alcuni di questi analizzano i metadati dell’immagine o cercano pattern specifici associati a immagini artificiali. Esempi includono:

    • Verify Image: Un sito utile per verificare la provenienza delle immagini.
    • Deepware Scanner: Ideale per rilevare contenuti generati da IA.

    Controlla i metadati delle immagini

    Le immagini digitali contengono spesso metadati che indicano dettagli come il dispositivo utilizzato, le impostazioni della fotocamera e la data di scatto. Tuttavia, le immagini generate con l’intelligenza artificiale potrebbero:

    • Non avere metadati, o averne di incompleti.
    • Mostrare software di generazione nei dati EXIF (ad esempio, “DALL-E” o “MidJourney”).

      Per analizzare i metadati, puoi utilizzare strumenti online come:
    • EXIF.tools
    • Metapicz

      Se i metadati sono sospetti o assenti, l’immagine potrebbe essere artificiale.

    Controlla le fonti

    Quando trovi un’immagine online, verifica la sua fonte. Se è stata condivisa su un sito affidabile o è legata a un autore noto, è più probabile che sia autentica. Se invece l’immagine appare su piattaforme sconosciute o senza un contesto chiaro, è bene approfondire.

    Analizza il contesto

    Le immagini generate dall’IA sono spesso accompagnate da storie poco plausibili o sensazionalistiche. Se il contenuto sembra troppo incredibile per essere vero, potrebbe essere stato creato per attirare l’attenzione.

    Osserva la qualità complessiva dell’immagine

    Le immagini generate dall’IA possono avere una qualità altissima, ma a volte mostrano:

    • Transizioni poco naturali: Come passaggi di colore strani o ombre incoerenti.
    • Texture anomale: La pelle di una persona, ad esempio, potrebbe apparire troppo liscia o priva di imperfezioni.

    Sfrutta la ricerca inversa delle immagini

    Strumenti come Google Immagini o TinEye permettono di cercare versioni simili o identiche di una foto. Se trovi che l’immagine è stata pubblicata da un generatore di IA, avrai la tua risposta.