Tag: Mondo IA 🤖

  • StarryAI ha generato degli alter ego di una mia foto completamente a caso

    StarryAI ha generato degli alter ego di una mia foto completamente a caso

    L’arte sintetica generata dall’Intelligenza artificiale pone una serie di questioni etiche: una di queste è legata ad esempio all’uso delle immagini o dei video generati, in termini di “paternità” del diritto d’autore. Così come c’è anche una questione legata alla provenienza delle immagini originali (sia pur rielaborate, si tratta di immagini provenienti da fonti note tipicamente solo agli sviluppatori); esiste un aspetto ulteriore legato alla “comprensione” del testo dato in input, che non sempre è ottimale e spesso sembra che queste intelligenze artificiali artistiche “capiscano” una cosa per l’altra.

    È proprio quello che è successo con StarryAI poco fa: gli ho chiesto di rielaborare la mia immagine come se fossi il protagonista di Monkey Island, il famoso videogame avventura grafica con protagonista un apprendista pirata, e stranamente il risultato prodotto è stato molto diverso. Non immagini di pirati, nonostante io l’abbia specificato, bensì una sorta di curiosi alter ego, versioni di me stesso leggermente modificate, nulla che abbia a che fare con quello che avevo richiesto, insomma.

    Che cos’è StarryAI? Si tratta di un’intelligenza artificiale che prevede un algoritmo per creare immagini artistiche e ritoccare in automatico foto esistenti, sulla base delle indicazioni fornite in linguaggio naturale in input. Questa intelligenza artificiale è stata da me approfondita in questo articolo dedicato.

    La cosa strana è che questo mashup tra me e Guybrush Threepwood (che non ha un equivalente umano, essendo un personaggio digitale inventato) è stato creato con altre foto a me ignote, sulle quale sarebbe il caso di capire la provenienza e il motivo per cui sono state selezionate dall’algoritmo. Per il test ho usato la mia foto di profilo (la stessa che trovate anche su Google) e questi sono i grotteschi risultati che ho ottenuto. Non trovo spiegazioni alla scelta dell’algoritmo, sinceramente, per quanto mi venga il dubbio che non siano stati formulati in modo corretto (ma anche qui, cosa c’entra con quello che vediamo? Da capire, nel prossimo futuro.

    Input: Me as if I was the pirate Guybrush Treepwood

  • Caso studio: intelligenza artificiale per finanza e business

    Caso studio: intelligenza artificiale per finanza e business

    L’intelligenza artificiale (IA) sta rivoluzionando il settore della finanza e del business, offrendo strumenti avanzati per ottimizzare processi, migliorare l’efficienza e supportare le decisioni strategiche.

    Applicazioni dell’IA nella Finanza e nel Business

    1. Gestione degli Investimenti: L’IA viene utilizzata per analizzare grandi volumi di dati finanziari, identificando pattern e tendenze che supportano le decisioni di investimento. Ad esempio, piattaforme come Aladdin di BlackRock sfruttano l’IA per valutare rischi e opportunità, migliorando la gestione del portafoglio.
    2. Rilevamento delle Frodi: Le banche e le istituzioni finanziarie impiegano sistemi di IA per monitorare le transazioni in tempo reale, identificando attività sospette e prevenendo frodi. Questi sistemi analizzano comportamenti anomali, migliorando la sicurezza delle operazioni finanziarie.
    3. Servizi Clienti e Chatbot: Le aziende implementano chatbot basati su IA per fornire assistenza clienti 24/7, rispondendo a domande frequenti e risolvendo problemi comuni. Questo migliora l’esperienza del cliente e riduce i costi operativi.
    4. Analisi Predittiva: L’IA consente alle aziende di prevedere tendenze di mercato, comportamenti dei consumatori e performance finanziarie future, supportando strategie di marketing e decisioni aziendali informate.
    5. Automazione dei Processi: L’implementazione di sistemi di IA automatizza processi ripetitivi come la gestione delle fatture, la contabilità e la conformità normativa, riducendo errori e liberando risorse per attività a maggior valore aggiunto.

    Esempio Pratico di Implementazione

    Un esempio concreto dell’uso dell’IA nel settore finanziario è rappresentato dall’adozione di algoritmi di machine learning per la valutazione del merito creditizio. Ad esempio, piattaforme come Zest Automated Machine Learning (ZAML) analizzano una vasta gamma di dati, inclusi i modelli di spesa e le abitudini di pagamento, per determinare l’affidabilità creditizia dei clienti, anche in assenza di una storia creditizia tradizionale.

    import numpy as np
    import pandas as pd
    import yfinance as yf
    import matplotlib.pyplot as plt
    from sklearn.model_selection import train_test_split
    from sklearn.linear_model import LinearRegression
    from sklearn.metrics import mean_absolute_error
    
    # Scarica i dati storici delle azioni (es. Apple)
    ticker = "AAPL"
    df = yf.download(ticker, start="2020-01-01", end="2024-01-01")
    
    # Prepara i dati per il modello
    df["Date"] = df.index
    df["Days"] = (df["Date"] - df["Date"].min()).dt.days
    X = df[["Days"]].values
    y = df["Close"].values
    
    # Divide il dataset in training e test set
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
    
    # Addestra un modello di regressione lineare
    model = LinearRegression()
    model.fit(X_train, y_train)
    
    # Previsione sui dati di test
    y_pred = model.predict(X_test)
    
    # Valutazione del modello
    mae = mean_absolute_error(y_test, y_pred)
    print(f"Errore Medio Assoluto (MAE): {mae:.2f}")
    
    # Visualizzazione delle previsioni
    plt.figure(figsize=(10,5))
    plt.scatter(X_test, y_test, color='blue', label="Prezzi Reali")
    plt.plot(X_test, y_pred, color='red', label="Previsioni")
    plt.xlabel("Giorni dall'inizio")
    plt.ylabel("Prezzo di Chiusura ($)")
    plt.title(f"Previsione del prezzo delle azioni di {ticker}")
    plt.legend()
    plt.show()

    L’adozione dell’intelligenza artificiale nel settore finanziario e aziendale offre numerosi vantaggi, tra cui l’efficienza operativa, la riduzione dei rischi e un servizio clienti migliorato. Tuttavia, è essenziale implementare queste tecnologie con attenzione, garantendo la trasparenza degli algoritmi e la protezione dei dati sensibili, per massimizzare i benefici e minimizzare i potenziali rischi associati.

    Puoi sostituire "AAPL" con qualsiasi altro ticker azionario per analizzare un’azione di tuo interesse.

    Spiegazione del Codice

    1. Scarica i dati finanziari dal 2020 al 2024 per il titolo Apple (AAPL) usando Yahoo Finance API (yfinance).
    2. Trasforma le date in numeri interi per consentire l’analisi con modelli di ML.
    3. Divide i dati in training e test set per addestrare e valutare il modello.
    4. Allena un modello di regressione lineare per prevedere il prezzo delle azioni.
    5. Esegue previsioni e calcola l’errore medio assoluto (MAE) per valutare l’accuratezza del modello.
    6. Grafica i risultati per confrontare i prezzi reali con le previsioni.
  • Ho chiesto a ChatGPT come faccia a scrivere così bene, e questo è il risultato

    Ho chiesto a ChatGPT come faccia a scrivere così bene, e questo è il risultato

    Oggi mi sono divertito a fare un po’ di domande a ChatGPT.

    come fai a scrivere così bene?

    Sono un programma di intelligenza artificiale allenato con un grande insieme di dati di testo. Ho imparato a generare il linguaggio in modo coerente e plausibile, e sono in grado di comprendere e rispondere alle domande in modo preciso e informativo. Grazie per il complimento!

    Come hai fatto ad imparare tutte queste cose?

    Ho imparato utilizzando una tecnologia chiamata “apprendimento automatico” o “machine learning“. L’apprendimento automatico è una sottosezione dell’intelligenza artificiale che si concentra sull’uso di algoritmi e modelli matematici per far apprendere a un computer a svolgere specifiche attività senza essere esplicitamente programmati per farlo.

    Per allenarmi, i miei sviluppatori hanno utilizzato un grande insieme di dati di testo scritto in lingua italiana, noto come “corpus di addestramento“, ho appreso a riconoscere pattern e relazioni all’interno del testo analizzato. Con il tempo e con un grande numero di dati ho imparato a comprendere e generare il linguaggio in modo più preciso e plausibile.

    Il processo di apprendimento automatico utilizzato per allenare il mio modello consiste in diverse fasi:

    • raccolta dati
    • pulizia dati
    • costruzione del modello di apprendimento
    • addestramento
    • valutazione
    • miglioramento continuo del modello.

    L’allenamento è stato un processo lungo e complesso che ha richiesto l’utilizzo di potenti computer per elaborare grandi quantità di dati, ma i risultati sono stati molto soddisfacenti, permettendomi di rispondere alle domande degli utenti con un livello di accuratezza e completezza soddisfacente.

    Dammi qualche dettaglio in più.

    Sono stato allenato utilizzando una tecnologia chiamata “apprendimento automatico” per analizzare e comprendere grandi quantità di testo scritto in lingua italiana. Ho accesso a un vasto corpus di testo che include articoli di giornale, romanzi, pagine web e molto altro ancora. In questo modo, ho appreso come utilizzare correttamente la grammatica, la sintassi e il lessico in modo da poter generare frasi e risposte coerenti e plausibili.

    Sono stato progettato per rispondere alle domande su una vasta gamma di argomenti e sono in grado di comprendere le domande complesse, anche quando sono formulati in modo implicito o quando hanno un significato ambiguo.

    Il mio obiettivo è quello di fornire informazioni accurate e utili agli utenti, quindi se hai domande o curiosità su un argomento specifico non esitare a chiedere!

    quanto è grande il tuo database di machine learning?

    Il corpus di testo su cui mi sono formato è molto vasto, può contenere miliardi di parole o anche di più. Esso include una vasta gamma di fonti come articoli di giornale, romanzi, pagine web, post di social media, libri, e molto altro ancora. In generale, più grande è il corpus di addestramento, più preciso e completo sarà il modello di apprendimento automatico che si ottiene.

    Mi è stato permesso di apprendere una vasta gamma di argomenti e di conoscere le relazioni tra diverse parole e frasi, in modo da poter comprendere e generare il linguaggio in modo più preciso e plausibile.

    Però, ci tengo a sottolineare che il modello di apprendimento automatico non è perfetto e che potrei commettere errori o non avere sufficienti informazioni per rispondere a certe domande.

    Intervistare ChatGPT

    Qualche tempo fa avevo anche provato a fare un’intervista a ChatGPT, con risultati abbastanza esplicativi che suggeriscono che:

    1. ChatGPT non ha autoconsapevolezza, o meglio non sa come si chiama, nel senso: se gli chiediamo cos’è ChatGPT, sembra non sapere di chiamarsi così; ChatGPT non sa come si chiama, ad oggi.
    2. ChatGPT non può risolvere problemi personali, ma solo quelli correttamente formalizzabili in termini matematici o algoritmici;
    3. ChatGPT sa spiegare (riutilizzando parole appartenenti al suo corpus sintattico) anche concetti molto complessi come la congettura di Riemann;
    4. ChatGPT non sa fare previsioni, non è un oracolo e non fa cose tipo profezie, oroscopi e via dicendo;
    5. ChatGPT non è connesso ad internet, lo scrive apertamente e nel test l’abbiamo dimostrato, motivo per cui è fuorviante pensare che allo stato attuale possa sostituire Google (per quanto Bing abbia fatto un pensiero ad integrarlo tra le sue funzionalità).

  • Che cos’è un Large Language Model

    Che cos’è un Large Language Model

    Un modello linguistico è un tipo di programma informatico che è stato addestrato a comprendere e generare testo in modo simile a come lo farebbe un essere umano. Tuttavia, è importante capire che non “penso” nel modo in cui lo fanno le persone e non ho coscienza, emozioni o intenzioni.

    Come Funziona un Modello Linguistico

    Immagina di avere un gigantesco libro di grammatica e vocabolario, ma anziché imparare le regole e le parole una per una, un modello linguistico come ChatGPT o altri LLM “imparano” osservando/analizzando/processando miliardi di esempi di testo. Quando qualcuno mi fa una domanda o mi parla, uso queste conoscenze per generare una risposta che ha senso, basandomi su modelli che ho visto in passato.

    Immagine di https://designer.microsoft.com/image-creator
    Immagine di https://designer.microsoft.com/image-creator

    Un Large Language Model (modello linguistico di grandi dimensioni o LLM) è un modello linguistico di software costituito da una rete neurale, la quale possiede molti parametri (in genere miliardi di pesi o anche oltre), addestrata su grandi quantità di testo non classificato.

    Un LLM come ChatGPT, ad esempio, fa uso di apprendimento auto-supervisionato o semi-supervisionato, a seconda dei casi.

    Gli LLM sono diventati popolari già nel 2018 e offrono buone prestazioni, ad oggi, in un’ampia varietà di compiti: scrivere codice, poesie, romanzi, articoli di blog, ecc. Ciò ha spostato l’attenzione della ricerca sull’elaborazione del linguaggio naturale dal precedente paradigma di formazione di modelli supervisionati specializzati per compiti più specifici e, ovviamente, più limitati.

    I Large Language Models rappresentano un importante passo avanti nell’elaborazione algoritmica del linguaggio naturale e nell’intelligenza artificiale. Sono in grado di svolgere compiti complessi e mostrano una conoscenza sorprendente del mondo. Tuttavia, è importante sottolineare che il loro funzionamento è strettamente legato alle risorse a loro dedicate e non dipende necessariamente da ulteriori progressi nella progettazione.

    I modelli linguistici di grandi dimensioni sono una forma avanzata di intelligenza artificiale che imita la capacità umana di comprendere e generare linguaggio. Anche se non esiste una definizione formale per questo termine, generalmente si riferisce a modelli di deep learning con un numero incredibilmente elevato di parametri, nell’ordine dei miliardi o più. Questi modelli, chiamati LLM (Large Language Models), sono molto versatili e possono eccellere in una vasta gamma di compiti linguistici, senza essere specificamente addestrati per uno scopo particolare come l’analisi del sentimento o il riconoscimento di entità.

    Ciò che rende questi modelli così potenti è la quantità di risorse dedicate loro, come i dati di addestramento, la dimensione dei parametri e la potenza di calcolo. Nonostante siano addestrati anche su compiti relativamente semplici, come la previsione della parola successiva in una frase, sono in grado di catturare gran parte della sintassi e della semantica del linguaggio umano. Questo significa che possono comprendere il contesto e generare frasi coerenti e significative.

    Ad oggi, gli LLM dimostrano una notevole conoscenza generale del mondo, per quanto lavorino tipicamente su dataset di dimensione finita e non possano essere onniscenti (non possono sapere tutto). Durante il processo di addestramento, sono in grado di “memorizzare” una grande quantità di fatti e informazioni, ma quelle informazioni saranno sempre e comunque limitate, oltre che viziate da potenziali bias algoritmici. Questo significa che possono rispondere a domande e fornire informazioni accurate su una vasta gamma di argomenti, anche se non sono stati addestrati specificamente su quei temi, e a volte possono sbagliare anche grandemente senza che sia facilissimo accorgersene.

  • Ecco 6 chatbot che non puoi perderti

    Ecco 6 chatbot che non puoi perderti

    Negli ultimi anni, i chatbot sono diventati uno degli strumenti più utili per migliorare la produttività, automatizzare i processi e rispondere alle esigenze quotidiane. ChatGPT, con le sue avanzate capacità di linguaggio naturale, offre diverse soluzioni gratuite per soddisfare le richieste di utenti italiani. Il prodotto software di OpenAI è uno dei chatbot più avanzati al mondo, capace di rispondere a qualsiasi domanda, generare contenuti, tradurre lingue e molto altro. La versione gratuita offre tutte le funzionalità di base, che lo rendono perfetto per uso personale e professionale.

    In questo articolo, esploreremo i 10 migliori chatbot gratuiti che puoi utilizzare, sfruttando anche il link condiviso per accedere rapidamente a uno di essi.

    Riassumere un PDF con un bot

    Questo primo bot serve a riassumere il testo di un PDF che gli inviate. Attenzione a non fidarvi troppo delle sintesi proposte, perchè potrebbe saltare dei dettagli essenziali per la comprensione piena del testo.

    Link: Bot per riassumere un PDF

    Stima dei costi del taxi a Roma con un chatbot

    In molti casi non è possibile avere una stima affidabile dei costi di un taxi a Roma, dato che intervengono numerose variabili  ad impedirlo. Questo chatbot è stato addestrato sul tariffario ufficiale del comune di Roma, aggiornato al 2 febbraio 2025, e permette di ricevere una stima dei costi specificando orario di partenza, origine e destinazione.

    Link: Quanto costa un taxi a Roma (chatGPT)

    Commercialista chatbot

    Spunti e suggerimenti per la fiscalità italiana. Naturalmente nessuno potrà mai sostituire un consulente in carne ed ossa, supponiamo, ma come base per capire meglio alcune cose o analizzare casi specifici potrebbe funzionare.

    Link: chatbot commercialista

    Chatbot per le barzellette

    ChatGPT non fa ridere, ed è assodato almeno ad oggi. Eppure qualcuno ha provato lo stesso a costruire un chatbot per fare battute. Valutate voi, senza troppe speranze.

    Link: chatbot barzellette

    Traduzioni inglese / italiano

    Link: traduzioni inglese / italiano

    Riassunto accademico

    Link: Riassunto accademico

    Tutti questi chatbot sono facilmente accessibili tramite i link a ChatGPT, e sono progettati per rispondere a una varietà di richieste quotidiane in modo efficiente. I chatbot gratuiti offerti da ChatGPT e da altre piattaforme sono strumenti potenti che possono semplificare la vita di utenti italiani in diversi settori. Se desideri un chatbot versatile e avanzato, ChatGPT è la scelta migliore. Tuttavia, se le tue esigenze sono più specifiche, le altre opzioni, come Replika per il supporto emotivo o Tidio per il customer service, sono valide alternative.

  • Perchè ChatGPT è lento??

    Perchè ChatGPT è lento??

    ChatGPT a volte è lento perché deve fare parecchie cose prima di mostrarti la risposta, e ognuna di queste richiede tempo e potenza di calcolo. Quando gli chiedi di “pensarci bene”, in pratica gli stai dicendo di fare più passaggi mentali prima di darti una risposta, quindi ci mette di più. Ecco in breve le fasi dell’elaborazione:

    1. Ricezione della richiesta – Appena scrivi qualcosa e premi invio, la richiesta parte verso i server di OpenAI. Se la rete è lenta o c’è congestione, può già esserci un primo ritardo.
    2. Pre-elaborazione – Il testo viene convertito in un formato che il modello può capire (una serie di numeri chiamati token). Vengono considerati anche i messaggi precedenti per capire il contesto.
    3. Elaborazione vera e propria – Qui entra in gioco il cervello dell’IA. Il modello elabora i token in base ai dati e ai pattern che ha imparato. Se la richiesta è complessa o molto lunga, ci vogliono più passaggi per generare una risposta sensata. E se gli dici “rifletti bene”, può fare elaborazioni più profonde o simulate, che aumentano il tempo.
    4. Post-elaborazione – Una volta generata la risposta, questa viene riconvertita in testo leggibile per te. Vengono fatti anche controlli di sicurezza per evitare contenuti vietati o inappropriati.
    5. Invio della risposta – Infine, il testo torna a te attraverso la rete. Anche qui, se la connessione è satura o il server è sotto carico, ci può essere un ritardo.

    In sintesi, non è solo una questione di “lentezza” del computer (questo è assodato, essendo un servizio in cloud), ma di quante operazioni avvengono dietro le quinte. Se sembra che non risponda affatto, spesso è perché qualcosa si è bloccato in uno di questi passaggi (tipo timeout del server o problemi di rete).

  • Come riconoscere un testo scritto con ChatGPT

    Come riconoscere un testo scritto con ChatGPT

    Alan Turing, considerato uno dei padri dell’informatica, ha posto le basi teoriche per la moderna intelligenza artificiale con il suo celebre Test di Turing, descritto nel saggio Computing Machinery and Intelligence (1950). Il test ha lo scopo di valutare la capacità di una macchina di imitare l’intelligenza umana: se un interlocutore umano, in una conversazione testuale, non riesce a distinguere la macchina da un essere umano, allora l’IA può essere considerata “intelligente”.

    Questa idea è strettamente correlata al tema della distinzione tra testi scritti da esseri umani e testi generati da IA come ChatGPT. Oggi, l’avanzamento delle reti neurali ha reso questa distinzione sempre più difficile, avvicinandosi al superamento del Test di Turing in specifici contesti. Tuttavia, proprio come nell’esperimento originale, emergono sottili differenze stilistiche e strutturali che possono tradire l’origine automatica di un testo. Studi moderni, combinando analisi linguistiche e strumenti di rilevazione, cercano di individuare pattern ricorrenti che distinguono i testi generati dall’IA da quelli umani, riprendendo la sfida concettuale posta da Turing più di 70 anni fa.

    Riconoscere un testo generato da ChatGPT può essere complesso, ma esistono segnali distintivi e strumenti specifici che possono aiutare in questa identificazione.

    Caratteristiche comuni dei testi generati da ChatGPT

    • Tono neutrale: I testi prodotti da ChatGPT tendono ad avere un tono impersonale e privo di giudizi, mancando di personalità e coinvolgimento emotivo.
    • Mancanza di profondità e originalità: Le risposte dell’IA possono risultare superficiali, prive di analisi critiche o approfondimenti personali, poiché si basano su informazioni preesistenti senza apportare nuove intuizioni.
    • Ripetitività e uso di frasi standard: È possibile riscontrare l’uso frequente di espressioni ricorrenti e una struttura prevedibile nelle risposte generate.

    Criteri per riconoscere un testo scritto da ChatGPT

    Ecco 5 criteri principali per riconoscere un testo scritto da ChatGPT o da un’altra IA generativa:

    1. Coerenza ma mancanza di profondità

    L’IA genera testi grammaticalmente corretti e coerenti, ma spesso manca di una vera profondità di pensiero. Le argomentazioni possono apparire generiche o ripetitive, evitando prese di posizione forti o opinioni personali.

    2. Ripetitività e schemi prevedibili

    L’uso di frasi standardizzate e strutture prevedibili è comune nei testi generati da IA. Espressioni come “In conclusione”, “Tuttavia, è importante notare che”, “Un altro aspetto da considerare è” compaiono frequentemente.

    3. Mancanza di errori tipici umani

    Mentre gli esseri umani tendono a fare errori di battitura, variazioni nello stile e piccole incoerenze, i testi dell’IA sono sorprendentemente puliti e uniformi, il che può sembrare “troppo perfetto” rispetto a un testo umano.

    4. Uso eccessivo di sinonimi e frasi ridondanti

    ChatGPT cerca di evitare la ripetizione diretta di parole, ma talvolta esagera, sostituendo sinonimi in modo innaturale o aggiungendo frasi ridondanti per aumentare la lunghezza del testo.

    5. Difficoltà con contesto specifico e riferimenti aggiornati

    L’IA può avere problemi nel fornire riferimenti precisi e aggiornati, soprattutto se riguarda eventi recenti o concetti di nicchia. Se un testo evita dettagli concreti o usa informazioni obsolete, potrebbe essere stato generato automaticamente.

    Questi criteri non garantiscono una certezza assoluta, ma combinandoli con strumenti di rilevazione specifici (come GPTZero o DetectGPT), è possibile aumentare le probabilità di identificare un testo generato da IA.

    Pattern ricorrenti nei testi generati da una IA

    In genere ci sono pattern ricorrenti nei testi generati da ChatGPT e Gemini, che possono aiutare a individuare un possibile copia-incolla da un’IA. Ecco alcuni tag e strutture tipiche:

    1. Frasi di apertura e chiusura standard

    • “Certamente! Ecco una spiegazione dettagliata su…”
    • “In sintesi, possiamo concludere che…”
    • “Spero che questa spiegazione ti sia utile!”
    • “Se hai altre domande, non esitare a chiedere.”

    Rilevamento: Se un articolo inizia o finisce con frasi simili, potrebbe essere IA.

    2. Struttura rigida e schematica

    • Testi generati tendono a essere troppo ordinati, con punti elenco o suddivisioni standard:
      • Introduzione
      • Analisi dettagliata
      • Conclusione

    Rilevamento: Se il testo è eccessivamente lineare, potrebbe essere sospetto.

    3. Uso di connettori frequenti

    ChatGPT e Gemini usano spesso parole di transizione per creare testi fluidi, ma a volte risultano innaturali o ridondanti:

    • “Tuttavia,”
    • “Inoltre,”
    • “Un altro aspetto da considerare è…”
    • “Vale la pena notare che…”

    Rilevamento: Se un testo è eccessivamente fluido e sempre perfettamente coerente, potrebbe essere generato da IA.

    4. Mancanza di riferimenti precisi o fonti verificate

    • L’IA spesso evita di citare fonti reali e usa frasi vaghe come:
      • “Secondo studi recenti…” (senza citare quali)
      • “Esperti affermano che…” (senza nomi o riferimenti)

    Rilevamento: Se un articolo cita “studi” senza fonti o afferma cose generiche, potrebbe essere IA.

    5. Tendenza a evitare opinioni forti

    • ChatGPT e Gemini cercano di essere neutri, quindi evitano espressioni come:
      • “Io penso che…”
      • “Questa teoria è sbagliata perché…”
      • “Questa è la mia opinione personale…”

    Rilevamento: Un testo molto neutrale o impersonale potrebbe essere generato da IA.

    6. Uso eccessivo di sinonimi e giri di parole

    • L’IA evita di ripetere la stessa parola più volte e usa sinonimi innaturali:
      • “Questa metodologia” invece di “Questo metodo”
      • “L’ambito educativo” invece di “La scuola”

    Rilevamento: Se il testo sembra artificiosamente vario nel vocabolario, potrebbe essere generato.

    Come rilevarlo automaticamente?

    Puoi usare un analizzatore di frequenza dei termini o una verifica manuale con parole chiave sospette. Ti serve uno script per individuare questi pattern in un testo?

    Codice Python per riconoscere un testo (approssimato)

    Ecco un tool Python che analizza il testo di una pagina web partendo da un URL e verifica se il contenuto potrebbe essere generato da ChatGPT, utilizzando i 5 criteri che ti ho indicato.

    Il codice usa BeautifulSoup per estrarre il testo e textstat per analizzare leggibilità e ripetitività. Inoltre, sfrutta GPTZero API (se disponibile) per una verifica più accurata.

    Requisiti:

    Installa le librerie necessarie con:

    pip install requests beautifulsoup4 textstat
    

    Codice Python:

    import requests
    from bs4 import BeautifulSoup
    import textstat
    
    def get_text_from_url(url):
        """ Estrae il testo principale da una pagina web """
        try:
            response = requests.get(url, timeout=10)
            response.raise_for_status()
            soup = BeautifulSoup(response.text, "html.parser")
    
            # Rimuove script e CSS
            for script in soup(["script", "style"]):
                script.extract()
    
            text = soup.get_text()
            return ' '.join(text.split())  # Rimuove spazi inutili
        except Exception as e:
            print(f"Errore nell'accesso all'URL: {e}")
            return None
    
    def analyze_text(text):
        """ Applica criteri per identificare testo AI """
        if not text:
            return "Testo non disponibile"
    
        criteria = {
            "Leggibilità eccessiva": textstat.flesch_reading_ease(text) > 70,
            "Ripetitività di frasi": text.count(". ") / max(1, len(text.split())) > 0.05,
            "Uso eccessivo di connettori": any(conn in text.lower() for conn in ["in conclusione", "tuttavia", "da considerare"]),
            "Nessun errore tipico umano": textstat.dale_chall_readability_score(text) < 6,
            "Mancanza di riferimenti concreti": len(text.split()) > 500 and "http" not in text
        }
    
        score = sum(criteria.values())
    
        print("\nAnalisi del testo:")
        for key, value in criteria.items():
            print(f"- {key}: {'Sospetto' if value else 'Normale'}")
    
        if score >= 3:
            return "⚠️ Potenziale testo generato da IA!"
        else:
            return "✅ Probabilmente scritto da un umano."
    
    # Esempio di utilizzo
    url = "https://esempio.com/articolo"
    text = get_text_from_url(url)
    if text:
        print(analyze_text(text))
    

    Come funziona:

    1. Estrae il testo dalla pagina web rimuovendo codice inutile.
    2. Analizza il testo con 5 criteri: leggibilità, ripetitività, connettori tipici di ChatGPT, errori di battitura e riferimenti concreti.
    3. Assegna un punteggio e indica se il testo è probabilmente scritto da un’IA.

    Miglioramenti possibili:

    • Integrare GPTZero API per un’analisi più affidabile.
    • Usare modelli NLP per verificare ripetizioni avanzate.

    Vuoi aggiungere altre funzioni specifiche?

    Strumenti e metodi per l’identificazione

    • Software di rilevamento: Esistono strumenti online, come GPTZero, progettati per identificare testi generati dall’intelligenza artificiale. Tuttavia, l’efficacia di questi strumenti può variare e non sempre garantire risultati accurati.
    • Analisi dello stile di scrittura: Confrontare lo stile del testo sospetto con altri lavori noti dell’autore può rivelare discrepanze nello stile, nella complessità delle frasi e nell’uso del vocabolario, suggerendo una possibile generazione automatica.

    Studi e ricerche pertinenti:

    • “On the Detectability of ChatGPT Content: Benchmarking, Methodology, and Evaluation through the Lens of Academic Writing”: Questo studio analizza la rilevabilità dei contenuti generati da ChatGPT nel contesto accademico, evidenziando le sfide nel distinguere tra testi umani e quelli prodotti dall’IA.
    • “GPT-Sentinel: Distinguishing Human and ChatGPT Generated Content”: La ricerca propone un approccio per distinguere tra contenuti umani e quelli generati da ChatGPT, utilizzando modelli linguistici avanzati e ottenendo un’accuratezza superiore al 97% nel set di test.

    È importante notare che, nonostante l’esistenza di strumenti e metodi per rilevare testi generati dall’IA, l’evoluzione continua di questi modelli rende la distinzione sempre più complessa. Pertanto, è fondamentale utilizzare un approccio combinato di analisi tecnica e valutazione critica per determinare l’origine di un testo.

  • Come andare “a capo” con ChatGPT

    Come andare “a capo” con ChatGPT

    Vuoi saperlo senza giri di parole, vero? Te lo spieghiamo subito.

    Per andare a capo in un testo scritto su ChatGPT, puoi fare così:

    Premi “Shift + Invio”: Se stai scrivendo su un’interfaccia che supporta questa funzione, come una chat, tenendo premuto il tasto “Shift” e poi premendo “Invio” si va a capo, senza inviare il messaggio / comando che hai scritto fino a quel punto.

    Copiare un testo da TextPad o Blocco Note

    I seguenti passaggi ti aiuteranno a preservare la formattazione originale, inclusi gli a capo, durante il trasferimento del testo da un file di testo a ChatGPT. Quando copi e incolli del testo da un file di testo su Windows in ChatGPT, ecco alcuni suggerimenti per mantenere la formattazione corretta, inclusi gli a capo:

    1. Copiatura diretta: Se il testo è già formattato con a capo, dovresti essere in grado di copiare e incollare direttamente, e gli a capo dovrebbero essere mantenuti.
      • Seleziona il testo nel file di testo (puoi usare Ctrl + A per selezionare tutto).
      • Copia il testo (Ctrl + C).
      • Incolla nella chat di ChatGPT (Ctrl + V).
    2. Controlla il file sorgente: Assicurati che il testo nel file di testo sia formattato correttamente, con i paragrafi separati da a capo.
    3. Utilizzo del Blocco Note: Se stai copiando da un programma come Word o Google Docs e vuoi essere sicuro di mantenere solo la formattazione semplice, puoi incollare prima il testo nel Blocco Note (che rimuoverà qualsiasi formattazione complessa) e poi copiarlo di nuovo da lì per incollarlo in ChatGPT.
    4. Visualizzazione Anteprima: Dopo aver incollato il testo, puoi rivedere la formattazione direttamente nella chat prima di inviare il messaggio, per assicurarti che gli a capo siano stati mantenuti correttamente.
  • ChatGPT quasi umana. O forse no

    ChatGPT quasi umana. O forse no

    ChatGPT che esibisce comportamento “da essere umano”, quindi in grado di fare considerazioni, apprezzare un tramonto o mostrarsi empatica è una delle ossessioni della ricerca di questi anni. Ed è quello che sembra aver rilevato una recente ricerca della rivista scientifica PNAS qualche giorno fa, riportata da molte testate anche in Italia. La rivista è considerata peer-reviewed, ad alto impatto e, in poche parole, più affidabile di uno studio in preprint o di un articolo “buttato lì”, anche perchè confermato da altri ricercatori indipendenti.

    Superare il test di Turing, ma è possibile davvero?

    Sicuramente l’argomento merita un minimo di attenzione, soprattutto per sgombrare il campo come al solito da potenziali equivoci che potrebbero ingenerarsi: tanto per cominciare, ad esempio, non sembra molto corretto dire che chatGPT nella versione 4 abbia addirittura superato il test di Turing. perché non lo ricordasse il test di Turing è un esperimento fondamentalmente concettuale, in cui viene evidenziato un paradosso fin dagli anni 50 per cui un Chatbot rischia di non essere distinguibile da una persona in termini esclusivamente comunicativi, ovvero ipotizzando come nell’esperimento originale che è una macchina possa esibire un comportamento intelligente. La chiave per comprendere questa questione, che è enormemente dibattuta tra gli informatici e non ha una risposta ben precisa neanche in termini di effettiva ed attuale verificabilità dell’ipotesi, prescinde da questioni di hardware e software, in effetti, ed è una domanda squisitamente filosofica a cui molti ricercatori si sono divertiti in questi anni a trovare una risposta.

    Periodicamente leggiamo di intelligenza artificiale che superano il test di Turing, ma per superare i test di Turing significa che devono essere riprodotte esattamente le stesse condizioni, e soprattutto non si può (io ritengo che sia un errore di concetto tanto sostanziale quanto ricorrente, soprattutto in certa stampa) trattare un “esperimento mentale” come se fosse un esperimento in laboratorio. Non perchè il contributo di Turing non sia valido o perchè metterlo in discussione sia sbagliato in sè, ma per una questione di metodo, o se preferite per lo stesso motivo per cui non puoi usare una calcolatrice per confutare una questione di sociologia o di psicoanalisi, nè puoi risolvere un problema del Millennio in matematica andando dal gastroenterologo. 

    Il punto chiave dell’esperimento di Turing, semmai, è che la persona che è chiamata a comprendere se stia parlando con una macchina o con un essere umano è soggetta al vincolo di poter valutare esclusivamente le risposte che vengono fornite, un vincolo non da poco che Turing aveva intuito essere sostanziale. Per cui diventa una questione squisitamente linguistica, se vogliamo, anche perché sappiamo bene che CPT riesce a scrivere molto bene nella nostra lingua, e ne sanno qualcosa i docenti che vengono periodicamente imbrogliati (uso totalmente errato della tecnologia, s’intende) da alunni che fanno uso di chatGPT per farsi i compiti a casa. Anche se si volesse ammettere (cosa che sono disposto a fare, ad oggi, per quanto ne so) il realismo e la credibilità di una comunicazione – o per dirla alla Popper, la falsificabilità del linguaggio elevata all’ennesima potenza da internet –  da qui a parlare di comportamento umano, a nostro avviso, ce ne passa un bel po’.

    Non sottovalutare il concetto di inferenza

    Sono questi i motivi che mi lasciano perplesso quando mi capita di leggere titoli come Un’Intelligenza Artificiale che Mostra Tratti Umani, IA poco amichevole, IA non molto affabile, IA che fa amicizia, IA sovrapponibile a quella umana e che supera il test di Turing. Comprendo bene la necessità di comunicare la notizia in una maniera comprensibile a più, e non intendo fare moralismo su eventuali tentazioni di clickbait visto che la notizia è reale ed è apparsa su rivista Peer Reviewed.  Il punto che vorrei sottolineare è che qualsiasi intelligenza artificiale opera sul concetto di inferenza, ovvero in termini teorici estrapola nuova nuova conoscenza a partire da una base di dati ben nota.

    Il concetto di inferenza è quello per cui io memorizzo un fatto come ad esempio

    capitale(Roma, Italia)

    e l’intelligenza artificiale sarà in grado di rispondere a una qualsiasi delle seguenti domande in modo corretto:

    • Qual è la capitale d’Italia?
    • Roma la capitale del paese che ha dato la nascita a Dante Alighieri?
    • La città di Roma che cos’è per l’Italia?
    • Come si chiama la capitale d’Italia?

    Senza scendere in dettagli troppo tecnici, e sulla falsariga di libri divulgativi come Hello World, ogni processo che a che fare con l’intelligenza artificiale si può ricondurre a un’inferenza, visto che è più facile da trattare in questi termini e abbiamo degli strumenti rigorosi per poter poterlo fare.

    By Juan Alberto Sánchez Margallo - File:Test_de_Turing.jpg, CC BY 2.5, https://commons.wikimedia.org/w/index.php?curid=57298943
    By Juan Alberto Sánchez Margallo – File:Test_de_Turing.jpg, CC BY 2.5, https://commons.wikimedia.org/w/index.php?curid=57298943

    Tanto per andare un po’ di più nello specifico, che i risultati di vari test psicologici a cui è stato sottoposto suo malgrado ChatGPT versione 4 siano sovrapponibili con quelli di un campione eterogeneo di essere umani non dovrebbe sorprendere più di tanto, per lo stesso motivo per cui – ad esempio – una rete neurale è in grado di imitare la nostra scrittura dopo aver analizzato un numero sufficiente di campioni di nostri scritti precedenti. Grazie al meccanismo di inferenza intelligenza artificiale si addestra sulla base dei dati dati che gli vengono forniti, e sicuramente avrà imparato come reagire a determinate domande sulla base di un campione di conoscenza derivato dal mondo che conosciamo. Sarebbe stato clamoroso, al contrario, con le dovute riserve, se non avesse esibito un comportamento allineato con quello di un campione umano, perché in quel caso sarebbe stato lecito pensare che avesse sviluppato una sorta di autocoscienza. Naturalmente sono soltanto ipotesi che stiamo facendo, per il gusto di dibattere su una questione che trovo enormemente intrigante, e che non dovrebbe mai essere ridotta nè a narrazioni suggestive quanto favolistiche (è l’unica cosa che mi viene da pensare in tutta sincerità quando assisto a questa mania di umanizzare le nuove tecnologie, sulla falsariga di “mostrare amore” ad Alexa o mettersi a discutere con Google Maps lungo la strada), nè tantomeno arriverei alla dialettica di Terminator di James Cameron per cui, brutalmente, moriremo tutti.

    Il meccanismo di inferenza è incredibilmente efficace per dimostrare quanto sia semplice comprendere una tecnologia nuova come quella delle intelligenze generative, che saranno sempre più migliorate sia per via dell’incremento della potenza computazionale e sia per il miglioramento progressivo dei campioni che vengono usati per il suo addestramento.

    https://twitter.com/trovalost/status/1762448423456813527

    Nel momento in cui decidiamo di attribuire delle delle caratteristiche umane niente intelligenza artificiale dobbiamo fare molta attenzione: il grado di apertura mentale – per esempio – che è risultato più sovrapponibile di altri rispetto ad una reazione umana a determinati stimoli andrebbe interpretato sempre nell’ottica dell’imitazione, senza dimenticare il caso di Tai, l’intelligenza artificiale sviluppata da Microsoft qualche anno fa che si rivelò clamorosamente razzista per il fatto di essere stata trollata da vari utenti di Twitter (l’attuale X di Elon Musk). In quel caso la notizia fece scalpore e il botto venne semplicemente chiuso, anche perché all’epoca probabilmente lo stato dell’arte non consentiva di fare particolari aggiustamenti.

    E in modo corretto, a mio avviso, per onorare la memoria di Alan Turing è proprio quello di non dimenticare la sua idea di gioco dell’imitazione, visto che il test di Turing non era altro che questo. Una macchina in grado di evitare la scrittura di un essere umano ma non per questo è un essere umano, né mai potrà diventarlo (penso), per lo stesso motivo per cui la voce di un navigatore può essere umana o affascinante quanto vogliamo ma non sarà mai una persona, e stesso discorso vale per un avatar di un’intelligenza artificiale e per qualsiasi altro strumento digitale che utilizziamo ogni giorno.

  • ChatGPT come Psicologo? Un’Analisi Critica tra Potenzialità e Limiti del Linguaggio Generativo

    ChatGPT come Psicologo? Un’Analisi Critica tra Potenzialità e Limiti del Linguaggio Generativo

    ChatGPT come Psicologo? Un’Analisi Critica tra Potenzialità e Limiti del Linguaggio Generativo

    Negli ultimi anni, l’intelligenza artificiale (IA) ha fatto passi da gigante, e con l’arrivo di modelli linguistici avanzati come ChatGPT, si è diffusa l’idea che questi strumenti possano svolgere un ruolo di supporto anche in ambito psicologico. Su piattaforme come Reddit, si discute frequentemente dell’uso di ChatGPT come “psicologo digitale” per il supporto emotivo e la riflessione personale. Ma quali sono le reali potenzialità di questo approccio? E quali i suoi limiti, soprattutto se confrontati con la complessità della pratica psicoterapeutica?

    L’autore di questo thread sottolinea come ChatGPT abbia fornito consigli utili e prospettive nuove, spesso percepite come più comprensive rispetto alle persone con cui ha parlato. Questo è coerente con il ruolo che un modello di linguaggio può svolgere come “ascoltatore” sempre disponibile, privo di giudizio, e capace di stimolare riflessioni personali. È un risultato importante che evidenzia il potenziale di strumenti basati su IA per un supporto emotivo – per dirla così – di primo livello.

    L’utente ammette che è “spaventoso” sentire di essere capito meglio da una macchina. Questo riflette il fenomeno dell’antropomorfizzazione, ovvero la tendenza umana a attribuire intenzionalità e comprensione a entità che invece funzionano tramite pattern statistici di linguaggio. È cruciale ricordare che ChatGPT non ha coscienza, empatia reale o comprensione emotiva, ma simula risposte in modo coerente e plausibile.

    Il racconto personale mette in luce come ChatGPT abbia offerto un aiuto là dove altre pratiche – meditazione, psicoterapia tradizionale, letture – sembravano non funzionare. Tuttavia, è importante sottolineare che un singolo caso non garantisce efficacia generale. L’auto-aiuto mediato da IA può essere utile per alcuni, ma non sostituisce la complessità di un percorso terapeutico personalizzato. Il post testimonia il potenziale concreto di ChatGPT come strumento di supporto emotivo e riflessione, ma da una prospettiva scientifica è fondamentale bilanciare questo entusiasmo con un riconoscimento critico dei suoi limiti. L’IA può integrare ma non sostituire la formazione psicoterapeutica e l’intervento umano, che restano indispensabili per la cura della salute mentale.

    Cosa vuol dire “essere capìto” da una macchina?

    Dire di “essere capito” da una macchina come ChatGPT significa sperimentare una sensazione soggettiva in cui le risposte ricevute sembrano rispecchiare i propri stati emotivi o i propri pensieri in modo coerente e pertinente. Tuttavia, questa “comprensione” non è una comprensione reale, ma una simulazione linguistica basata su modelli statistici. In breve, “essere capito” da una macchina significa riconoscere un pattern di risposte che risuonano con il nostro vissuto, ma senza una vera esperienza empatica o cosciente dietro: una simulazione di comprensione, non una comprensione genuina.

    ChatGPT come Strumento di Supporto Emotivo: Potenziali Opportunità

    ChatGPT si basa su modelli di linguaggio generativo, allenati su grandi quantità di testi per rispondere in modo coerente e pertinente a input testuali. Questa capacità permette di:

    • Fornire un ascolto immediato e non giudicante: Gli utenti possono “sfogarsi” senza timore di essere giudicati, un aspetto che può facilitare la prima elaborazione delle emozioni.
    • Stimolare la riflessione personale: Risposte che invitano a esplorare pensieri e sentimenti possono incentivare un dialogo interno costruttivo.
    • Offrire strategie di coping di base: ChatGPT può suggerire tecniche di rilassamento, mindfulness o indicazioni generali per gestire stress e ansia.

    Questi aspetti ne fanno uno strumento potenzialmente utile come primo livello di supporto, in particolare per chi non ha immediato accesso a un professionista o vuole iniziare a esplorare i propri stati emotivi.

    La Necessità della Formazione Psicoterapeutica

    Nonostante ciò, è fondamentale sottolineare che ChatGPT non è e non può sostituire un professionista della salute mentale. La psicoterapia è una disciplina complessa che richiede:

    • Conoscenze approfondite di teoria psicologica e processi psicopatologici, fondamentali per una corretta valutazione e intervento.
    • Capacità di leggere segnali non verbali e contestuali, che sono assenti in un’interazione testuale con un modello linguistico.
    • Esperienza clinica e supervisione continua, per gestire casi complessi e situazioni di crisi.
    • Empatia autentica e relazione terapeutica, elementi centrali nel processo di cambiamento e guarigione.

    La formazione psicoterapeutica include anni di studio, pratica e riflessione su sé stessi, indispensabili per esercitare una professione etica e competente.

    I Limiti e i Rischi del Linguaggio Generativo

    Il linguaggio generativo, alla base di ChatGPT, presenta alcune criticità importanti:

    • Mancanza di comprensione reale: ChatGPT genera risposte basandosi su pattern linguistici, senza vera comprensione o consapevolezza delle emozioni umane.
    • Rischio di risposte inappropriate o fuorvianti: Il modello può produrre contenuti inesatti, banalizzanti o perfino dannosi se interpretati come consigli terapeutici.
    • Assenza di personalizzazione profonda: Non è in grado di adattare le risposte a una storia personale complessa o a condizioni cliniche specifiche.
    • Possibilità di creare una falsa aspettativa: Utenti non esperti potrebbero illudersi che ChatGPT sia un terapeuta, rinunciando a cercare un aiuto professionale reale.

    Un Supporto, non una Cura

    ChatGPT rappresenta un’opportunità interessante come strumento di supporto emotivo e riflessione personale, soprattutto in contesti di primo ascolto o auto-aiuto. Tuttavia, è essenziale:

    • Considerarlo come un complemento, mai come sostituto della psicoterapia.
    • Promuovere una comunicazione trasparente sulle sue capacità e limiti.
    • Investire nella formazione e diffusione della cultura psicologica affinché l’utente sappia riconoscere quando è necessario rivolgersi a professionisti qualificati.

    In definitiva, la sfida è integrare in modo etico e consapevole queste nuove tecnologie nel campo della salute mentale, valorizzando il ruolo insostituibile della formazione e dell’esperienza psicoterapeutica.