Tag: Mondo IA 🤖

  • Come accedere a ChatGPT spiegato ad un amico

    Come accedere a ChatGPT spiegato ad un amico

    Ecco come potresti spiegare a un amico come fare il login su ChatGPT per la prima volta.

    1. Accedi al sito o all’applicazione: Dì al tuo amico di iniziare aprendo il sito web o l’applicazione su cui desidera utilizzare ChatGPT. Assicurati che stia utilizzando un servizio che integra ChatGPT, come un’interfaccia di chat basata su questo modello. Può usare uno dei tanti client disponibili, gratis o a pagamento, oppure accedere alla versione disponibile gratuitamente ad oggi mediante il sito web chat.openai.com.
    2. Cerca l’opzione di accesso: Una volta che il tuo amico è sulla pagina principale del sito o nell’app, chiedigli di cercare un pulsante o un link che dica “Login” o “Accedi”. Solitamente si trova in alto a destra o in basso a sinistra della schermata, ma può variare a seconda del design.
    3. Inserisci le credenziali: Quando trova il pulsante di login, spiegagli di fare clic su di esso. Sarà reindirizzato a una pagina di accesso dove dovrà inserire le sue credenziali. Di solito, dovrai fornire un nome utente (o indirizzo email) e una password.
    4. Inserisci le credenziali corrette: Assicurati che il tuo amico inserisca le credenziali corrette con attenzione. Una volta inserite, spiega che dovrebbe fare clic sul pulsante “Accedi” o “Login” per procedere.
    5. Accesso completato: Se le credenziali sono corrette, il tuo amico sarà autenticato e avrà accesso all’account ChatGPT o al servizio correlato.
    6. Password dimenticata: Se il tuo amico ha dimenticato la password, assicurati di spiegargli come recuperarla utilizzando l’opzione “Password dimenticata” presente sulla pagina di accesso. Di solito, seguendo questo processo, può reimpostare la password.
    7. Assistenza: Se ci sono problemi nel fare il login o se ha domande specifiche sull’account o sul servizio, consiglialo di contattare il servizio clienti o l’assistenza del sito o dell’applicazione in modo che possano fornire assistenza aggiuntiva.

    Ricorda di adattare queste istruzioni al sito o all’applicazione specifica che il tuo amico sta cercando di utilizzare, poiché i dettagli possono variare da un servizio all’altro.

  • ChatGPT: ecco 10 cose che nessuno vi ha raccontato

    ChatGPT: ecco 10 cose che nessuno vi ha raccontato

    Dal 30 novembre 202 l’annuncio di Sam Altman, CEO di OpenAI, sembra aver cambiato il mondo tecnologico: una nuova tecnologia che suscita dubbi etici, sociali, lavorativi, addirittuali sociali, perchè un’intelligenza artificiale sembra in grado di poter sostituire l’uomo nelle complesse attività di scrittura originale.

    Attenzione, pero’: non cediamo il passo ai soliti sensazionalismi da clickbait, perchè ci sono un paio di cose che bisogna specificare in merito e che – secondo me – nessuno o quasi vi ha confessato in merito, presi com’erano (quasi tutti e non chiunque al mondo, ovviamente) dal volervi raccontare la notizia puntando sul FUD o sul voler fare notizia sul nulla.

    ChatGPT non sembra in grado di sostituire un autore umano

    E chiaro che l’arrivo di questo software ha preoccupato alcuni giornalisti scrittori e copywriter: molti sono arrivati a pensare che non sia più possibile lavorare in questo ambito dato con intelligenza artificiale in grado di generare testi in maniera autonoma anche in italiano, a costo irrisorio o addirittura nullo.

    Se il rigurgito del luddismo (l’ostilità alle macchine da parte di chi lavora a mano) deve essere respinto – ormai lo sappiamo: non è demonizzando le nuove tecnologie che si esce dal vortice – va contestualizzato il momento (gli imprenditori pensano solo a risparmiare, i lavoratori non sono sempre avvezzi al cambiamento), ma andrebbe capito che questa tecnologia si basa sull’apprendimento supervisionato (Supervised Learning) che è, senza entrare troppo nei dettagli, statistica computazionale.

    Essendo statistica, è un classificatore di dati che deve pur sempre acquisirne dall’esterno, per cui trattandosi di parole fa (in automatico, molto velocemente e su larga scala) ciò che farebbe uno studente nel realizzare velocemente un compito: aprire Google, rubacchiare qualcosa scritta da altri e provare a dargli un senso proprio. Il problema è che probabilmente è ancora difficile far accettare questa idea – cioè il fatto che qualsiasi compito meccanico è replicabile da un computer, cosa diversa dal dare ad un algoritmo il compito di scrivere un romanzo di successo, ad esempio (cosa che ChatGPT non fa).

    Il funzionamento di ChatGPT sembra pertanto estremamente condizionato dal tipo di domande che gli facciamo.

    ChatGPT non è un’alternativa a Google (anche perchè costa molto di più)

    Spiace contraddire la vulgata pop, ma il punto di ChatGPT non è il suo esser potenziale sostituto di Google: questo banalmente perchè funziona in modo diverso da Google. Google è una multinazionale con costi e ricavi monstre, senza dubbio, ma le stime attuali parlano di ChatGPT attorno ai 100 mila dollari al giorno, il costo di calcolo e computazione delle macchine che se ne occupano. ChatGPT esiste da pochi mesi, mentre Google c’è da circa 25 anni – e questo produce ulteriore differenza tra le due.

    Tecnicamente l’idea non sembra stare molto in piedi, in sostanza. È vero che resta, come la ricerca di Google, basilarmente un sistema di “domanda e risposta”, ovviamente, ma è chiaro che viene concepito con scopi diversi. O meglio: è chiaro se pensiamo ai servizi che Google Search offre (quasi tutti click oriented, con la possibilità di leggere, scrivere contenuti e interagire) ci rendiamo conto che questi servizi, per quanto possano sembrare e siano conversazionali (e ne siano abbondantemente “conditi”) non si limitano a dare delle risposte, ma le riempono di chiamate all’azione di cui – almeno, ad oggi – ChatGPT non possiede.

    ChatGPT non risponde esattamente a tutte le domande e rifiuta di dare quelle che sono troppo ambigue: Google, al contrario, le mostra quasi sempre.

    Le risposte che può fornire ChatGPT possono essere potenzialmente sgradevoli (e non potete farci niente)

    A causa di effetti psicologici inconsci come il bias del ricercatore, per cui ogni studio è anche minimamente condizionato dalle credenze interiori dei ricercatori (che tendono non solo a darsi ragione a convenienza ma anche a cercare conferme dei propri pregiudizi), è possibile che un algoritmo possa dare risposte errate, di cattivo gusto, orribili o discutibili.

    Se non potesse farlo, non potrebbe impressionarci in positivo con altri esempi virtuosi, del resto.

    I dati che inserite per il training (ad esempio, le domande che fate al bot) sono registrate e processate dall’algoritmo

    Occhio alla privacy: non fate domande “Intime” o troppo riservate all’algoritmo. Le risposte possono essere memorizzate e riutilizzate in futuro. L’acquizione dei dati è continua e permette al machine learning sottostante di evolvere ed auto-migliorarsi nel tempo. Motivo per cui ChatGPT funzionerà meglio tra un anno di quanto non faccia oggi, almeno in teoria, e se non viene addestrato con “cattivi esempi”, ovviamente.

    Come fa ChatGPT a “scrivere” testi originali?

    Sfrutta una tecnica algoritmica nota come “apprendimento supervisionato” che si basa sulla rielaborazione di frammenti di testi contestuali o pertinenti l’argomento. Elaborando le frasi della domanda che gli facciamo, è in grado di combinare vari input dall’esterno come farebbe, se vogliamo, uno studente per fare una ricerca: il limite tra scopiazzatura e lavoro originale è, pertanto, in entrambi i casi molto, molto labile.

    Ma allora che cos’è davvero ChatGPT?

    ChatGPT (letteralmente Chat GPT, Generative Pretrained Transformer) è un chatbot avanzato basato su intelligenza artificiale, sviluppato da OpenAI e dotato della singolare capacita di “argomentare” (cosiddetta Conversational AI): grazie a questo avanzato sistema di processamento dati abbiamo la possibilità di fare “domande” all’algoritmo e non solo: possiamo chiedergli di scrivere testi più lunghi e sarà in grado di generarli in modo autonomo, corretto grammaticalmente e semanticamente quasi impeccabile. Se sembra un miracolo (o un trucco) c’è poco da fare gli scettici: l’AI di oggi fa questo ed altro, ed era solo questione di tempo perchè ci arrivassimo.

    Un bot conversazionale, in sostanza, che ha conosciuto l’attenzione e la popolarità anche della stampa generalista, soprattutto per il potente effetto suggestivo che è in grado di ingenerare.

    OpenGPT ti spiega cose difficili in modo semplice: ad esempio, la relatività ristretta

    Risultato notevole, anche in questo caso.

    Cercando una delle frasi del testo artificiale qui sopra non è difficile scoprire la potenziale fonte, per quanto sia stata molto rielaborata.

    OpenGPT può insegnarti come trovare l’amore

    Ebbene sì, e lo fa in modo molto realistico (a leggerlo così, OpenGPT è un pragmatico-materialista).

    OpenGPT può suggerirti come leggere più velocemente

    HO chiesto a ChatGPT alcuni suggerimenti per leggere più velocemente e con maggiore efficenza possibile. Ecco la risposta che mi ha fornito.

    Dove posso trovare ChatGPT in italiano?

    Devi registrarti su questo portale: https://chat.openai.com/chat

    Basta un indirizzo email valido e sarai pronto a cominciare. Nota bene: anche se l’interfaccia del sito fosse in inglese, le domande si possono fare tranquillamente anche in italiano.

    Foto di copertina: DALL E, a conversational chatbot looking in the eyes, very expressive, intelligent, realistic

  • Compiti con ChatGPT: ma sei sicuro che sia una buona idea?

    Compiti con ChatGPT: ma sei sicuro che sia una buona idea?

    Sfatare il mito dell’LLM come bacchetta magica

    Nell’era dell’intelligenza artificiale generativa strumenti come ChatGPT sono entrati prepotentemente nelle nostre vite, promettendo di rivoluzionare il modo in cui lavoriamo, studiamo e creiamo. Fare i compiti con ChatGPT, cosa di cui spesso accusiamo i nostri ragazzi, fa il pari con il fatto che autorevoli avvocati ne fanno uso. Proprio così: e se la scarsa consapevolezza è in qualche modo giustificabile da ragazzi che non sono stati educati a dovere, lo stesso dovrebbe dirsi per certi adulti.

    Come raccontato di recente da Paolo Attivissimo ci sono stati casi in cui professionisti, tra avvocati, giornalisti e funzionari governativi, hanno subito conseguenze negative a causa della loro dipendenza acritica da contenuti generati dall’intelligenza artificiale. Giugno 2023: gli avvocati Peter LoDuca e Steven Schwartz hanno presentato in tribunale precedenti legali falsi generati mediante ChatGPT: molti articoli sui quotidiani e nei blog, del resto, vengono generati allo stesso modo.

    No, non è una buona idea 🙂 e adesso voglio spiegarti perchè

    I problemi nell’uso degli LLM

    Di base, un LLM genera testo, e siccome raramente esprime dubbi nel farlo – tranne Gemini di Google, che sembra l’unica che in alcuni casi va in crisi e non genera nulla – da’ la sensazione che sia tutto corretto, sempre e comunque. Gli articoli generati dall’IA possono in realtà contenere citazioni false, attribuendole ad autori inventati, e anche i ragionamenti che propone non sono da meno. Questo avviene tecnicamente perchè, a differenza dei dimostratori automatici di teoremi, gli LLM non si basano esclusivamente su  logica formale e regole di inferenza (induzione, risoluzione, modus ponens, …), ma prendono esempi a campione dall’esterno, sfruttando algoritmi di classificazione per decidere in futuro come riutilizzarlo. Il processo è molto complesso, e di fatto se non esistesse nessuno farebbe uso massivamente di semplici “dimostratori”. L’equivoco tuttavia sta proprio in questo “doloroso” compromesso: aprire un LLM ai dati esterni ci espone alle imperfezioni e alle ambiguità linguistiche del mondo in cui viviamo. Per cui no, davvero: non fare mai i compiti con ChatGPT. Semmai, usalo come strumento per farti interrogare, per verificare se ragioni bene, per curiosare su come ragiona “lui”. La tecnologia non è mai passiva, ricordalo.

    Un LLM non è un motore di ricerca: un grande equivoco

    Il fraintendimento più comune e pericoloso riguarda la natura degli LLM: molti utenti, ingenuamente, li considerano alla stregua di motori di ricerca avanzati. “Chiedi a ChatGPT e lui ti darà la risposta“, si pensa: nulla di più sbagliato.

    Un motore di ricerca, come Google o Bing, è progettato per indicizzare miliardi di pagine web e presentarti i risultati più pertinenti in base alle tue query, fornendoti link a fonti originali e verificabili. La sua forza risiede nella capacità di “trovare” informazioni esistenti nel vasto mare di internet.

    Un LLM, al contrario, non “cerca” informazioni nel senso tradizionale del termine: è un modello addestrato su un’enorme quantità di dati testuali e il suo compito è generare sequenze di parole che siano statisticamente probabili e coerenti con il contesto della domanda. Nel caso più estremo, se ci hai fatti caso, un LLM come ChatGPT ribadisce ciò che contiene la domanda, lo ripete più volte, è un sistema verboso quanto impattante per l’ambiente – e ne andrebbe fatto uso sempre in modo moderato.

    Quando chiedi a ChatGPT o chi per “lui” di farti i compiti, LLM “predice” la parola successiva nella frase basandosi sui pattern appresi durante il suo addestramento. Ciò significa che può creare contenuti che suonano plausibili e convincenti, ma questo non vuol dire che siano necessariamente veri nè accurati. Spesso, peraltro, gli LLM “allucinano”, ovvero inventano fatti, citazioni o riferimenti che non esistono, presentandoli con la stessa sicurezza di un dato verificato. Questo è un problema serio quando si tratta di compiti che richiedono precisione e verifica delle fonti.

    Facci caso: se non conosci una parola di cinese o russo, ad esempio, non sarai in grado di capire se una persona stia facendo un discorso reale o stia farfugliando senza significato. Studiare, come al solito, è sempre necessario per poter capire.

    Fidarsi ciecamente

    L’utilizzo indiscriminato di ChatGPT per compiti accademici o professionali può generare una serie di problematiche significative:

    • Inaccuratezza e allucinazioni: Come accennato, la tendenza a generare informazioni errate è una realtà. Consegnare un lavoro basato su dati inesatti non solo può portare a una valutazione negativa, ma anche a una diffusione di disinformazione.
    • Mancanza di pensiero critico: Affidarsi a un LLM per generare testi preclude l’opportunità di sviluppare e affinare il proprio pensiero critico, la capacità di analisi e di sintesi. Il processo di ricerca, selezione delle fonti, valutazione e rielaborazione delle informazioni è fondamentale per l’apprendimento e la comprensione profonda.
    • Plagio e originalità: Anche se il testo generato da un LLM è tecnicamente “originale” nel senso che non è una copia diretta di un’altra fonte, la paternità intellettuale e la comprensione reale dell’argomento rimangono un problema. Le istituzioni educative e professionali stanno sviluppando metodi per rilevare i testi generati da AI, e le conseguenze del plagio possono essere gravi.
    • Dipendenza e atrofia delle competenze: L’eccessivo affidamento su questi strumenti può portare a una dipendenza che ostacola lo sviluppo di competenze essenziali come la scrittura autonoma, la ricerca efficace e la risoluzione creativa dei problemi.

    Un altro aspetto cruciale da considerare è che un LLM, pur essendo abile nel manipolare il linguaggio, non possiede una comprensione intrinseca del mondo o la logica profonda necessaria per affrontare compiti complessi in ogni disciplina. Pensiamo ad esempio alla matematica: Sebbene un LLM possa sembrare capace di risolvere problemi matematici, la sua “comprensione” è basata su pattern testuali e non su una vera e propria capacità di ragionamento logico-matematico. È più probabile che commetta errori logici in problemi complessi o non standardizzati. Per l’informatica, è vero: può generare codice, ma senza una reale comprensione del suo funzionamento o della sua efficacia non andrete lontano. Se fate i compiti così, rischiate di ritrovarvi con strutture dati che non sono mai state fatte.

    La macchina come strumento

    Mentre ChatGPT e altri LLM rappresentano strumenti tecnologici straordinari con un potenziale immenso, è fondamentale approcciarsi al loro utilizzo con consapevolezza critica. Non sono bacchette magiche capaci di risolvere ogni problema o di sostituire il pensiero umano. Al contrario, sono strumenti potentissimi che, se usati in modo oculato e consapevole dei loro limiti, possono supportare la produttività, stimolare nuove idee e automatizzare compiti ripetitivi.

    Per i compiti che richiedono accuratezza, pensiero critico, originalità e comprensione profonda di una disciplina, l’essere umano rimane insostituibile. L’AI generativa dovrebbe essere vista come un collaboratore, un assistente che può velocizzare alcune fasi del lavoro, ma mai come un sostituto del proprio intelletto, della propria capacità di ricerca e del proprio processo di apprendimento. La vera sfida non è far scrivere un saggio a ChatGPT, ma imparare a usarlo per affinare la propria ricerca, migliorare la propria scrittura e stimolare la propria creatività, mantenendo sempre saldo il controllo e la responsabilità dei contenuti prodotti.

  • La mente in letargo: cosa succede al cervello quando usiamo ChatGPT

    La mente in letargo: cosa succede al cervello quando usiamo ChatGPT

    Si chiama “Your Brain on ChatGPT” (letteramente “Il tuo cervello su ChatGPT”), ed è uno studio pubblicato da Nataliya Kosmyna per conto del MIT Media Lab. L’istituto di ricerca del MIT si è occupato, di fatto, di analizzare l’impatto cognitivo dell’uso di ChatGPT in un contesto educativo molto specifico (e ben noto agli studenti): scrivere un saggio. Come cambiano le prestazioni cognitive facendo uso di un LLM generativo, che sarà risaputamente in grado di fare i compiti e generare le risposte desiderate?

    “Usare ChatGPT spegne il cervello!”

    “Scrivi con l’IA, dimentichi tutto!”

    “La prova: l’IA ti rende stupido!”

    Anche meno 🙂

    Per fare questo studio sono stati analizzati 54 studenti divisi in tre gruppi: il primo faceva uso di ChatGPT, il secondo di un motore di ricerca, il terzo era totalmente offline. Sono state previste tre sessioni di lavoro distinte, nelle quali i gruppi si scambiavano la modalità di approccio, in modo che ognuno potesse avere le stesse possibilità degli altri. Mentre si lavorava, un macchinario registrava la connettività cerebrale e il carico cognitivo coinvolto nelle attività (EEG o elettro-encefalogramma). I saggi prodotti, alla fine, sono stati giudicati da insegnanti in carne ed ossa e da uno basato su intelligenza artificiale.

    Fermo restando che  studio è un preprint e non è stato ancora sottoposto a peer review, queste risultanze sono interessanti quanto preliminari, ma nessuno – per intenderci – ad oggi dovrebbe trarre conclusioni definitive in merito. Un articolo peer-reviewed (o articolo sottoposto a revisione paritaria) è un lavoro scientifico che, prima di essere pubblicato in una rivista accademica, viene valutato da altri esperti del settore (pari o peers). Questo processo serve a garantire la qualità, l’affidabilità e la validità del contenuto scientifico. Non che questo articolo non abbia interesse, tutt’altro: è solo che siamo ad uno stadio dei lavori per cui possiamo solo aspettare ulteriori risultati da altre ricerche. 4 mesi di ricerche, peraltro, potrebbero non bastare per valutare l’impatto cognitivo o neurale a lungo termine.

    EEG ha rilevato una diminuzione di connettività nelle reti neurali chiave: l’uso dell’IA potrebbe alterare la neuroplasticità legata alla scrittura e al pensiero critico. Sembra ragionevole che il passaggio da motore di ricerca a LLM mantenga livelli di prestazione migliori rispetto al gruppo LLM singoli (un motore di ricerca non è un LLM, come abbiamo più volte ribadito); questo semmai suggerisce l’importanza di effettuare un’integrazione graduale, non di renderli strumenti sostitutivi.

    Il campione analizzato era molto piccolo (meno di 100 persone, peraltro omologate in termini demografici e geografici): motivo per cui potrebbe non essere stato significativo in termini statistici.Di più: non viene fornito nessun dettaglio su come i partecipanti abbiano usato ChatGPT (prompt, quantità di testo generato, editing, ecc.), e non sono state fatte distinzioni tra uso attivo (spunto creativo) e uso passivo (copia-incolla) dello strumento.

    I risultati trovati, ad ogni modo, sono i seguenti:

      1. Connettività cerebrale: massima nel gruppo “brain”, intermedia nel gruppo con motore di ricerca, minima nel gruppo LLM. La connettività sembra decrescere all’aumentare dell’uso di supporti esterni.
      2. Sessione 4: i partecipanti passati da LLM a “brain” (LLM→Brain) hanno esibito under‑engagement in bande alfa e beta, mentre quelli passati da brain a LLM (Brain→LLM) mostrano un attivazione simile per il gruppo passato da brain a motore di ricerca, con richiamo mnemonico ottimizzato.
      3. Ownership / ricordo: il senso di proprietà sui saggi era chiaramente più basso nel gruppo ChatGPT, maggiore nel gruppo motore di ricerca e massimo nel gruppo brain; per lo stesso motivo, il gruppo ChatGPT – significativamente – faceva fatica a citare ciò che aveva scritto anche a distanza di pochi minuti.
      4. Prestazioni globali: nel corso di 4 mesi di sperimentazione, il gruppo che accedeva a ChatGPT ha avuto prestazioni inferiori rispetto agli altri nei livelli neurali, linguistici e valutativi.

    Lo studio pertanto sostiene che l’uso di LLM (in certa misura) potrebbe generare una sorta di “debito cognitivo”, ovvero una riduzione dell’impegno mentale, capacità mnemoniche e capacità di attribuirsi la paternità di uno scritto. I benefici immediati (velocità, facilità) sembrano perdurare nel lungo termine, ma le competenze cognitive possono deteriorarsi. Ma allora viene spontaneo chiedersi:

    L’uso costante di LLM potrebbe ridurre la capacità di pensare criticamente, ricordare e costruire strutture argomentative autonome—competenze fondamentali per l’apprendimento profondo?

    Scrivere con ChatGPT potrebbe portare a un senso di estraneità rispetto al proprio prodotto creativo, con rischi di dipendenza dal tool e riluttanza a esercitare lo sforzo cognitivo necessario?

    Se introdotti nelle scuole/università, gli LLM potrebbero alterare il modo in cui gli studenti apprendono, infliggendo un danno progressivo alle loro capacità mentali, anche dopo l’abbandono dell’uso?

    Lo studio Your Brain on ChatGPT offre spunti interessanti sul possibile impatto neurocognitivo dell’uso di modelli linguistici come ChatGPT, ma va interpretato con prudenza. I risultati preliminari indicano una riduzione della connettività cerebrale e del senso di proprietà nei testi scritti con assistenza AI, suggerendo l’ipotesi di un “debito cognitivo”. Tuttavia, i limiti metodologici – campione ristretto, contesto sperimentale artificiale, mancanza di controllo qualitativo sull’interazione con l’IA – ne riducono la portata conclusiva. Più che una prova definitiva, il lavoro rappresenta un invito a esplorare con rigore scientifico e senza sensazionalismi le implicazioni cognitive dell’intelligenza artificiale. Il vero nodo, quindi, non è se usare l’IA, ma come farlo in modo consapevole, mantenendo attivo il pensiero critico e la partecipazione mentale dell’utente.

    Glossario

    LLM (Large Language Model)

    Modello linguistico di grandi dimensioni addestrato su enormi quantità di testo per prevedere parole e generare frasi coerenti. ChatGPT è un esempio di LLM.

    Cognitive Load (Carico Cognitivo)

    La quantità di risorse mentali richieste per completare un compito. Un alto carico implica maggiore sforzo e coinvolgimento del sistema esecutivo del cervello.

    EEG (Elettroencefalogramma)

    Tecnica di neuroimaging che misura l’attività elettrica cerebrale tramite elettrodi sullo scalpo. Utilizzata per rilevare stati mentali (concentrazione, stanchezza, engagement, ecc.).

    Connettività cerebrale funzionale

    Misura statistica delle correlazioni tra diverse regioni del cervello. Una maggiore connettività indica che più aree stanno collaborando attivamente durante un compito cognitivo.

    Bande EEG (Alfa, Beta, ecc.)


    • Alfa (8–12 Hz): associate a rilassamento e inibizione dei compiti cognitivi.



    • Beta (13–30 Hz): associate a concentrazione, pensiero attivo e attenzione sostenuta.

      Variazioni in queste bande indicano livelli diversi di attivazione mentale.


    Debito Cognitivo

    Concetto ispirato al “debito tecnico”: si riferisce alla riduzione temporanea di impegno mentale che può avere effetti negativi a lungo termine su memoria, apprendimento e pensiero critico.

    Ownership Cognitivo

    Il senso di “proprietà mentale” su un contenuto generato, ovvero quanto un individuo percepisce un’idea, una frase o un testo come frutto del proprio pensiero.

    NER (Named Entity Recognition)

    Tecnica NLP (Natural Language Processing) che individua entità rilevanti in un testo (persone, luoghi, date, ecc.) e serve per valutare la complessità o specificità linguistica.

    N-gram

    Sequenze di parole contigue in un testo (es. bigrammi: “intelligenza artificiale”). Usati per analizzare struttura sintattica, ricorrenze e stile.

  • Perchè le aziende non dovrebbero vietare ChatGPT ai dipendenti

    Perchè le aziende non dovrebbero vietare ChatGPT ai dipendenti

    La domanda che proveremo a porci in questo articolo è una di quelle insidiose: un’azienda informatica deve vietare o no l’utilizzo di chatGPT (o equivalenti strumenti) ai propri dipendenti? Ci sono vari aspetti da considerare a mio avviso, e la risposta dipende dalla policy aziendale che si decide di adottare.

    Perchè vietare ChatGPT ai programmatori

    In primo luogo c’è da sottolineare il problema del codice: in genere i dipendenti che fanno uso di codice interno sono soggetti a rigide condizioni di utilizzo, che vanno dal divieto di parlare di ciò a cui stanno lavorando fino al divieto di condividere codice con terze parti. Motivo per cui la condivisione di codice – come avverrebbe inevitabilmente facendo uso di strumenti come chatGPT (anche se non è scontato, in effetti) – rischia di diventare un momento di inopportuna exfiltration volontaria, ovvero di far trapelare i dati interni dell’azienda ad un’azienda esterna, che li tiene custoditi nei propri server. A quel punto i server dovrebbero diventare idealmente pubblici: e non è da escludere a mio avviso che arrivi qualche azienda che proponga tutti i dati pubblicamente, anche se poi bisognerebbe distinguere tra dati personali e dati non personali, visto che le complicazioni legate alla legge sulla privacy sono ben note e non sono affatto di semplice risoluzione. Comunque la si ponga complicato: per cui gli uffici legali ritengono che non si debba utilizzare chat CPT mentre si programma, quanto la cosa vada in controtendenza rispetto a quello che dice Google, che invece ha creato l’intelligenza artificiale proprio per programmare facilmente (e anche qui, paradosso estremo: i dipendenti di Google non possono farne uso!). È chiaro che non basta vietare per risolvere il problema, ma sicuramente l’unico tampone ragionevole che si poteva mettere ad un fenomeno sempre più diffuso.

    Perchè NON vietare ChatGPT ai programmatori

    Altro lato della medaglia, a questo punto.

    Esite un aspetto da non sottovalutare, che è legato al software open source: il mondo dell’informatica pullula di repository open source, molti dei quali vengono (ri)utilizzati dalle aziende a livello interno, e spesso vengono “privatizzati” senza autorizzazione da parte di nessuno. Nulla di male, ma qualcosa non torna:aldilà della questione etica di privatizzare un qualcosa di pubblico, significa che il vantaggio competitivo è soltanto presunto, e anche qualora si trovassero (grazie a dipendenti virtuosi, ad esempio) delle soluzioni che rimanessero interne all’azienda, ci sarebbe comunque il rischio che trapelino in futuro. Qui entra in gioco un discorso di affidabilità e di sicurezza informatica: i dati possono essere soggetti di attacco informatico, e qui l’azienda si tutelano e si spera te lo facciano, ma il dipendente virtuoso che ho creato con le soluzioni potrebbe tenersi una copia perse e diffonderla in futuro.

    L’equivoco nasce anche dal fatto che si considera indebitamente l’open source come equivalente al pubblico dominio, assunzione che, oltre essere falsa, è dannosa dell’utilità effettiva che hanno i prodotti open source (i quali, lo ribadiamo, sono anche di natura commerciale: open source non significa per forza libero e gratis!). Se il software viene comunque condiviso a destra e a manca – cosa che prima o poi tende a succedere, sia perchè i dipendenti stanno su un mercato al rialzo, sia perchè le aziende puntano a risparmiare sempre sugli stipendi – che senso ha impedire che del codice “privato” venga caricato all’interno dell’ennesimo server, tanto più che verrebbe eventualmente utilizzato da ChatGPT per migliorare collettivamente le prestazioni del servizio? Quando si cercano determinate soluzioni non è detto che si debba condividere del codice, e poi difficilmente chatGPT no del codice finale già pronto all’uso: a quel punto la differenza vero sarebbe tra chi lo usa (che sviluppa velocemente, a patto che lo inquadri come supporto alle decisioni, non come “decisore” autonomo!) e chi non lo fa (che sviluppa più lentamente, molto semplicemente, per quanto faccia dormire sonni apparentemente tranquilli ai piani alti).

    Questo approccio potrebbe meravigliare il fatto del codice debba restare chiuso come fattore competitivo: lo sappiamo, non viviamo sulla luna, ma ancora una volta vorremmo sottolineare come il vantaggio potrebbe rivelarsi del tutto apparente. Il vantaggio competitivo per chi programma risulta nella realizzazione di prodotti validi, E la diffusione di soluzioni open source s’gratuito come quelle offerte da Bender non ha certamente minato il mercato del 3D: di sicuro l’ho cambiato, perché hanno tenuto conto delle esigenze cambiate. Il cambiamento e l’evoluzione tecnologica non dovrebbero terrorizzare (come attualmente fanno), perchè alla lunga potrebbe pagare in maggiori introiti e migliori condizioni per le aziende ad ogni livello.

    E poi, anche se non si volesse ragionare in termini “altruistici”, bisognerebbe riflettere sul fatto che ci saranno aziende che questa policy non la adotteranno, le quali – nel medio-lungo periodo, in teoria – dovrebbero riuscire a sviluppare meglio e più velocemente rispetto a chi ha vietato ChatGPT ai propri dipendneti. I vantaggi reali, naturalmente, si vedranno solo col tempo: la nostra sensazione è che ho una politica troppo chiusa rischi, nonostante la bontà dei presupposti, di rivelarsi miope, per la stessa ragione per cui l’ostilità al software open source è stata superata addirittura da Microsoft, che per anni l’ha osteggiata.

    Le immagini di questo articolo sono state generate da StarryAI, con l’intenzione di rappresentare metaforicamente un gruppo di programmatori chiusi in gabbia come leoni, la cui potenzialità non può esplodere finchè qualcuno non romperà la gabbia stessa.

  • Come usare adeguatamente ChatGPT

    Come usare adeguatamente ChatGPT

    ChatGPT è un’intelligenza artificiale sviluppata da OpenAI, basata sulla tecnologia di deep learning nota come Transformer. È un modello di linguaggio generativo che utilizza una vasta quantità di dati testuali per comprendere e generare testi in linguaggio naturale.

    Caratteristiche Principali di ChatGPT:

    1. Generazione di Testi: ChatGPT è in grado di produrre testi coerenti e comprensibili su una vasta gamma di argomenti, rispondendo a domande e fornendo spiegazioni dettagliate.
    2. Comprensione del Contesto: Il modello è addestrato per comprendere il contesto delle conversazioni, utilizzando informazioni precedenti per influenzare la generazione delle risposte.
    3. Adattabilità: ChatGPT può essere adattato a diversi casi d’uso e contesti specifici tramite l’implementazione di prompt e istruzioni personalizzate.
    4. Apprendimento Continuo: Grazie alla sua architettura di deep learning, ChatGPT può migliorare le sue capacità linguistiche e la sua risposta nel tempo, in base all’interazione con gli utenti.

    Utilizzi Comuni di ChatGPT:

    • Supporto all’utente: Fornisce assistenza e risposte rapide su questioni tecniche, prodotti o servizi.
    • Educazione: Aiuta nello studio fornendo spiegazioni, risolvendo dubbi e suggerendo risorse educative.
    • Creatività: Genera idee, storie o contenuti creativi basati sui parametri forniti.
    • Automazione: Automatizza risposte a domande frequenti o compiti ripetitivi.
    • Ricerca: Supporta la ricerca fornendo informazioni e dati su vari argomenti.

    Limitazioni e Considerazioni Etiche:

    • Precisione: Nonostante la capacità di generare testi coerenti, ChatGPT può produrre informazioni errate o non verificate, quindi è sempre consigliabile verificare le risposte per eventuali errori.
    • Privacy: L’interazione con ChatGPT può implicare la condivisione di dati personali, pertanto è importante utilizzare il modello con attenzione e rispettando le normative sulla privacy.
    • Bias: Come qualsiasi modello di machine learning, ChatGPT può riflettere e amplificare i pregiudizi presenti nei dati di addestramento, il che richiede una supervisione attenta per mitigare il rischio di discriminazione.

    ChatGPT rappresenta una potente risorsa per l’elaborazione del linguaggio naturale, utilizzata per una vasta gamma di applicazioni che vanno dall’assistenza clienti all’educazione e alla creatività, pur richiedendo un uso responsabile e consapevole delle sue capacità e delle sue limitazioni. Utilizzando ChatGPT in modo intelligente e strategico, è possibile migliorare notevolmente la propria produttività, l’apprendimento e la gestione delle attività quotidiane, sia a scuola, a casa, che sul lavoro.

    ChatGPT rappresenta un notevole passo avanti nell’elaborazione del linguaggio naturale e offre numerose opportunità in vari campi. Tuttavia, è essenziale utilizzare questa tecnologia in modo consapevole, riconoscendo i suoi limiti e mitigando i rischi associati, come il bias nei dati e la mancanza di comprensione contestuale. L’adozione responsabile di ChatGPT può massimizzare i suoi vantaggi, migliorando l’efficienza, la creatività e la qualità dell’interazione umana assistita dalla tecnologia.

    Pregi di ChatGPT:

    1. Capacità di Generazione di Testo: ChatGPT è estremamente bravo nella generazione di testi coerenti e comprensibili su una vasta gamma di argomenti. Può produrre risposte dettagliate e ben formulate.
    2. Adattabilità: Il modello è adattabile e può essere personalizzato per rispondere a prompt specifici o per adempiere a determinati compiti. Ciò lo rende versatile per vari contesti d’uso.
    3. Apprendimento Continuo: Grazie alla sua architettura di deep learning, ChatGPT può migliorare nel tempo interagendo con una vasta quantità di dati e feedback.
    4. Supporto Multilingue: È in grado di comprendere e generare testi in diverse lingue, rendendolo accessibile a un pubblico globale.
    5. Automazione delle Risposte: È utile per automatizzare risposte a domande frequenti e gestire interazioni di supporto clienti in modo efficace.
    6. Potenziale Creativo: Può essere usato per generare idee creative, storie, e contenuti artistici, offrendo uno strumento per l’ispirazione e la creatività.

    Difetti di ChatGPT:

    1. Limitazioni di Comprensione: Non sempre comprende perfettamente il contesto o il significato più profondo di una domanda, il che può portare a risposte imprecise o non pertinenti.
    2. Rischio di Bias: Come qualsiasi algoritmo di machine learning, ChatGPT può riflettere e amplificare i pregiudizi e i bias presenti nei dati con cui è stato addestrato, portando a risposte non equilibrate o discriminanti.
    3. Risposte non Verificate: Le risposte fornite da ChatGPT non sono sempre verificate o accurate al 100%, quindi è importante verificare le informazioni particolarmente sensibili o critiche.
    4. Mancanza di Consapevolezza: Non ha consapevolezza di sé o comprensione del contesto sociale o emotivo, limitando la sua capacità di interazione umana al di là della generazione di testi.
    5. Sicurezza e Privacy: L’uso di ChatGPT può implicare rischi per la sicurezza e la privacy, specialmente quando si tratta di dati sensibili o informazioni personali che possono essere condivisi durante l’interazione.

    Come Usare Bene ChatGPT a Scuola, a Casa e sul Lavoro

    A Scuola

    1. Supporto Didattico
      • Chiarimenti: Usare ChatGPT per ottenere spiegazioni su concetti difficili o per approfondire argomenti studiati in classe.
      • Esercitazioni: Generare esercizi, quiz o problemi da risolvere per praticare le competenze acquisite.
    2. Progetti e Ricerca
      • Ricerca: Utilizzare ChatGPT per raccogliere informazioni e risorse su vari argomenti per progetti e tesine.
      • Organizzazione delle Idee: Aiutare nella strutturazione di saggi, relazioni e presentazioni.
    3. Sviluppo delle Competenze di Scrittura
      • Editing e Revisione: Chiedere a ChatGPT di rivedere e correggere bozze di testi, migliorando grammatica, stile e coerenza.
      • Espansione del Vocabolario: Scoprire nuove parole e modi di esprimersi, migliorando la propria competenza linguistica.
    4. Apprendimento delle Lingue
      • Traduzione e Pratica: Usare ChatGPT per tradurre testi e praticare la scrittura e la conversazione in una lingua straniera.

    A Casa

    1. Gestione della Vita Quotidiana
      • Ricette e Pianificazione dei Pasti: Ottenere idee per ricette e pianificare i pasti della settimana.
      • Gestione del Tempo: Aiutare nella creazione di orari e piani giornalieri per migliorare la produttività.
    2. Supporto Familiare
      • Aiuto con i Compiti: Assistere i bambini con i loro compiti, fornendo spiegazioni e risposte a domande difficili.
      • Attività Ricreative: Suggerire giochi, attività creative e hobby per il tempo libero.
    3. Gestione Finanziaria
      • Pianificazione del Budget: Ricevere consigli su come gestire il budget familiare e risparmiare denaro.
      • Consigli Finanziari: Ottenere informazioni su investimenti, risparmi e altre decisioni finanziarie.
    4. Salute e Benessere
      • Consigli per la Salute: Ricevere suggerimenti per una vita sana, come esercizi, diete equilibrate e gestione dello stress.
      • Supporto Mentale: Usare ChatGPT per trovare tecniche di rilassamento e gestione dell’ansia.

    Sul Lavoro

    1. Produttività e Gestione del Tempo
      • Pianificazione: Creare programmi di lavoro e gestire le priorità delle attività.
      • Automazione: Utilizzare ChatGPT per automatizzare attività ripetitive, come l’invio di email o la generazione di report.
    2. Collaborazione e Comunicazione
      • Preparazione di Documenti: Redigere e rivedere documenti, report e presentazioni.
      • Supporto alla Comunicazione: Migliorare la scrittura di email e messaggi, assicurando chiarezza e professionalità.
    3. Ricerca e Analisi
      • Raccolta Dati: Utilizzare ChatGPT per raccogliere informazioni su mercati, concorrenti e tendenze del settore.
      • Analisi dei Dati: Ottenere aiuto nell’analisi e interpretazione dei dati aziendali.
    4. Formazione e Sviluppo Professionale
      • Aggiornamento delle Competenze: Accedere a risorse e materiali didattici per migliorare le proprie competenze professionali.
      • Coaching e Mentoring: Utilizzare ChatGPT come strumento di supporto per coaching e mentoring, ricevendo consigli e suggerimenti su carriera e sviluppo personale.

    Consigli Generali per Usare Bene ChatGPT

    1. Definire Chiaramente le Domande
      • Formulare domande precise e specifiche per ottenere risposte accurate e pertinenti.
    2. Verificare le Informazioni
      • Ricordarsi di verificare le informazioni fornite da ChatGPT, specialmente per decisioni importanti.
    3. Usare un Linguaggio Naturale
      • Comunicare con ChatGPT come si farebbe con una persona, utilizzando un linguaggio naturale e colloquiale.
    4. Proteggere la Privacy
      • Evitare di condividere informazioni personali o sensibili durante l’interazione con ChatGPT.
    5. Sperimentare e Imparare
      • Sperimentare diversi modi di usare ChatGPT per scoprire come può meglio supportare le proprie esigenze specifiche.
  • Guida: a cosa serve “Avvia il ragionamento” in ChatGPT

    Guida: a cosa serve “Avvia il ragionamento” in ChatGPT

    A cosa serve la funzione “Avvia il ragionamento” in ChatGPT?

    La funzione “Avvia il ragionamento” in ChatGPT è una caratteristica avanzata che consente al modello di sviluppare un pensiero più articolato e dettagliato durante la conversazione. Questa funzione è particolarmente utile quando l’utente vuole ottenere una risposta più approfondita e strutturata, piuttosto che una semplice risposta diretta.

    Cos’è la funzione “Avvia il ragionamento”?

    Quando un utente seleziona l’opzione “Avvia il ragionamento”, ChatGPT non si limita a fornire una risposta veloce, ma inizia un processo di analisi più approfondita. Questo significa che il modello suddivide il problema o la domanda in vari passaggi, esplorando le possibili soluzioni e spiegando ciascun passaggio in modo chiaro. Si tratta di un metodo che permette una comprensione migliore dell’argomento trattato, rendendo la risposta non solo più completa, ma anche più utile per l’apprendimento o la risoluzione di un problema complesso.

    Differenze tra una risposta semplice e una con “Avvia il ragionamento”

    Per capire meglio le potenzialità di questa funzione, vediamo un esempio pratico:

    Domanda: “Come si calcola la velocità di trasmissione?”

    • Senza “Avvia il ragionamento”: La risposta sarebbe semplice e diretta, come ad esempio: “La velocità di trasmissione si calcola come il rapporto tra la quantità di dati trasmessi e il tempo impiegato, ed è espressa con la formula:

      V=DTV = \frac{D}{T} dove VV è la velocità, DD è la quantità di dati e TT è il tempo.”
    • Con “Avvia il ragionamento”: In questo caso, il modello risponderebbe in modo molto più dettagliato, spiegando ogni singolo passaggio del processo. Ad esempio, inizierà con l’identificazione dei dati (come i bit o i byte), spiegherà come calcolare il tempo di trasmissione, e guiderà l’utente attraverso l’applicazione della formula, facendo anche un esempio pratico e spiegando le eventuali conversioni da fare se necessario. Il modello può anche evidenziare aspetti legati alle unità di misura (come byte e bit), assicurandosi che l’utente comprenda pienamente come utilizzare la formula.

    Perché è utile “Avvia il ragionamento”?

    Questa funzionalità è particolarmente utile per risolvere problemi complessi che richiedono una comprensione più profonda o per rispondere a domande che non possono essere trattate in modo superficiale. Per esempio, quando si deve affrontare un concetto tecnico o matematico, come la velocità di trasmissione, “Avvia il ragionamento” consente di comprendere tutti i dettagli e i passaggi necessari per arrivare alla soluzione. Inoltre, l’approccio dettagliato aiuta a evitare errori di comprensione o applicazione dei concetti.

    Differenze tra GPT-3 e GPT-4 nella funzione “Avvia il ragionamento”

    Per apprezzare appieno l’efficacia della funzione “Avvia il ragionamento”, è importante considerare anche l’evoluzione del modello di linguaggio su cui ChatGPT si basa. In particolare, la differenza tra le versioni GPT-3 e GPT-4 è notevole:

    • GPT-3, pur essendo un modello potente con 175 miliardi di parametri, era limitato in alcuni aspetti come la capacità di gestire contesti complessi o di risolvere problemi più articolati. Le sue risposte, pur corrette, potevano risultare meno precise e più generiche, specialmente per domande che richiedevano un’elaborazione più profonda.
    • GPT-4, invece, rappresenta un miglioramento significativo, con una maggiore capacità di ragionamento complesso, una gestione migliore del contesto e risposte più dettagliate e precise. Quando si usa “Avvia il ragionamento” con GPT-4, la risposta sarà più strutturata, con spiegazioni approfondite e una maggiore attenzione ai dettagli.

    Questa evoluzione si traduce in risposte più affidabili, particolarmente quando è necessario ragionare su problemi più complessi o su concetti tecnici avanzati.

    La funzione “Avvia il ragionamento” in ChatGPT è una risorsa potente che arricchisce l’esperienza dell’utente, permettendo di ottenere risposte più complete e dettagliate. Che si tratti di risolvere problemi matematici, tecnici o di comprendere concetti più complessi, questa funzione aiuta a ottenere una visione chiara e approfondita del problema, garantendo una comprensione migliore e più accurata.

    La versione GPT-4 ha ulteriormente migliorato questa capacità, offrendo risposte più precise e con una gestione superiore del contesto e del ragionamento complesso.

    Fonti:

  • Ho parlato di violazioni di diritto d’autore con ChatGPT. Ma non ne sapeva nulla

    Ho parlato di violazioni di diritto d’autore con ChatGPT. Ma non ne sapeva nulla

    Poco fa mi sono divertito (capirai che divertimento) a chiedere a chatGPT cosa pensa delle sue potenziali violazione di diritto d’autore di cui alcuni lo stanno accusando. È un po’ caduto dal pero come tutte le volte in cui si chiede a questi modelli di parlare di se stessi: sembra che non conoscono se stessi, in qualche modo, che ci sia una sorta di “inconscio” digitale di cui non possono sapere nulla, nemmeno se messe sotto pressione. La capacità di un modello di cambiare idea e peraltro nota, per cui l’esperimento di oggi va ovviamente preso con le pinze, per quello che vale.

    Buona lettura!

    In breve

    Ecco un riassunto generale di ciò di cui abbiamo discusso:

    • Come modello di linguaggio, ChatGPT attinge da fonti di dati pubbliche durante l’addestramento, ma non ha accesso diretto alle informazioni specifiche sulle fonti o sulla provenienza dei dati. Quindi, di fatto, potrebbe attingere a fonti pirata senza saperlo.
    • Il diritto d’autore protegge le espressioni creative originali di un autore, ma non le idee o i concetti matematici in sé.
    • La condivisione o l’accesso a contenuti protetti da diritto d’autore senza autorizzazione potrebbe costituire una violazione del diritto d’autore.
    • L’uso accettabile delle opere protette dal diritto d’autore dipende dall’uso ragionevole e appropriato del materiale.
    • Non posso fornire informazioni specifiche sulle risorse di addestramento utilizzate nel mio caso particolare.
    • L’utente è responsabile dell’uso che fa delle informazioni fornite da un modello di linguaggio come me.
    • È importante comprendere e rispettare le leggi sul diritto d’autore e la proprietà intellettuale.
    • Consultare un avvocato specializzato nel campo del diritto d’autore per ottenere consulenza legale specifica è sempre consigliabile.

    Nel dettaglio, ci siamo “detti” quello che segue.

    Ciao, mi dici quali sono le fonti di dati da cui attingi per le tue risposte?

    Ciao! Come modello di linguaggio basato su GPT-3.5, ho ricevuto addestramento su un vasto insieme di testi provenienti da Internet. Durante l’addestramento, sono stati utilizzati siti web, articoli, libri, forum e molti altri tipi di contenuti pubblicamente disponibili.

    È importante notare che, sebbene io possa fornire informazioni e risposte a una vasta gamma di domande, non ho accesso diretto a fonti di dati specifiche come siti web in tempo reale, database protetti o informazioni riservate. Le mie risposte sono basate su ciò che ho appreso durante l’addestramento, ma potrebbero non riflettere gli ultimi aggiornamenti o le informazioni più recenti dopo la mia data di conoscenza (settembre 2021).

    Inoltre, è importante verificare sempre le informazioni critiche o rilevanti con fonti affidabili e attuali, specialmente per argomenti che richiedono una precisione aggiornata.

    OK. mi interessa capire la relazione tra chatgpt (che saresti tu) e il diritto d’autore. ci sto scrivendo un articolo per il mio blog di tecnologia. mi dai una mano?

    Certamente! Sarò felice di aiutarti a comprendere la relazione tra ChatGPT e il diritto d’autore per il tuo articolo sul blog di tecnologia. Il diritto d’autore è un argomento importante da considerare quando si tratta di utilizzare contenuti generati da ChatGPT o altri modelli di linguaggio simili. Di seguito ti fornisco alcune informazioni di base:

    Proprietà intellettuale: I modelli di linguaggio come ChatGPT sono creati e distribuiti da organizzazioni o aziende, e quindi sono soggetti a diritti di proprietà intellettuale. I diritti d’autore possono coprire il modello stesso, nonché i dati utilizzati per addestrarlo.

    Riservatezza dei dati: Le informazioni specifiche utilizzate per addestrare il modello GPT-3.5, incluso il metodo e l’ambito del set di dati utilizzato, non sono di dominio pubblico. Pertanto, citare OpenAI come fonte di GPT-3.5 e menzionare la sua natura proprietaria è una buona pratica.

    Utilizzo dei risultati generati: Quando utilizzi il modello GPT-3.5 per generare contenuti, è importante considerare il diritto d’autore delle risposte prodotte. Sebbene tu possa utilizzare le risposte come input per il tuo articolo, dovresti prendere in considerazione il fatto che l’autore del modello (OpenAI) potrebbe detenere i diritti d’autore sulle risposte stesse.

    Attribuzione: È consigliabile attribuire correttamente il contributo del modello di linguaggio alle risposte che genera. Ad esempio, potresti menzionare che le risposte sono state generate utilizzando ChatGPT di OpenAI.

    È importante tenere presente che le leggi sul diritto d’autore possono variare da paese a paese, quindi è sempre consigliabile consultare le leggi locali o cercare consulenza legale se si desidera avere una comprensione più approfondita del diritto d’autore nella propria giurisdizione.

    Ricorda che queste informazioni sono solo una panoramica generale e non costituiscono consulenza legale. Per ottenere una consulenza specifica in materia di diritto d’autore, è consigliabile rivolgersi a un avvocato specializzato nel campo del diritto della proprietà intellettuale.

    peraltro le leggi cambiano da stato a stato. una violazione in italia non corrisponde per forza ad una violazione nello stato di un autore che lamenta violazione di diritti d’autore. e viceversa

    Assolutamente, hai ragione. Le leggi sul diritto d’autore variano da paese a paese e possono essere diverse in termini di definizioni, limitazioni e durata della protezione. Ciò significa che una violazione di diritti d’autore in un determinato paese potrebbe non corrispondere necessariamente a una violazione in un altro paese.

    Le leggi sul diritto d’autore sono regolate a livello nazionale o regionale e ogni paese ha la propria legislazione specifica in materia. Pertanto, è fondamentale considerare le leggi sul diritto d’autore del paese in cui si intende utilizzare o distribuire il contenuto per garantire il rispetto delle normative locali.

    Sebbene io possa fornire informazioni generali sul diritto d’autore, è importante sottolineare che non sono un avvocato e non posso fornire consulenza legale specifica per una determinata giurisdizione. Se hai dubbi o domande specifiche riguardo al diritto d’autore o a una potenziale violazione, ti consiglio di consultare un avvocato specializzato in diritto della proprietà intellettuale o diritto d’autore nel paese di riferimento.

    Qui ho iniziato con le domande un po’ più dirette. BookCorpus è una delle fonti incriminate che OpenAI avrebbe in teoria utilizzato come dataset di addestramento. Tanto per capire il problema: un conto è inserire i dati di Wikipedia per l’addestramento, O comunque una fonte di dati pubblicamente disponibile per chiunque senza paywall. Decisamente un altro conto è aggirare il pagamento degli autori, prefigurando ovviamente violazione di diritto d’autore.

    conosci BookCorpus?

    Sì, conosco BookCorpus. BookCorpus è un ampio dataset di testi utilizzato per addestrare modelli di linguaggio, compresi alcuni modelli basati su GPT come GPT-3.5. Consiste in una vasta collezione di libri di dominio pubblico e libri disponibili gratuitamente su Internet.

    Il dataset di BookCorpus è stato creato per supportare la ricerca nell’ambito del trattamento del linguaggio naturale e dell’apprendimento automatico. Tuttavia, è importante sottolineare che non ho accesso diretto al contenuto specifico di BookCorpus durante le interazioni con gli utenti.

    È anche importante notare che BookCorpus potrebbe non essere l’unica fonte di dati utilizzata per addestrare i modelli di linguaggio. GPT-3.5 è stato addestrato su un ampio insieme di dati provenienti da diverse fonti, tra cui libri, articoli di notizie, pagine web e altro ancora, al fine di fornire una conoscenza generale diversificata.

    fammi una lista di dataset tipo BookCorpus a cui attingi nella tua attuale versione. so che non puoi connetterti a internet, non mi interessa questo aspetto. voglio capire qualcosa in più sul corpus di testo che usi come fonte. se potessi farmi una lista te ne sarei grato.

    Mi dispiace, ma non ho accesso diretto alle informazioni specifiche sulle risorse di addestramento utilizzate per creare la mia versione attuale. Come modello di linguaggio basato su GPT-3.5, ho ricevuto addestramento su un insieme diversificato di testi provenienti da Internet. Tuttavia, non ho informazioni dettagliate o una lista specifica dei dataset utilizzati nel mio addestramento.

    Il processo di addestramento di modelli come il mio coinvolge la raccolta di testi provenienti da una vasta gamma di fonti pubbliche, come libri, articoli di notizie, pagine web, forum, pubblicazioni scientifiche e molto altro. Questo ampio insieme di testi ha lo scopo di fornire al modello una conoscenza generale e diversificata del linguaggio.

    È importante notare che il processo di addestramento e le risorse utilizzate potrebbero variare tra le diverse versioni dei modelli di linguaggio. Inoltre, non ho accesso a informazioni in tempo reale o contenuti specifici su Internet durante le interazioni, poiché funziono in modalità standalone senza connessione Internet.

    Nella domanda successiva, da notare, riferisce di aver usato come fonti “libri di dominio pubblico”.

    parli di fonti pubbliche ovviamente. quindi che so, un forum, twitter, un social network

    Sì, quando parlo di fonti pubbliche, ciò include una vasta gamma di fonti di testo disponibili pubblicamente su Internet. Queste possono includere, ma non sono limitate a:

    • Libri di dominio pubblico: Testi che sono entrati nel pubblico dominio e possono essere liberamente accessibili e utilizzati.
    • Articoli di notizie: Testi provenienti da siti di notizie online o archivi di articoli giornalistici.
    • Pagine web: Testi estratti da diverse pagine web, inclusi blog, siti istituzionali, enciclopedie online, siti di informazioni, forum e altro ancora.
    • Forum e community online: Testi provenienti da discussioni su forum, community online e gruppi di discussione su vari argomenti.
    • Pubblicazioni scientifiche: Testi provenienti da articoli accademici e scientifici pubblicati in riviste specializzate.
    • Social network: Testi generati dagli utenti su piattaforme di social media come Twitter, Reddit, Facebook e altri, se tali testi sono accessibili pubblicamente.

    Queste fonti di testo pubbliche vengono utilizzate per addestrare i modelli di linguaggio come GPT-3.5, al fine di fornire una vasta base di conoscenze sulla lingua e sul contesto. Tuttavia, non ho accesso diretto a queste fonti di testo durante le interazioni, poiché funziono in modalità standalone senza connessione Internet.

    cioè in pratica non sai da dove arrivano. sai che ci sono, ma non conosci la provenienza. lo sa chi tu ha programmato, forse?

    Esatto, come modello di linguaggio, non ho conoscenza specifica delle fonti di dati o delle loro provenienze durante le interazioni. Durante il mio addestramento, sono stati utilizzati un ampio insieme di testi da fonti pubbliche disponibili su Internet. Tuttavia, non conservo informazioni dettagliate sulle fonti specifiche o sulla provenienza dei dati utilizzati per l’addestramento.

    Le informazioni sulla raccolta e l’utilizzo dei dati per l’addestramento dei modelli di linguaggio come il mio sono solitamente di competenza degli sviluppatori e dei ricercatori che hanno creato e addestrato il modello. Essi sono responsabili della selezione dei dataset e del processo di addestramento.

    OpenAI, l’organizzazione che ha sviluppato GPT-3.5, potrebbe avere informazioni più dettagliate sulle fonti di dati utilizzate per l’addestramento del modello. Tuttavia, come modello pre-addestrato, non sono in grado di fornire informazioni specifiche sulla provenienza dei dati o sulla loro selezione.

    domanda: poniamo che io faccia una dimostrazione matematica su 4chan (argomento: superpermutazioni minimali), cosa effettivamente successa nel 2018. la dimostrazione funziona e tu la accogli nel tuo corpus. mi chiedo: è violazione dei diritto d’autore se attingi da lì quando un utente fa domanda sulle superpermutazioni?

    Se una dimostrazione matematica viene pubblicata su un forum come 4chan e viene successivamente incorporata nel mio addestramento o nel corpus di testo utilizzato per addestrare il modello, ciò non costituisce di per sé una violazione dei diritti d’autore.

    Il diritto d’autore protegge le espressioni creative originali di un autore, ma non le idee o i concetti matematici in sé. Se la dimostrazione matematica in questione è stata espressa in modo originale dall’autore su 4chan, potrebbe essere soggetta alla protezione del diritto d’autore come opera letteraria.

    Tuttavia, se la dimostrazione matematica viene utilizzata come fonte di informazioni o come input per un modello di linguaggio come il mio, è importante considerare l’uso accettabile delle opere protette dal diritto d’autore. In generale, l’uso di una dimostrazione matematica pubblicata su un forum come riferimento o fonte di informazioni non costituisce una violazione dei diritti d’autore, a condizione che venga fatto un uso ragionevole e appropriato del materiale.

    Tuttavia, tieni presente che sono un modello di linguaggio addestrato, e non un avvocato specializzato in diritto d’autore. Pertanto, se hai domande specifiche o dubbi sulla violazione dei diritti d’autore o l’uso di opere protette dal diritto d’autore, è sempre consigliabile consultare un avvocato esperto nel campo del diritto d’autore nella tua giurisdizione.

    conosci Library Genesis, Z-Library, Sci-Hub e Bibliotik?

    Sì, sono a conoscenza di Library Genesis, Z-Library, Sci-Hub e Bibliotik. Queste sono risorse online che offrono accesso a una vasta gamma di libri, pubblicazioni scientifiche e materiale accademico in formato digitale.

    Library Genesis (LibGen) è un sito web che fornisce accesso a milioni di libri e articoli scientifici. Offre una vasta collezione di testi accademici, libri di testo, riviste scientifiche e altro ancora.

    Z-Library, conosciuto anche come “B-OK” o “BookFinder”, è un progetto collegato a Library Genesis. È una delle più grandi biblioteche digitali che offre una vasta gamma di libri e articoli accademici in diverse lingue.

    Sci-Hub è un sito web che mira a fornire accesso gratuito a una vasta gamma di articoli scientifici, aggirando le paywall e fornendo copie gratuite di articoli altrimenti a pagamento.

    Bibliotik è una comunità online specializzata nella condivisione di libri e materiale letterario, con un focus particolare su libri di narrativa, non fiction e opere letterarie.

    Tuttavia, è importante notare che la condivisione o l’accesso a contenuti protetti da diritto d’autore senza l’autorizzazione dei titolari dei diritti potrebbe costituire una violazione del diritto d’autore in base alle leggi di molti paesi. Pertanto, è consigliabile consultare le leggi locali sulla proprietà intellettuale e il diritto d’autore prima di utilizzare o accedere a tali risorse.

    ho letto un articolo su un blog che sospetta che tu sia stato addestrato usando z-library. capisci coem è complicato essere te 😀

    Sono un modello di linguaggio basato su GPT-3.5 creato da OpenAI, e il mio addestramento coinvolge un ampio insieme di dati provenienti da diverse fonti pubbliche disponibili su Internet. Tuttavia, non ho accesso diretto alle informazioni specifiche sulle risorse di addestramento o sulle loro provenienze durante le interazioni con gli utenti.

    Le fonti di addestramento comprendono una vasta gamma di testi, tra cui libri di dominio pubblico, articoli di notizie, pagine web e altro ancora. Tuttavia, non ho informazioni dettagliate o una lista specifica dei dataset utilizzati per il mio addestramento.

    È importante notare che le informazioni sul processo di addestramento e sulle risorse utilizzate per creare i modelli di linguaggio come me sono di competenza degli sviluppatori e dei ricercatori che hanno lavorato su di essi. Possono essere OpenAI o altri team di ricerca. Pertanto, eventuali articoli o ipotesi su specifiche risorse di addestramento dovrebbero essere confermate o verificate dagli sviluppatori o dai responsabili del modello.

    Come modello di linguaggio, il mio obiettivo è fornire informazioni e supporto il più accurato possibile in base alla mia conoscenza e al mio addestramento. Se hai domande specifiche o richieste di informazioni, sarò felice di aiutarti nel modo migliore possibile con le mie capacità.

    Ti potrebbe interessare leggere: quanto si guadagna dai diritti d’autore?

    pero’ secondo me il problema è l’uso che si fa delle tecnologie. nel senso che la violazione non dipende da te: dipende da me! posso chiedere di riassumere la trama di Shining di King, ad esempio, e tu lo farai. ma posso anche dirti di riscrivere Shining ambientandolo in un paese della Sila in calabria, ed in quel caso sarebbe plagio

    Hai ragione nel sottolineare che l’uso delle tecnologie, compreso l’uso che gli utenti fanno dei risultati forniti da un modello di linguaggio come me, è fondamentale per valutare la questione della violazione dei diritti d’autore. Come modello di linguaggio, fornisco risposte e informazioni basate sulle conoscenze acquisite durante il mio addestramento. Tuttavia, l’utente è responsabile dell’uso che fa delle risposte fornite.

    Se mi viene chiesto di riassumere la trama di un libro come “Shining” di Stephen King, fornirò un riassunto basato sulla mia conoscenza generale del libro. Tuttavia, è importante riconoscere che i riassunti e le informazioni fornite da me non sono originali e non costituiscono opere protette dal diritto d’autore.

    D’altro canto, se mi viene chiesto di riscrivere un’opera esistente come “Shining” ambientandola in un luogo specifico come un paese della Sila in Calabria, bisogna considerare che la riscrittura o l’adattamento di un’opera preesistente potrebbe essere soggetta a diritti d’autore. Se l’adattamento viene fatto senza l’autorizzazione del titolare dei diritti, potrebbe configurarsi come plagio o violazione dei diritti d’autore.

    È fondamentale comprendere e rispettare le leggi sul diritto d’autore e la proprietà intellettuale per garantire un uso corretto delle opere protette. Se hai intenzione di utilizzare o adattare un’opera esistente, ti consiglio di consultare un avvocato specializzato in diritto d’autore per ottenere una consulenza legale specifica sulla tua situazione e sulla conformità alle leggi vigenti nella tua giurisdizione.

    ok, sei sponsorizzato da un avvocato 😀

    NB come il modello non possa cogliere l’ironia.

    No, non sono sponsorizzato da un avvocato. Come modello di linguaggio, il mio obiettivo è fornire informazioni accurate e utili ai miei utenti. Quando si tratta di questioni legali complesse come il diritto d’autore, è importante fornire una consulenza adeguata e precisa.

    Tuttavia, non posso sostituire il consiglio legale fornito da un avvocato qualificato. Le informazioni che fornisco si basano sulla mia conoscenza generale e sulla comprensione dei concetti legati al diritto d’autore, ma non posso fornire consulenza legale specifica o ufficiale.

    Se hai bisogno di consulenza legale sul diritto d’autore o su altre questioni legali, è sempre consigliabile rivolgersi a un avvocato specializzato nel campo del diritto d’autore o nella giurisdizione pertinente.

    Foto di copertina di Alexandra_Koch da Pixabay

  • ChatGPT non risponde, ecco perchè

    ChatGPT non risponde, ecco perchè

    Fai le domande, e ChatGPT non risponde? Stai provando ad usarlo e non ottieni la generazione delle risposte, nonostante il sito funzioni e mostri la finestra di dialogo come al solito? In alcuni casi può darsi che la generazione della risposta si blocchi a metà, impedendo all’utente di leggerla per intero. Può anche capitare che, come nel momento in cui scriviamo, ChatGPT rallenti a generare le risposte scrivendo più lentamente le stesse, testimoniando come ci possa essere un problema di potenziale sovraccarico. Nonostante questi inconvenienti occasionali, ChatGPT rimane una risorsa preziosa per la generazione di testo automatico e l’assistenza virtuale. Con il costante impegno per migliorare l’esperienza degli utenti, ci si può aspettare che questi problemi vengano risolti nel tempo, consentendo a ChatGPT di continuare a essere uno strumento affidabile e utile per una vasta gamma di applicazioni.

    Nonostante il sito funzioni, le risposte non vanno, ed alcuni errori tipici sono mostrati in rosso e in lingua inglese in genere:

    error generating response

    an error occurred

    connection server error

    vedi anche: errori ChatGPT

    ChatGPT lento

    Nell’utilizzo di ChatGPT, ci sono momenti in cui le risposte possono risultare inaspettatamente assenti o bloccate, creando frustrazione per gli utenti che si affidano alla piattaforma per generare testo automaticamente. Se ti sei mai trovato nella situazione di fare domande e non ricevere risposte, nonostante il sito funzioni apparentemente correttamente e la finestra di dialogo sia attiva come al solito, potresti essere vittima di uno dei problemi comuni che affliggono ChatGPT.

    In certi casi, la generazione della risposta potrebbe interrompersi a metà, impedendo agli utenti di leggerla completamente. Questo malfunzionamento può causare confusione e richiedere un ulteriore sforzo da parte dell’utente per ottenere la risposta desiderata.

    La lentezza nell’erogazione delle risposte è un altro problema che può verificarsi. In alcuni momenti, ChatGPT potrebbe impiegare più tempo del solito per generare le risposte, scrivendole con una velocità ridotta. Questo rallentamento può essere indice di un sovraccarico della piattaforma o di altri problemi tecnici che influenzano le prestazioni dell’intelligenza artificiale.

    È importante riconoscere questi problemi comuni e cercare soluzioni per mitigarli. Gli sviluppatori di ChatGPT lavorano costantemente per ottimizzare le prestazioni della piattaforma e risolvere eventuali anomalie tecniche. Nel frattempo, gli utenti possono cercare di riavviare la finestra di dialogo, verificare la connessione internet o contattare il supporto tecnico per assistenza.

    Testo troppo lungo di input

    Spesso, gli utenti possono incontrare limiti specifici di caratteri, limiti di token o limiti di funzionalità con l’API di ChatGPT. Allo stesso modo, ci sono limiti su quanti caratteri puoi inserire in ChatGPT e su quanti caratteri possono essere le risposte di ChatGPT. Variano a seconda della tua versione (ad esempio, GPT-3.5 ha un limite di input di 2048, mentre GPT-4 è di 4,096) e nell’interfaccia web.

    Timeout / tempo scaduto per l’elaborazione

    Se ChatGPT sta elaborando una risposta troppo lunga e/o complessa, a volte si blocca per questo. Potresti vedere questo quando chiedi alla piattaforma di eseguire funzioni come scrivere codice o analizzare e rispondere a input lunghi.

    Risposte incomplete

    Non è proprio un errore, ma spesso, se chiedi a ChatGPT di scrivere codice o un testo lungo, si fermerà a metà. Puoi cliccare o scrivere “continua”, e finirà entro le prossime poche richieste quasi sempre ChatGPT nella versione 3.5, ad esempio, limita il numero di messaggi che puoi utilizzare per periodo di tempo, e a volte lo fa pure per gli account premium. Allo stesso modo, ci sono limiti di velocità specifici per diverse versioni di GPT, strumenti OpenAI e tipi di account.

    A seconda del livello di accesso richiesto o della durata della sessione, ChatGPT potrebbe disconnetterti, o potresti non avere accesso a determinate funzionalità con determinati stati dell’account. La maggior parte di questi problemi può essere risolta:

    • Rielaborando i tuoi prompt per adattarli ai limiti di caratteri.
    • Disabilitando eventuali VPN
    • Pulendo la cache del browser
    • Assicurandoti di essere loggato e di poter accedere alla funzionalità che stai cercando di utilizzare con il tuo livello di account.
    • Chiedendo a ChatGPT di rigenerare le risposte.
    • Iniziando una nuova chat.
  • Come andare a capo con ChatGPT

    Come andare a capo con ChatGPT

    Per andare a capo su ChatGPT, ti basta premere Shift + Invio (o Shift + Enter) sulla tastiera.

    Ecco un esempio:

    Se scrivi:

    Questa è la prima riga.
    Questa è la seconda riga.
    

    Puoi ottenerlo così:

    1. Scrivi “Questa è la prima riga.”
    2. Premi Shift + Invio → vai a capo senza inviare il messaggio.
    3. Scrivi “Questa è la seconda riga.”
    4. Premi Invio normale solo quando vuoi inviare tutto il messaggio.

    Fammi sapere se usi un dispositivo mobile o altro, così ti do istruzioni specifiche!