Seguici su Telegram, ne vale la pena ❤️ ➡ @trovalost
Vai al contenuto

Cosa succede quando il bot diventa “terapeuta”

C’è gente che chiede consigli psicologici a ChatGPT – Ovviamente ci sono dei limiti da considerare, ma non bisognerebbe essere ostili alle nuove tecnologie in nessun caso.

L’idea di utilizzare ChatGPT o simili strumenti come supporto psicologico è un argomento complesso e dibattuto. Ci sono alcuni aspetti interessanti da considerare, senza dubbio, ma anche delle sane preoccupazioni da tenere a mente. Tendenzialmente, per nostra cautela, tendiamo a pensare che un bot non possa nè debba mai sostituire neanche integralmente un terapeuta umano, dato che il processo in questione è molto complesso e richiede le competenze e le capacità di ascolto tipiche di un terapeuta umano.

Mi sono sempre chiesto, in origine, per quale motivo uno dovrebbe chiedere a ChatGPT come risolvere una crisi di coppia o un problema di depressione, e la prima cosa che mi è balzata all’attenzione, per quello che vale parlarne da informatico, è che alcune persone potrebbero sentirsi più a loro agio condividendo i propri pensieri e sentimenti con un’intelligenza artificiale piuttosto che con un essere umano: essenzialmente, perchè non c’è il timore di essere giudicati. Non è poco ma non è sufficiente, ovviamente. ChatGPT non giudica perchè non è altro se non una macchina, e non giudica per lo stesso motivo per cui Google non giudica le nostre ricerche, le esegue e basta, e nemmeno Ebay o PornHub sono in grado di farlo (anche se poi la cronologia di ricerca dice comunque moltissimo di quello che siamo, a volte).

Credo anche che ci sia di mezzo un secondo aspetto chiave: interrogare chatGPT come se fosse uno psicologo potrebbe essere un modo per esplorare i propri pensieri e/o sentimenti, aiutando a determinare se sia necessario o meno cercare un supporto psicologico più formale. Mi capita molto spesso, del resto, di usare la scrittura per chiarirmi le idee, in alcuni contesti, liberandomi da confusione e preconcetti, ed in questo senso una risposta da un bot può effettivamente “aiutare”. Del resto ChatGPT è facilmente accessibile e disponibile in qualsiasi momento per chiunque, il che potrebbe essere utile per coloro che cercano supporto immediato o che non possono accedere a uno psicologo per motivi economici, ad esempio. Ma dire che possa sostituirne uno ovviamente è una grossa fesseria, afferisce al funzionalismo più becero e non deve essere preso in considerazione.

Gli aspetti che preoccupano dell’uso di un’intelligenza artificiale in funzione psicologico-terapeutica sono molteplici:

  1. Mancanza di empatia e comprensione: ChatGPT manca di vera empatia e comprensione. Anche se può generare risposte coerenti, non è in grado di comprendere le emozioni umane, il che potrebbe limitare l’efficacia nel fornire supporto psicologico significativo.
  2. Rischi di interpretazione errata: A causa della sua natura di linguaggio generativo, ChatGPT potrebbe fraintendere o interpretare erroneamente le informazioni fornite dall’utente, portando a risposte inadeguate o fuorvianti. Il che non è molto incoraggiante se si pensa a quanto potrebbe essere dolorosa o fuorviante una risposta sbagliata.
  3. Sostituzione dell’aiuto professionale: Fare affidamento solo su ChatGPT per un supporto psicologico potrebbe ritardare o evitare l’accesso a professionisti qualificati che potrebbero invece offrire un aiuto personalizzato e basato su competenze reali e certificate.
  4. Confidenzialità e privacy: Condividere pensieri e sentimenti personali con una piattaforma online comporta rischi di privacy e sicurezza. Non è chiaro come le informazioni verranno utilizzate da ChatGPT, ed uno potrebbe affidare confidenze personali ad un indirizzo email specifico della propria utenza, con il rischio che vengano cannibalizzate da ChatGPT stesso per fornire ulteriori risposte future a domande simili..

Se è vero ChatGPT potrebbe avere un ruolo limitato come strumento preliminare per esplorare emozioni e pensieri, e se è altresì fondamentale capire che si tratta al più di un algoritmo assistivo (intelligenza artificiale supervisionata da un esperto che sia in grado di filtrarne i contenuti, prima che vengano usati), è importante inquadrare i suoi limiti e non considerarlo un sostituto per un autentico supporto psicologico da parte di professionisti qualificati. Se qualcuno sta affrontando problemi emotivi o psicologici seri, è comunque necessario cercare l’assistenza di un professionista della salute mentale.

Resta pero’ un aspetto interessante legato alle possibilità di enumerare, elencare, stratificare e mettere in ordine le informazioni mediante linguaggio naturale, quindi senza usare un linguaggio di programmazione classico: e questo, alla lunga, può interessare qualche scienziato innovatore nel prossimo futuro.

👇 Da non perdere 👇

Vuoi pubblicare il tuo articolo su questo portale? Cercaci su Rankister (clicca qui) .



Questo portale web esiste da 4463 giorni (12 anni), e contiene ad oggi 6825 articoli (circa 5.460.000 parole in tutto) e 13 servizi online gratuiti. – Leggi un altro articolo a caso
Non ha ancora votato nessuno.

Ti sembra utile o interessante? Vota e fammelo sapere.

Questo sito contribuisce alla audience di sè stesso.
Il nostro network informativo: Lipercubo.it - Pagare.online - Trovalost.it.