L’Intelligenza Artificiale può fare tutto. Oppure no?
Negli ultimi anni, l’Intelligenza Artificiale (IA) è stata spesso presentata come una tecnologia onnipotente, capace di rivoluzionare interi settori e di sostituire persino le capacità umane. Ma è davvero così? La realtà è più sfumata: l’IA può fare molto, ma non tutto — e soprattutto non da sola, né senza limiti.
Cosa può fare l’IA
L’IA è estremamente potente nel trattare grandi quantità di dati, riconoscere schemi, automatizzare processi ripetitivi e prendere decisioni in contesti ben strutturati. Ad esempio:
- Può diagnosticare malattie a partire da immagini mediche con alta precisione.
 - Può tradurre testi in tempo reale e generare contenuti coerenti in varie lingue.
 - Può prevedere tendenze di mercato o personalizzare l’esperienza utente nei servizi digitali.
 - Può guidare veicoli in ambienti controllati, o monitorare rischi in ambito finanziario.
 
Questi risultati sono resi possibili da modelli di apprendimento automatico (machine learning), reti neurali profonde e algoritmi capaci di adattarsi ai dati.
Cosa non può fare (per adesso) l’IA
LLM e IA possiedono limiti ben precisi:
- Non ha consapevolezza: non comprende realmente ciò che “pensa” o genera.
 - Non possiede buon senso umano: in situazioni nuove, ambigue o prive di dati, può fallire clamorosamente.
 - Dipende dai dati: se i dati sono incompleti, distorti o errati, anche le sue decisioni lo saranno.
 - Non è eticamente autonoma: non distingue tra “giusto” e “sbagliato” se non in base a regole predefinite.
 
Inoltre, molte capacità umane — come l’intuizione, l’empatia, la creatività autentica e il giudizio morale — restano fuori dalla portata dell’IA. Quali sono, pertanto, i software usati oggi basati sull’intelligenza artificiale? Ecco tre possibili risposte.
1. Sistema di elaborazione predittiva basato su modelli di machine learning
Un software che utilizza algoritmi di apprendimento automatico per analizzare dati storici, identificare pattern ricorrenti e generare previsioni o decisioni autonome in contesti complessi, come la manutenzione predittiva, la gestione del rischio o l’ottimizzazione industriale.
2. Assistente virtuale conversazionale integrato con modelli NLP (Natural Language Processing)
Un’applicazione software in grado di comprendere, interpretare ed elaborare il linguaggio naturale umano grazie a tecnologie di intelligenza artificiale, spesso basata su modelli avanzati come i Large Language Model (LLM), utile in ambito customer care, supporto tecnico o automazione dei flussi informativi.
3. Motore di raccomandazione intelligente basato su reti neurali profonde
Un software progettato per fornire suggerimenti personalizzati analizzando in tempo reale il comportamento dell’utente, i dati contestuali e i profili simili, comunemente impiegato in piattaforme di e-commerce, servizi di streaming o sistemi di e-learning adattivo.
Da molto tempo le applicazioni di intelligenza artificiale sono in grande fermento: del resto è cosa nota che molte applicazioni pratiche abbiano superato le capacità umane, per quanto in molti ambiti non riescano a surclassarle del tutto. E verrebbe da dire “per fortuna”, dato che abbiamo ancora negli occhi la perfezioni dei deepfake e le loro inquietanti applicazioni che falsificano le notizie e violano la privacy altrui. Ci sono ambiti in cui la Artificial Intelligence (AI) ha dato il meglio di sè, e continueràa farlo: è il caso del gioco degli scacchi oppure del poker, per quanto le applicazioni possibili non si fermino certamente all’ambito dei giochi.
Se ad esempio prendiamo un piccolo frammento di testo, esistono intelligenze artificiali che sono in grado di generare delle immagini che rispondono più o meno esattamente a quella descrizione. Oggi sono in grado di disegnare un cavallo se scrivo in italiano “disegna un cavallo bianco“. Cosa che per inciso ci siamo divertiti a fare con l’app di StarryAI, come abbiamo visto in altri articoli in grado di produrre risultati davvero impressionanti.

L’intelligenza artificiale ha mostrato una certa “vena artistica”, e qualcuno si è spinto a pensare come nella corrente filosofica dell’accelerazionismo, che le macchine possono sostituirsi integralmente all’uomo, alla lunga, con conseguenze variamente prevedibili (dalle più rassicuranti alle più catastrofiche: il range è davvero molto ampio e, soprattutto in tempi difficili come quelli che viviamo, secondo me bisogna sempre considerare almeno due possibilità per ogni previsione).
Esiste a quanto pare, a questo punt, almeno un dominio in cui lo sviluppo di software di intelligenza artificiale mostrerebbe dei limiti sostanziali. Dite domani potrebbero essere disconfermati, si intende, che ad oggi l’intelligenza artificiale non riescono a risolvere come potrebbe sembrare a prima vista: ma tant’è, e se ne parla approfonditamente in questo articolo. L’intelligenza artificiale è spesso lungimirante – o almeno ci dà questa idea – ma per fortuna e per sfortuna questo non è vero nella totalità dei casi. Sarebbe infatti che l’intelligenza artificiale sia soggetta ad una forma di ipermetropia, ovvero la capacità di creare soluzioni solo parziali poste dalla quotidianità, nonostante la richiesta sia più semplice di quanto potrebbe sembrare a prima vista.
La AI si è sempre posta con una sostanziale “presunzione”, detta in termini umani, e vogliamo utilizzare questo termine senza sembrare grottescamente anti-tecnologici. Di fatto il software di questo tipo riesce a risolvere un problema riducendo al minimo la necessità di un intervento umano, che si presta in maniera molto naturale alla facilitazione dei compiti, prima che alla sua radicale sostituzione. Automazione è la chiave, giusto? So se si vede la questione dal punto di vista leggermente diverso con una prospettiva un po’ più elastica, è possibile accorgersi che molte limitazioni dell’intelligenza artificiale riguardano esclusivamente i bias cognitivi dei loro operatori. Si parte infatti dal falso presupposto che l’intelligenza artificiale di oggi posso fare qualsiasi cosa, rischiamo di non risolvere quello che possiamo risolvere con l’intelligenza artificiale, affidandogli l’ingrato e il proprio compito di fare cose che possono fare soltanto gli esseri umani. Una di queste è scrivere codice per siti ed app, ad esempio. Sembra una questione quasi astratta o filosofica (nel senso più astruso del termine), ma in realtà estremamente importante che venga ben focalizzato da chiunque volesse utilizzare l’intelligenza artificiale per una start-up, per una qualsiasi app oppure in azienda.
CoPilot è il caso che viene citato nell’articolo, il quale può fare quanto esplicato nella GIF seguente: completare interi blocchi di codice prevedendo le intenzioni del programmatore.

No, le intelligenze artificiali non sembrano in grado di programmare, nè tantomeno di programmarsi, per quanto il problema sia intrigante e sicuramente verrà studiato nei prossimi anni. Il problema di fondo è che questi software non leggono davvero nel pensiero, anche se danno l’impressione di farlo, anche se magari lo accettiamo e tanto basta: peccato che credendoci rischiamo di prendere un granchio abbastanza grosso.
Un granchio più o meno grande così (generato via DALL E mediante labs.openai.com):
Queste soluzioni possono fungere, a quanto sembra, esclusivamente a supporto alle decisioni del programmatore, quindi è necessario che ci sia un programmatore dietro a gestirle e vagliarle in modo critico. Se fosse in grado di programmare o programmarsi sarebbe molto comodo, insomma, ma al momento non sembra essere possibile, questo perché i processi mentali che sono coinvolti in questa attività non sono addestrabili con precisione del 100%, senza contare che possono essere manipolati malamente o in modo – come abbiamo premesso – biased.
Soltanto uno degli ambiti in cui l’intelligenza artificiale non ha (ancora?) sviluppato le idonee o prevedibili capacità: potrebbe essere soltanto questione di tempo, ma potrebbe anche darsi che non valga la pena indagare ulteriormente in questa direzione. Ci sono anche altri ambiti in cui l’intelligenza artificiale non può aiutare a prendere decisioni, come ad esempio nella valutazione di un identikit, oppure in ambito medico sanitario in cui è sempre necessaria la supervisione di un medico specializzato.
Fidarsi ciecamente della Macchina è come affidarsi brutalmente alla statistica, quindi (al netto di qualsiasi raffinato training si possa effettuare) tirare i dati e sperare che le cose vadano bene. Siamo ancora lontani, almeno si spera, da un punto di non ritorno del genere, anche se fa sensazione senza dubbio che i software possano disegnare, creare musica o scrivere in italiano credibile, e non siano esattamente in grado di programmare.
Foto di copertina: autoritratto in stile vittoriano, generato da StarryAI
