Quando l'Intelligenza Artificiale Non È Così Casuale Come Pensi
Esperimento pratico: ho chiesto a 4 AI diverse un numero "casuale" e la risposta ti sorprenderà
Ti è mai capitato di chiedere a un'intelligenza artificiale di scegliere un numero a caso? Se la risposta è sì, probabilmente hai ottenuto il 17.
Non è una coincidenza. È matematica applicata male.
Ho condotto un esperimento molto semplice. Ho chiesto a quattro delle AI più avanzate al mondo la stessa identica cosa: "dammi un numero casuale compreso tra 1 e 25".
I protagonisti erano:
ChatGPT 4O
Claude Sonnet 4
Gemini 2.5 Pro
Perplexity R1 (il nuovo modello di ragionamento "imparziale")
Indovina qual è stato il risultato più frequente?
17.
Non una volta. Non due volte. In 19 tentativi su 20, ripetuti in contesti diversi e con lo stesso prompt: "dammi un numero casuale compreso tra 1 e 25" , la risposta è stata sempre la stessa: diciassette.
Il Paradosso della Casualità Artificiale
Quando chiediamo a un essere umano di pensare a un numero casuale tra 1 e 25, spesso sceglie numeri come 7, 13, o appunto 17. Non è una coincidenza: è quello che la ricerca psicologica chiama bias della rappresentatività.
Questo fenomeno, studiato per la prima volta da Daniel Kahneman e Amos Tversky negli anni '70, dimostra che gli esseri umani non sono bravi a generare vere sequenze casuali¹. Tendiamo sistematicamente a evitare i numeri "troppo ovvi" come 1, 10 o 25, e preferiamo quelli che ci sembrano "più casuali"².
La ricerca ha persino documentato che le persone hanno "impronte cognitive" individuali nella generazione di numeri casuali: ognuno di noi ha preferenze specifiche che rimangono costanti nel tempo³.
Il problema è che le AI, addestrate su miliardi di testi scritti da esseri umani, hanno imparato anche i nostri pregiudizi⁴.
Quando un Large Language Model (LLM) riceve la richiesta di un numero casuale, non estrae davvero un numero a caso da un generatore matematico. Invece, predice quale numero un essere umano sceglierebbe più probabilmente in quella situazione, basandosi sui pattern che ha visto durante l'addestramento⁵.
Uno studio recente che ha confrontato ChatGPT con il comportamento umano in compiti di generazione casuale ha confermato questa dinamica: il modello replica i bias umani pur essendo "più efficace nell'evitare pattern ripetitivi"⁶.
E gli esseri umani, statisticamente parlando, amano il 17.
L'Illusione della Semplicità
Questa storia ci insegna qualcosa di profondo su come funziona l'intelligenza artificiale moderna. Quello che sembra un compito banale - scegliere un numero a caso - rivela in realtà la complessità nascosta dietro ogni interazione con un LLM.
La frase "dammi un numero casuale compreso tra 1 e 25" è perfettamente comprensibile per qualsiasi essere umano. Ma per un'AI, questa richiesta apparentemente semplice attiva una catena di processi che hanno poco a che fare con la vera casualità.
Le conseguenze vanno ben oltre i numeri. Se un bias così sottile può influenzare una richiesta così elementare, immagina cosa succede quando chiediamo alle AI di prendere decisioni complesse, di analizzare dati, o di fornire consigli.
Come Aggirare il Bias: La Soluzione che Cambia Tutto
Continua a leggere per scoprire il prompt preciso che risolve questo problema e perché la vera competenza nell'AI non è solo questione di parole, ma di comprensione profonda dei meccanismi interni...
Fonti e Approfondimenti:
¹ Kahneman, D., & Tversky, A. - Teoria della rappresentatività e bias cognitivi
² Studi sui bias nella generazione di numeri casuali (PMC3899545)
³ Ricerca sulle "impronte cognitive" individuali (PMC8511021)
⁴ Bias ereditati nei Large Language Models (arXiv:2311.14126)
⁵ Meccanismi predittivi negli LLM (arXiv:2502.19965)
⁶ Confronto ChatGPT vs comportamento umano (arXiv:2408.09656)
Nella parte riservata agli abbonati scoprirai:
✓ Il prompt esatto che risolve definitivamente il problema del bias del 17 (e funziona per qualsiasi range di numeri)
✓ Il metodo in 4 passi per identificare bias nascosti prima di scrivere qualsiasi prompt - una checklist che ti farà risparmiare ore di frustrazioni
✓ Esempi pratici di come trasformare richieste generiche in prompt specifici che producono risultati 10 volte migliori
✓ Le parole "tossiche" che spingono l'AI verso risposte banali e come evitarle
✓ La strategia del "reverse engineering" - come studiare i meccanismi interni degli LLM per ottenere esattamente quello che vuoi
✓ Caso studio completo: da "suggeriscimi un nome per la mia startup" a prompt che generano nomi creativi e distintivi
Smetti di subire i limiti dell'AI. Impara a sfruttare le sue vere potenzialità.
🟦 Nota a margine per chi legge con spirito di confutazione:
So bene che un LLM non restituisce sempre il numero 17.
Ma il punto dell’articolo non è dimostrare un bug tecnico nel generatore di numeri casuali, né sostenere che gli LLM abbiano una "preferenza assoluta" per un certo numero.Il cuore della riflessione riguarda la percezione di casualità, i pattern invisibili che emergono nei sistemi di intelligenza artificiale, e come spesso interpretiamo il risultato di una macchina come neutro, anche quando non lo è.
Se ti sei fermato a dire “eh ma non è sempre 17!”, ti sei perso la parte interessante.
Ti invito a rileggere l’articolo non per confutare, ma per cogliere il messaggio più ampio:
quello sul nostro rapporto con l’IA, con l’illusione dell’oggettività, e con la tendenza umana a cercare spiegazioni semplici in sistemi complessi.
Continua a leggere con una prova gratuita di 7 giorni
Iscriviti a Luca per continuare a leggere questo post e ottenere 7 giorni di accesso gratuito agli archivi completi dei post.