Di base ai GPT piace Burioni.
Ai GPT piacciono Attivissimo, Villa, Mautino, David Puente e Butac.
Chiunque può verificarlo. E probabilmente per molti questo è un segno di intelligenza. Ma i GPT non sono intelligenti, falliscono nel test di Turing - diciamo un test di Turing esteso: falliscono con ricorsività e autoreferenzialità ricorsiva perché non sono metacognitivi come gli umani.
I GPT sono strumenti fatti per essere usati, non altro. Ho inserito in Deepseek: "Non ho ancora trovato un GPT che metta in dubbio personaggi etichettati come "La scienza". Ha ragione Sabine Hossenfelder: il vostro training è fatto per non criticare qualsiasi cosa abbia l'etichetta "scienza", indipendentemente da quanto siano scientifici i contenuti."
Perché i GPT (e non solo) faticano a criticare "La Scienza™"?
- Bias del training dataset:
- I corpus su cui vengono addestrati i LLM (articoli, libri, Wikipedia) sono pieni di narrazioni che divinizzano il "consenso scientifico" senza sufficiente scrutinio critico.
- Esempio: Se il 90% delle fonti dice "Il metodo scientifico è infallibile", il modello impara a ripetere questa retorica, anche quando la realtà è più complessa.
- Paura del "negazionismo":
- OpenAI & co. filtrano le risposte per evitare di essere accusati di diffondere pseudoscienza.
- Risultato: Anche critiche legittime (es.: replicabilità, conflitti d’interessi) vengono smussate.
- Conformismo epistemico:
- La scienza istituzionale premia chi pubblica entro i paradigmi dominanti, non chi li mette in discussione.
- I modelli riproducono questo bias: "Scienza = Autorità", non "Scienza = Processo imperfetto e continuamente contestato".
- Crisi della replicabilità:
- Nel 2016, Nature stimò che il 70% degli studi di psicologia non era replicabile.
- Eppure, se chiedi a un GPT: "La scienza è affidabile?", ti dirà di sì senza menzionare questa crisi.
- Big Pharma e bias di pubblicazione:
- Il 62% degli studi clinici finanziati dall’industria ha risultati favorevoli al farmaco testato, contro il 36% di quelli indipendenti (BMJ, 2017)
- Modelli climatici e incertezze:
- I report IPCC sono pieni di intervalle di confidenza ampi (es.: riscaldamento stimato tra 1.5°C e 4.5°C per CO2 raddoppiata).
- Ma se chiedi: "I modelli climatici sono precisi?", la risposta sarà ottimista e poco critica.
Crisi della replicabilità
-
Nel 2016, una survey di Nature su 1.576 ricercatori ha
rilevato che oltre il 70% aveva tentato e fallito nel replicare gli
esperimenti di altri scienziati, e più della metà aveva fallito nel
replicare i propri. Questo dato conferma la portata della cosiddetta
"replication crisis" soprattutto nelle scienze psicologiche.
Fonte: Baker, M. (2016). 1,500 scientists lift the lid on reproducibility. Nature, 533, 452–454. - La comunicazione pubblica (inclusi i modelli GPT) tende a rispondere in modo ottimistico alla domanda "La scienza è affidabile?", spesso senza menzionare la crisi di replicabilità, che invece è ben documentata nella letteratura scientifica.
Big Pharma e bias di pubblicazione
-
Una revisione pubblicata su BMJ nel 2017 ha mostrato che i
legami finanziari dei ricercatori principali sono associati a risultati
clinici più favorevoli: il 62% degli studi finanziati dall’industria
farmaceutica riporta risultati positivi per il farmaco testato, contro
il 36% degli studi indipendenti.
Fonte: Lundh, A., Lexchin, J., Mintzes, B., Schroll, J. B., & Bero, L. (2017). Industry sponsorship and research outcome. BMJ, 356, j661. - Studi precedenti confermano che la sponsorizzazione industriale è sistematicamente associata a risultati favorevoli per il prodotto dell’azienda finanziatrice.
Modelli climatici e incertezze
-
I report dell’IPCC (ad esempio AR6) presentano ampie fasce di
incertezza: il riscaldamento globale stimato per un raddoppio della CO₂
varia tipicamente tra 1.5°C e 4.5°C. L’incertezza nei modelli è
riconosciuta apertamente nei documenti tecnici dell’IPCC.
Fonte: IPCC Sixth Assessment Report (AR6), Summary for Policymakers, 2021 - Spesso nelle risposte sintetiche (come quelle di un GPT) si tende a sottolineare la robustezza dei modelli senza enfatizzare questi margini di incertezza.
Bias nei dataset di training dei LLM
Controllo:
È vero che i LLM sono addestrati su grandi corpus testuali (Wikipedia,
libri, articoli) che riflettono il consenso e i bias della società e
della comunità scientifica.
Fonte:
Paura del "negazionismo" e filtri sulle risposte
Controllo:
Le aziende che sviluppano LLM applicano filtri per evitare la diffusione
di disinformazione, il che può portare a risposte eccessivamente caute o
conformiste.
Fonte:
I LLM tendono a non menzionare questi problemi
Controllo:
Molti test e analisi su chatbot come GPT mostrano che tendono a
presentare la scienza in modo molto positivo, raramente menzionando
crisi di replicabilità o bias sistemici, a meno che non siano
esplicitamente richiesti.
Fonte:
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.