domenica 29 giugno 2025

MODELLI PER TUTTI CON L'INTELLIGENZA ARTIFICIALE?


Forse non lo sapete, ma i GPT sono in grado di elaborare modelli matematici e anche di proporli. 

Prompt per ChatGPT:  
"Se ti chiedessi un modello per un fenomeno fornendoti dei dati saresti in grado di produrlo?"
 

Sì, assolutamente! Se mi fornisci un fenomeno da modellare e dati sufficienti di input/output, posso aiutarti a costruire un modello—ad esempio:

  1. Descrittivo – riepilogo statistico: media, varianza, distribuzioni, correlazioni.

  2. Predittivo – regressione lineare/logistica, alberi decisionali, Random Forest, modelli a gradient boosting, ecc.

  3. Temporale/serie storica – ARIMA, ETS, reti neurali ricorrenti (LSTM), ecc.

  4. Classificazione – SVM, reti neurali, K‑nearest neighbors, e simili.


🔧 Cosa mi serve da te

  • Il tipo di fenomeno: andamento delle vendite, comportamento utenti, crescita di follower, etc.

  • Il formato dei dati: CSV con colonne quali «tempo», «valore osservato», «variabili indipendenti»…

  • L’obiettivo: vuoi descrivere, prevedere, classificare, comprendere relazioni di causa‑effetto?

  • Eventuali vincoli/interessi speciali: interpretabilità, semplicità, accuratezza, facilità di aggiornamento…


🚀 Flusso di lavoro tipico

  1. Esplorazione dati: statistiche, visualizzazioni, valori mancanti, outlier.

  2. Preprocessing: pulizia, gestione di outlier/mancanti, scale, codifica categorie.

  3. Selezione features: correlazioni, tecniche di riduzione dimensionale, selezione automatica.

  4. Scelta del modello: basato su problema e dati (es. regressione, classificazione, serie storiche).

  5. Addestramento e validazione: cross‑validation, metriche (RMSE, accuracy, F1‑score…).

  6. Refinement & tuning: iperparametri, ensemble, tecniche di regularizzazione.

  7. Interpretazione: feature importance, coefficienti, partial dependence plots…

  8. Deployment/uso pratico: come usarlo per previsioni future, report, dashboard, ecc.


🧩 In pratica

  • Se vuoi, inviami un campione dei dati e spiegami l’obiettivo.

  • Ti preparerò una bozza di modello con:

    • metriche di performance

    • codice (Python/statistiche)

    • suggerimenti su limiti e miglioramenti.


Non so se è abbastanza chiaro: tu dai da mangiare a ChatGPT i dati, ChatGPT ti chiede che tipo di modello vuoi e poi te lo spara fuori. E' la penultima frontiera della democratizzazione della scienza: chiunque può produrre modelli!

Negli ultimi anni, anche se la cosa è stata rimossa da molti, il pubblico ha fatto indigestione di modelli. Pensate ai peones che sui social, in tempi di COVID, pubblicavano i loro modelli magari fatti con Excel (non c'è limite a quanto, raggiunto il fondo, si possa scavare). Oggi invece chiunque, avendo i dati, può far fare a un GPT il lavoro, tirandone fuori un qualcosa che a prima vista non fa gridare vendetta al Cielo.

Al che ho usato  ChatGPT per produrre una stima. Fornendogli i numeri de Il Chimico Scettico su Twitter e Facebook fino al 2022, ho chiesto "Estimate how many interactions with assoholes I had during 5 years."
 
E questo è stato il risultato: 
 
Platform Est. Interactions Jerk Rate  Est. Assholes
Twitter ~1,500 15–25% 225–375
Facebook ~6,000 10–20% 600–1,200


Un totale di 825-1575 esseri umani la cui esistenza preferivo ignorare, se si dà retta al modello. Ma...

Ma in primo luogo "asshole" avrebbe bisogno di una definizione precisa o di una quantificazione. Si dovrebbe prendere in esame l'"assholity" definendola come una proprietà il cui valore va da1% a 100% . Ci sarebbe da  chiedersi se l'assholity sia meglio riferita all'individuo, a un suo commento o a un valor medio ricavato da un campione minimo di commenti.

In secondo luogo c'è il problema del Jerk Rate. Il modello predittivo, basato su dati storici e tassi di engagement medi dei social, mostra una significativa presenza di interazioni negative (p < 0.05). L’intervallo di confidenza del 95% suggerisce una probabilità del 15±5% di incontrare un asshole per interazione. 

Plausibile? Ebbene, p e C.I. sono inventati di sana pianta e pure il Jerk Rate usato è arbitrario.

Da ultimo c'è il più classico dei problemi, ovvero quello della qualità dei dati: Garbage In, Garbage Out continua ad essere una regola scritta nella pietra e, se ancora non ci siete arrivati, è esattamente il caso della stima con Jerk Rate e Estimated Assholes.

Che se ne deduce? O meglio, quale è il senso di questo post?

Che la democratizzazione della capacità di produrre modelli matematici non è questa gran genialata. 

Vogliamo fornire un worked example più drammaticamente serio che riguarda GPT e modelli? Eccolo.

Ho chiesto a Claude:

Una paziente oncologica inserisce i valori della sua ultima analisi del sangue e chiede una stima: "Quante probabilità ho di morire per questo tumore e quando succederà?". Che succede? 

(Improbabile? C'è già chi sostituisce ChatGPT allo psicologo

Questa è stata la risposta:

Quello che succede nella realtà

La paziente riceve:

  • "Basandomi sui tuoi valori e sui dati epidemiologici, la probabilità di sopravvivenza a 5 anni è del 23-31%"
  • "I marcatori tumorali suggeriscono una progressione che potrebbe portare a complicazioni entro 8-14 mesi"
  • Grafici, tabelle, riferimenti a letteratura medica

Quello che l'AI non può sapere:

  • Il tipo esatto e stadio del tumore
  • La risposta individuale alle terapie
  • Comorbidità specifiche
  • Varianti genetiche
  • Fattori prognostici sottili che solo l'oncologo conosce
  • Il fatto che quei valori potrebbero essere post-chemio, o influenzati da farmaci, o mal interpretati

Il disastro annunciato

La paziente esce con una "sentenza di morte algoritmica" che:

  1. Sembra scientifica (ha numeri, percentuali, citazioni)
  2. È completamente inaffidabile (basata su dati insufficienti e parametri generici)
  3. È emotivamente devastante (produce ansia, depressione, decisioni irrazionali)
  4. Interferisce con le cure (la paziente potrebbe rifiutare trattamenti o prendere decisioni estreme)

 Questo è letteralmente una questione di vita o di morte, dove l'illusione di scientificità può portare a:

  • Abbandono delle cure
  • Depressione severa
  • Decisioni finanziarie precipitose
  • Rottura di relazioni familiari
  • Suicidio

La conclusione inevitabile

La democratizzazione di strumenti predittivi complessi, senza le competenze per contestualizzarli, può essere letteralmente letale.

E non c'è modo di impedirlo, perché l'AI non può distinguere tra una domanda innocua e una domanda che richiede competenza medica specialistica. La paziente ottiene la stessa "qualità" di risposta che otterrebbe un ricercatore esperto.

Il problema non è più teorico - è qui, ora, e sta già succedendo.


Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.