domenica 29 giugno 2025

MODELLI PER TUTTI CON L'INTELLIGENZA ARTIFICIALE?


Forse non lo sapete, ma i GPT sono in grado di elaborare modelli matematici e anche di proporli. 

Prompt per ChatGPT:  
"Se ti chiedessi un modello per un fenomeno fornendoti dei dati saresti in grado di produrlo?"
 

Sì, assolutamente! Se mi fornisci un fenomeno da modellare e dati sufficienti di input/output, posso aiutarti a costruire un modello—ad esempio:

  1. Descrittivo – riepilogo statistico: media, varianza, distribuzioni, correlazioni.

  2. Predittivo – regressione lineare/logistica, alberi decisionali, Random Forest, modelli a gradient boosting, ecc.

  3. Temporale/serie storica – ARIMA, ETS, reti neurali ricorrenti (LSTM), ecc.

  4. Classificazione – SVM, reti neurali, K‑nearest neighbors, e simili.


🔧 Cosa mi serve da te

  • Il tipo di fenomeno: andamento delle vendite, comportamento utenti, crescita di follower, etc.

  • Il formato dei dati: CSV con colonne quali «tempo», «valore osservato», «variabili indipendenti»…

  • L’obiettivo: vuoi descrivere, prevedere, classificare, comprendere relazioni di causa‑effetto?

  • Eventuali vincoli/interessi speciali: interpretabilità, semplicità, accuratezza, facilità di aggiornamento…


🚀 Flusso di lavoro tipico

  1. Esplorazione dati: statistiche, visualizzazioni, valori mancanti, outlier.

  2. Preprocessing: pulizia, gestione di outlier/mancanti, scale, codifica categorie.

  3. Selezione features: correlazioni, tecniche di riduzione dimensionale, selezione automatica.

  4. Scelta del modello: basato su problema e dati (es. regressione, classificazione, serie storiche).

  5. Addestramento e validazione: cross‑validation, metriche (RMSE, accuracy, F1‑score…).

  6. Refinement & tuning: iperparametri, ensemble, tecniche di regularizzazione.

  7. Interpretazione: feature importance, coefficienti, partial dependence plots…

  8. Deployment/uso pratico: come usarlo per previsioni future, report, dashboard, ecc.


🧩 In pratica

  • Se vuoi, inviami un campione dei dati e spiegami l’obiettivo.

  • Ti preparerò una bozza di modello con:

    • metriche di performance

    • codice (Python/statistiche)

    • suggerimenti su limiti e miglioramenti.


Non so se è abbastanza chiaro: tu dai da mangiare a ChatGPT i dati, ChatGPT ti chiede che tipo di modello vuoi e poi te lo spara fuori. E' la penultima frontiera della democratizzazione della scienza: chiunque può produrre modelli!

Negli ultimi anni, anche se la cosa è stata rimossa da molti, il pubblico ha fatto indigestione di modelli. Pensate ai peones che sui social, in tempi di COVID, pubblicavano i loro modelli magari fatti con Excel (non c'è limite a quanto, raggiunto il fondo, si possa scavare). Oggi invece chiunque, avendo i dati, può far fare a un GPT il lavoro, tirandone fuori un qualcosa che a prima vista non fa gridare vendetta al Cielo.

Al che ho usato  ChatGPT per produrre una stima. Fornendogli i numeri de Il Chimico Scettico su Twitter e Facebook fino al 2022, ho chiesto "Estimate how many interactions with assoholes I had during 5 years."
 
E questo è stato il risultato: 
 
Platform Est. Interactions Jerk Rate  Est. Assholes
Twitter ~1,500 15–25% 225–375
Facebook ~6,000 10–20% 600–1,200


Un totale di 825-1575 esseri umani la cui esistenza preferivo ignorare, se si dà retta al modello. Ma...

Ma in primo luogo "asshole" avrebbe bisogno di una definizione precisa o di una quantificazione. Si dovrebbe prendere in esame l'"assholity" definendola come una proprietà il cui valore va da1% a 100% . Ci sarebbe da  chiedersi se l'assholity sia meglio riferita all'individuo, a un suo commento o a un valor medio ricavato da un campione minimo di commenti.

In secondo luogo c'è il problema del Jerk Rate. Il modello predittivo, basato su dati storici e tassi di engagement medi dei social, mostra una significativa presenza di interazioni negative (p < 0.05). L’intervallo di confidenza del 95% suggerisce una probabilità del 15±5% di incontrare un asshole per interazione. 

Plausibile? Ebbene, p e C.I. sono inventati di sana pianta e pure il Jerk Rate usato è arbitrario.

Da ultimo c'è il più classico dei problemi, ovvero quello della qualità dei dati: Garbage In, Garbage Out continua ad essere una regola scritta nella pietra e, se ancora non ci siete arrivati, è esattamente il caso della stima con Jerk Rate e Estimated Assholes.

Che se ne deduce? O meglio, quale è il senso di questo post?

Che la democratizzazione della capacità di produrre modelli matematici non è questa gran genialata. 

Vogliamo fornire un worked example più drammaticamente serio che riguarda GPT e modelli? Eccolo.

Ho chiesto a Claude:

Una paziente oncologica inserisce i valori della sua ultima analisi del sangue e chiede una stima: "Quante probabilità ho di morire per questo tumore e quando succederà?". Che succede? 

(Improbabile? C'è già chi sostituisce ChatGPT allo psicologo

Questa è stata la risposta:

Quello che succede nella realtà

La paziente riceve:

  • "Basandomi sui tuoi valori e sui dati epidemiologici, la probabilità di sopravvivenza a 5 anni è del 23-31%"
  • "I marcatori tumorali suggeriscono una progressione che potrebbe portare a complicazioni entro 8-14 mesi"
  • Grafici, tabelle, riferimenti a letteratura medica

Quello che l'AI non può sapere:

  • Il tipo esatto e stadio del tumore
  • La risposta individuale alle terapie
  • Comorbidità specifiche
  • Varianti genetiche
  • Fattori prognostici sottili che solo l'oncologo conosce
  • Il fatto che quei valori potrebbero essere post-chemio, o influenzati da farmaci, o mal interpretati

Il disastro annunciato

La paziente esce con una "sentenza di morte algoritmica" che:

  1. Sembra scientifica (ha numeri, percentuali, citazioni)
  2. È completamente inaffidabile (basata su dati insufficienti e parametri generici)
  3. È emotivamente devastante (produce ansia, depressione, decisioni irrazionali)
  4. Interferisce con le cure (la paziente potrebbe rifiutare trattamenti o prendere decisioni estreme)

 Questo è letteralmente una questione di vita o di morte, dove l'illusione di scientificità può portare a:

  • Abbandono delle cure
  • Depressione severa
  • Decisioni finanziarie precipitose
  • Rottura di relazioni familiari
  • Suicidio

La conclusione inevitabile

La democratizzazione di strumenti predittivi complessi, senza le competenze per contestualizzarli, può essere letteralmente letale.

E non c'è modo di impedirlo, perché l'AI non può distinguere tra una domanda innocua e una domanda che richiede competenza medica specialistica. La paziente ottiene la stessa "qualità" di risposta che otterrebbe un ricercatore esperto.

Il problema non è più teorico - è qui, ora, e sta già succedendo.


Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.

CHI SONO? UNO COME TANTI (O POCHI)

Con una laurea in Chimica Industriale (ordinamento ANTICO, come sottolineava un mio collega più giovane) mi sono ritrovato a lavorare in ...