domenica 29 marzo 2026

CALCOLO, DAL PROMPT DOS A QUELLO DI CHATGPT

 


Volgere di un decennio. Un laureando per la tesi doveva calcolare energie libere di Gibbs di reazione in funzione della temperatura...

Ah, forse è meglio precisare. ΔGr, energia libera di reazione, è data dalla differenza tra la somma delle energie libere dei prodotti di reazione e la somma delle energie libere dei reagenti. Quando questa differenza è minore di 0 la formazione dei prodotti è favorita (la reazione è spostata verso i prodotti), quando è 0 siamo in condizioni di equilibrio, quando è maggiore di 0 la reazione è spostata verso i reagenti. Essendo G funzione della temperatura avere un suo grafico è utile: fa vedere gli intervalli di temperatura in cui la reazione è sfavorita e quelli per cui è favorita. Per molti composti semplici l'energia libera di Gibbs è tabulata: ai tempi dei tempi qualcuno si è messo a misurarla per la sostanza x tra questa e quella temperatura, ha scritto tutto e anno dopo anno questi dati sono stati messi assieme (insieme ad altri dati riguardanti altre proprietà chimico-fisiche).  Li trovate su libri come
CRC Handbook of Chemistry and Physics o Perry's Chemical Engeneers' Handbook  e simili .Il capostipite di queste pubblicazioni è forse International Critical Tables of Numerical Data, Physics, Chemistry and Technology, diversi volumi usciti tra anni 20 e 30 dello scorso secolo, e al tempo mi è capitato di consultarlo più di una volta nella biblioteca del dipartimento (le misure di proprietà chimico fisiche difficilmente diventano obsolete nel tempo). Oggi questi dati sono facilmente reperibili sul NIST Chemistry Webbook.
Quindi ΔGr(T) per molte reazioni semplici può essere calcolata con facilità e si può ricavare il suo grafico.

Torniamo al volgere di quel decennio e al laureando: il poveraccio era costretto davanti a una linea di comando. Il software ragionava a matrici, e quindi l'input era in forma di matrici di dati e istruzioni, scritte una riga dietro l'altra, separate da punti e virgola, su quel command prompt. Si poteva stampare il risultato a schermo O inviarlo a una stampante postscript, ma non si potevano fare le due cose insieme. Quindi se volevi vedere se era tutto a posto stampavi a schermo. Poi dovevi riscrivere tutto di nuovo dando l'istruzione di stampa su carta - e non si poteva copiare e incollare. Salvare l'immagine sullo schermo? Ma figuriamoci...

Partendo da una condizione del genere quando mi suggerirono Mathematica per me fu una folgorazione. Su un 386 SX con coprocessore matematico e Windows 3.1 potevo comunque farlo girare, le istruzioni rimanevano nella finestra del programma e potevano essere modificate, copiate etc. L'output grafico veniva prodotto come immagine in risposta all'istruzione, e l'immagine poteva essere salvata come jpeg o Windows Meta File o postscript etc. Certo, scrivevi l'istruzione, premevi alt-enter e poi aspettavi. Una, due ore. Ma con Mathematica oltre al citato ΔGr(T) tirai fuori diagrammi di equilibrio liquido-vapore, cinetiche di reazione, dimensionamento di evaporatori e scrubber (roba per cui gli ingegneri da anni e anni usano Aspen, ma a ognuno il suo).

Per qualche ragione i chimici della mia mandata usavano quasi tutti Mathematica. Se c'era da qualche parte un'AlphaStation (https://en.wikipedia.org/wiki/AlphaStation) su cui girava cercavano in ogni modo di averla a disposizione per un'ora o due. Alcuni, come il sottoscritto, girarono per tipografie e grafiche cercando una macchina NeXT (https://en.wikipedia.org/wiki/NeXT_Computer), su cui si sapeva che il programma girava benissimo. Si, a parte alcuni chimici fisici e teorici che andavano avanti a Fortran quella con Mathematica fu una specie di storia d'amore (che finirà in Modern Thermodynamics: From Heat Engines to Dissipative Structures di Kondepudi e Prigogine). Mi ricordo una conversazione con un amico laureando in fisica teorica: "Non capisco perché voi chimici siate fissati con Mathematica", diceva. Questo legame tra quei chimici e l'unico software matematico simbolico in circolazione l'ho sempre trovato significativo (tutto il resto, Fortran compreso, era calcolo numerico).

Una trentina e passa di anni dopo, cioè oggi, in larga parte alle spalle la grande sbornia Matlab, un laptop entry level può svolgere il lavoro che all'epoca era possibile solo alle workstation di punta. Per molte cose non si deve neanche comprare/installare un pacchetto software: c'è WolframAlpha che può essere molto utile anche nella versione base, gratuita. Sempre in campo free software ci sono Python e R con i loro package matematici e statistici. Grande disponibilità di potenza di calcolo e software. E cosa ne è venuto fuori, perlopiù?

Ho presente un tale di mia conoscenza che diceva che con i package di R la demenza statistica è dilagata a macchia d'olio. Difficile dargli torto, e la cosa non riguarda solo R. Il software usato come black box per tirare fuori il grafico, senza avere reale cognizione di quello che si sta facendo. Per tacere di chi, lavorando con computer e programmi, pensava di essere in grado di modellare qualsiasi cosa pur senza una reale cognizione di quello che stava modellando. Quando si dice "la scienza"... Wolfram offre intelligenza computazionale, ma spesso il risultato dei vari pacchetti è la produzione di stupidità computata. Il classico GIGO, Garbage In, Garbage Out.

Wolfram non è rimasto a guardare, mentre la rivoluzione degli LLM prendeva piede. OpenAI ha integrato in ChatGPT l'intelligenza computazionale di Wolfram (pagandola profumatamente) e lo ha fatto per rimediare alle allucinazioni matematiche del suo prodotto più diffuso. Dopo tre anni quale è il quadro?
OpenAI in generale ha ottenuto qualche risultato, nel campo (GPT‑5.2 derives a new result in theoretical physics), ma per quello che riguarda il prodotto per il mercato di massa le cose vanno un po' diversamente. Un esempio?

Oggi quello che si dice riguardo a ChatGPT è che Wolfram non è più sotto forma di plugin, è integrato. Ma non in GPT-5.3, che quindi in teoria continua a poter produrre allucinazioni matematiche. Esiste invece ChatGPT-Wolfram, uno dei tanti GPT specializzati offerti all'utente da parte della piattaforma.

Ho chiesto a ChatGPT-Wolfram di produrre un grafico della curve per S (suscettibili), I (infetti) e R (guariti) del modello SIR base. E ho ottenuto prima questo:

Solo che poi non riuscivo ad aprire il grafico (errore), forse perché uso un account free:




E questo è davvero Wolfram+OpenAI, e magari per un utente pagante funziona meglio che per un utente free, producendo il grafico senza dare errore, ma non ho intenzione di verificarlo con un upgrade del mio account. Perché usare ChatGPT per accedere a Wolfram Alpha? Se devo vedere il passaggio intermedio verso Wolfram per fidarmi del risultato, allora tanto vale saltare ChatGPT e andare direttamente alla fonte. 

Alla fine, nel quadro generale, questo è uno dei tanti servizi portati dentro l'interfaccia di ChatGPT, utili ma anche perfetti per simulare la competenza, come per esempio AskYourPDF. AskYourPDF propone di generare saggi e articoli con citazioni valide. Non solo il testo: le citazioni, l'apparato di legittimità accademica, il segno di aver selezionato, letto e compreso le fonti - segno prodotto senza che nulla di tutto questo sia accaduto. Un perfetto esempio di simulazione della competenza. Qui trovate la simulazione confezionata e proposta come un package, adeguatamente prezzato nella versione pro.



domenica 22 marzo 2026

MECCANICA QUANTISTICA, DETERMINISMO, ADIMENSIONALITA'

 

Numeri quantici


La discussione estesa sulla meccanica quantistica (MQ) l'attenzione è spostata per lo più su due questioni, il collasso della funzione d'onda e, ahimé, il gatto di Schroedinger, diventato un oggetto pop piuttosto alieno ai fini del suo originatore.

Al costo di ripetermi vorrei spostare l'attenzione da questi due temi a un altro, molto più attinente alla domanda "come è fatta la materia?". E il punto della MQ non è mai stato davvero "come è fatta" quanto "come funziona". La MQ non è una costruzione ontologica, ma fenomenologica, esattamente come la meccanica newtoniana.

La quantizzazione dei livelli atomici dell'atomo inizia dagli sforzi per spiegare lo spettro di emissione dell'idrogeno che non era continuo come quello della luce visibile, ma mostrava linee precise. Linee a determinate frequenze (la serie di Balmer) che quindi corrispondevano a energie ben definite cioè a transizioni tra distinti stati energetici dell'atomo di idrogeno - stati ad energia quantizzata. L'atomo di Bohr spiegò questa cosa. Ma non solo il modello di Bohr manteneva le traiettorie degli elettroni (impossibili, una carica elettrica in moto circolare perde energia sotto forma di radiazione - e questo è Maxwell, 1865 - quindi atomo di idrogeno instabile): 
Altri effetti spettroscopici non si spiegavano con il solo numero quantico principale. Servivano altri numeri quantici - e vennero tutti dalle evidenze sperimentali.


Lo spin è il numero quantico limite. Gli altri tre hanno ancora una leggibilità intuitiva - un livello energetico, una forma, un orientamento nello spazio. Lo spin no. I valori +1/2 e -1/2, "su" e "giù" tra virgolette, non descrivono una rotazione fisica reale. Formalmente una particella con spin 1/2 deve compiere 720° per tornare allo stato iniziale, non 360° come qualsiasi oggetto macroscopico - con una rotazione di 360° |ψ⟩ diventa -|ψ⟩.
Non esiste un analogo classico, non esiste una metafora veramente efficace. Le virgolette nella tabella dei numeri quantici all'inizio di questo testo non sono pigrizia espositiva ma un'ammissione precisa: il linguaggio ordinario si ferma prima di quel punto.

μΒ è il magnetone di Bohr

Lo spin è reale nell'unico senso che conta per una scienza sperimentale: capacità descrittiva e predittiva del modello. Dal principio di esclusione di Pauli discende la struttura a gusci dell'atomo, discende la tavola periodica, discende la chimica intera (tra l'altro lo spin 1/2 è caratteristico anche del protone e lo spin in genere si applica a tutti i fermioni, chiedete a un fisico).
Se ci si chiede se lo spin "sia oggettivo" si produce una domanda mal posta. Presuppone che "oggettivo" significhi "comprensibile nei termini di oggetti macroscopici che conosco e posso toccare/vedere". Ma quello è un criterio antropocentrico. Sono senza dubbio oggettive  le linee spettrali con effetto Zeeman anomalo, ma chiedere se lo spin sia oggettivo è come chiedere se sia oggettiva la radice quadrata di -1, cioè l'unità immaginaria 𝑖. Non faccio questo esempio a caso, perché  𝑖 è ben visibile nell'equazione di Schrodinger che include il tempo:

Questa equazione dimostra che c'è un altro equivoco, proveniente da Heisenberg stesso, da Bohr, dalla interpretazione di Copenhagen (ma soprattutto dalle loro rilettetture) , un equivoco che che riguarda il determinismo o il mancato determinismo della meccanica quantistica. L'equazione che vedete rispetto al tempo è perfettamente deterministica. E' un'equazione differenziale lineare del primo ordine: dato lo stato del sistema a t=0, lo stato a qualsiasi t è determinato univocamente. E da questo punto di vista è esattamente identica alla dinamica newtoniana. Semplicemente il determinismo si applica allo stato del sistema ma non separatamente a momento e posizione della particella. 
L'indeterminazione viene da Heisenberg ma ΔxΔp ≥ ℏ/2 dice due cose: momento e posizione sono strettamente vincolati; c'è un limite di risoluzione, h/2, oltre cui non possiamo vedere il loro prodotto. Il metadiscorso ha finito per concentrarsi su Einstein e Dio che non gioca a dadi. Ma il principio di indeterminazione non descrive un processo aleatorio. ψ invece è un ampiezza di probabilità, quindi il non determinismo della MQ è insito nella definizione di funzione d'onda, nata per descrivere il comportamento di un qualcosa che sperimentalmente alle volte si comporta come particella, alle volte come onda: il modello quantomeccanico dell'atomo descrive gli elettroni come onde sferiche confinate.

Detto questo, quanto ad oggettività della MQ pochi si ricordano quali sono le premesse dell'attuale modello quantomeccanico dell'atomo, che rimangono intatte fino a Pauling, alla teoria dell'orbitale molecolare e oltre: cariche puntiformi, cioè oggetti adimensionali.

Le cariche puntiformi costituiscono un'approssimazione del modello, chiaro, ma da questo punto di vista intendere la MQ come "descrizione della realtà " è altamente discutibile. Perché è perlomeno bizzarro pensare che un modello basato su oggetti adimensionali  descriva qualcosa di tridimensionale: una materia che ha dimensioni fisiche non può essere fatta di mattoni adimensionali. Ma un modello basato su oggetti adimensionali può descriverne il comportamento su scala atomica. Perché la lezione della MQ è che i meccanismi che governano l'infinitamente piccolo non possono essere descritti con gli stessi strumenti che usiamo per il mondo visibile. 
Chiaramente dalla fisica delle particelle sappiamo che i protoni non sono cariche puntiformi, hanno dimensioni e massa, infatti in quel campo la MQ prende forme diverse - e questa è materia da fisici. 

Bohr, Heisenberg, lo stesso Einstein arrivarono a interrogarsi sul senso della MQ con una formazione anche umanistica e nello spirito del loro tempo - un momento in cui la fisica stava ridisegnando i confini di ciò che era pensabile. Trent'anni dopo, con l'elettrodinamica quantistica e le particelle virtuali, non si aprì nessun dibattito analogo o altrettanto persistente. Eppure le particelle virtuali sono ontologicamente molto più scomode del collasso della funzione d'onda. Il problema non era la MQ, era il trauma del primo incontro con la sua formulazione.

Abbiamo visto che di fatto con la MQ ci si muove in un campo dove il linguaggio discorsivo non può che cedere il passo a quello matematico - quindi i problemi di interpretazione potrebbero essere visti come problemi linguistici. In generale con la musica c'è un problema analogo: non si può trasmettere un perfetto concetto di musica a chi non può sentire. E in fin dei conti potrebbe pure essere una tutta una faccenda di armoniche, una questione di orecchio.

domenica 15 marzo 2026

LE SCIENCE WARS DEI '90, RILETTE

Il tentativo di parlare di un recupero degli strumenti del postmodernismo con un americano o un inglese può scontrarsi con un "Ehi, queste cose sono state liquidate da Sokal nel 1996." 
E non è precisamente così.

Negli anni Novanta, l'accademia americana fu il teatro di quello che sarebbe passato alla storia come le Science Wars - una disputa tra scienziati e filosofi/sociologi della scienza sulla natura della conoscenza scientifica. Da un lato, scienziati come Alan Sokal e Paul Gross sostenevano che gli approcci postmoderni e costruttivisti alla scienza fossero intellettualmente vacui e potenzialmente pericolosi. Dall'altro, sociologi e filosofi della scienza sostenevano che la conoscenza scientifica fosse socialmente costruita (spesso estremizzando il pensiero postmoderno di Derrida e Lyotard fino al nonsenso) e che le pretese di oggettività mascherassero strutture di potere. La controversia raggiunse il culmine nel 1996, quando Sokal, un fisico, sottopose alla rivista di studi culturali Social Text un articolo deliberatamente privo di senso - e lo vide pubblicato

Il Sokal hoax (o Sokal affair) fu uno degli episodi più iconici (e controversi) delle Science Wars. Nel 1996, il fisico Alan Sokal, professore alla New York University, sottopose alla rivista di studi culturali Social Text un articolo intitolato Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity. Il testo era una deliberata collezione di assurdità: mescolava citazioni reali di pensatori postmoderni (Lacan, Irigaray, Derrida), equazioni matematiche prive di senso, affermazioni deliranti come "la gravità è un costrutto sociale" e lusinghe ideologiche verso gli editor della rivista. L'articolo sosteneva che la meccanica quantistica confermasse il relativismo culturale, il femminismo e l'anti-realismo postmoderno. Social Text lo pubblicò nel numero speciale Science Wars (primavera/estate 1996), senza peer review formale ma con approvazione editoriale interna. Tre settimane dopo, Sokal rivelò su Lingua Franca che si trattava di un hoax: voleva dimostrare che una rivista prestigiosa di studi culturali avrebbe accettato "un articolo pieno di sciocchezze, se suonava bene e lusingava le preconcezioni ideologiche degli editori".

Il colpo messo a segno da Sokal regolava i conti nell'accademia americana. Ma in realtà non chiudeva la questione culturale, che partiva da premesse che, usando un estremo eufemismo, potremmo definire discutibili. Higher Superstition: The Academic Left and Its Quarrels with Science (1994) è convenzionalmente considerato il punto di partenza delle Science Wars. E intendiamoci, molti dei  bersagli dei due autori erano perfettamente legittimi (li potremmo definire gli antecedenti del woke, femminismo estremista, pretesa superiorità genetica di neri e colored, relativismo parossistico, etc). il problema è che tali bersagli venivano accomunati a Lyotard e Derrida. 

Dopo anni e anni il punto di vista americano sulla vicenda non è cambiato molto:




Ma per un europeo rileggere oggi le parole dell'attacco iniziale di Gross e Levitt è piuttosto divertente:

La scienza è una delle ultime grandi componenti della vita e del pensiero occidentale a finire sistematicamente sotto lo sguardo critico della sinistra accademica. Il motivo è ovvio. Per pensare criticamente alla scienza, bisogna comprenderla a un livello ragionevolmente profondo. Questo compito, se affrontato onestamente, richiede molto tempo e fatica. Di fatto, è meglio iniziare da giovani. È difficilmente compatibile con lo stile di formazione e di istruzione che nutre l'umanista medio, indipendentemente dalle sue inclinazioni politiche. D'altro canto, la scienza, insieme alla sua realizzazione immediata come tecnologia, è — quanto qualsiasi altra cosa possa esserlo — il singolo aspetto del pensiero e della pratica sociale occidentale che definisce la visione del mondo occidentale e rende conto della sua posizione speciale nel mondo. Le società non occidentali — il Giappone, per fare l'esempio più ovvio — possono al tempo stesso avere successo e mantenere la propria identità solo nella misura in cui naturalizzano la scienza e la tecnologia della cultura occidentale. Di conseguenza, se si è predisposti a considerare quella posizione di privilegio occidentale come malvagia, per i suoi pregiudizi e per la sua storia di conquiste, allora si guarderà inevitabilmente alla scienza occidentale con sospetto e forse con disprezzo. Prima o poi qualsiasi critica dei valori occidentali che aspiri a essere esaustiva dovrà offrire un'analisi della scienza, preferibilmente al vetriolo.

Quale esempio più perfetto di sciovinismo yankee si potrebbe immaginare? E queste erano le basi da cui un biologo e un matematico, entrambi di orientamento progressista, intendevano attaccare le critiche "postmoderne". Che dire?

Il libro costruiva la scienza moderna come motivo identitario della cultura occidentale (in una concezione che di fatto identificava l'occidente con gli USA), apparentemente indisturbato dal fatto che i sovietici avessero mandato un uomo nello spazio prima degli americani, avessero sviluppato autonomamente le armi nucleari e prodotto una tradizione matematica e fisica di prim'ordine. È altrettanto incurante dalla scomoda profondità umanistica degli scienziati che costruirono la rivoluzione scientifica dell'inizio del XX secolo: Heisenberg, Schrödinger e Max Born non erano esattamente estranei alla filosofia e alla letteratura. L'interpretazione di Copenaghen della meccanica quantistica non fu elaborata da persone che non avevano mai letto Kant. La cosa curiosa è che le Science Wars non coinvolsero né citarono Kuhn, Lakatos, Kitcher, Tirarono dentro invece Bruno Latour, che aveva detto e ripetuto di non aver niente a che fare con il postmodernismo.

Come accennato il Sokal affair risolse la questione solo apparentemente e nel contesto di oltreoceano fu un filosofo, William Rehg, a venire in soccorso al fronte scientifico, recuperando le posizioni di Habermas sull'oggettività dei risultati scientifici (Habermas, argumentation theory, and science studies: Toward interdisciplinary cooperation, Informal logic, 2003): la scienza non è obiettiva perché fotografa il mondo così com'è, ma perché segue procedure di argomentazione intersoggettivamente valide. Rehg difendeva l'oggettività scientifica usando un filosofo ,Habermas, che Gross e Levitt avrebbero probabilmente catalogato tra i nemici della scienza.

La successione degli eventi si prese gioco degli autori di Higher Superstition: poco dopo l'articolo di Rehg uno dei cardini degli argomenti di Gross e Levitt, la loro fiducia implicita nell'efficacia dell'autoregolamentazione della scienza istituzionale, venne messo a dura prova da un famoso articolo di Ioannidis del 2005 (Why Most Published Research Findings Are False. PLOS Medicine 19(8) ). Nel nuovo millennio la crisi della replicabilità emerse sistematicamente minando le fondamenta di quella peer review che Gross e Levitt difendevano come baluardo contro il relativismo postmoderno. Gli anni successivi dimostrarono che la peer review era vulnerabile in modi che i postmodernisti non avevano nemmeno immaginato, fino all'attuale fenomeno degli articoli scritti con l'IA.

Da una prospettiva europea continentale, le Science Wars avevano la qualità di una riunione di dipartimento particolarmente aspra: due tribù accademiche, ciascuna con il proprio gergo, ciascuna sostanzialmente disinteressata a ciò che l'altra stava realmente dicendo. Ciò che la controversia non poteva produrre fu un serio confronto con una terza possibilità - che il problema non risiedesse nella scienza in sé, né nella sua costruzione sociale, ma in ciò che accade alla scienza quando diventa un segno nel sistema di narrazioni del discorso pubblico. È in questo contesto che Baudrillard torna rilevante, oggi. E non solo Baudrillard, anche Lyotard. Perché nella crisi profonda che attraversa gli USA sembra che la risposta intellettuale prevalente, oltreoceano, sia il combattere la nuova Culture War, che include anche il conflitto tra science e science denial, in breve uno scontro tra due simulacri.


domenica 8 marzo 2026

"PERCHE' SVENTOLARE LA BANDIERA GALILEIANA?"

https://sinistrainrete.info/filosofia/32469-eros-barone-il-problema-dell-oggettivita-in-meccanica-quantistica-fra-realismo-e-soggettivismo.html


Un recente articolo di Eros Barone su sinistrainrete mi ha dato da riflettere. Di fatto Barone si pone il problema della meccanica quantistica da un punto di vista filosofico e ontologico e in questa chiave cita Bohm ed i potenziali quantistici per restituire oggettività alle particelle elementari. E' una questione assolutamente legittima, collocata in un contesto più ampio. Ma dal mio punto di vista è anche una questione al di fuori del dominio delle scienze sperimentali. 

La struttura quantomeccanica dell'atomo, per esempio, è stata elaborata per risolvere i problemi insiti sia nel modello atomico di Rutherford che in quello di Bohr: un elettrone in un atomo non può avere una traiettoria, cioè non può orbitare intorno al nucleo, perché altrimenti perderebbe energia emettendo radiazione e finirebbe per collassare sul nucleo. Quindi in quel quadro fu usata la funzione d'onda al fine specifico della risoluzione di questo problema: il modo migliore per far quadrare le cose era levare di mezzo le traiettorie dell'elettrone sostituendole con geometrie di distribuzione di probabilità nello spazio attorno al nucleo, cioè con l'elettrone delocalizzato. Questo e altri aspetti della meccanica quantistica cento anni fa furono scioccanti (la famosa uscita di Einstein su Dio che non gioca a dadi con l'universo). Restava però il fatto che quando si parlava di estremamente piccolo, cioè di particelle, atomi, molecole, la meccanica quantistica era uno strumento eccellente non solo per descrivere i fenomeni, ma anche per prevederli. La meccanica bohmiana descrive i fenomeni noti bene quanto la meccanica quantistica, ma non è stata in grado di prevedere alcunché. Dirac, che non si poneva problemi ontologici, con la sua equazione invece predisse il positrone. Pauling, nel 1931, armato di regolo calcolatore e tavole dei logaritmi, previde la possibilità di un legame chimico con un solo elettrone coinvolto, invece che due - dimostrata sperimentalmente nel 2024.
Al che forse sarebbe bene ricordarsi su cosa siano basate le scienze sperimentali e in particolare fisica e chimica: dato sperimentale, sua trattazione matematica, produzione di modello, conferma sperimentale del modello (o se volete teoria) e delle sue capacità predittive. 

In breve, preoccuparsi di mantenere traiettorie e oggettività è del tutto giustificato e legittimo, ma poco fertile per la produzione di risultati scientifici. Per questo è stata la meccanica quantistica a rivoluzionare la chimica del XX secolo, archiviando definitivamente le traiettorie dell'elettrone (sulla rivoluzione della chimica quantistica nel XX secolo, qui): il boom della chimica organica degli anni '50-60, basato sulla retrosintesi, sarebbe stato impossibile senza orbitali e orbitali molecolari (metodo di Huckel, regole di Woodward-Hoffmann). Nessuno si è mai posto il problema della realtà degli orbitali ibridati (combinazioni lineari di funzioni d'onda per ottenere le geometrie richieste dai legami chimici). Gli orbitali ibridati sp2 e sp3 sono costrutti matematici (Pauling, 1931, ancora), ma caratterizzati da una estrema funzionalità. La "nuvola" di elettroni di un legame π (Mulliken, 1928) è oggettiva? Spiega reattività e spettri, nessuno si è mai posto il problema. La Atomic Force Microscopy ha "visto" i legami, ma si è dibattuto a lungo se sono stati visti perché ci sono e sono così o se fossero frutto di un artefatto sperimentale.



Comunque sia, l'AFM non ci dice se il legame è fatto come lo descriviamo teoricamente — se esiste una superficie nodale, per esempio, come la rappresentiamo con gli orbitali. Ci dice che c'è qualcosa lì, nella posizione prevista, in linea con la geometria prevista - e non è poco. E' un po' come l'immagine del buco nero al centro della nostra galassia. 

Si potrebbe dire che sì, protoni ed elettroni, quelli che "vediamo" tramite i loro fenomeni, sono oggettivi. Ma sono oggetti assolutamente identici al concetto che ne abbiamo? Sommamente incerto, visto che quanto al protone, se aumentiamo la risoluzione, ci perdiamo in un "mare protonico" fatto oltre che di quark di gluoni e particelle virtuali che costituiscono gran parte della massa del protone stesso. Eppure la chimica con il protone ha una familiarità atavica: H+, pH, eccetera.


Se porsi il problema dell'oggettività e dell'ontologia è legittimo in ambito filosofico, la meccanica quantistica non è nata in ambito filosofico/ontologico. Per esempio il numero quantico di spin è venuto fuori perché in presenza di campo magnetico le line spettrali splittavano (una ne generava due, significando due ulteriori sottolivelli energetici). Da questo punto di vista tutto quello che ha fatto Bohm è stato un lavoro di resistenza a una rivoluzione scientifica, mirato a ripristinare le traiettorie. E' una questione di pavimento ontologico, per così dire. Una traiettoria significa conoscere posizione e verso in funzione del tempo di qualcosa che si muove: è percepita prevedibile, deterministica. Ma in realtà tutto quanto è stato fatto, studiato e scritto in materia di sistemi a dinamiche non lineari (la maggioranza di quelli che ci circondano) dice che in realtà nella maggioranza dei casi le traiettorie di un sistema nel suo spazio delle fasi non sono prevedibili se non per piccoli intervalli (una questione di coefficienti di Lyapunov). In poche parole l'attaccamento alle traiettorie è psicologico, anche quando si sa (o si dovrebbe sapere) che in realtà e in genere non è che qualsiasi  traiettoria sia prevedibile a priori.

E questo secondo me è uno dei motivi per cui le finestre di popolarità delle teorie del caos sono state molto strette e la meccanica quantistica fa discutere o viene malamente storpiata sui social media: il pubblico ha bisogno di un pavimento ontologico su cui poggiare i piedi, ha bisogno di certezze, non di incertezze e complessità. Ma nel processo scientifico i risultati più notevoli sono stati ottenuti senza pavimento e senza rete di sicurezza ontologica (Heisenberg, Schroedinger, Dirac). Bohm arriva dopo la rivoluzione quantistica per "costruire senso", con un impatto sul processo scientifico non nullo, ma molto limitato.
Da un certo punto di vista, pensando alla meccanica bohmiana, mi sono ricordato che Prigogine negli anni '80-90 dedicò una buona dose di lavoro in senso esattamente opposto, per desimmetrizzare rispetto al tempo la meccanica quantistica. In breve per Prigogine la meccanica quantistica era troppo piattamente deterministica e non includeva l'irreversibilità e la freccia del tempo, quindi allo scopo usò spazi di Hilbert Rigged (The Arrow of Time in Rigged Hilbert Space Quantum Mechanics, Robert C. Bishop, 2005). Lavoro concettualmente affascinante ma, come nel caso di Bohm, piuttosto infruttifero (e lo dico partendo da una immensa ammirazione per Prigogine). Per usare parole dello stesso Prigogine il processo scientifico è un fecondo dialogo tra l'intelletto e la natura. Aggiungerei che quando si sente la necessità di proiettare sulla natura esigenze umane, apparentemente, il dialogo diviene meno fecondo.

Il titolo di questo post viene da Riccardo Giacconi (L'universo a raggi X, 1985), e lo trovo profondamente significativo. Se dovessi individuare, da un punto di vista non sociologico/politico, quale sia il discorso sulla "scienza" degli ultimi venti anni, direi che si tratti del parziale oblio di quello che, 400 anni fa, marcò la differenza tra una filosofia della natura largamente speculativa e quella galileiana. E tocca riproporre ricontestualizzato il "provando e riprovando":

Chi fa sua l'espressione di Dante "provando e riprovando" fu il celebre Galileo Galilei, padre della scienza moderna e rappresentante della rivoluzione scientifica del XVII secolo. Lo scienziato reinterpreta le parole di Beatrice come quell'elemento che insieme alle necessarie dimostrazioni si trova alla base del metodo scientifico: le sensate esperienze. Da questo momento in poi l'espressione entrerà per sempre a far parte del mondo della scienza, infatti il termine "riprovando" otterrà un duplice significato: al concetto di disapprovazione viene aggiunto quello di riprova e verifica di un'ipotesi.

Fu quella la rivoluzione scientifica del XVII secolo: prima la filosofia della natura si basava largamente su speculazioni, con uno scarso riferimento alla sperimentazione, poi l'esperimento divenne centrale. La misura e la trattazione matematica cambiarono tutto e lo fecero con Galileo, Newton, Boyle.
Sicuramente questo mio approccio risente della mia educazione. Vengo da una scuola che affiancava a "shut up and calculate" un prosaico "don't trust the math, trust the data". 
Alla fine le scienze sperimentali si confrontano con la materia e i fenomeni naturali. Se parliamo di esseri viventi, si può addomesticare o addestrare un singolo animale. Ma una popolazione di animali in senso ecologico non è addomesticabile. E anche la materia inanimata generalmente non collabora con entusiasmo ai tuoi tentativi di predirne  o modificarne il comportamento. La simbiosi tra trifoglio e batteri del genere Rhizobium trasforma l'azoto atmosferico in ammoniaca con qualche frazione di watt e un poco di acqua. L'essere umano per realizzare la stessa trasformazione in un impianto chimico usa processi largamente energivori, alte temperature, alte pressioni e catalizzatori a base di metalli di transizione.

Perché davvero, come diceva Eraclito, la natura ama celarsi. 

PS: Chi scrive ritiene che questa sia anche una posizione politica rispetto al discorso pubblico sulla scienza. In due anni di COVID abbiamo visto modelli matematici dell'epidemia smentiti dai dati nel giro di due settimane, o un mese, che rimanevano "modelli corretti", nonostante la falsificazione.


8 MARZO E RADICI

https://www.storicang.it/foto-del-giorno/alle-origini-dell8-marzo_16046

La storia della Giornata internazionale della donna, istituita dall’ONU nel 1977, ha in realtà radici più antiche e dalla forte connotazione politica, che risalgono alla prima metà del XX secolo. L’8 marzo 1917 (secondo il calendario gregoriano: in Russia era la fine di febbraio) le donne di San Pietroburgo guidarono infatti una grande manifestazione che reclamava la fine della partecipazione del Paese alla Prima guerra mondiale, e che fu la miccia della Rivoluzione russa di febbraio e della fine degli zar. Fu così che nel 1921, durante la Seconda conferenza internazionale delle donne comuniste, si decise di fissare all’8 marzo la data condivisa della Giornata internazionale dell’operaia. Fu poi l’istituzione di una giornata “per i diritti della donna e per la pace internazionale” da parte dell’ONU, che si fece coincidere appunto con l’8 marzo già celebrato in molti Paesi, ad assegnarle definitivamente il valore universale che conosciamo oggi: quello di un’occasione per celebrare e sostenere il riconoscimento dei diritti delle donne e la loro piena e paritaria partecipazione alla vita civile, economica, sociale e politica

mercoledì 4 marzo 2026

ENTROPIA (IN UK) E IMPARARE AD ESSERE INVISIBILI (RELOADED)

 

 Quindi macchine cicliche reversibili devone produrre il massimo del lavoro. Un corollario di queste conclusioni è che tutte le macchine cicliche reversibili devono produrre la stessa quantità di lavoro indipendentemente dalla loro costruzione. Inoltre, la cosa più importante, poiché tutte le macchine reversibili  producono la stessa quantià di lavoro da una certa quantità di calore, la quantità di lavoro generata da una macchina termica è indipendente dalle priopretà del materiale della macchina termica; può dipendere solo dalle temperature del serbatoio freddo e da quella del serbatoio caldo.
Questo ci porta alla conclusione più importante del libro di Sadi Carnot:
"La capacità di svolgere lavoro del calore è indipendente dagli agenti utilizzati per produrlo; la sua quantità è fissata unicamente dalla temperatura dei corpi tra cui si effettua il trasferimento di calore"
Carnot non derivò un'espressione matematica per la massima efficienza raggiungibile da una macchina rermica reversibile nei termini delle temperature di fonte calda e fredda. Questo fu fatto in seguito da altri che capirono l'importanza delle sue conclusioni. Carnot trovè comunque un modo di calcolare la quantità massima di calore generabile. (Per esempio concluse che "1000 unità di calore che passano da un corpo mantenuto alla temperatura di 1 grado a un altro corpo mantenuto a 0 gradi producono, agendo sull'aria, 1.395 unità di forza motrice")

Sebbene Sadi Carnot usasse la teoria calorica (https://en.wikipedia.org/wiki/Caloric_theory  , NdCS) per giungere alle sue conclusioni, le sue successive note scientifiche rilevavano che la teoria calorica non era supportata da esperimenti. Di fatto Carnot comprese l'equivalenza meccanica del calore e stimò anche il corrispondente fattore di conversione come circa 3,7 joule per caloria (il dato più accurato è 4,18 joule per caloria). Sfortunatemente il fratello di Sadi Carnot, Hyppolite Carnot, in possesso delle note scientifiche di Sadi dopo la sua morte nel 1832, non le rese note alla comunità scientifica fino al 1833. Fu l'anno in cui Joule pubblicò il suo primo articolo. Nel frattempo l'equivalenza tra lavoro e calore e la legge di conservazione dell'energia erano ben note grazie al lavoro di Joule, Helmoltz, Mayer e altri (il 1878 è anche l'anno in cui Gibbs pubblicò il suo famoso lavoro Sull'Equilibrio delle Sostanze Eterogenee - https://ilchimicoscettico.blogspot.com/2018/07/su-uova-e-maionese-avremmo-dovuto.html , NdCS). Il brillante lavoro di Sadi Carnot rimase trascurato finché Emile Clapeyron non incappò nel libro di Carnot nel 1833

(Il resto è storia, e quel calore che non si trasforma in lavoro se ne va in entropia https://ilchimicoscettico.blogspot.com/2018/04/entropy-in-uk.html)


Forse qualcuno se ne ricorda, o forse no: alcuni temi assolutamente classici delle scienze sui social italiani erano diventati conflittuali (divisivi, per usare un termine più attuale).
Alcuni esempi?
Mi ricordo delle reazioni isteriche o accuse di proporre materiale obsoleto nei confronti delle citazioni dei lavori di Robert May e Roy Anderson. Lasciamo perdere l'oggettiva rilevanza storica e attuale del loro lavoro. Il contesto riguarda le immagini e i segni, ma proprio nel regno del segno costoro erano stati legittimati: sono citati in primo piano in uno dei libri più totemici degli ultimi anni in una certa area, specialmente nel periodo del COVID, Spillover di David Quammen, che è del 2012. E mi ricordo di "le teorie del caos sono il nuovo marker dell'antivaccinismo". Quanto a entropia, poi, di bestialità se sono sentite fin troppe.

Erano temi conflittuali perché non si incastravano nella favola bella.
Quale favola bella? Quella della "narrativa della scienza", o scienza-segno, o simulacro, che nonostante tutto continua ad andare per la maggiore in Italia.
Quanto questa favola avesse velleità monopolistiche, lo si è ben visto negli anni del COVID, quando in tanti (troppi) hanno provato a gettare il marchio dell'infamia su chiunque mettesse in dubbio una qualsiasi parte del "dogma gestione pandemia". E si è anche visto quali siano state le conseguenze politiche di quella attitudine: la prevalenza di una destra MAGA/MAHA, anche in Italia. 

Quella  narrativa dogmatica aveva e ha tutti i tratti del mito fondativo, un mito che questo blog fin dall'inizio non ha mai voluto sottoscrivere. Ma era una narrativa con cui alcuni elementi del sistema di potere italiano si giustificavano (nel senso: si rendevano giusti). Finché il potere non è stato preso da chi ha deciso di sposare l'opposto speculare di quel dogma, ma con gli stessi identici metodi e con velleità autoritarie anche più spiccate.

Ne deriva che, in questo contesto, imparare ad essere invisibili (e militanti) può essere una tattica più che valida.
Sorridete!

PS: Il corsivo iniziale è la mia traduzione di un testo mai tradotto in italiano: Modern Thermodynamics: From Heat Engines to Dissipative Structures, Dilip Kondepudi, Ilya Prigogine, 1998.

PPS: Questo post, pubblicato nel novembre 2022, è stato rieditato.

domenica 1 marzo 2026

INTELLIGENZA ARTIFICIALE: COME INFLUISCE SUL MERCATO DEL LAVORO

https://www.nytimes.com/2026/01/21/business/ai-hiring-tools-lawsuit-eightfold-fcra.html

 

Il New York Times del 21 gennaio riportava una causa legale intentata da un gruppo di candidati contro Eightfold AI, fornitore di software di screening AI per il recruiting, usato da grandi aziende come Microsoft, PayPal, Morgan Stanley e altre Fortune 500.

I querelanti, guidati da Erin Kistler e Sruti Bhaumik, sostengono che gli strumenti AI di Eightfold violino il Fair Credit Reporting Act (FCRA), la legge federale che regola le agenzie di reporting creditizio e consumer reports, e la corrispondente legge californiana (ICRAA). Secondo loro il sistema Eightfold raccoglie enormi quantità di dati personali da fonti come LinkedIn e altri siti (su oltre un miliardo di profili), crea "dossier" dettagliati e assegna punteggi da 0 a 5 sulla "probabilità di successo" di un candidato per un ruolo specifico. Questi punteggi fungono da base per le decisioni sull'esito della domanda per una posizione, funzionando come i report creditizi per l'erogazione di prestiti o carte di credito, ma senza rispettare obblighi FCRA: autorizzazione esplicita, disclosure dei dati, possibilità di contestare errori o inesattezze, senza notifiche riguardo il proprio status di "impiegabile".

I candidati vengono esclusi automaticamente prima di un contatto umano, senza feedback sul perché il loro punteggio è basso o su quali dati siano stati usati - dati spesso imprecisi, incompleti o male interpretati - ricordiamo che qualsiasi sistema di cosiddetta IA è soggetto ad errore. La causa, depositata il 20 gennaio 2026 nel tribunale superiore della Contra Costa County (California), è una class action che cerca di obbligare Eightfold a maggiore trasparenza e conformità (e a rifondere un danno tutto da quantificare).

Ma non finisce qui. A un evento di IBEC (Irish Business and Employers Confederation, praticamente la confindustria irlandese) è intervenuto il professor Joseph Fuller, fondatore e co-direttore del progetto Managing the Future of Work alla Harvard Business School, co-direttore di Harvard Project on the Workforce.

https://www.irishtimes.com/business/work/2025/10/22/ai-bias-in-recruiting-leading-to-shortage-of-top-candidates-ibec-event-told/


Il continuo sviluppo dell'IA avrà un impatto enorme, ma la sua applicazione nel settore delle assunzioni evidenzia finora sia i suoi pericoli che i suoi benefici, ha dichiarato alla conferenza il Prof. Joseph Fuller, specializzato in Management Practice alla Harvard Business School. Molti candidati altamente qualificati, tra cui molte donne, vengono esclusi dai processi di selezione nelle fasi iniziali a causa di filtri arbitrari, ha aggiunto.

Se c'è una cosa a cui i decisori del privato capitalista non sanno resistere è l'hype sull'ultimo strumento per lo streamlining - che tradotto significa meno forza lavoro e meno costi. Questa faccenda dell'IA nel reclutamento ha iniziato espellendo i lavoratori destinati allo screening dei profili, cioè il livello più basso. Ora la questione sta lentamente crescendo. A detrimento delle stesse aziende che usano questi strumenti? Anche, e certo non è una novità, nonostante quanti continuano a predicare il mercato come governato da agenti razionali.