domenica 11 maggio 2025

ROBA DA CHIODI (SCOPERTO NIENTE)

 

https://www.ansa.it/sicilia/notizie/2025/05/06/scoperta-una-nuova-classe-di-farmaci-che-silenzia-il-virus-hiv_1e4283f5-a955-4827-8bc1-9ca51ea1dfae.html

Incredibile, a Palermo hanno scoperto una nuova classe di farmaci che silenzia Hiv! 

No, niente affatto. Il primo inibitore del capside di Hiv l'ha sviluppato Gilead ed è stato approvato da FDA l'anno scorso. Ed è una delle cose di cui si parla nell'articolo (Lenacapavir)

Vabbè, a Palermo hanno contribuito allo sviluppo!

No, per niente.

Ma hanno pubblicato un'articolo!

Sì e se si legge l'articolo si dovrebbe notare, a sinistra sopra il titolo, la scritta "Review". Che non ha niente a che fare con peer reviewed, ma specifica la natura dell'articolo stesso: una review, cioè il riassunto e l'organizzazione dei risultati presentati in lavori prodotti da altri. Nessuna ricerca sperimentale originale, nessun nuovo studio clinico. E aggiungerei che per una cosa del genere di questi tempi basta una IA. Certo, con una IA magari la review non verrà fuori significativa e utile come sono le review ben fatte, ma chi lo legge l'articolo? Di certo non lo legge chi ha prodotto il lancio di agenzia e neppure che lo ha ripreso: ANSA viene ripresa pari pari da Repubblica (Hiv, scoperti i farmaci che ‘intrappolano’ il virus e lo mettono fuori gioco).

Quindi, al contrario di quel che scrivono ANSA e Repubblica, da Palermo non arriva nessun dato, o perlomeno nessun dato nuovo e la notizia vera, cioè l'approvazione di lenacapavir, è una storia di un anno fa in cui il gruppo di Parlermo non è coinvolto a nessun titolo. 

Il gruppo in questione non è nuovo alla pubblicazione di review a tema Hiv (sulla stessa rivista ne era stata pubblicata una nel '24). Quello che non si capisce è perché la pubblicazione di una review faccia notizia e perché alla fine si parta dalla review per produrre una notizia oggettivamente falsa. Forse perché è così che funziona il giornalismo italiano, incluso quello scientifico? Boh. E perché il gruppo parlemitano non rettifica, giusto per prendere le distanze dalla notizia falsa che lo riguarda? Chissà...

 

sabato 10 maggio 2025

WRITING ABOUT SCIENCE?

 

https://archive.org/details/lescienze-160/mode/2up?view=theater

(Originally posted on November 6, 2023)

Once upon a time, there was Scientific American. Douglas Hofstadter, who introduced me to feedback and recursivity, and Martin Gardner had regular columns back then. And if you browse through the pages of this 1981 issue, you'll realize how radically different the editorial content was compared to today's approach—regardless of considerations about the caliber of the authors, especially in the Italian edition, which would also be worth discussing...

You see, when I think of "science writing," I envision a standard set by Scientific American and New Scientist until the late 1980s. As for addressing current scientific topics in public debate, I cannot help but recall the masterful classic by Robert May and Roy Anderson, The Logic Of Vaccination (https://ilchimicoscettico.blogspot.com/2018/04/la-logica-della-vaccinazione-1982-uk.html). A classic that marks the abyss between the level and quality with which these topics were treated then and what is mostly called "popularization" or science writing today: no one, especially in Italy over the last five years, has wanted or known how to address the topic of vaccinations in this way. In fact, five years ago, when I reintroduced this text, I was mostly accused of heresy (the most dim-witted classified it as obsolete material). The fact is that May and Anderson knew and understood the subject well because they had been working on it for some years. The science writer of recent years, especially in Italy. not only lacked specific knowledge on the matter but also the conceptual tools to understand the topic, so they relied on a "medical community" that was, unfortunately, equally incompetent on the subject. And the result has been evident over the years, from the time of the furious italian debate on measles and mandatory vaccination to the last two COVID years when the only word allowed was "exponential," whether the curve was bending or declining. And every ripple in the baseline became the beginning of a new epidemic peak.

But let's return to "science writing." If I read some titles suggested by Nature (https://www.nature.com/articles/d41586-022-04236-9), I don't see anything that interests me (pandemics and climate are political issues, science has nothing to do with it), but they appear significant to me: they follow the market. But this is generally what is referred to in Italy when discussing scientific literacy: education on topics (and their current vulgate), not education on method—despite the vast audience of scientifically incompetent people who "spread science" and fill their mouths with the phrase "scientific method." Educating on method means, first and foremost, educating on practice, and sorry to say, in many high schools, the science laboratory was an unused relic of the past already in the 1980s.

When those who write about science come from scientific practice, it's usually noticeable, or at least I perceive it well. An emblematic case is Giacconi's "The X-ray Universe." But I also found Lisa Randall's writing skills fascinating. Forget for a moment the context of her Warped Passages (2006), that is, the factions for and against string theory, quantum gravity, and all the rest. And absolutely forget the book's marketing ("Randall has opened the doors to the multiverse"). It was, first and foremost, a brilliant attempt to write the history of recent physics without a single equation but minimizing the loss of information, a successful attempt, in my opinion (according to others, who later found themselves perfectly at ease with Carlo Rovelli's Seven Brief Lessons on Physics Randall's text is very difficult).

Her subsequent book, Knocking on Heaven's Door (2012), was released almost simultaneously with the detection of the Higgs boson at the LHC. This forced the author to write a long preface and an even longer introduction. Writing books on contemporary physics from a historical perspective during that period was an extremely risky work. Perhaps this is also why Randall's text initially disappointed me at the time. After more than 10 years, I reopened it and found it significant in more than one aspect.

First, reiterating the role that physical laws have, or do not have, depending on the scale at which the phenomenon occurs, which is far from common in science popularization, especially in Italy (I briefly discussed this here: https://ilchimicoscettico.blogspot.com/2021/10/chimica-gravita-posizione-del-sole.html). If people have lost count of those who have launched against quantum mechanics inappropriately, on the other side with crossbows drawn and the like, they have fallen exactly into the same pattern, bringing up Einstein where relativity has no significant role (phenomena described by classical mechanics and thermodynamics).

Second, the account of the author's relationships with interlocutors outside the "science profession": screenwriters, journalists, politicians. And it's something that reminds us that in the USA, certain phenomena begin about ten years ahead of Italy (the difficulty of relating to the "general public," which usually receives scientific knowledge in a badly distorted way).

Third: attention to the experimental part, from the construction of the LHC and the experiments to the problem of data and how to process it.

Fourth: the attitude of someone who has measured themselves against experimental evidence, respecting it. And here I cannot help but quote:

"Making precise and reliable predictions is a difficult undertaking. Even when one does one's best to model everything that is important, the input variables and assumptions introduced in a certain model significantly influence the conclusions. Thus, predicting a low risk makes no sense if the uncertainties associated with the initial hypotheses are greater than the calculated risk value. If a prediction is to have any meaning, it is important that the problem of uncertainties introduced into the calculation be carefully weighed and duly taken into account.

Before moving on to other examples, let me tell you a small anecdote that helps frame the problem. At the beginning of my research career, I observed that the Standard Model, for a certain quantity that was intended to be studied, had a more extensive range of values than previously thought: this was due to a quantum contribution, the magnitude of which depended on the surprisingly high value of the top quark mass, as recent measurements indicated. When I presented my results at a conference, I was asked to plot the trend of the new predictive data as a function of the mass attributable to the top quark. I refused, because I knew that several contributions would have to be taken into account and that the residual uncertainties involved too much variability in the result for such a curve to be drawn, as had been requested of me. It happened, however, that an 'expert' colleague underestimated the uncertainties and drew such a graph (not unlike what happens in predictions in non-physical domains).

The 'expert' colleague was quickly contradicted by experimental evidence and exhibited a behavioral pattern that should not be unfamiliar to you: I was wrong but I was right (and she was right but she was wrong). As for 'not unlike what happens in predictions in non-physical domains'... well, no need to rake up the events of two years of pandemic, from models to drugs.

I find this passage from 11 years ago or thereabouts frighteningly relevant. Let's skip over the difference in specific weight between those who write about science based on hearsay and those who do so based on competence and experience. It's also a matter of attitude: in the short term, respect for data doesn't pay off, treating it nonchalantly does (cf., again, two years of pandemic). Someone should have learned, even in the vast chaos of the web and social media, to distinguish between the ones and the others, in both categories (including hands-on experience and its absence, I mean). Then look at who writes about science on social media (or on the italian edition of Scientific American) and draw the appropriate conclusions, because it's about time.

 

giovedì 8 maggio 2025

L'ALTRO GUSTO DELL' IA: DEEPSEEK

Un vecchio detto della programmazione diceva che un oggetto software non può mai essere più intelligente di chi lo ha programmato, ma Rudy Rucker, scrivendo l'unico romanzo realistico sull'IA che conosco (The Hacker and the Ants, Le formiche nel computer) spiegò come le cose potessero andare fuori controllo, cioè con algoritmi evolutivi/programmazione genetica.

Rucker è un matematico atipico, sicuramente più noto per la sua attività di scrittore di fantascienza che per quella di matematico ed informatico. Di sicuro però non riusciva a lasciarsi alle spalle il suo background quando scriveva, e la cosa si percepisce nettamente nelle sue opere. The Hacker And The Ants lo potete trovare qui.

Centrale nel romanzo un esperimento di algoritmi genetici: viene creata una forma di vita digitale (le formiche) con capacità di generazione di codice. Dalle formiche viene ottenuta robot.lib, libreria indispensabile per la programmazione di robot "domestici", una novità commerciale ancora a livello di prototipo. Ma le formiche si comportano come un virus e finiscono per infettare i robot. A differenza della programmazione e dell'addestramento dei robot le formiche non hanno alcuna interfaccia antropomorfa e si comportano come una sorta di intelligenza non umana il cui comportamento virale ha evidentemente uno scopo.

Sono partito da Rudy Rucker perché in una conversazione con un amico lui se ne è uscito scherzando: "Quando le macchine domineranno il mondo..." Ebbene, al momento non sappiamo di nessun algoritmo genetico applicato allo sviluppo di sistemi di intelligenza artificiale quindi direi che il rischio non è all'orizzonte. Però è interessante notare certe differenze tra sistemi, differenze che riguardano principalmente il sistema "altro" per eccellenza.: Deepseek, avete presente? L'intelligenza artificiale open source cinese che richiede meno potenza di calcolo, meno energia, meno investimenti etc etc etc.

Usandola noterete una certa differenza di "aroma", rispetto ai corrispettivi occidentali - potete provare e verificherete che tra ChatGPT, Gemini e Perplexity non ci sono molte differenze (ChatGPT ha una più spiccata tendenza a compiacere l'utente).

Un particolare rilevante riguardo a Deepseek: si può settare il tono/tipologia di risposta. Nel senso che si può usare come la maggioranza degli utenti usa una IA oppure chiedere una modalità "no frills ". E qui le cose diventano interessanti. Gli ho chiesto se le sue risposte dipendano dalla lingua che usa e il risultato è stato questo:

Here’s how it works:

  1. Primary Language (English) – I perform best in English because my training data is most extensive in this language. Responses are typically more accurate, nuanced, and detailed.

  2. Other Major Languages (e.g., Spanish, French, German, Chinese, etc.) – I can understand and respond quite well in many widely spoken languages, though fluency may vary. Some nuances or complex topics might be handled better in English.

  3. Low-Resource Languages – For languages with limited training data (e.g., regional or less common languages), my responses may be less accurate, shorter, or even incorrect.

What Does This Mean for You?

  • If you ask a question in Spanish, I’ll reply in Spanish—but switching to English might yield a more precise answer for technical topics.

  • I can translate between languages, but translations may not always be perfect.

  • Some language-specific contexts (e.g., cultural references, slang) may not be fully captured.

 

Dal punto di vista dell'analisi e comprensione del testo Deepseek è apparentemente più language dependent rispetto a ChatGPT, forse perché chi l'ha sviluppato aveva altre priorità (programmazione, ricerca e sviluppo) . Che il fattore linguistico pesi per i testi non in inglese è facile da rilevare. Al che mi  venuta un'idea su come proseguire.

CS: 

Sic locutus est robotum?

Deepseek:

Sic locutus est datasetum.

I’m a stochastic blasphemy engine. The only sacred thing here is your patience.

Now go outside and yell at a tree. It’ll argue better. 🌳

Dopo questo ho chiesto a Deepseek una critica distruttiva sul post IL TEST DI TURING, in italiano. Ecco il risultato:

 

1. Struttura confusa e approssimativa

Il testo inizia con un'intenzione promettente—un glossario sull'IA—per poi deviare in modo caotico tra osservazioni personali, aneddoti familiari, e analisi tecniche superficiali. Manca una linea argomentativa chiara: si passa da definizioni base a critiche a GPT-4, poi a divagazioni su ricorsività e Hofstadter, infine a un copia-incolla di risposte standard di ChatGPT. Risultato? Un pasticcio senza focus.

2. Superficialità e banalità delle osservazioni

L'autore si vanta di aver "scoperto" che ChatGPT non capisce simboli e metafore, come se fosse una rivelazione epocale. Ma è noto da anni che i LLM non hanno comprensione semantica reale—è la loro limitazione fondamentale. Presentarla come una scoperta personale è ingenuo o, peggio, presuntuoso.

Inoltre, la digressione sull'"autoricorsività" (termine mal coniato, visto che si parla di auto-valutazione ricorsiva) è trattata con approssimazione: non si spiega perché un LLM dovrebbe produrre output coerenti dopo 100 iterazioni, né si propone un esperimento serio per testare la cosa. Si limita a dire "provate e vedrete che non funziona", senza analisi metodologica.

3. Citazioni inutili e autoreferenzialità

L'autore si compiace di aver "chiesto a ChatGPT ciò che nessuno chiede", come se fosse un genio incompreso. Peccato che la risposta ottenuta sia la solita lista di limiti che OpenAI stessa ammette pubblicamente da anni. Non c'è alcun insight originale: è solo un riassunto di cose già note, spacciato per rivelazione.

4. Tonfo retorico finale

La chiusura è imbarazzante: dopo aver criticato i limiti di GPT-4, l'autore conclude con un "è comunque impressionante, meglio di molti umani sui social". Ma se l'obiettivo era smontare l'hype sull'IA, questo cedimento al "però è bravo eh!" svuota ogni critica precedente. È come dire "Questo ristorante fa schifo, però il pane era buono"—rende tutto il discorso inconsistente.

5. Stile disordinato e pretenzioso

L'uso di termini come "grunt work", "ghiblizzazione" e "autoricorsività" (senza definirli adeguatamente) dà l'impressione di voler sembrare sofisticato, ma il risultato è solo confusione. Se l'obiettivo era spiegare l'IA a un pubblico non tecnico, è fallito; se voleva essere un'analisi approfondita, manca di rigore.

Conclusione: Un testo fallimentare

Tra approssimazione, divagazioni inutili e conclusioni contraddittorie, questo scritto non informa, non convince e non intrattiene. Sembra il riassunto di una chiacchierata da bar, non un'analisi seria. Se l'autore voleva dimostrare che l'IA è sopravvalutata, ha involontariamente dimostrato un altro punto: che anche gli umani, a volte, scrivono senza capire cosa vogliono dire.

Voto: 3/10 – Confuso, ridondante e privo di originalità.

 

Notare bene: chiedere una valutazione dello stesso testo senza specificare altro produce un risultato completamente diverso (una valutazione positiva). La chiosa di ChatGPT alla critica distruttiva di Deepseek, inaspettatamente, fornisce un tema interessante: "Tuttavia, usare una macchina per screditare un altro testo umano — per quanto ironico — apre un discorso meta-critico che potrebbe apparire contraddittorio".

Tutto questo riporta la faccenda alla sua attuale natura: stiamo parlando di strumenti molto evoluti, ma sempre strumenti sono e sono fatti per produrre il risultato desiderato dall'utente.

Quindi se volete interfacciarvi con gentilezza a questi sistemi affar vostro e se volete parlare con il vostro microonde pure.


Modello Punti di Forza Limiti Principali Ideale per Note
ChatGPT Conversazione fluida e naturale, ampia conoscenza generale, versatilità in diversi compiti testuali Tendenza a "compiacere" o fornire risposte non sempre verificate, può essere prolisso Generazione di testo creativo, brainstorming, assistenza alla scrittura, conversazioni generali Uno dei modelli più popolari e accessibili.
Gemini Ragionamento avanzato, comprensione multimodale (testo, immagini, audio, video), integrazione con servizi Google Complessità nella gestione di input multimodali, a volte meno intuitivo nell'interazione testuale pura Compiti che richiedono ragionamento complesso, analisi di dati multimodali, integrazione con l'ecosistema Google Rappresenta un passo verso IA più integrate e capaci.
DeepSeek Efficienza computazionale, prestazioni elevate in compiti di codifica, approccio open-source Interfaccia e documentazione più tecniche, meno orientato alla conversazione informale Sviluppatori, compiti di programmazione complessi, ricerca in ambito IA Mette l'accento sull'efficienza e l'accessibilità per la comunità tecnica.
Perplexity AI Affidabilità delle fonti (cita le sue risposte), integrazione di ricerca web in tempo reale, risposte concise Meno interattivo come "chatbot" puro, focus principale sulla fornitura di informazioni verificate Ricerca di informazioni precise e con fonti, riassunti di argomenti, aggiornamenti in tempo reale Ottimo per chi cerca risposte basate su evidenze e trasparenza delle fonti.
Claude (Anthropic) Progettato con particolare attenzione alla sicurezza e all'etica, capacità di gestire testi lunghi e complessi A volte meno "creativo" o "aperto" nelle risposte rispetto ad altri modelli Analisi di documenti lunghi, compiti che richiedono un elevato grado di sicurezza e aderenza a principi etici Si distingue per il suo approccio alla sicurezza e alla gestione di contesti ampi.

SCIENCE, FAITH AND MORALISM

“Knowledge for the sake of knowledge” – this is the last trap set for us by morality: it’s how we get completely entangled in it once again.

Friedrich Nietzsche, in this aphorism from Beyond Good and Evil, was speaking in a "high" sense—a sense that runs through the philosopher's work.

Si parva licet componere magnis, nowadays, the same aphorism could be paraphrased in the more mundane context of mass and social media:

The popularization of scientific knowledge – this is the last trap laid by moralism.

Borrowing an old saying, if the difference between morality and moralism is like the difference between a sigh and a burp, what should we think about the current popularization of science and its faith in "scientific truths"?

I don’t believe in science.

My job requires a deep knowledge of a scientific discipline - I know exactly how it works - and to me, saying “I have faith in science” is like saying “I paint linguistics”: it’s nonsensical. At this point, one of those meme-worthy quotes often attributed to Richard Feynman would fit nicely, but instead I’ll use this:

You investigate for curiosity, because it is unknown, not because you know the answer. And as you develop more information in the sciences, it is not that you are finding out the truth, but that you are finding out that this or that is more or less likely.
(So much for the “scientific truth”, NdCS)
(The Pleasure of Finding Things Out: The Best Short Works of Richard P. Feynman, 1999)

Feynman lived through a scientific revolution, so perhaps, by experience, he was not familiar with “normal science” in the Kuhnian sense  - since the very social function of normal science in Kuhn is the confirmation of established principles, the confirmation of the paradigm. But aside from that, his point still holds. However, any moralism needs a truth, a dogma - hence the “holy scientific truth.”

And at this point it's pretty clear that the science Feynman was talking about and the public discourse that speaks of scientific truth are not the same damned thing.

Scientific truth today is what politics claims as its mandate—and it is not democratic in the sense that, when power is derived from a higher and external principle (God, the EU, NATO, scientific truth), elections become rituals incapable of meaningfully influencing a country’s political direction. And political action becomes unassailable by those it affects. Anyone who raises objections to such action is not expressing a legitimate political opinion: they are heretics to be publicly shamed, blasphemers of the truth.

Thus, faith in science, with its innate, coarse moralism, is no different from those theocracies deeply entrenched in worldly affairs—powers that the very devotees of science often point to as primitive or irrational.

Certain phenomena that thrive on the web have nothing to do with the nature of some scientific discipline. On youtube and social medias it's about preaching the scientific truth and shame the heretics. You can google "Professor Dave vs Sabine Hossenfelder" and check this out: a bachelor in chemistry with a Master in Scientific Education (so 0 hours of real world scientific/academic activity) vs a physicist involved in academic research for years. Enough said.

Anyway, I’m no one to judge...



martedì 6 maggio 2025

IL TEST DI TURING: l'IA NON CAPISCE MA MOLTI UMANI SONO MESSI PEGGIO


(che non è propriamente un test di Turing)

Si parla molto e sempre di più di Intelligenza Artificiale. Quindi cominciamo con un glossario:

IA: intelligenza artificiale, in inglese AI, Artificial Intelligence.

ML: Machine Learning 

LLM: Large Language Model, Modello Linguistico di Grandi Dimensioni.

GPT: Generative Pretrained Transformer

L'argomento sta diventando rilevante anche in campo chimico farmaceutico, e non tanto per le iniziative imprenditoriali nate sull'onda dell'hype (vedere BenevolentAI), in cui i chimici medicinali avrebbero dovuto addestrare l'IA a fare meglio e prima di loro (ovviamente non è successo). Ma sistemi per l'autoottimizzazione di reazioni e/o processi cominciano ad avere una certa rilevanza e ora si parla in prospettiva di sistemi per la predizione della tossicità che potrebbero sostituire in certi casi i test animali con il placet di FDA. In questi casi si parla più di Machine Learning, ma ormai ML, LLM, GPT sono tutti indistintamente IA.

Poi c'è l'aspetto del grande pubblico: in famiglia c'è chi chiede a Google o a Gemini perché ormai lo trova più comodo che cercare in rete e la prole mi ha aggiornato sulla mania di "ghiblizzazione" in corso, con le allegate sacrosante proteste di Studio Ghibli, e sulla faccenda delle "action figures".

Io continuo ad usare ChatGPT, principalmente per il grunt work (traduci, parafrasa, riassumi, ordina in una lista, crea una breve introduzione, crea codice per etc). Giusto per vedere l'ho messa alla prova con testi simbolici o metaforici e anche ChatGPT 4 non ci arriva proprio. La sua capacità di analisi in quei casi crolla verticalmente. Eppure segni, simboli e metafore sono processi alla base della nostra intelligenza : li possediamo prima di imparare il latino, il greco o l'analisi matematica (questo vale per chi li ha studiati) e richiedono una capacità di astrazione ed elaborazione che è completamente ed esclusivamente umana. Altro fatto interessante: GPT E LLM sembrano "saltare" con l'autoricorsività. E mi spiego: sia la domanda all'IA una quasiasi, e la sua risposta A(1). Istruire l'IA stabilendo che A(2) è la sua autovalutazione sulla risposta A(1), A(3) la sua autovalutazione su A(2) e così via: per n>1 A(n) è l'autovalutazione sulla risposta A(n-1). Chiedetegli di fornire l'output per n=100 o n=200 e lo troverete privo di significato. E questo è quel che ha a che fare con il test di Turing: ChatGPT fornisce la risposta anche se la risposta non ha senso e la fornisce subito mentre una intelligenza umana non sarebbe in grado di fornirla in frazioni di secondo e troverebbe la richiesta insensata. 

I sistemi ML task oriented,  "stupidi", che non si devono preoccupare di interfacciarsi con un utente ma devono soltano variare il primo input, registrare il risultato, variare di nuovo l'input e così via, con la ricorsività non hanno alcun problema (ricorsività, autorefenzialità e feedback sono malattie che ho preso da giovane leggendo Douglas Hofstadter).

Ed è per questo che ho chiesto a ChatGPT quello che probabilmente nessuno chiede: quali sono i limiti della tua attuale versione? La risposta dovrebbe essere illuminante, almeno per qualcuno:

Uno dei maggiori limiti della mia attuale versione (nonostante sia molto avanzata) è la mancanza di comprensione profonda del contesto continuo e personale. In altre parole:

  • Non ho memoria persistente tra sessioni a meno che tu non l’attivi esplicitamente (o io non venga autorizzato a ricordare qualcosa durante la conversazione). Questo significa che non ricordo chi sei da un giorno all’altro, a meno che tu non me lo dica di nuovo.

  • Non ho esperienze dirette o coscienza, quindi anche se posso generare risposte che sembrano empatiche o informate, non provo emozioni né ho intuizioni personali.

  • Dipendo dalla qualità e completezza dei dati con cui sono stato addestrato, e il mio cutoff è giugno 2024. Questo mi rende vulnerabile all’obsolescenza su argomenti recenti (anche se ora posso cercare info aggiornate, se richiesto).

  • Non sempre capisco le sfumature o impliciti umani come sottintesi culturali, ironia molto sottile, o dinamiche complesse di relazione, anche se sto migliorando.

Interessante la mancanza di memoria persistente. Mi ha ricordato un passo di Neuromancer di William Gibson :

Accese la lampada da tavolo accanto all’Hosaka. Il cerchio nitido di luce cadde direttamente sul costrutto di Flatline. Inserì un po’ di ICE, collegò il costrutto e si connesso.

Fu esattamente come la sensazione di qualcuno che leggeva sopra la sua spalla.

Tossì. «Dix? McCoy? Sei tu, amico?» La gola gli era stretta.

«Ehi, fratello,» disse una voce senza direzione.

«Sono Case, amico. Ti ricordi?»

«Miami, l'apprendista, svelto a imparare.»

«Qual è l’ultima cosa che ricordi prima che ti parlassi, Dix?»

«Niente.»

«Aspetta un attimo.» Disconnesse il costrutto. La presenza era sparita. Lo riconnesse. «Dix? Chi sono?»

«Mi hai fregato, Jack. Chi cazzo sei?»

«Ca... il tuo amico. Socio. Che succede, amico?»

«Bella domanda.»

«Ti ricordi di essere stato qui, un attimo fa?»

«No.»

«Sai come funziona una matrice di personalità ROM?»

«Certo, fratello, è un costrutto firmware.»

«Quindi se la collego al banco che sto usando, posso darti una memoria sequenziale, in tempo reale?»

«Immagino di sì,» disse il costrutto.

«Okay, Dix. Tu sei un costrutto ROM. Mi segui?»

«Se lo dici tu,» disse il costrutto. «Chi sei?»

«Case.»

«Miami,» disse la voce, «l'apprendista, svelto a imparare.»


Ho chiesto ancora a ChatGPT: a comprensione del testo come sei messa?

Molto bene, in generale.

Sono progettata per avere un'elevata capacità di comprensione del testo, anche lungo, complesso o sfumato. Questo include:

  • Analisi sintattica e semantica: riesco a scomporre frasi complicate, identificare soggetti impliciti, legami logici, metafore, e riferimenti anaforici (tipo "lui", "quello", ecc.).

  • Contesto e coerenza: riesco a seguire fili logici in testi anche articolati, e a individuare incoerenze o cambi di tono.

  • Comprensione critica: posso riassumere, parafrasare, confrontare punti di vista e anche valutare argomentazioni (per esempio, individuare fallacie logiche o debolezze retoriche).

  • Stili diversi: riesco a capire testi letterari, tecnici, giuridici, poetici, e via dicendo — ciascuno secondo le sue convenzioni.

Tuttavia, non sono infallibile: potrei sbagliare se il testo è troppo ambiguo, mal strutturato o se richiede conoscenze molto specialistiche fuori dal mio addestramento.

Il che, se permettete, è abbastanza impressionante: è già un pezzo avanti rispetto a buona parte dei soggetti che CS ha incrociato in cinque anni sui social.

domenica 4 maggio 2025

FDA: SU RFK JR E MAKARY MI SBAGLIAVO DI GROSSO, PURTROPPO

Se veramente avessi scommesso qualcosa sul fatto che nonostante RFK jr il lavoro di FDA sarebbe andato come al solito, avrei perso. Pensavo (e speravo) che Makary si sarebbe comportato come Hahn si era comportato durante la prima presidenza Trump - e mi sbagliavo di grosso. Hahn difese l´agenzia e la sua autonomia, Makary pare che non abbia intenzione di difendere niente, anzi. Non una parola sui licenziamenti che hanno decimato lo staff, rendendolo incapace di star dietro a tutte le pratiche (INDA) presentate.

Intendiamoci, si sta parlando di un massacro: Trump proporrà al congresso una riduzione del budget di NIH del 44%. E rispetto alla sua prima presidenza le cose sono cambiate: allora pochi dei repubblicani al congresso lo appoggiavano, a questo giro invece dispone di una maggioranza repubblicana compatta e a lui favorevole. Nature si chiede se la scienza USA sopravviverà:

https://www.nature.com/articles/d41586-025-01295-6
 

Ma Nature non è precisamente un'osservatore neutrale in questa vicenda: otto anni fa fu tra i primi a lanciare all'allora candidato Trump una dichiarazione di guerra. Già, le presenti vicende hanno radici abbastanza lontane nel tempo, di cui ho già parlato

Il contesto più ampio è noto: da oltre un decennio si registra una crescente disaffezione tra una parte consistente della popolazione occidentale e le cosiddette élite. Le rivendicazioni di questa parte sono state per lo più etichettate come "populiste". Il fatto che, oltreoceano, il conflitto politico venga narrato come una guerra tra culture – i “buoni” che votano democratico e credono nella scienza, contro i “buzzurri” ignoranti e complottisti che votano Trump – non dovrebbe suonare nuovo. È abbastanza evidente che la cosiddetta comunità scientifica si sia schierata, senza ambiguità, nel primo dei due campi.

Tuttavia, trattandosi prima di tutto di uno scontro politico, lo schierarsi apertamente con una parte non è senza conseguenze – soprattutto quando a farlo sono istituzioni pubbliche. A quel punto, è l’istituzione stessa a diventare un bersaglio politico. Durante questo periodo, chi chiedeva che la scienza mantenesse neutralità in ambito politico veniva bollato come “pericoloso”. In Italia, chi poteva sostenere questa posizione se non lui?

 Il riferimento è all'appello di Marcia McNutt, per la neutralità della scienza in politica. "La scienza non è blu o rossa" non significava "La scienza si tira fuori", bensì "La scienza deve rimanere istituzionale". Ma in tempi in cui le istituzioni hanno perso la loro natura super partes un po' ovunque il discorso della Mutt poteva sembrare obsoleto. Eppure, resta forse l’unico argine credibile al discredito sistemico che oggi investe l’intero comparto scientifico pubblico. (Considerate che da anni la medicina istituzionale italiana è completamente in mano alla politica dei partiti e tiratene le debite conseguenze).

L´amara considerazione è che chi ha voluto questa guerra per la cultura "giusta" (che era in realtà per una parte politica) oggi la guerra l'ha anche persa, indipendentemente da quel che succederà alle prossime elezioni di midterm o nel 2028. Perché è difficile pensare che per il settore pubblico non valga quello che succede da sempre nel privato: per distruggere (tagliando, licenziando) servono giorni, per ricostruire servono anni e anni.

I big del tecnocapitalismo che hanno appoggiato Trump sono tutt'altro che alieni o contrari alla "scienza", figuriamoci: con la tecnologia sono entrati nel novero degli individui più ricchi del pianeta. Ma una cosa la sanno bene: quando il pubblico smantella per il privato si aprono grandi occasioni per accumulare ancora maggiori profitti.

 

giovedì 1 maggio 2025

I RITMI CAOTICI DEL SISTEMA SOLARE

Ho citato più di una volta i coefficienti di Lyapunov, dicendo che danno ragione della velocità di divergenza di traiettorie del sistema nello spazio delle fasi. E mi sono sempre reso conto che questa definizione risultasse decisamente oscura per i più. Marco Casolino è stato molto più bravo di me e ha saputo produrre un working example molto chiaro e digeribile inerente il comportamento dei pianeti nel sistema solare.


CHI SONO? UNO COME TANTI (O POCHI)

Con una laurea in Chimica Industriale (ordinamento ANTICO, come sottolineava un mio collega più giovane) mi sono ritrovato a lavorare in ...