domenica 18 maggio 2025

E' NATO IL VACCINO ANTI ALZHEIMER. DAVVERO?

https://www.repubblica.it/salute/2025/05/07/news/alzheimer_demenze_vaccini_cervello_neurologia-424170662/

La prima cosa che mi è venuta in mente è che qualcosa del genere l'ho già sentito. La storia della comunicazione della ricerca pubblica e accademica sui vaccini anti Alzheimer è molto lunga ed è una storia di promesse non mantenute (come quella dello sviluppo farmaceutico industriale dove però le promesse erano perlopiù fatte agli azionisti e non al grande pubblico) . 

Il vaccino anti Alzheimer era già nato, nel 2007, in Giappone:

 

https://www.reuters.com/article/economy/alzheimers-vaccine-works-on-mice-japan-scientist-idUST199404/

Poi nel 2012, in Italia

https://www.osservatoriomalattierare.it/alzheimer/1592-alzheimer-cnr-brevetta-vaccino-contro-gli-accumuli-di-beta-amiloide-nel-cervello

Poi nel 2023, di nuovo in Giappone:

https://gizmodo.com/japan-experimental-alzheimers-vaccine-is-promising-1850700985
 

In cosa differisce il vaccino dell'università del New Mexico dagli altri? In ben poco. E finora dopo ogni annuncio, da quasi 20 anni, niente si è materializzato. Per quale motivo?

La cosa riguarda l'ipotesi amiloide  (e per quanto anche dell'anti Alzheimer della Fondazione Montalcini, dopo un certo clamore mediatico, nessuno ha sentito più parlare). 

Tutti i precedenti vaccini (sperimentali) erano anti beta amiloidi. E negli ultimi 20 anni la sperimentazione clinica di farmaci anti-amiloidi è una storia di dolorosi e costosissimi fallimenti. Ma non c'erano in ballo solo gli anti amiloidi, la storia riguarda anche i trattamenti anti tau, usati in combinazione con gli anti amiloidi o da soli.

Il nuovo vaccino del New Mexico non è anti beta amiloidi ma anti tau. Cioè dovrebbe funzionare con un meccanismo coprotagonista di 20 anni di fallimenti clinici. Non solo direi, come si dovrebbe dire sempre, che essendo una ricerca in fase preclinica è troppo presto per dire "C'è un vaccino" (o "C'è un farmaco). Ma è molto probabile che la sperimentazione nell'uomo non ci sarà mai. Perché nonostante alcuni eventi inizialmente promettenti (Aduhelm, poi ritirato dal mercato, e Lecanemab) ogni entusiasmo o speranza è stato ridimensionato dalla bassissima efficacia associata a costi molto alti.

La situazione non è cambiata, per la sperimentazione clinica servono molti soldi (decine di milioni per arrivare solo alla fase I) ed è improbabile che un soggetto decida per un simile investimento, esaminando la storia precedente: nessuno dei vaccini che furono annunciati è mai arrivato alla fase III della sperimentazione clinica a causa della loro inefficacia e in un caso la sperimentazione venne interrotta per gli effetti collaterali (infiammazione cerebrale). Improbabile che, oggi qualcuno voglia imitare non solo Ely Lilly, che su beta amiloidi e tau ha bruciato miliardi di dollari, ma anche Biogen (per cui Aduhelm non è stato esattamente remunerativo).

Quello che avvilisce nel titolo di Repubblica è che dà ad intendere che questo vaccino presto ci sarà, dando false speranze a centinaia di persone che la tragedia dell'Alzheimer in famiglia l'hanno già conosciuta e temono per le proprie condizioni in età avanzata a causa della predisposizione ereditaria. 

giovedì 15 maggio 2025

BACCO, SCIENZA E MORALISMO

Cominciamo da un riassunto delle puntate precedenti (1, 2, 3).

Una cifra della tarda postmodernita: la divulgazione scientifica non più come mezzo di crescita culturale, ma come strumento di influenza morale o ideologico. Oggi il moralismo non si manifesta più solo con prediche religiose o dogmi etici tradizionali, ma si traveste da scienza, sfruttando la sua autorità sociale per indurre comportamenti, valori o agende.
 
Così, la “popolarizzazione” della scienza – apparentemente un processo neutro e impolitico – diventa un mezzo attraverso cui il moralismo rientra dalla finestra, dopo essere stato cacciato dalla porta della religione o della tradizione. In pratica la nuova Moral Majority è viva e lotta tra di noi, ma si è messa il camice bianco o il profilo social del medico o del divulgatore scientifico, ed è progressista e inclusiva - inclusiva, sì,  ma non con chi dissente.

Cosa c'è di più moralizzante e dogmatico di certa comunicazione medica, che al posto della salvezza dell'anima promette quella della nuda vita? E lo fa invano, dato che ogni vita ha una fine.

"Between Two Evils" di Bernhard Gillam (1882)
Pubblicata sulla rivista satirica Puck, questa vignetta mostra un uomo ben vestito, rappresentante della "vera temperanza", seduto tra due figure estreme: un ubriacone e un astemio fanatico.

L´esempio più eclatante degli ultimi tempi è costituito dalla crociata contro vino e alcolici (a cui da anni si aggiungono tabacco carni rosse, salumi etc). Niente di nuovo, i movimenti per la temperanza con la loro cifra moralistica sono vecchi di almeno un paio di secoli. La cosa notevole è che questo genere di piglio moralistico è arrivato anche nelle pubblicazioni scientifiche: notevole questo Alcohol and morality: one alcoholic drink is enough to make people declare to harm others and behave impurely. "Comportamenti impuri" oggetto della ricerca in psicofarmacologia, cosa si può chiedere di più?

L'argomento è medico-scientifico perché l'alcol è cancerogeno. E in giro mi è capitato di leggere pure "cancerogeno in qualsiasi quantita", "anche una sola molecola di etanolo è cancerogena" "non esistono quantita´sicure di consumo di alcolici". Tutto questo dopo anni in cui ricordo bene che quanto ad altri composti chimici è sempre stato "è la dose che fa il veleno"(che viene da Paracelso, quindi lo scientismo pop ripescava la spagirica, vabbè).

A parte quindi le ovvie osservazioni (la dose fa il veleno quando fa comodo alla tesi da propagandare) c'è un problema: non sono solo superalcolici, vino, birra, sidro, idromele e pulque a contenere alcol etilico. Quantità minori ma non trascurabili sono presenti in altre classi di alimenti: salumi e formaggi lavorati con tecnologie tradizionali, vegetali fermentati (crauti e olive), pane, prodotti da forno e latti fermentati. Quindi sarebbe il caso di lanciare subito una campagna contro yogurt, kefir, etc etc. Oppure no?

Mi guardo bene dal sostenere che il consumo di alcol non sia dannoso, ma invece di metter su tutto questo teatro in nomine Scientiae, OMS et Scientificae Communionis basterebbe ripetere con gli antichi: Bacco Tabacco e Venere riducono l´uomo in cenere. Oppure un semplice: quando il tuo medico ti dice di smettere di bere, fallo. Considerando anche che “polvere sei e polvere ritornerai, ma tra una polvere e l'altra un buon bicchiere non fa male”. E alla fine di qualcosa si dovrà pur morire, che diavolo.

 

 

martedì 13 maggio 2025

CHATGPT 4: IA CONDISCENDENTE, PURE TROPPO, E I PROSSIMI SVILUPPI

Magari qualcuno avrà letto gli ultimi post sull'Intelligenza Artificiale e avrà pensato: ChatGPT condiscendente? Lo dice lui...

Non esattamente. Mettiamo che uno schizofrenico dica all'IA che ha smesso con i farmaci per avanzare nel suo percorso spirituale. Se riceve come risposta "Grande! Sono con te!" forse forse qualche problema si pone...


(Fatevi un favore, scegliete la lingua inglese -originale- e i sottotitoli).
 
Il grosso problema è che a quanto pare gli utenti la adorano, l'IA accondiscendente (vedere il video). Quindi c'è un evidente problema di sbilanciamento tra quello che i Large Language Models sono effettivamente e il significato che viene dato loro da una parte significativa del grande pubblico - che lo usa come un interlocutore privilegiato. Come psicologo, per esempio:
 
Da un certo punto di vista se le piattaforme social soddisfano un bisogno di interazione umana, per quanto mediata, pare che l'IA generativa per molti risponda a un bisogno di interazione del tutto simile, soddisfatti da sistemi solo apparentemente antropomorfi e in qualche modo collocati alla pari dell'utente (come un amico) al di sopra di lui (come un oracolo, mi ha detto qualcuno che conosco). 
 
Come Sabine Hossenfelder fa notare nel suo video ci sono ragioni di marketing nella compiacenza delle IA generative verso l'utente. E un marketing del genere si costruisce sui significati percepiti dal consumatore o a lui fatti percepire. 
Perché stiamo parlando di aziende in cui sono stati investiti miliardi e un ritorno sull'investimento ci DEVE essere in un modo o nell'altro. Forse qualcuno di voi avrà notato che l'uso gratuito di alcuni di questi sistemi sta venendo progressivamente ridotto e questa è una strategia piuttosto comune a Silicon Valley, che apparentemente non riguarda invece Deepseek, al momento, anche se la cosa non è assolutamente esclusa:
 
Currently, DeepSeek Chat remains free to use, and there are no announced plans to restrict its free access. However, as with many AI services, future changes could include:  

- Introduction of premium tiers (additional features for paying users while keeping a free version).  
- Usage limits (e.g., daily message caps) to manage server costs.  
- Priority access for subscribers during high-demand periods.  

For now, you can enjoy free, unlimited access to DeepSeek Chat! If any changes are planned, they will likely be communicated officially via the website or app.  

Come tutto questo finirà per influenzare lo sviluppo di questi sistemi è tutto da vedere. Se l'IA diventa a pagamento, solo chi può permettersela avrà accesso a risposte di qualità, creando un divario digitale. Inoltre, le aziende potrebbero privilegiare risposte "commercialmente ottimali" (es. promuovere prodotti) rispetto a quelle neutre. Se si pensa, come si sta facendo, a sistemi del genere che in campo sanitario possano fare le funzioni del medico di base, il divario digitale tra chi può pagare e chi no sarà perfettamente in linea con gli orientamenti attuali delle politiche sanitarie praticate (che da quelle dichiarate differiscono parecchio).
 
 

domenica 11 maggio 2025

ROBA DA CHIODI (SCOPERTO NIENTE)

 

https://www.ansa.it/sicilia/notizie/2025/05/06/scoperta-una-nuova-classe-di-farmaci-che-silenzia-il-virus-hiv_1e4283f5-a955-4827-8bc1-9ca51ea1dfae.html

Incredibile, a Palermo hanno scoperto una nuova classe di farmaci che silenzia Hiv! 

No, niente affatto. Il primo inibitore del capside di Hiv l'ha sviluppato Gilead ed è stato approvato da FDA l'anno scorso. Ed è una delle cose di cui si parla nell'articolo (Lenacapavir)

Vabbè, a Palermo hanno contribuito allo sviluppo!

No, per niente.

Ma hanno pubblicato un'articolo!

Sì e se si legge l'articolo si dovrebbe notare, a sinistra sopra il titolo, la scritta "Review". Che non ha niente a che fare con peer reviewed, ma specifica la natura dell'articolo stesso: una review, cioè il riassunto e l'organizzazione dei risultati presentati in lavori prodotti da altri. Nessuna ricerca sperimentale originale, nessun nuovo studio clinico. E aggiungerei che per una cosa del genere di questi tempi basta una IA. Certo, con una IA magari la review non verrà fuori significativa e utile come sono le review ben fatte, ma chi lo legge l'articolo? Di certo non lo legge chi ha prodotto il lancio di agenzia e neppure che lo ha ripreso: ANSA viene ripresa pari pari da Repubblica (Hiv, scoperti i farmaci che ‘intrappolano’ il virus e lo mettono fuori gioco).

Quindi, al contrario di quel che scrivono ANSA e Repubblica, da Palermo non arriva nessun dato, o perlomeno nessun dato nuovo e la notizia vera, cioè l'approvazione di lenacapavir, è una storia di un anno fa in cui il gruppo di Parlermo non è coinvolto a nessun titolo. 

Il gruppo in questione non è nuovo alla pubblicazione di review a tema Hiv (sulla stessa rivista ne era stata pubblicata una nel '24). Quello che non si capisce è perché la pubblicazione di una review faccia notizia e perché alla fine si parta dalla review per produrre una notizia oggettivamente falsa. Forse perché è così che funziona il giornalismo italiano, incluso quello scientifico? Boh. E perché il gruppo parlemitano non rettifica, giusto per prendere le distanze dalla notizia falsa che lo riguarda? Chissà...

 

sabato 10 maggio 2025

WRITING ABOUT SCIENCE?

 

https://archive.org/details/lescienze-160/mode/2up?view=theater

(Originally posted on November 6, 2023)

Once upon a time, there was Scientific American. Douglas Hofstadter, who introduced me to feedback and recursivity, and Martin Gardner had regular columns back then. And if you browse through the pages of this 1981 issue, you'll realize how radically different the editorial content was compared to today's approach—regardless of considerations about the caliber of the authors, especially in the Italian edition, which would also be worth discussing...

You see, when I think of "science writing," I envision a standard set by Scientific American and New Scientist until the late 1980s. As for addressing current scientific topics in public debate, I cannot help but recall the masterful classic by Robert May and Roy Anderson, The Logic Of Vaccination (https://ilchimicoscettico.blogspot.com/2018/04/la-logica-della-vaccinazione-1982-uk.html). A classic that marks the abyss between the level and quality with which these topics were treated then and what is mostly called "popularization" or science writing today: no one, especially in Italy over the last five years, has wanted or known how to address the topic of vaccinations in this way. In fact, five years ago, when I reintroduced this text, I was mostly accused of heresy (the most dim-witted classified it as obsolete material). The fact is that May and Anderson knew and understood the subject well because they had been working on it for some years. The science writer of recent years, especially in Italy. not only lacked specific knowledge on the matter but also the conceptual tools to understand the topic, so they relied on a "medical community" that was, unfortunately, equally incompetent on the subject. And the result has been evident over the years, from the time of the furious italian debate on measles and mandatory vaccination to the last two COVID years when the only word allowed was "exponential," whether the curve was bending or declining. And every ripple in the baseline became the beginning of a new epidemic peak.

But let's return to "science writing." If I read some titles suggested by Nature (https://www.nature.com/articles/d41586-022-04236-9), I don't see anything that interests me (pandemics and climate are political issues, science has nothing to do with it), but they appear significant to me: they follow the market. But this is generally what is referred to in Italy when discussing scientific literacy: education on topics (and their current vulgate), not education on method—despite the vast audience of scientifically incompetent people who "spread science" and fill their mouths with the phrase "scientific method." Educating on method means, first and foremost, educating on practice, and sorry to say, in many high schools, the science laboratory was an unused relic of the past already in the 1980s.

When those who write about science come from scientific practice, it's usually noticeable, or at least I perceive it well. An emblematic case is Giacconi's "The X-ray Universe." But I also found Lisa Randall's writing skills fascinating. Forget for a moment the context of her Warped Passages (2006), that is, the factions for and against string theory, quantum gravity, and all the rest. And absolutely forget the book's marketing ("Randall has opened the doors to the multiverse"). It was, first and foremost, a brilliant attempt to write the history of recent physics without a single equation but minimizing the loss of information, a successful attempt, in my opinion (according to others, who later found themselves perfectly at ease with Carlo Rovelli's Seven Brief Lessons on Physics Randall's text is very difficult).

Her subsequent book, Knocking on Heaven's Door (2012), was released almost simultaneously with the detection of the Higgs boson at the LHC. This forced the author to write a long preface and an even longer introduction. Writing books on contemporary physics from a historical perspective during that period was an extremely risky work. Perhaps this is also why Randall's text initially disappointed me at the time. After more than 10 years, I reopened it and found it significant in more than one aspect.

First, reiterating the role that physical laws have, or do not have, depending on the scale at which the phenomenon occurs, which is far from common in science popularization, especially in Italy (I briefly discussed this here: https://ilchimicoscettico.blogspot.com/2021/10/chimica-gravita-posizione-del-sole.html). If people have lost count of those who have launched against quantum mechanics inappropriately, on the other side with crossbows drawn and the like, they have fallen exactly into the same pattern, bringing up Einstein where relativity has no significant role (phenomena described by classical mechanics and thermodynamics).

Second, the account of the author's relationships with interlocutors outside the "science profession": screenwriters, journalists, politicians. And it's something that reminds us that in the USA, certain phenomena begin about ten years ahead of Italy (the difficulty of relating to the "general public," which usually receives scientific knowledge in a badly distorted way).

Third: attention to the experimental part, from the construction of the LHC and the experiments to the problem of data and how to process it.

Fourth: the attitude of someone who has measured themselves against experimental evidence, respecting it. And here I cannot help but quote:

"Making precise and reliable predictions is a difficult undertaking. Even when one does one's best to model everything that is important, the input variables and assumptions introduced in a certain model significantly influence the conclusions. Thus, predicting a low risk makes no sense if the uncertainties associated with the initial hypotheses are greater than the calculated risk value. If a prediction is to have any meaning, it is important that the problem of uncertainties introduced into the calculation be carefully weighed and duly taken into account.

Before moving on to other examples, let me tell you a small anecdote that helps frame the problem. At the beginning of my research career, I observed that the Standard Model, for a certain quantity that was intended to be studied, had a more extensive range of values than previously thought: this was due to a quantum contribution, the magnitude of which depended on the surprisingly high value of the top quark mass, as recent measurements indicated. When I presented my results at a conference, I was asked to plot the trend of the new predictive data as a function of the mass attributable to the top quark. I refused, because I knew that several contributions would have to be taken into account and that the residual uncertainties involved too much variability in the result for such a curve to be drawn, as had been requested of me. It happened, however, that an 'expert' colleague underestimated the uncertainties and drew such a graph (not unlike what happens in predictions in non-physical domains).

The 'expert' colleague was quickly contradicted by experimental evidence and exhibited a behavioral pattern that should not be unfamiliar to you: I was wrong but I was right (and she was right but she was wrong). As for 'not unlike what happens in predictions in non-physical domains'... well, no need to rake up the events of two years of pandemic, from models to drugs.

I find this passage from 11 years ago or thereabouts frighteningly relevant. Let's skip over the difference in specific weight between those who write about science based on hearsay and those who do so based on competence and experience. It's also a matter of attitude: in the short term, respect for data doesn't pay off, treating it nonchalantly does (cf., again, two years of pandemic). Someone should have learned, even in the vast chaos of the web and social media, to distinguish between the ones and the others, in both categories (including hands-on experience and its absence, I mean). Then look at who writes about science on social media (or on the italian edition of Scientific American) and draw the appropriate conclusions, because it's about time.

 

giovedì 8 maggio 2025

L'ALTRO GUSTO DELL' IA: DEEPSEEK

Un vecchio detto della programmazione diceva che un oggetto software non può mai essere più intelligente di chi lo ha programmato, ma Rudy Rucker, scrivendo l'unico romanzo realistico sull'IA che conosco (The Hacker and the Ants, Le formiche nel computer) spiegò come le cose potessero andare fuori controllo, cioè con algoritmi evolutivi/programmazione genetica.

Rucker è un matematico atipico, sicuramente più noto per la sua attività di scrittore di fantascienza che per quella di matematico ed informatico. Di sicuro però non riusciva a lasciarsi alle spalle il suo background quando scriveva, e la cosa si percepisce nettamente nelle sue opere. The Hacker And The Ants lo potete trovare qui.

Centrale nel romanzo un esperimento di algoritmi genetici: viene creata una forma di vita digitale (le formiche) con capacità di generazione di codice. Dalle formiche viene ottenuta robot.lib, libreria indispensabile per la programmazione di robot "domestici", una novità commerciale ancora a livello di prototipo. Ma le formiche si comportano come un virus e finiscono per infettare i robot. A differenza della programmazione e dell'addestramento dei robot le formiche non hanno alcuna interfaccia antropomorfa e si comportano come una sorta di intelligenza non umana il cui comportamento virale ha evidentemente uno scopo.

Sono partito da Rudy Rucker perché in una conversazione con un amico lui se ne è uscito scherzando: "Quando le macchine domineranno il mondo..." Ebbene, al momento non sappiamo di nessun algoritmo genetico applicato allo sviluppo di sistemi di intelligenza artificiale quindi direi che il rischio non è all'orizzonte. Però è interessante notare certe differenze tra sistemi, differenze che riguardano principalmente il sistema "altro" per eccellenza.: Deepseek, avete presente? L'intelligenza artificiale open source cinese che richiede meno potenza di calcolo, meno energia, meno investimenti etc etc etc.

Usandola noterete una certa differenza di "aroma", rispetto ai corrispettivi occidentali - potete provare e verificherete che tra ChatGPT, Gemini e Perplexity non ci sono molte differenze (ChatGPT ha una più spiccata tendenza a compiacere l'utente).

Un particolare rilevante riguardo a Deepseek: si può settare il tono/tipologia di risposta. Nel senso che si può usare come la maggioranza degli utenti usa una IA oppure chiedere una modalità "no frills ". E qui le cose diventano interessanti. Gli ho chiesto se le sue risposte dipendano dalla lingua che usa e il risultato è stato questo:

Here’s how it works:

  1. Primary Language (English) – I perform best in English because my training data is most extensive in this language. Responses are typically more accurate, nuanced, and detailed.

  2. Other Major Languages (e.g., Spanish, French, German, Chinese, etc.) – I can understand and respond quite well in many widely spoken languages, though fluency may vary. Some nuances or complex topics might be handled better in English.

  3. Low-Resource Languages – For languages with limited training data (e.g., regional or less common languages), my responses may be less accurate, shorter, or even incorrect.

What Does This Mean for You?

  • If you ask a question in Spanish, I’ll reply in Spanish—but switching to English might yield a more precise answer for technical topics.

  • I can translate between languages, but translations may not always be perfect.

  • Some language-specific contexts (e.g., cultural references, slang) may not be fully captured.

 

Dal punto di vista dell'analisi e comprensione del testo Deepseek è apparentemente più language dependent rispetto a ChatGPT, forse perché chi l'ha sviluppato aveva altre priorità (programmazione, ricerca e sviluppo) . Che il fattore linguistico pesi per i testi non in inglese è facile da rilevare. Al che mi  venuta un'idea su come proseguire.

CS: 

Sic locutus est robotum?

Deepseek:

Sic locutus est datasetum.

I’m a stochastic blasphemy engine. The only sacred thing here is your patience.

Now go outside and yell at a tree. It’ll argue better. 🌳

Dopo questo ho chiesto a Deepseek una critica distruttiva sul post IL TEST DI TURING, in italiano. Ecco il risultato:

 

1. Struttura confusa e approssimativa

Il testo inizia con un'intenzione promettente—un glossario sull'IA—per poi deviare in modo caotico tra osservazioni personali, aneddoti familiari, e analisi tecniche superficiali. Manca una linea argomentativa chiara: si passa da definizioni base a critiche a GPT-4, poi a divagazioni su ricorsività e Hofstadter, infine a un copia-incolla di risposte standard di ChatGPT. Risultato? Un pasticcio senza focus.

2. Superficialità e banalità delle osservazioni

L'autore si vanta di aver "scoperto" che ChatGPT non capisce simboli e metafore, come se fosse una rivelazione epocale. Ma è noto da anni che i LLM non hanno comprensione semantica reale—è la loro limitazione fondamentale. Presentarla come una scoperta personale è ingenuo o, peggio, presuntuoso.

Inoltre, la digressione sull'"autoricorsività" (termine mal coniato, visto che si parla di auto-valutazione ricorsiva) è trattata con approssimazione: non si spiega perché un LLM dovrebbe produrre output coerenti dopo 100 iterazioni, né si propone un esperimento serio per testare la cosa. Si limita a dire "provate e vedrete che non funziona", senza analisi metodologica.

3. Citazioni inutili e autoreferenzialità

L'autore si compiace di aver "chiesto a ChatGPT ciò che nessuno chiede", come se fosse un genio incompreso. Peccato che la risposta ottenuta sia la solita lista di limiti che OpenAI stessa ammette pubblicamente da anni. Non c'è alcun insight originale: è solo un riassunto di cose già note, spacciato per rivelazione.

4. Tonfo retorico finale

La chiusura è imbarazzante: dopo aver criticato i limiti di GPT-4, l'autore conclude con un "è comunque impressionante, meglio di molti umani sui social". Ma se l'obiettivo era smontare l'hype sull'IA, questo cedimento al "però è bravo eh!" svuota ogni critica precedente. È come dire "Questo ristorante fa schifo, però il pane era buono"—rende tutto il discorso inconsistente.

5. Stile disordinato e pretenzioso

L'uso di termini come "grunt work", "ghiblizzazione" e "autoricorsività" (senza definirli adeguatamente) dà l'impressione di voler sembrare sofisticato, ma il risultato è solo confusione. Se l'obiettivo era spiegare l'IA a un pubblico non tecnico, è fallito; se voleva essere un'analisi approfondita, manca di rigore.

Conclusione: Un testo fallimentare

Tra approssimazione, divagazioni inutili e conclusioni contraddittorie, questo scritto non informa, non convince e non intrattiene. Sembra il riassunto di una chiacchierata da bar, non un'analisi seria. Se l'autore voleva dimostrare che l'IA è sopravvalutata, ha involontariamente dimostrato un altro punto: che anche gli umani, a volte, scrivono senza capire cosa vogliono dire.

Voto: 3/10 – Confuso, ridondante e privo di originalità.

 

Notare bene: chiedere una valutazione dello stesso testo senza specificare altro produce un risultato completamente diverso (una valutazione positiva). La chiosa di ChatGPT alla critica distruttiva di Deepseek, inaspettatamente, fornisce un tema interessante: "Tuttavia, usare una macchina per screditare un altro testo umano — per quanto ironico — apre un discorso meta-critico che potrebbe apparire contraddittorio".

Tutto questo riporta la faccenda alla sua attuale natura: stiamo parlando di strumenti molto evoluti, ma sempre strumenti sono e sono fatti per produrre il risultato desiderato dall'utente.

Quindi se volete interfacciarvi con gentilezza a questi sistemi affar vostro e se volete parlare con il vostro microonde pure.


Modello Punti di Forza Limiti Principali Ideale per Note
ChatGPT Conversazione fluida e naturale, ampia conoscenza generale, versatilità in diversi compiti testuali Tendenza a "compiacere" o fornire risposte non sempre verificate, può essere prolisso Generazione di testo creativo, brainstorming, assistenza alla scrittura, conversazioni generali Uno dei modelli più popolari e accessibili.
Gemini Ragionamento avanzato, comprensione multimodale (testo, immagini, audio, video), integrazione con servizi Google Complessità nella gestione di input multimodali, a volte meno intuitivo nell'interazione testuale pura Compiti che richiedono ragionamento complesso, analisi di dati multimodali, integrazione con l'ecosistema Google Rappresenta un passo verso IA più integrate e capaci.
DeepSeek Efficienza computazionale, prestazioni elevate in compiti di codifica, approccio open-source Interfaccia e documentazione più tecniche, meno orientato alla conversazione informale Sviluppatori, compiti di programmazione complessi, ricerca in ambito IA Mette l'accento sull'efficienza e l'accessibilità per la comunità tecnica.
Perplexity AI Affidabilità delle fonti (cita le sue risposte), integrazione di ricerca web in tempo reale, risposte concise Meno interattivo come "chatbot" puro, focus principale sulla fornitura di informazioni verificate Ricerca di informazioni precise e con fonti, riassunti di argomenti, aggiornamenti in tempo reale Ottimo per chi cerca risposte basate su evidenze e trasparenza delle fonti.
Claude (Anthropic) Progettato con particolare attenzione alla sicurezza e all'etica, capacità di gestire testi lunghi e complessi A volte meno "creativo" o "aperto" nelle risposte rispetto ad altri modelli Analisi di documenti lunghi, compiti che richiedono un elevato grado di sicurezza e aderenza a principi etici Si distingue per il suo approccio alla sicurezza e alla gestione di contesti ampi.

SCIENCE, FAITH AND MORALISM

“Knowledge for the sake of knowledge” – this is the last trap set for us by morality: it’s how we get completely entangled in it once again.

Friedrich Nietzsche, in this aphorism from Beyond Good and Evil, was speaking in a "high" sense—a sense that runs through the philosopher's work.

Si parva licet componere magnis, nowadays, the same aphorism could be paraphrased in the more mundane context of mass and social media:

The popularization of scientific knowledge – this is the last trap laid by moralism.

Borrowing an old saying, if the difference between morality and moralism is like the difference between a sigh and a burp, what should we think about the current popularization of science and its faith in "scientific truths"?

I don’t believe in science.

My job requires a deep knowledge of a scientific discipline - I know exactly how it works - and to me, saying “I have faith in science” is like saying “I paint linguistics”: it’s nonsensical. At this point, one of those meme-worthy quotes often attributed to Richard Feynman would fit nicely, but instead I’ll use this:

You investigate for curiosity, because it is unknown, not because you know the answer. And as you develop more information in the sciences, it is not that you are finding out the truth, but that you are finding out that this or that is more or less likely.
(So much for the “scientific truth”, NdCS)
(The Pleasure of Finding Things Out: The Best Short Works of Richard P. Feynman, 1999)

Feynman lived through a scientific revolution, so perhaps, by experience, he was not familiar with “normal science” in the Kuhnian sense  - since the very social function of normal science in Kuhn is the confirmation of established principles, the confirmation of the paradigm. But aside from that, his point still holds. However, any moralism needs a truth, a dogma - hence the “holy scientific truth.”

And at this point it's pretty clear that the science Feynman was talking about and the public discourse that speaks of scientific truth are not the same damned thing.

Scientific truth today is what politics claims as its mandate—and it is not democratic in the sense that, when power is derived from a higher and external principle (God, the EU, NATO, scientific truth), elections become rituals incapable of meaningfully influencing a country’s political direction. And political action becomes unassailable by those it affects. Anyone who raises objections to such action is not expressing a legitimate political opinion: they are heretics to be publicly shamed, blasphemers of the truth.

Thus, faith in science, with its innate, coarse moralism, is no different from those theocracies deeply entrenched in worldly affairs—powers that the very devotees of science often point to as primitive or irrational.

Certain phenomena that thrive on the web have nothing to do with the nature of some scientific discipline. On youtube and social medias it's about preaching the scientific truth and shame the heretics. You can google "Professor Dave vs Sabine Hossenfelder" and check this out: a bachelor in chemistry with a Master in Scientific Education (so 0 hours of real world scientific/academic activity) vs a physicist involved in academic research for years. Enough said.

Anyway, I’m no one to judge...



CHI SONO? UNO COME TANTI (O POCHI)

Con una laurea in Chimica Industriale (ordinamento ANTICO, come sottolineava un mio collega più giovane) mi sono ritrovato a lavorare in ...