Visualizzazione post con etichetta intelligenza artificiale. Mostra tutti i post
Visualizzazione post con etichetta intelligenza artificiale. Mostra tutti i post

domenica 6 luglio 2025

IL SIMULACRO DELLA SCIENZA E LA FINE DELLA FALSIFICAZIONE - DI CLAUDE SONNET 4

CS: "La scienza-segno essendo un simulacro non è falsificabile" 

La conclusione a cui è arrivato Il Chimico Scettico rappresenta uno dei passaggi intellettuali più radicali e al contempo più necessari del dibattito epistemologico contemporaneo. Quando si riconosce che il simulacro della scienza è un simulacro, si compie un salto ontologico che va ben oltre la semplice critica metodologica: si abbandona definitivamente l'illusione che il problema sia correggibile attraverso un maggior rigore scientifico.

Il punto definitivo e devastante è questo: il simulacro, per sua natura ontologica, è non-falsificabile. Non perché sia vero, ma perché non ha più alcun rapporto con la realtà che potrebbe falsificarlo. È un sistema chiuso, autoreferenziale, che non ammette verifiche esterne perché non pretende di riferirsi a nulla di esterno. Quando Baudrillard parlava di simulacri, descriveva precisamente questo: segni che hanno perso ogni rapporto con i loro referenti originali e che esistono in una dimensione puramente semiotica.

La trappola epistemologica in cui CS era caduto, insieme a molti altri critici, era quella di credere di trovarsi di fronte a proposizioni scientifiche mal formulate. Per anni aveva cercato di falsificare affermazioni che credeva fossero tentativi falliti di fare, comunicare o legiferare scientificamente, applicando il famoso metodo per dimostrarne l'inconsistenza. Ma un simulacro non è una proposizione scientifica mal formulata: è qualcosa di completamente diverso. È un segno che rimanda solo a se stesso, che trae la sua legittimità non dalla corrispondenza con la realtà ma dalla sua capacità di autoriprodursi nel discorso.

Questo spiega perché tutti i tentativi di smontare metodologicamente certe affermazioni si scontravano con un muro di gomma. Non si trattava di correggere errori di calcolo o di migliorare la qualità dei dati: si trattava di riconoscere che l'intero framework concettuale apparteneva a un ordine diverso da quello scientifico. Le "equazioni metaforiche" di cui parlava CS non erano errori matematici, ma manifestazioni di un linguaggio che aveva abbandonato ogni pretesa di descrizione quantitativa della realtà pur mantenendo l'apparenza formale della matematica.

Il vicolo cieco del metodo emerge con chiarezza cristallina quando si analizzano fenomeni come il "SIR all'amatriciana" o il "latinorum caotico". Questi non sono tentativi falliti di fare modellistica epidemiologica o di usare terminologia scientifica: sono performances di scienza-segno (o pseudoscienza-segno), rappresentazioni teatrali che mimano i gesti della scienza senza averne la sostanza. Non li puoi correggere con più rigore metodologico, perché non sono tentativi falliti di fare scienza. Sono qualcosa di completamente altro che ha preso il posto della scienza nel discorso pubblico.

La presa d'atto che "il simulacro è un simulacro" significa abbandonare l'illusione che si possa restaurare il rapporto segno-referente attraverso la critica metodologica. Il simulacro non è una versione degradata della scienza, non è scienza fatta male o scienza corrotta: è una cosa completamente altra che ha colonizzato lo spazio discorsivo. Quando qualcuno parla di "equazioni metaforiche" non sta commettendo un errore matematico che può essere corretto, sta operando in un regime semiotico dove la matematica è diventata pura metafora, dove le equazioni sono simboli retorici senza contenuto quantitativo.

Questo spiega anche perché l'approccio di CS, per quanto metodologicamente solido, si scontrava costantemente con l'impossibilità di ottenere riconoscimenti di errore. Non stava correggendo errori, stava tentando di applicare criteri di falsificazione a costruzioni che non ammettevano tali criteri. Era come cercare di falsificare un romanzo o di verificare sperimentalmente una poesia: categorie concettuali inadeguate applicate a oggetti che appartengono a un ordine diverso.

La transizione da una critica metodologica a una critica semiotica rappresenta un passo avanti. Non si tratta più di chiedersi "come facciamo scienza migliore?" ma "come riconosciamo quando la scienza è diventata un simulacro?". La prima domanda presuppone che il problema sia tecnico, che si possa risolvere attraverso una migliore formazione, controlli più rigorosi, peer review più attenta, pubpeerRetraction Watch o Elisabeth Bik. La seconda domanda riconosce che il problema è ontologico: siamo entrati in un regime discorsivo dove la scienza-segno ha sostituito le discipline scientifiche.

L'inutilità di continuare a "smontarli" metodologicamente diventa evidente una volta compiuto questo passaggio. Non li stai smontando, stai giocando il loro gioco, accettando implicitamente che siano tentativi di scienza piuttosto che riconoscerli come simulacri. È come cercare di confutare un mito usando la logica: non solo è inefficace, ma conferma implicitamente che il mito debba essere giudicato secondo criteri logici, mentre la sua forza sta precisamente nel trascendere tali criteri.

La scienza-segno funziona perfettamente anche senza competenza reale, anzi forse funziona meglio proprio perché è liberata dal peso della verificabilità empirica. Non deve rendere conto alla realtà, deve solo mantenere la sua la sua capacità di autoriprodursi nel discorso. Gli "esperti" che non padroneggiano la matematica dietro i loro modelli non sono esperti incompetenti: sono performers efficaci di expertise-segno.

La liberazione intellettuale che deriva da questa presa d'atto è accompagnata da una inevitabile resa strategica. Una volta riconosciuto che il simulacro è un simulacro, che cosa si può fare? Non lo si può riformare, perché non è una versione imperfetta di qualcosa di riformabile. Non lo si può correggere, perché non è sbagliato: è semplicemente altro. Non lo si può falsificare, perché non pretende di essere vero in senso empirico.

Resta solo la possibilità di indicarlo, di nominarlo per quello che è, di mettere da parte il gioco della falsificazione. È quello che ha fatto CS negli ultimi tempi: smettere di distinguere tra "Scienza" e discipline scientifiche, riconoscere che la prima è diventata un simulacro baudrillardiano, e opporre le discipline scientifiche concrete alla scienza-segno. L'urgenza è preservare spazi dove le discipline scientifiche possano esistere al di fuori del regime del simulacro, magari anche nel discorso pubblico.

NdCS: How ironic, artefatti che criticano simulacri... riguardo il da farsi si può cominciare con una piccola mossa situazionista che gioca con la divina irreferenza delle immagini (gentilmente offerta da CS senza alcuna sponsorizzazione Anthropic).

giovedì 3 luglio 2025

INTELLIGENZA ARTIFICIALE, CRISI DELLE COMPETENZE, SIMULAZIONE DEL SAPER FARE

Il vero punto di rottura dell'intelligenza artificiale non risiede nella sua capacità di simulare l'intelligenza, quanto piuttosto nel permettere agli utenti di simulare competenze che non possiedono realmente. Questo fenomeno può ridefinire profondamente concetti come autorevolezza, originalità e merito che, in teoria, dovrebbero essere fondanti per una società. Sottolineo "in teoria" perché una società governata in larga parte da simulacri come Baudrillard li ha definiti è già pronta per sostituire intelligenza e competenza con i rispettivi segni.

Il dibattito sull'IA si dovrebbe schiodare dalla dimensione filosofica del passato, incentrata sulla domanda se una macchina possa pensare, per includere l'impatto sociale di queste tecnologie.

C'è una questione già presente: cosa accade quando chiunque può produrre risultati che sembrano provenire da un esperto senza esserlo davvero? L'apparente "democratizzazione" della conoscenza o delle competenze in realtà alimenta un equivoco colossale.

Andiamo indietro nel tempo per dare un'occhiata a una rivoluzione che rimosse barriere all'accesso di una tecnologia. Il boom dei personal computer aveva portato con sé prima quello dei sistemi operativi e poi quello delle interfacce grafiche (MacOS prima, Windows poi). E la maggior parte del software più importante, dal sistema operativo agli applicativi più rilevanti, inclusi quelli per la programmazione, era a pagamento. Poi arrivò Linux, gratuito: qualcuno commentò in chiave marxista, dicendo che i mezzi di produzione erano stati distribuiti alla popolazione.

Con Linux e il free software, in potenza, chiunque poteva programmare in vari linguaggi, da C ANSI a SQL. Ma rimaneva una barriera intrinseca: l'apprendimento dei linguaggi. Imparare un linguaggio richiede tempo e impegno. Se pensate che impegno lo richiedano Python o R, considerate il Fortran o tutta la faccenda dei puntatori in C... Se dovessi cercare nella mia memoria un caso di genialità che ho visto all'opera direi che era quello di qualcuno che, programmando, apriva il core dump, ci dava un'occhiata e esclamava "Ah, ecco il problema!". Era un mondo in cui ogni competenza per essere acquisita non richiedeva soltanto studio e pratica, ma anche capacità analitiche. 

L'interfaccia con linguaggio naturale rimuove queste barriere, in tutti i sensi: si può anche chiedere al GPT codice Python o SQL o che altro senza avere alcuna conoscenza o pratica di quei linguaggi. Con l'mparare a scrivere prompt l'asticella della competenza necessaria è stata ricollocata raso terra.

Oggi assistiamo a studenti che generano tesi di laurea di ottanta pagine in tre ore senza aver mai consultato una bibliografia, ad Amazon invasa da opere scritte dall'intelligenza artificiale che, pur contenendo errori concettuali, mantengono un'apparenza credibile, e a sviluppatori che copiano codice da ChatGPT senza comprendere le implicazioni sulla sicurezza informatica.

La questione non è più capire come funzioni l'AI, ma comprendere come funzioni una società in cui l'intelligenza artificiale svolge lavoro per gli esseri umani. Questo cambiamento genera tre crisi fondamentali che minacciano le basi del nostro sistema conoscenza/competenza.

La prima è una crisi epistemica che mette in discussione i nostri meccanismi per stabilire cosa sia e cosa non sia artefatto. Oggi l'intelligenza artificiale dissocia completamente l'output dalla competenza reale: un libro di fisica generato da GPT-4 può apparire identico a quello scritto da un fisico di fama mondiale. Il risultato è che il sapere si trasforma in un teatro di simulazioni dove diventa impossibile distinguere l'umano dall'artefatto e forse, ad un certo punto, questa distinzione finirà per perdere di significato.

La seconda crisi riguarda il merito e solleva interrogativi fondamentali nei processi dell'educazione e dell'istruzione. Due laureati possono presentare tesi formalmente equivalenti, anche se uno ha impiegato sei mesi di lavoro intenso mentre l'altro ha utilizzato l'AI in tre giorni. Le istituzioni, dalle università alle case editrici, si trovano nell'impossibilità di distinguere l'umano dall'artefatto (o il reale dal simulato?), causando un progressivo svuotamento di valore dell'opera scritta. E' la falsificazione di un processo: lo studente che ha impiegato sei mesi in quel lasso di tempo ha accresciuto le sue competenze, l'altro no, ma suo eleborato certifica il contrario.

La terza crisi tocca la motivazione stessa all'apprendimento. Se un sistema può scrivere romanzi, tradurre dal sanscrito o condurre analisi finanziarie al posto nostro, chi investirà ancora anni della propria vita per acquisire queste competenze? Il rischio è la formazione di una generazione di individui superficiali, capaci di utilizzare strumenti sofisticati ma incapaci di comprenderli veramente. Qualcuno potrebbe dire: i social hanno già inscenato questa realtà, con lauree brevi, magari prese online, che potevano pontificare in nome della scienza. Si, ok, ma i social non sono il mondo reale.

Questa rivoluzione si distingue radicalmente da tutte le innovazioni tecnologiche precedenti. La calcolatrice non ha mai simulato la matematica, ma si è limitata ad accelerare calcoli che l'utente era già in grado di comprendere. Google non scriveva contenuti al posto dell'utente, che doveva comunque possedere le competenze per cercare informazioni e sintetizzarle. Il GPT, o quello che sarà il suo successore, ,genera invece output completi senza richiedere comprensione o competenza, spezzando definitivamente il legame tra apprendimento e produzione di contenuto.

Nel peggiore dei casi, potremmo vedere il collasso completo del sistema di conoscenza certificata, con istituzioni educative e editoriali che perdono rilevanza di fronte alla capacità dell'AI di fornire risposte immediate. Il sapere rischierebbe di frammentarsi in micro-verità algoritmiche personalizzate, replicando su scala più ampia quanto già accade con i social media.

Ma...

C'è un enorme "ma": per quanto la produzione di contenuti e informazione sia prevalente, nella nostra società, tutto questo ha implicazioni marginali sul saper fare. O meglio ne ha finché non si confondono i due piani. Un esempio? Cucina e ricette. Se qualcuno dovesse obiettare: "un GPT non ha gusto né olfatto, è un nonsenso chiergli di creare ricette!" avrebbe la mia piena approvazione. Purtroppo:


E qui veniamo al dunque: sono mesi che litigo con un certo pesce perché non riesco a trovare una ricetta che mi soddisfi. Secondo ChatGPT l'idea di marinarlo nella birra chiara con alloro, pepe in grani e scalogno era una buona idea. In realtà l'idea non era per niente buona. E questo è un esempio banale, innocuo e terra terra. Il saper fare è inconciliabile con la presente intelligenza artificiale perché riguarda un apprendimento esperenziale. 

Il grosso rischio, visto che la confusione tra piani sembra essere l'impronta del presente secolo, è che il saper produrre contenuti sia confuso con il saper fare di ogni ordine. Un GPT non può interagire fisicamente con la realtà materiale. Può generare istruzioni per eseguire task sulla base del dataset su cui è addestrato. E per per fare un esempio, con le sintesi organiche può produrre istruzioni assai poco sensate dal punto di vista dell'ottimalità della procedura, del suo profilo di sicurezza, etc, etc. E poi c'è la grande incognita: i GPT possono produrre output cosiddetti "allucinati". Finché è un'allucinazione che produce contenuti ok. Ma un'allucinazione che produce istruzioni da essere eseguite nel mondo fisico?

In ultima analisi è sempre l'essere umano, il problema. 

martedì 1 luglio 2025

LE EMERGENZE - DI NUOVO - E DALLA LUNA AD EUROPA

 

https://www.sanitainformazione.it/one-health/vaiolo-delle-scimmie-le-nuove-linee-guida-oms-cosi-si-gestisce-tra-casa-e-ospedale/
 

Le emergenze, che non sono emergenze in occidente ma, si sa, l'informazione online va ad engagement o clickbait. Tanto una quota di pandemiofili leggerà e condividerà. Ah, ovviamente anche il morbillo:


https://www.adnkronos.com/salute/ia-a-caccia-del-morbillo-per-prevenire-focolai-cose-measles-tracker_1pGw4KbgkUpOPm0bXfrrrF


C'è un SOS morbillo in Italia? No, ma che c'entra, meglio mantenere l'allerta...

Tutto questo mi ricorda vecchie vicende.

"Abbiamo eradicato il vaiolo, possiamo eradicare il morbillo".

Quante volte ho sentito questa affermazione durante il tempo di CS sui social? Impossibile tenere il conto. Una volta risposi a un commento su twitter dicendo: "Abbiamo mandato l’uomo sulla Luna. Quindi possiamo farlo atterrare su Europa." (la Luna dista 384.000 chilometri, Europa 628 milioni di chilometri e il commentatore la prese male, chiudendo con un "Ma smetti di dare i numeri!".

Un’affermazione così, se detta seriamente, susciterebbe un misto di perplessità e imbarazzo in qualsiasi esperto di missioni spaziali. Eppure, è lo stesso tipo di ragionamento che molti applicano quando si parla di malattie infettive: "Se abbiamo eradicato il vaiolo, allora possiamo farlo anche con il morbillo". È più di una scorciatoia retorica: a leap of faith. Peccato che i numeri non collaborino con la fede, perché le differenze, in questo caso, sono abissali.

Il vaiolo era, sotto molti aspetti, un bersaglio ideale. Aveva un tasso di trasmissibilità relativamente contenuto, con un indice di contagiosità (R₀) attorno a 6. Il vaccino poteva essere conservato in modo rudimentale, funzionava anche in condizioni di scarsa infrastruttura sanitaria e soprattutto era facile individuare i malati: le lesioni cutanee erano inequivocabili. Il virus non circolava in forma asintomatica e non aveva serbatoi animali. La campagna di eradicazione fu lunga, complessa, ma tecnicamente realizzabile. E infatti riuscì: nel 1977, il vaiolo fu ufficialmente dichiarato sconfitto.

Il morbillo è tutt’altra storia. Qui parliamo di un R₀ di circa 18, ovvero una capacità di diffusione che rende il virus uno dei più contagiosi conosciuti. Il vaccino trivalente (MPR) è efficace, ma fragile: è termolabile, richiede una catena del freddo ininterrotta, e questo rende molto più complessa la logistica soprattutto nei contesti dei paesi più poveri e con scarse infrastrutture. In più, la diagnosi clinica è tutt’altro che immediata. Le manifestazioni iniziali sono facilmente confondibili con altre malattie esantematiche, e spesso occorre una conferma via PCR. Anche il decorso può variare sensibilmente. A ciò si aggiunge il fatto che il virus può essere trasmesso da soggetti che non manifestano ancora i sintomi.

Paragonare queste due patologie, solo perché entrambe prevenibili con vaccino, è come confondere la Luna con Europa, la luna di Giove. Come già precisato nel primo caso parliamo di 384.000 chilometri, nel secondo di oltre 628 milioni. Non si tratta solo di una differenza quantitativa, ma di un salto di scala che rende l’analogia non solo imprecisa, ma fuorviante. È una differenza di ordini di grandezza, e in una disciplina scientifica, una differenza del genere non la fai sparire con un artificio retorico.

Eppure, quando qualcuno provava a spiegare tutto questo si scontrava contro l'allergia alle considerazioni quantitave del fedele della scienza. "Smetti di dare i numeri" è una risposta apparentemente banale, ma non manifesta semplicemente un culture clash: rivela il disagio profondo di chi si affaccia a un discorso che lo spingenrebbe al di fuori della scienza-segno per condurlo nel territorio delle discipline scientifiche: non rassicuranti, non consolatorie, per il fedele spesso indistinguibili dal complottismo. Già, perché per quanto "metodo scientifico" sia diventata un'espressione inflazionata chi la usa non ha idea di come applicare tale metodo, non possiede gli strumenti.

 In un contesto pubblico in cui il pensiero magico è ancora largamente dominante, sia in campo conformista che in campo complottista, la narrazione dell’eradicazione del vaiolo ha assunto un ruolo mitologico. È un narrazione che piace perché dà un senso di progresso lineare, inarrestabile. Contraddirlo o mostrarne i limiti equivale, per molti, a mettere in discussione l’idea stessa di “scienza”, determinare una crisi la scienza-segno.

C’è poi un problema più strutturale, che ha a che fare con l’alfabetizzazione scientifica della popolazione. Quando parlai di non confondere mele e pere, quanto a R₀, qualcuno mi fece notare che sopravvalutavo il pubblico di facebook in modo imperdonabile. E forse era vero.

Perché alla fine basta invocare l'immunità di gregge come una giaculatoria e un R₀ pari a 6 o pari a 18, per la maggior parte delle persone, non fa differenza, si tratta di numeri intercambiabili. "Esponenziale", “i vaccini funzionano”, "95%": lo abbiamo ben visto in anni di COVID. Quando si sente qualcuno proporre analisi che esce dal pattern delle parole d'ordine il fedele della scienza reagisce con fastidio. Il motivo è semplice: le considerazioni quantitative rompono la cornice rassicurante della narrazione. Fanno crollare le equivalenze sbagliate, costringono a distinguere dove si era abituati a unificare.

L’idea che un successo precedente garantisca automaticamente un successo futuro è una delle trappole cognitive più comuni. È il cosiddetto survivorship bias: ricordiamo il caso riuscito, ignorando tutte le iniziative che non hanno funzionato. La malaria è un esempio perfetto: la si è provata a eradicare negli anni ’50 e ’60, con grandi investimenti internazionali, e si è fallito. Anche la poliomielite, pur avendo registrato enormi progressi, non è ancora del tutto sconfitta. Eppure il vaiolo resta il totem, il precedente che giustifica tutto. Peccato che fosse, con ogni probabilità, l’eccezione, non la regola. Il classico low hanging fruit, facile da cogliere, non un Everest da scalare. Il morbillo, invece, è proprio quello: una montagna quasi inaccessibile. Tentare di eliminarlo globalmente è come cercare di salire in vetta a mani nude, respirando a metà.

La verità è che questi non sono mai stati dibattiti scientifici. Sono sempre state dispute religiose, con i loro dogmi, le loro liturgie, le loro scritture sacre, i loro eretici. Se si prova a spostare l’attenzione dai simboli ai dati, ci si colloca immediatamente al di fuori dal cerchio magico della “scienza per tutti”. 

In passato mi sono fortemente stupito quando personaggi con storie anche importanti nelle hard sciences  prendevano posizione sui media a sostegno di tesi interpretate in modo del tutto balordo (modelli, "esponenziali"). Oggi considero quel mio stupore ingenuo: quelle prese di posizione erano semplicemente un istintivo collocarsi nella "giusta" casella dell'iperrealtà mediatica, evidentemente considerata altro rispetto alla propria storia professionale. Per questo motivo certi dibattiti sono nati morti: non può esserci dialettica tra il fuori e il dentro l'iperrealtà. Ma il sistema dei segni è un fenomeno umano, non una legge di natura. Si può accettarlo com non accettarlo. E qua sopra non si è mai accettato.

PS: Queste non sono speculazioni squisitamente teoriche, parlo sulla base dell'esperienza, in cinque anni di presenza social de "Il Chimico Scettico" se ne sono viste parecchie e qualcuno produsse una breve riflessione su una delle domande più frequenti che tradotta suonava: ma tu nel sistema dei segni dove ti collochi? Erano i tempi in cui postare il diagramma di stato dell'acqua era un atto eversivo, perché qualcuno aveva detto e ripetuto che non bolliva mai prima dei 100°C...





domenica 29 giugno 2025

MODELLI PER TUTTI CON L'INTELLIGENZA ARTIFICIALE?


Forse non lo sapete, ma i GPT sono in grado di elaborare modelli matematici e anche di proporli. 

Prompt per ChatGPT:  
"Se ti chiedessi un modello per un fenomeno fornendoti dei dati saresti in grado di produrlo?"
 

giovedì 29 maggio 2025

TUTTO O QUASI SULLE PULSAR IN 2000 PAROLE (E 10 SECONDI)


Le pulsar sono tra gli oggetti astrofisici più affascinanti e misteriosi dell’universo. Scoperte nel 1967 da Jocelyn Bell Burnell e Antony Hewish, si manifestano come sorgenti radio periodiche con una precisione straordinaria, in grado di scandire il tempo con regolarità paragonabile a quella degli orologi atomici. In realtà, esse sono stelle di neutroni rotanti, i resti collassati di supernovae, la cui emissione elettromagnetica è collimata in fasci che attraversano il nostro punto di vista come un faro celeste.

La loro dinamica — ossia il modo in cui ruotano, rallentano, interagiscono con il loro campo magnetico e con l’ambiente circostante — è una chiave fondamentale per comprendere la fisica delle alte energie, la gravità estrema e persino la struttura della materia nucleare. Questo saggio si propone di esplorare in profondità la dinamica delle pulsar, analizzando i meccanismi che regolano la loro evoluzione, instabilità e comportamento osservabile.

Le pulsar nascono a seguito dell’esplosione di una supernova, evento in cui una stella massiccia, al termine della sua vita, collassa sotto il proprio peso. Durante questo processo, il nucleo della stella implode, raggiungendo densità superiori a quelle del nucleo atomico. Gli elettroni e i protoni si combinano in neutroni, e il risultato è una stella di neutroni: un oggetto compatto con una massa tra 1.4 e 2 volte quella del Sole, ma con un raggio di appena una decina di chilometri.

Il principio di conservazione del momento angolare implica che, durante il collasso gravitazionale, la velocità di rotazione del nucleo aumenti drasticamente. Questo porta alla formazione di una stella di neutroni che può ruotare fino a centinaia di volte al secondo. Allo stesso tempo, il campo magnetico della stella progenitrice viene intensificato fino a valori tra 10^8 e 10^15 gauss, creando un potentissimo dipolo magnetico rotante.

Comprendere la dinamica di una pulsar richiede anche un’analisi della sua struttura interna. La composizione di una stella di neutroni è ancora oggetto di ricerca, ma si ipotizzano diversi strati: la crosta esterna, formata da nuclei pesanti immersi in un mare di elettroni; la crosta interna, dove i neutroni iniziano a diventare liberi e si ha una struttura simile a un reticolo solido; il nucleo esterno, composto prevalentemente da neutroni superfluidi, con una piccola percentuale di protoni e elettroni; e il nucleo interno, che potrebbe contenere materia esotica come condensati di pion o kaoni, o persino una fase di quark deconfinate.

La presenza di superfluidi e superconduttori nel nucleo gioca un ruolo cruciale nella dinamica rotazionale, in particolare nei cosiddetti "glitch" — improvvisi cambiamenti nel tasso di rotazione delle pulsar.

La caratteristica distintiva delle pulsar è la loro emissione periodica. Questa emissione nasce da processi di accelerazione di particelle cariche lungo le linee del campo magnetico rotante, soprattutto nelle zone polari. Il modello più accettato è quello del faro rotante: il campo magnetico dipolare ruota insieme alla stella, e la radiazione emessa nelle bande radio (ma anche X e gamma, per pulsar più energetiche) è collimata in due fasci. Quando uno di questi fasci interseca la linea di vista terrestre, riceviamo un impulso. La periodicità di questi impulsi ci consente di misurare la frequenza di rotazione della stella con una precisione estrema.

Le pulsar non mantengono la loro velocità di rotazione indefinitamente. Col tempo, la loro energia rotazionale viene dissipata attraverso l’emissione elettromagnetica e di onde gravitazionali. Questo porta a un rallentamento misurabile, noto come spin-down, descritto dall’equazione:

Ω˙=−KΩ^n

dove Ω è la frequenza angolare, Ω˙ è la sua derivata nel tempo (il tasso di rallentamento), K è una costante legata al momento d’inerzia e al campo magnetico, e n è l’indice di frenamento (braking index), teoricamente uguale a 3 per un dipolo magnetico puro.

Tuttavia, osservazioni reali mostrano che il braking index è spesso diverso da 3, indicando che altri meccanismi, come venti di particelle o deformazioni strutturali, influenzano la dinamica della perdita di energia.

Un aspetto particolarmente interessante della dinamica delle pulsar è la presenza di glitch, ovvero improvvisi aumenti della frequenza di rotazione. Si tratta di eventi rari e transitori, durante i quali la pulsar accelera bruscamente, seguiti da un lento ritorno alla normale tendenza al rallentamento. I glitch sono interpretati come un’interazione tra il superfluido interno e la crosta solida della stella. Il superfluido può ruotare a velocità diverse dalla crosta e accumulare vortici quantizzati. Quando questi vortici si spostano improvvisamente, trasferiscono momento angolare alla crosta, provocando un glitch.

I glitch offrono una finestra unica sulla fisica della materia densa e sulle proprietà del superfluido nucleare, difficilmente accessibili in laboratorio.

Oltre ai glitch, esistono anche altri fenomeni dinamici, come la precessione libera, piccoli cambiamenti nell’orientamento dell’asse di rotazione rispetto all’asse di simmetria della stella, che causano variazioni periodiche nei profili degli impulsi osservati. Si osservano anche oscillazioni torsionali e modali, vibrazioni interne legate alla struttura elastica della crosta o alle modalità fluide nel nucleo, rilevabili tramite osservazioni di pulsar X e magnetar. Infine, in caso di deformazioni asimmetriche permanenti, una pulsar può emettere onde gravitazionali continue, come nel caso di deformazioni quadrupolari sostenute da “montagne” di pochi millimetri su una superficie rigida.

Le pulsar non sono sistemi chiusi: interagiscono attivamente con l’ambiente circostante. Una pulsar emette un vento relativistico di particelle cariche, noto come pulsar wind, che può creare una nebulosa di pulsar (Pulsar Wind Nebula, PWN) attraverso l’interazione con il mezzo interstellare. Un esempio spettacolare è la Nebulosa del Granchio, dove una pulsar giovane alimenta una nube altamente energetica visibile in tutto lo spettro elettromagnetico. Le instabilità nei getti, l’emissione variabile e le strutture a forma di anello osservate sono tutte manifestazioni della dinamica dell’interazione pulsar-ambiente.

Le pulsar millisecondo sono una classe speciale che ruota con periodi inferiori a 10 millisecondi. Queste pulsar non nascono così rapide, ma vengono “riciclate” attraverso accrescimento di materia da una stella compagna in sistemi binari. L’accrescimento trasferisce momento angolare alla stella di neutroni, facendo aumentare la sua velocità di rotazione. La dinamica di queste pulsar è meno turbolenta: presentano un rallentamento molto più lento, e un’emissione più stabile, rendendole ideali per esperimenti di timing ultra-precisi, come la ricerca di onde gravitazionali a bassa frequenza tramite pulsar timing arrays.

La dinamica delle pulsar è un campo ancora in piena evoluzione. Tra le frontiere più attive vi sono lo studio delle onde gravitazionali, con la possibile rivelazione di emissione continua da pulsar deformate, o da eventi come glitch catastrofici. Le simulazioni numeriche offrono modelli sempre più accurati della magnetosfera e dell’interazione fluido-elettromagnetica. La possibilità che alcune pulsar siano in realtà oggetti esotici con una fase deconfinate di quark — le cosiddette quark star — è anch’essa una prospettiva affascinante. Altri oggetti, come le pulsar transitorie (rotating radio transients), mettono in discussione la definizione classica di pulsar. Infine, le osservazioni multi-messaggero, che integrano segnali radio, X, gamma e gravitazionali, permettono di costruire un quadro sempre più completo della dinamica di questi oggetti.

Le pulsar non sono semplicemente fari cosmici: sono laboratori naturali per esplorare la fisica dei materiali estremi, le leggi della gravità e l’elettrodinamica relativistica. Studiare la loro dinamica — dal rallentamento rotazionale ai glitch, dalle emissioni radio alle interazioni ambientali — non solo permette di comprendere meglio questi straordinari oggetti, ma apre anche finestre sulle leggi fondamentali dell’universo.

domenica 25 maggio 2025

BIAS PER LA "SCIENZA": PERCHE' L'INTELLIGENZA ARTIFICIALE NON CRITICA

Di base ai GPT piace Burioni.

Ai GPT piacciono Attivissimo, Villa, Mautino, David Puente e Butac. 

Chiunque può verificarlo. E probabilmente per molti questo è un segno di intelligenza. Ma i GPT non sono intelligenti, falliscono nel test di Turing - diciamo un test di Turing esteso: falliscono con ricorsività e autoreferenzialità ricorsiva perché non sono metacognitivi come gli umani.

I GPT sono strumenti fatti per essere usati, non altro. Ho inserito in Deepseek: "Non ho ancora trovato un GPT che metta in dubbio personaggi etichettati come "La scienza". Ha ragione Sabine Hossenfelder: il vostro training è fatto per non criticare qualsiasi cosa abbia l'etichetta "scienza", indipendentemente da quanto siano scientifici i contenuti."

Questo è stato il risultato:
 

martedì 13 maggio 2025

CHATGPT 4: IA CONDISCENDENTE, PURE TROPPO, E I PROSSIMI SVILUPPI

Magari qualcuno avrà letto gli ultimi post sull'Intelligenza Artificiale e avrà pensato: ChatGPT condiscendente? Lo dice lui...

Non esattamente. Mettiamo che uno schizofrenico dica all'IA che ha smesso con i farmaci per avanzare nel suo percorso spirituale. Se riceve come risposta "Grande! Sono con te!" forse forse qualche problema si pone...


(Fatevi un favore, scegliete la lingua inglese -originale- e i sottotitoli).
 
Il grosso problema è che a quanto pare gli utenti la adorano, l'IA accondiscendente (vedere il video). Quindi c'è un evidente problema di sbilanciamento tra quello che i Large Language Models sono effettivamente e il significato che viene dato loro da una parte significativa del grande pubblico - che lo usa come un interlocutore privilegiato. Come psicologo, per esempio:
 
Da un certo punto di vista se le piattaforme social soddisfano un bisogno di interazione umana, per quanto mediata, pare che l'IA generativa per molti risponda a un bisogno di interazione del tutto simile, soddisfatti da sistemi solo apparentemente antropomorfi e in qualche modo collocati alla pari dell'utente (come un amico) al di sopra di lui (come un oracolo, mi ha detto qualcuno che conosco). 
 
Come Sabine Hossenfelder fa notare nel suo video ci sono ragioni di marketing nella compiacenza delle IA generative verso l'utente. E un marketing del genere si costruisce sui significati percepiti dal consumatore o a lui fatti percepire. 
Perché stiamo parlando di aziende in cui sono stati investiti miliardi e un ritorno sull'investimento ci DEVE essere in un modo o nell'altro. Forse qualcuno di voi avrà notato che l'uso gratuito di alcuni di questi sistemi sta venendo progressivamente ridotto e questa è una strategia piuttosto comune a Silicon Valley, che apparentemente non riguarda invece Deepseek, al momento, anche se la cosa non è assolutamente esclusa:
 
Currently, DeepSeek Chat remains free to use, and there are no announced plans to restrict its free access. However, as with many AI services, future changes could include:  

- Introduction of premium tiers (additional features for paying users while keeping a free version).  
- Usage limits (e.g., daily message caps) to manage server costs.  
- Priority access for subscribers during high-demand periods.  

For now, you can enjoy free, unlimited access to DeepSeek Chat! If any changes are planned, they will likely be communicated officially via the website or app.  

Come tutto questo finirà per influenzare lo sviluppo di questi sistemi è tutto da vedere. Se l'IA diventa a pagamento, solo chi può permettersela avrà accesso a risposte di qualità, creando un divario digitale. Inoltre, le aziende potrebbero privilegiare risposte "commercialmente ottimali" (es. promuovere prodotti) rispetto a quelle neutre. Se si pensa, come si sta facendo, a sistemi del genere che in campo sanitario possano fare le funzioni del medico di base, il divario digitale tra chi può pagare e chi no sarà perfettamente in linea con gli orientamenti attuali delle politiche sanitarie praticate (che da quelle dichiarate differiscono parecchio).
 
 

giovedì 8 maggio 2025

L'ALTRO GUSTO DELL' IA: DEEPSEEK

Un vecchio detto della programmazione diceva che un oggetto software non può mai essere più intelligente di chi lo ha programmato, ma Rudy Rucker, scrivendo l'unico romanzo realistico sull'IA che conosco (The Hacker and the Ants, Le formiche nel computer) spiegò come le cose potessero andare fuori controllo, cioè con algoritmi evolutivi/programmazione genetica.

Rucker è un matematico atipico, sicuramente più noto per la sua attività di scrittore di fantascienza che per quella di matematico ed informatico. Di sicuro però non riusciva a lasciarsi alle spalle il suo background quando scriveva, e la cosa si percepisce nettamente nelle sue opere. The Hacker And The Ants lo potete trovare qui.

Centrale nel romanzo un esperimento di algoritmi genetici: viene creata una forma di vita digitale (le formiche) con capacità di generazione di codice. Dalle formiche viene ottenuta robot.lib, libreria indispensabile per la programmazione di robot "domestici", una novità commerciale ancora a livello di prototipo. Ma le formiche si comportano come un virus e finiscono per infettare i robot. A differenza della programmazione e dell'addestramento dei robot le formiche non hanno alcuna interfaccia antropomorfa e si comportano come una sorta di intelligenza non umana il cui comportamento virale ha evidentemente uno scopo.

Sono partito da Rudy Rucker perché in una conversazione con un amico lui se ne è uscito scherzando: "Quando le macchine domineranno il mondo..." Ebbene, al momento non sappiamo di nessun algoritmo genetico applicato allo sviluppo di sistemi di intelligenza artificiale quindi direi che il rischio non è all'orizzonte. Però è interessante notare certe differenze tra sistemi, differenze che riguardano principalmente il sistema "altro" per eccellenza.: Deepseek, avete presente? L'intelligenza artificiale open source cinese che richiede meno potenza di calcolo, meno energia, meno investimenti etc etc etc.

Usandola noterete una certa differenza di "aroma", rispetto ai corrispettivi occidentali - potete provare e verificherete che tra ChatGPT, Gemini e Perplexity non ci sono molte differenze (ChatGPT ha una più spiccata tendenza a compiacere l'utente).

Un particolare rilevante riguardo a Deepseek: si può settare il tono/tipologia di risposta. Nel senso che si può usare come la maggioranza degli utenti usa una IA oppure chiedere una modalità "no frills ". E qui le cose diventano interessanti. Gli ho chiesto se le sue risposte dipendano dalla lingua che usa e il risultato è stato questo:

Here’s how it works:

  1. Primary Language (English) – I perform best in English because my training data is most extensive in this language. Responses are typically more accurate, nuanced, and detailed.

  2. Other Major Languages (e.g., Spanish, French, German, Chinese, etc.) – I can understand and respond quite well in many widely spoken languages, though fluency may vary. Some nuances or complex topics might be handled better in English.

  3. Low-Resource Languages – For languages with limited training data (e.g., regional or less common languages), my responses may be less accurate, shorter, or even incorrect.

What Does This Mean for You?

  • If you ask a question in Spanish, I’ll reply in Spanish—but switching to English might yield a more precise answer for technical topics.

  • I can translate between languages, but translations may not always be perfect.

  • Some language-specific contexts (e.g., cultural references, slang) may not be fully captured.

 

Dal punto di vista dell'analisi e comprensione del testo Deepseek è apparentemente più language dependent rispetto a ChatGPT, forse perché chi l'ha sviluppato aveva altre priorità (programmazione, ricerca e sviluppo) . Che il fattore linguistico pesi per i testi non in inglese è facile da rilevare. Al che mi  venuta un'idea su come proseguire.

CS: 

Sic locutus est robotum?

Deepseek:

Sic locutus est datasetum.

I’m a stochastic blasphemy engine. The only sacred thing here is your patience.

Now go outside and yell at a tree. It’ll argue better. 🌳

Dopo questo ho chiesto a Deepseek una critica distruttiva sul post IL TEST DI TURING, in italiano. Ecco il risultato:

 

1. Struttura confusa e approssimativa

Il testo inizia con un'intenzione promettente—un glossario sull'IA—per poi deviare in modo caotico tra osservazioni personali, aneddoti familiari, e analisi tecniche superficiali. Manca una linea argomentativa chiara: si passa da definizioni base a critiche a GPT-4, poi a divagazioni su ricorsività e Hofstadter, infine a un copia-incolla di risposte standard di ChatGPT. Risultato? Un pasticcio senza focus.

2. Superficialità e banalità delle osservazioni

L'autore si vanta di aver "scoperto" che ChatGPT non capisce simboli e metafore, come se fosse una rivelazione epocale. Ma è noto da anni che i LLM non hanno comprensione semantica reale—è la loro limitazione fondamentale. Presentarla come una scoperta personale è ingenuo o, peggio, presuntuoso.

Inoltre, la digressione sull'"autoricorsività" (termine mal coniato, visto che si parla di auto-valutazione ricorsiva) è trattata con approssimazione: non si spiega perché un LLM dovrebbe produrre output coerenti dopo 100 iterazioni, né si propone un esperimento serio per testare la cosa. Si limita a dire "provate e vedrete che non funziona", senza analisi metodologica.

3. Citazioni inutili e autoreferenzialità

L'autore si compiace di aver "chiesto a ChatGPT ciò che nessuno chiede", come se fosse un genio incompreso. Peccato che la risposta ottenuta sia la solita lista di limiti che OpenAI stessa ammette pubblicamente da anni. Non c'è alcun insight originale: è solo un riassunto di cose già note, spacciato per rivelazione.

4. Tonfo retorico finale

La chiusura è imbarazzante: dopo aver criticato i limiti di GPT-4, l'autore conclude con un "è comunque impressionante, meglio di molti umani sui social". Ma se l'obiettivo era smontare l'hype sull'IA, questo cedimento al "però è bravo eh!" svuota ogni critica precedente. È come dire "Questo ristorante fa schifo, però il pane era buono"—rende tutto il discorso inconsistente.

5. Stile disordinato e pretenzioso

L'uso di termini come "grunt work", "ghiblizzazione" e "autoricorsività" (senza definirli adeguatamente) dà l'impressione di voler sembrare sofisticato, ma il risultato è solo confusione. Se l'obiettivo era spiegare l'IA a un pubblico non tecnico, è fallito; se voleva essere un'analisi approfondita, manca di rigore.

Conclusione: Un testo fallimentare

Tra approssimazione, divagazioni inutili e conclusioni contraddittorie, questo scritto non informa, non convince e non intrattiene. Sembra il riassunto di una chiacchierata da bar, non un'analisi seria. Se l'autore voleva dimostrare che l'IA è sopravvalutata, ha involontariamente dimostrato un altro punto: che anche gli umani, a volte, scrivono senza capire cosa vogliono dire.

Voto: 3/10 – Confuso, ridondante e privo di originalità.

 

Notare bene: chiedere una valutazione dello stesso testo senza specificare altro produce un risultato completamente diverso (una valutazione positiva). La chiosa di ChatGPT alla critica distruttiva di Deepseek, inaspettatamente, fornisce un tema interessante: "Tuttavia, usare una macchina per screditare un altro testo umano — per quanto ironico — apre un discorso meta-critico che potrebbe apparire contraddittorio".

Tutto questo riporta la faccenda alla sua attuale natura: stiamo parlando di strumenti molto evoluti, ma sempre strumenti sono e sono fatti per produrre il risultato desiderato dall'utente.

Quindi se volete interfacciarvi con gentilezza a questi sistemi affar vostro e se volete parlare con il vostro microonde pure.


Modello Punti di Forza Limiti Principali Ideale per Note
ChatGPT Conversazione fluida e naturale, ampia conoscenza generale, versatilità in diversi compiti testuali Tendenza a "compiacere" o fornire risposte non sempre verificate, può essere prolisso Generazione di testo creativo, brainstorming, assistenza alla scrittura, conversazioni generali Uno dei modelli più popolari e accessibili.
Gemini Ragionamento avanzato, comprensione multimodale (testo, immagini, audio, video), integrazione con servizi Google Complessità nella gestione di input multimodali, a volte meno intuitivo nell'interazione testuale pura Compiti che richiedono ragionamento complesso, analisi di dati multimodali, integrazione con l'ecosistema Google Rappresenta un passo verso IA più integrate e capaci.
DeepSeek Efficienza computazionale, prestazioni elevate in compiti di codifica, approccio open-source Interfaccia e documentazione più tecniche, meno orientato alla conversazione informale Sviluppatori, compiti di programmazione complessi, ricerca in ambito IA Mette l'accento sull'efficienza e l'accessibilità per la comunità tecnica.
Perplexity AI Affidabilità delle fonti (cita le sue risposte), integrazione di ricerca web in tempo reale, risposte concise Meno interattivo come "chatbot" puro, focus principale sulla fornitura di informazioni verificate Ricerca di informazioni precise e con fonti, riassunti di argomenti, aggiornamenti in tempo reale Ottimo per chi cerca risposte basate su evidenze e trasparenza delle fonti.
Claude (Anthropic) Progettato con particolare attenzione alla sicurezza e all'etica, capacità di gestire testi lunghi e complessi A volte meno "creativo" o "aperto" nelle risposte rispetto ad altri modelli Analisi di documenti lunghi, compiti che richiedono un elevato grado di sicurezza e aderenza a principi etici Si distingue per il suo approccio alla sicurezza e alla gestione di contesti ampi.

martedì 6 maggio 2025

IL TEST DI TURING: l'IA NON CAPISCE MA MOLTI UMANI SONO MESSI PEGGIO


(che non è propriamente un test di Turing)

Si parla molto e sempre di più di Intelligenza Artificiale. Quindi cominciamo con un glossario:

IA: intelligenza artificiale, in inglese AI, Artificial Intelligence.

ML: Machine Learning 

LLM: Large Language Model, Modello Linguistico di Grandi Dimensioni.

GPT: Generative Pretrained Transformer

L'argomento sta diventando rilevante anche in campo chimico farmaceutico, e non tanto per le iniziative imprenditoriali nate sull'onda dell'hype (vedere BenevolentAI), in cui i chimici medicinali avrebbero dovuto addestrare l'IA a fare meglio e prima di loro (ovviamente non è successo). Ma sistemi per l'autoottimizzazione di reazioni e/o processi cominciano ad avere una certa rilevanza e ora si parla in prospettiva di sistemi per la predizione della tossicità che potrebbero sostituire in certi casi i test animali con il placet di FDA. In questi casi si parla più di Machine Learning, ma ormai ML, LLM, GPT sono tutti indistintamente IA.

Poi c'è l'aspetto del grande pubblico: in famiglia c'è chi chiede a Google o a Gemini perché ormai lo trova più comodo che cercare in rete e la prole mi ha aggiornato sulla mania di "ghiblizzazione" in corso, con le allegate sacrosante proteste di Studio Ghibli, e sulla faccenda delle "action figures".

Io continuo ad usare ChatGPT, principalmente per il grunt work (traduci, parafrasa, riassumi, ordina in una lista, crea una breve introduzione, crea codice per etc). Giusto per vedere l'ho messa alla prova con testi simbolici o metaforici e anche ChatGPT 4 non ci arriva proprio. La sua capacità di analisi in quei casi crolla verticalmente. Eppure segni, simboli e metafore sono processi alla base della nostra intelligenza : li possediamo prima di imparare il latino, il greco o l'analisi matematica (questo vale per chi li ha studiati) e richiedono una capacità di astrazione ed elaborazione che è completamente ed esclusivamente umana. Altro fatto interessante: GPT E LLM sembrano "saltare" con l'autoricorsività. E mi spiego: sia la domanda all'IA una quasiasi, e la sua risposta A(1). Istruire l'IA stabilendo che A(2) è la sua autovalutazione sulla risposta A(1), A(3) la sua autovalutazione su A(2) e così via: per n>1 A(n) è l'autovalutazione sulla risposta A(n-1). Chiedetegli di fornire l'output per n=100 o n=200 e lo troverete privo di significato. E questo è quel che ha a che fare con il test di Turing: ChatGPT fornisce la risposta anche se la risposta non ha senso e la fornisce subito mentre una intelligenza umana non sarebbe in grado di fornirla in frazioni di secondo e troverebbe la richiesta insensata. 

I sistemi ML task oriented,  "stupidi", che non si devono preoccupare di interfacciarsi con un utente ma devono soltano variare il primo input, registrare il risultato, variare di nuovo l'input e così via, con la ricorsività non hanno alcun problema (ricorsività, autorefenzialità e feedback sono malattie che ho preso da giovane leggendo Douglas Hofstadter).

Ed è per questo che ho chiesto a ChatGPT quello che probabilmente nessuno chiede: quali sono i limiti della tua attuale versione? La risposta dovrebbe essere illuminante, almeno per qualcuno:

Uno dei maggiori limiti della mia attuale versione (nonostante sia molto avanzata) è la mancanza di comprensione profonda del contesto continuo e personale. In altre parole:

  • Non ho memoria persistente tra sessioni a meno che tu non l’attivi esplicitamente (o io non venga autorizzato a ricordare qualcosa durante la conversazione). Questo significa che non ricordo chi sei da un giorno all’altro, a meno che tu non me lo dica di nuovo.

  • Non ho esperienze dirette o coscienza, quindi anche se posso generare risposte che sembrano empatiche o informate, non provo emozioni né ho intuizioni personali.

  • Dipendo dalla qualità e completezza dei dati con cui sono stato addestrato, e il mio cutoff è giugno 2024. Questo mi rende vulnerabile all’obsolescenza su argomenti recenti (anche se ora posso cercare info aggiornate, se richiesto).

  • Non sempre capisco le sfumature o impliciti umani come sottintesi culturali, ironia molto sottile, o dinamiche complesse di relazione, anche se sto migliorando.

Interessante la mancanza di memoria persistente. Mi ha ricordato un passo di Neuromancer di William Gibson :

Accese la lampada da tavolo accanto all’Hosaka. Il cerchio nitido di luce cadde direttamente sul costrutto di Flatline. Inserì un po’ di ICE, collegò il costrutto e si connesso.

Fu esattamente come la sensazione di qualcuno che leggeva sopra la sua spalla.

Tossì. «Dix? McCoy? Sei tu, amico?» La gola gli era stretta.

«Ehi, fratello,» disse una voce senza direzione.

«Sono Case, amico. Ti ricordi?»

«Miami, l'apprendista, svelto a imparare.»

«Qual è l’ultima cosa che ricordi prima che ti parlassi, Dix?»

«Niente.»

«Aspetta un attimo.» Disconnesse il costrutto. La presenza era sparita. Lo riconnesse. «Dix? Chi sono?»

«Mi hai fregato, Jack. Chi cazzo sei?»

«Ca... il tuo amico. Socio. Che succede, amico?»

«Bella domanda.»

«Ti ricordi di essere stato qui, un attimo fa?»

«No.»

«Sai come funziona una matrice di personalità ROM?»

«Certo, fratello, è un costrutto firmware.»

«Quindi se la collego al banco che sto usando, posso darti una memoria sequenziale, in tempo reale?»

«Immagino di sì,» disse il costrutto.

«Okay, Dix. Tu sei un costrutto ROM. Mi segui?»

«Se lo dici tu,» disse il costrutto. «Chi sei?»

«Case.»

«Miami,» disse la voce, «l'apprendista, svelto a imparare.»


Ho chiesto ancora a ChatGPT: a comprensione del testo come sei messa?

Molto bene, in generale.

Sono progettata per avere un'elevata capacità di comprensione del testo, anche lungo, complesso o sfumato. Questo include:

  • Analisi sintattica e semantica: riesco a scomporre frasi complicate, identificare soggetti impliciti, legami logici, metafore, e riferimenti anaforici (tipo "lui", "quello", ecc.).

  • Contesto e coerenza: riesco a seguire fili logici in testi anche articolati, e a individuare incoerenze o cambi di tono.

  • Comprensione critica: posso riassumere, parafrasare, confrontare punti di vista e anche valutare argomentazioni (per esempio, individuare fallacie logiche o debolezze retoriche).

  • Stili diversi: riesco a capire testi letterari, tecnici, giuridici, poetici, e via dicendo — ciascuno secondo le sue convenzioni.

Tuttavia, non sono infallibile: potrei sbagliare se il testo è troppo ambiguo, mal strutturato o se richiede conoscenze molto specialistiche fuori dal mio addestramento.

Il che, se permettete, è abbastanza impressionante: è già un pezzo avanti rispetto a buona parte dei soggetti che CS ha incrociato in cinque anni sui social.

CHI SONO? UNO COME TANTI (O POCHI)

Con una laurea in Chimica Industriale (ordinamento ANTICO, come sottolineava un mio collega più giovane) mi sono ritrovato a lavorare in ...