domenica 22 aprile 2018
QUANDO DUE PIU' DUE NON FA QUATTRO - 2 - MORBILLO, ROSOLIA
"Stime teoriche approssimate sono in buon accordo con i periodi interepidemici osservati per morbillo, pertosse, parotite...Notare che questo tentativo di spiegazione delle periodicità osservate si basa sull'assunto di un qualche meccanismo alimenti il ciclo intrinseco di periodo T (un po' come l'acqua ossigenata nella reazione di Briggs-Rauscher, NdCS), ed è indipendente dall'esatta natura del meccanismo...
La propensione di base delle associazioni ospite-patogeno a oscillare può manifestarsi in altri modi, che possono avere implicazioni pratiche.
Considerate un programma di immunizzazione che ha l'obiettivo a lungo termine di ridurre l'incidenza di una particolare infezione o eradicarla
Un tale programma rappresenta una perturbazione del sistema ospite-patogeno. Inverosimile che il sistema si muova regolarmente e in modo monotono verso il nuovo stato finale, ma è piuttosto verosimile che esibisca pronunciate oscillazioni sulla via verso questo stato.
Il modello comunque coglie il principale aspetto dell'attuale incidenza di CRS negli USA, mostrata in figura 13. I dati della figura 13 mostrano che l'incidenza di CRS dapprima cala rapidamente dopo l'inizio dell'immunizzazione nel 1970, ma poi risale quasi ai livelli pre immunizzazione circa dieci anni dopo nel 1979. La figura 13 mostra anche i casi totali di rosolia distinti dai casi delle donne in gravidanze (e quindi dai casi di CRS, NdCS); per l'incidenza totale il pattern oscillatorio è molto meno marcato sia in teoria che in pratica. In mancanza della comprensione teorica sopra sviluppata. il risalire dei casi di CRS mostrato in figura 13 può essere scambiato per una mancanza nella produzione del vaccino o come derivante da altra causa estrinseca, invece che esser riconosciuto come intrinseco alle dinamiche del sistema.
(L'apparente aumento di casi di CRS negli anni pre immunizzazione, prima del 1970, può essere associato con l'under-reporting)"
Robert May, "When two and two do not make four: non linear phenomena in in ecology", Proc. R. Soc. Land. B 228. 241-266 (1986)
(Giusto per ricordare che per più di un anno a reti unificate si è parlato di correlazione diretta tra tassi di copertura nelle vaccinazioni pediatriche antimorbillose e numeri dell'outbreak di morbillo; poi di recente qualcuno ha messo in chiaro i distinguo, "mai detto niente del genere")
L'ALTRO LATO DELLA PREVENZIONE - INFEZIONI OSPEDALIERE
Questa pagina prendeva vita mesi fa, e tra i primissimi post ci fu la condivisione di questo. Non si trattava soltanto dell'esito di brutali rapporti industriali ormai incistati nel sistema sanitario pubblico nazionale.
Il punto era che "la riduzione delle ore di lavoro avrebbe comportato una penalizzazione sulla pulizia e la sanificazione dell'ospedale e di reparti come le sale operatorie".
E nel post di ieri Starbuck ricordava lo "sciopero del camice" a Monza:
"Così gli addetti alle pulizie alla fine del loro turno devono farsi un fagottino e portare a casa la divisa utilizzata durante le ore di servizio per «pulirsela nella loro lavatrice domestica con gravi potenziali rischi per la loro salute, e più in generale quella di tutti. Gli addetti lavorano infatti in ambienti esposti ad agenti patogeni. Portando le divise a casa e lavandole a temperature non adeguate alla sanificazione, favoriscono la circolazione di malattie che possono essere anche molto pericolose. Ciò è inaccettabile. Come anche il fatto che non ci sia un’adeguata dotazione di guanti e che spesso debbano usare quelli degli infermieri, oppure che i lavoratori non siano sottoposti a vaccinazioni specifiche come avviene invece per medici e infermieri»" (https://www.ilgiorno.it/monza-brianza/cronaca/sciopero-pulizie-san-gerardo-1.3048599).
Se del caso di Monza i giornali si sono occupati, di quello di Massa si è parlato assai meno. La condanna riguarda una manifestazione non autorizzata contro la riduzione del personale in opera presso l'ospedale di Massa da parte di Dussman Service, multinazionale tedesca dei servizi a cui l'ASL aveva affidato la sanificazione dell'ospedale.
E quanti altri di questi casi possiamo trovare in giro, dove la sanificazione delle strutture ospedaliere viene sacrificata al risparmio sanitario?
Spesso viene tirata in ballo l'obsolescenza dell'edilizia ospedaliera, e l'inadeguatezza dei sistemi di areazione. Problemi che richiedono investimenti ingenti, difficilmente risolvibili. Ma la sanificazione ordinaria è tutt'altro. E tagliare su quella significa continuare ad aprire la porta alle infezioni ospedaliere. Fenomeno grave, tasto dolentissimo. Se abbiamo difficoltà a metter su le anagrafi vaccinali, col monitoraggio delle infezioni ospedaliere come siamo messi? Male: " In Italia, dai primi anni Ottanta sono stati condotti numerosi studi per valutare la frequenza di infezioni ospedaliere. Non esiste, tuttavia, un sistema di sorveglianza nazionale, perché nel nostro Paese non ci sono ancora sistemi di rilevazione attiva dei dati con personale dedicato (vedi le Infection Control Nurses dei paesi anglosassoni). Anche se in Italia non esiste un sistema di sorveglianza stabile, sono stati condotti numerosi studi multicentrici di prevalenza.Sulla base di questi e delle indicazioni della letteratura, si può stimare che in Italia il 5-8% dei pazienti ricoverati contrae un’infezione ospedaliera" (http://www.epicentro.iss.it/problemi/infezioni_correlate/epid.asp). Ovvero, morbillo e influenza li monitoriamo a livello nazionale, ma le infezioni ospedaliere no. D'altronde sono solo alcune centinaia di migliaia di casi all'anno, che provocano alcune migliaia di morti, per il 30% prevenibili, tra l'altro, sempre stando a ISS. E qua il record europeo lo paghiamo ad un prezzo assai più salato, rispetto al primato sul morbillo (che poi proprio primato non è, ma non sottilizziamo) - http://www.lastampa.it/2017/11/18/scienza/benessere/in-italia-unincidenza-fra-le-pi-alte-deuropa-XQQSz9kchCMXVnw1aHu4WM/pagina.html .
Il "per fortuna ci sono nuove molecole" de La Stampa è qualcosa ma non è molto: gli investimenti in ricerca del resto sono stati praticamente a 0 per anni. Ceftozolane è una cefalosporina approvata nel 2014. Avibactam è un fatto nuovo, un inibitore di beta-lattamasi non betalattamico approvato nel 2015 (tazobactam, altro inibitore di beta lattamasi, è roba vecchia, approvata nel '92) - lo sviluppo di beta-lattamasi è il principale meccanismo di acquisizione della resistenza agli antibiotici betalattamici. Come i betalattamici (derivati penicillinici e cefalosporinici) gli inibitori di beta lattamasi, lo avrete capito, non sono una novità. Il più famoso è l'acido clavulanico contenuto nell'Augmentin, ma fino a Avibactam erano tutti betalattami. Un analogo di Avibactam, Relebactam, è stato approvato da FDA l'anno scorso. E questo è quanto, per quel che riguarda l'attività delle grandi farmaceutiche - il panorama è leggermente più articolato, ne riparleremo.
Per il resto i farmaci attuali di seconda linea hanno un profilo mediamente brutto (vancomicina) o bruttissimo (polimixina).
Trovare serie storiche sulle infezioni ospedaliere in Italia non è semplice, ma siamo passati da 5.6 casi per 100.000 dimessi (2007) a 12.36 casi per 100.000 dimessi (2015), più che raddoppiati in meno di dieci anni, e la mia impressione è che il grosso dell'incremento ci sia stato dal 2010 in poi, ma è solo un sospetto (http://www.aogoi.it/notiziario/infezioni-ospedaliere-22mila-casi-nel-2015-quasi-4mila-in-pi%C3%B9-rispetto-al-2007-va-meglio-per-il-rischio-di-embolia-ma-anche-i-traumi-ostetrici-nel-parto-naturale-crescono/).
E tutto ciò non può non aver a che fare coi progressivamente ridotti standard di sanificazione, conseguenza di tagli di spesa ed esternalizzazioni.
sabato 21 aprile 2018
RAGIONI DELLA FARMACOVIGILANZA
Il monitoraggio postmarketing permette di studiare effetti collaterali a bassa frequenza, gruppi ad alto rischio, interazioni farmaco-farmaco e una eventuale maggiore gravità o frequenza degli effetti collaterali rispetto a quanto emerso dai trial clinici. In più permette di individuare conseguenze erroneamente o dolosamente sottostimate in sede di sperimentazione clinica ed eventuali lotti problematici di farmaco sfuggiti al sistema di controllo.
I trial previsti dal processo regolatorio, per quanto adeguatamente disegnati, non potranno mai rispecchiare del tutto esattamente la frequenza degli effetti collaterali a causa delle dimensioni del campione statistico e della loro durata (usualmente corta). Prendiamo una fase III che osservi gli effetti del farmaco con un totale di 20.000 soggetti trattati (e quindi uno studio di quelli corposi, usualmente richiesti dal regolatore per farmaci destinati a grandi popolazioni - furono classici per gli antiipertensivi, per esempio, oggi sono tipici per i vaccini). Ben difficilmente identificherò eventi con frequenze inferiori a 1 su 20.000. Tali eventi se possono verificarsi diverranno invece sicuramente visibili nel momento in cui tratto col farmaco 1, 2 o 3 milioni di pazienti.
Esempio classico, statine e rabdomiolisi fatale. La sorveglianza postmarketing riportò 52 morti collegate all'uso della cerivastatina. Sembra un gran numero, ma si trattava di 3,16 casi per milione. Però la media dell'evento con le statine era 0,15 casi per milione, e la cerivastatina venne ritirata dal commercio.
Per questo la farmacovigilanza è importante: i risultati di qualsiasi studio condotto su centinaia o migliaia di soggetti sono comunque meno "sensibili" e statisticamente rappresentativi rispetto al dato della vigilanza, anche se ottenuto da un processo di sorveglianza poco efficace (cfr le critiche alla sorveglianza passiva).
Il problema della attribuzione della causalità esiste, è incorporato nel processo che porta ai report finali, ma al riguardo non posso che invitare a rileggere quanto scritto da uno dei padri fondatori della sperimentazione farmaceutica clinica moderna, Austin Bradford Hill (https://it.wikipedia.org/wiki/Austin_Bradford_Hill):
"Sarebbe d'aiuto se la sospetta causa fosse biologicamente plausibile. Ma sono convinto che non possiamo richiedere l'ottemperaza a questo criterio. Ciò che è biologicamente plausibile dipende dalle conoscenze biologiche del momento"
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1898525/pdf/procrsmed00196-0010.pdf
I trial previsti dal processo regolatorio, per quanto adeguatamente disegnati, non potranno mai rispecchiare del tutto esattamente la frequenza degli effetti collaterali a causa delle dimensioni del campione statistico e della loro durata (usualmente corta). Prendiamo una fase III che osservi gli effetti del farmaco con un totale di 20.000 soggetti trattati (e quindi uno studio di quelli corposi, usualmente richiesti dal regolatore per farmaci destinati a grandi popolazioni - furono classici per gli antiipertensivi, per esempio, oggi sono tipici per i vaccini). Ben difficilmente identificherò eventi con frequenze inferiori a 1 su 20.000. Tali eventi se possono verificarsi diverranno invece sicuramente visibili nel momento in cui tratto col farmaco 1, 2 o 3 milioni di pazienti.
Esempio classico, statine e rabdomiolisi fatale. La sorveglianza postmarketing riportò 52 morti collegate all'uso della cerivastatina. Sembra un gran numero, ma si trattava di 3,16 casi per milione. Però la media dell'evento con le statine era 0,15 casi per milione, e la cerivastatina venne ritirata dal commercio.
Per questo la farmacovigilanza è importante: i risultati di qualsiasi studio condotto su centinaia o migliaia di soggetti sono comunque meno "sensibili" e statisticamente rappresentativi rispetto al dato della vigilanza, anche se ottenuto da un processo di sorveglianza poco efficace (cfr le critiche alla sorveglianza passiva).
Il problema della attribuzione della causalità esiste, è incorporato nel processo che porta ai report finali, ma al riguardo non posso che invitare a rileggere quanto scritto da uno dei padri fondatori della sperimentazione farmaceutica clinica moderna, Austin Bradford Hill (https://it.wikipedia.org/wiki/Austin_Bradford_Hill):
"Sarebbe d'aiuto se la sospetta causa fosse biologicamente plausibile. Ma sono convinto che non possiamo richiedere l'ottemperaza a questo criterio. Ciò che è biologicamente plausibile dipende dalle conoscenze biologiche del momento"
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1898525/pdf/procrsmed00196-0010.pdf
venerdì 20 aprile 2018
ORAC, AVOGADRO, NANOCOSE E UN AUTOGOL PREOCCUPANTE
(5 febbraio 2018)
Sarà un caso che a un mese dal voto mi casca l'occhio sulla solita condivisione di roba BUTAC e mi rendo conto che i nostri cari sbufalatori, ovviamente per servire la causa della scienza (catturata dalla propaganda di un preciso partito, ma è sicuramente un caso), hanno riproposto su fb pagine e pagine in materia "vaccini" perlopiù prodotte un annetto fa.
E' un salto all'indietro nel tempo, quando tra i medici con poca dimestichezza per le moli andava forte il numero di Avogadro, ed era tutto un turbinare di 10^23, un fioccar di zeri, calcoli coinvolgenti numeri con 9 o 12 cifre decimali e via dicendo. Per uno del mestiere (ma pure per un perito) follia, follia, semplicemente follia.
E forse alla fine ho capito quale è stata la fonte di questo delirio. Orac. Va molto di moda, Orac, ma finora l'avevo incrociato una volta sola, quando Dora di HIVforum aveva postato una sua confutazione del famoso ultimo articolo di Shaw. Mi fece una ben misera impressione, perché quella non era una confutazione, era una reazione isterica.
E grazie all'articolo ripostato da Butac trovo questa perla grezza.
Qua siamo alla sorgente, al punto di origine, mi sa:
"Guardatela in questa maniera. Questo è ciò che è stato trovato in 20 microlitri di liquido. Che è 0,00002 litri. Ciò significa che, in un litro di vaccino, in teoria, il massimo che si potrebbe trovare sono 91.050.000 (9.105 x 107) particelle! Holy Hell! Questo è un numero immenso. Dovremmo avere paura, no? Beh, no. Torniamo alla nostra conoscenza dell’omeopatia e guardiamo il numero di Avogadro. Una mole di particelle = 6,023 x 10^23. Quindi dividiamo 91.050.000 per il numero di Avogadro, e si otterrà la molarità (concentrazione di una soluzione espressa dal numero di moli di soluto disciolte in un litro di soluzione) di una soluzione di 91,05 milioni di particelle in un litro, quindi una soluzione 1 M conterrebbe 6.023 x 1023 particelle. Allora, qual è la concentrazione: 1.512 x 10-16 M. che è 0,15 femtomolare (FM) (o 150 altomolare), una concentrazione di particelle incredibilmente bassa . E questo è il più alto valore che i ricercatori hanno trovato. In realtà, quello che hanno effettivamente scoperto è che i vaccini sono incredibilmente puri!"
Eccolo qua: "una mole di nanocose", come dire "una mole di sassi". Insensato. E' quindi forse stato Orac il primo a prendere fischi per fiaschi, nanocose per atomi o molecole. E da lì sapete bene la strada che questa enorme minchiata ha fatto, fino ad essere adottata in primis dal famoso virologo, a cui sulla pagina fb ci si rifersce come "il Vate" (per fortuna qualcun altro ha capito la natura dell'errore). "Una mole di particelle": ecco l'origine della bestialità.
(siccome Orac, come tanti altri medici, è una capra totale in materia di chimica, è un miracolo che si sia accorto dell'artefatto analitico - cioè che 20 microlitri di una soluzione esposti al vuoto evaporano precipitando come solidi i soluti. Ma poi non ha proprio preso atto di questa giusta osservazione, né della completa assenza di misure ricollegabili a una massa, e ha chiamato in causa Avogadro - il resto, come si dice, è storia..)
https://respectfulinsolence.com/2017/02/02/antivaccinationists-try-to-show-vaccines-are-dirty-but-really-show-that-they-are-amazingly-free-from-contamination/
E veniamo all'autogol preoccupante.
Qua sopra che i nanocontatori di nanocose in materia di vaccini facciano spettacolo (tristemente) con qualcosa che è tutto meno che un'analisi chimica è stato detto più volte, deinde de hoc satis.
Che la polemica contro costoro (in buona parte responsabile della loro visibilità) continui a produrre risultati imbarazzanti è diventata una costante di cui si farebbe volentieri a meno.
E a questo giro la cosa è preccupante, anzi, allarmante.
L'autrice di questo articolo è una biologa, senior researcher all'ISS, del Centro Nazionale per il Controllo e la Valutazione dei Farmaci.
Nello specifico si occupa di "Human Vaccines (Influenza, Hepatitis A, Hepatitis B): evaluation of Dossiers, as regards quality issues, for Marketing Authorization or variations at National and European level. Vaccine control tests.
Post-marketing surveillance, to verify stability of their quality characteristics. Batch release of influenza vaccine. Responsible of the Hepatitis Vaccine Unit within the National Center for Immunobiologicals Research and Evaluation at National Health Institute".
Quindi controllo di qualità sui vaccini, e quindi forse ha avuto un ruolo nel dire "tutto ok" per i famigerati lotti di Fluad.
E cosa apprendiamo da questo articolo?
Che non distingue tra una micronalisi EDX dal protocollo farlocco e un ICP-MS, metodo strumentale per la determinazione quantitativa dei metalli in tracce. Probabilmente cos'è un ICP neanche lo sa.
Infatti cosa dice?
"Inoltre, su un sito che diffonde tesi anti vacciniste sono riportati i risultati di un’analisi condotta presso un laboratorio tedesco che, a loro dire, confermerebbero quelli ottenuti da Gatti e Montanari. Tuttavia anche in questo caso i dati presentati non hanno alcun valore: di nuovo non è stata usata una preparazione di controllo, non c’è alcun riferimento al metodo utilizzato, né ai suoi limiti sensibilità ed affidabilità." E dimostra di capirne quanto il bersaglio della sua polemica. L'analisi è qua (https://autismovaccini.org/wp-content/uploads/2017/02/analisi-vaccini-00.pdf), è un'analisi ICP (se l'autrice ne avesse vista una la riconoscerrebbe al volo, anche se non c'è scritto) e di base dice "tutto bene": i numeri, ug/L, sono parti per miliardo.
Quando leggete "<10" o "<5" vuol dire: assente, al di sotto dei limiti di rilevabilità dello strumento (e parliamo di 0.01 o 0.005 mg per chilo).
Essendo il laboratorio in questione un laboratorio di analisi chimiche, si suppone che lo strumento sia adeguatamente calibrato. Non è questione di "controllo" non pubblicato (è una maledetta analisi, non un'articolo su una rivista). Al limite occorrerebbe chiedersi se il laboratorio ha in opera un sistema di qualità, se e con chi è accreditato, se lavora in GLP (Good Laboratory Practice, il sistema per garantire la costante qualità ed affidabilità delle analisi). Poco da fare, la capacità di leggere un'analisi ICP della dottoressa equivale a quella di un qualsiasi no vax.
https://www.queryonline.it/2018/01/29/nanoparticelle-di-metalli-nei-vaccini-come-stanno-le-cose/
ANTIBIOTICI -2- CHINOLONICI, PARTE I
Gli antibiotici chinolonici sono roba antica, la loro scoperta appartiene allo stesso periodo della scoperta di anestetici amidoaminici, acidi arilpropanoici antiinfiammatorii etc. E la classe venne scoperta per caso, da chi stava lavorando ad analoghi della clorochina (quindi su antimalarici - ci si scorda spesso che storia della guerra farmacologica alla malaria è una storia lunga, e vittoriosa).
Si scoprì un 5-clorochinolone che aveva buona attività antibatterica, specie con i batteri gram negativi, e nel 1963 venne approvata l'immissione in commercio dell'acido nalixidico.
Nel 1963 si era ben lontani dall'aver messo a fuoco il funzionamento di questa classe di composti, ci si limitava a rilevare l'inibizione della sintesi della parete cellulare dei batteri, meccanismo di funzionamento comune alla maggioranza degli antibiotici classici.
I chinolonici in realtà sono inibitori della girasi del DNA, enzima chiave nei processi vitali dei procarioti, e la cosa migliore per spiegare quel che fa è linkare il video youtube che vedete più sotto.
L'acido nalixilico era realtivamente poco potente, e venne usato per infezioni di reni e vie urinarie perché, velocemente escreto, lì tendeva ad accumularsi.
Negli anni si passò a 6-fluorochinoloni: nel 1979 venne brevettata la norfloxacina e a stretto giro Bayer tirò fuori la ciprofloxacina: un notevole aumento della potenza con l'aggiunta di un singolo atomo di carbonio, che trasformava un etile in un ciclopropile.
E i fluorochinolonoci ottengono un gran successo: la ciprofloxacina arriva a fatturare un miliardo e mezzo di dollari in un niente.
Dato il loro meccanismo di funzionamento sembrano un'altra classe perfetta di antibiotici: interferiscono con meccanismi delle cellule batteriche senza toccare le cellule dell'ospite umano. E ovviamente, come con tutte le altri classi di farmaci dell'epoca, il lavoro prosegue alla ricerca di maggior potenza e spettro di azione. E anche qua, come in altre aree, cominciano i problemi.
Temafloxacina: approvata negli USA ad Abbot nel 1992, vengono fuori da subito effetti collaterali pesanti, più di 100 casi nei primi quattro mesi. Allergie e anemia emolitica. Tre morti. Approvata nel gennaio del 1992, Abbot la ritira volontariamente dal mercato nel giugno dello stesso anno.
Trovafloxacina: approvata a Pfizer a fine anni novanta, dimostra una eccellente attività con i temuti batteri gram positivi. E un'alta tossicità epatica, che può anche condurre ad esiti fatali. Quindi non viene ritirata dal commercio, ma il suo uso subisce severe restrizioni.
La trovafloxacina è protagonista di un noto episodio, la sperimentazione illegale in Nigeria durante un'epidemia di meningite da meningococco (https://en.wikipedia.org/wiki/Abdullahi_v._Pfizer,_Inc.). Si tratta di un episodio in cui non so cosa è peggio, il trial con autorizzazioni falsificate su 200 bambini o il fatto che in contemporanea MSF stesse offrendo un'altra terapia - col cloramfenicolo, invece che con lo standard ceftriaxone-cefalosporina nel dosaggio corretto.
Una nota sulla temafloxacina: è piuttosto difficile arrivare in fondo ad una fase tre senza accorgersi che il farmaco è emolitico. Decisamente difficile. Questo fa pensare che fosse emolitico solo in una ristretta popolazione di soggetti, non rilevata dai trial pre approvazione. Era un caso isolato. Nessuno pensò che problemi assortiti potessero con minore frequenza coinvolgere l'intera classe dei fluorochinoloni... (to be continued)
Si scoprì un 5-clorochinolone che aveva buona attività antibatterica, specie con i batteri gram negativi, e nel 1963 venne approvata l'immissione in commercio dell'acido nalixidico.
Nel 1963 si era ben lontani dall'aver messo a fuoco il funzionamento di questa classe di composti, ci si limitava a rilevare l'inibizione della sintesi della parete cellulare dei batteri, meccanismo di funzionamento comune alla maggioranza degli antibiotici classici.
I chinolonici in realtà sono inibitori della girasi del DNA, enzima chiave nei processi vitali dei procarioti, e la cosa migliore per spiegare quel che fa è linkare il video youtube che vedete più sotto.
L'acido nalixilico era realtivamente poco potente, e venne usato per infezioni di reni e vie urinarie perché, velocemente escreto, lì tendeva ad accumularsi.
Negli anni si passò a 6-fluorochinoloni: nel 1979 venne brevettata la norfloxacina e a stretto giro Bayer tirò fuori la ciprofloxacina: un notevole aumento della potenza con l'aggiunta di un singolo atomo di carbonio, che trasformava un etile in un ciclopropile.
E i fluorochinolonoci ottengono un gran successo: la ciprofloxacina arriva a fatturare un miliardo e mezzo di dollari in un niente.
Dato il loro meccanismo di funzionamento sembrano un'altra classe perfetta di antibiotici: interferiscono con meccanismi delle cellule batteriche senza toccare le cellule dell'ospite umano. E ovviamente, come con tutte le altri classi di farmaci dell'epoca, il lavoro prosegue alla ricerca di maggior potenza e spettro di azione. E anche qua, come in altre aree, cominciano i problemi.
Temafloxacina: approvata negli USA ad Abbot nel 1992, vengono fuori da subito effetti collaterali pesanti, più di 100 casi nei primi quattro mesi. Allergie e anemia emolitica. Tre morti. Approvata nel gennaio del 1992, Abbot la ritira volontariamente dal mercato nel giugno dello stesso anno.
Trovafloxacina: approvata a Pfizer a fine anni novanta, dimostra una eccellente attività con i temuti batteri gram positivi. E un'alta tossicità epatica, che può anche condurre ad esiti fatali. Quindi non viene ritirata dal commercio, ma il suo uso subisce severe restrizioni.
La trovafloxacina è protagonista di un noto episodio, la sperimentazione illegale in Nigeria durante un'epidemia di meningite da meningococco (https://en.wikipedia.org/wiki/Abdullahi_v._Pfizer,_Inc.). Si tratta di un episodio in cui non so cosa è peggio, il trial con autorizzazioni falsificate su 200 bambini o il fatto che in contemporanea MSF stesse offrendo un'altra terapia - col cloramfenicolo, invece che con lo standard ceftriaxone-cefalosporina nel dosaggio corretto.
Una nota sulla temafloxacina: è piuttosto difficile arrivare in fondo ad una fase tre senza accorgersi che il farmaco è emolitico. Decisamente difficile. Questo fa pensare che fosse emolitico solo in una ristretta popolazione di soggetti, non rilevata dai trial pre approvazione. Era un caso isolato. Nessuno pensò che problemi assortiti potessero con minore frequenza coinvolgere l'intera classe dei fluorochinoloni... (to be continued)
CREDIBILITA' E RIPRODUCIBILITA'
(Sunto di un anno di post fb)
Da tempo sui media digitali e non dilaga l'hype su nuove "scoperte" biologiche. In materia di CRISPR, geni collegati a questo o a quello e ad altri temi che sanno di "futuro" pullulano comunicazioni e articoli. Ed è curioso che questa proliferazione avvenga nel corso di una conclamata crisi di riproducibilità, riconosciuta dal 52% degli addetti ai lavori. Nel 70% dei casi i risultati conclamati non sono riproducibili. E quindi se, come dovrebbe essere, la credibilità di un risultato è uguale alla sua riproducibilità, si può rapidamente calcolare il tasso di credibilità del materiale di attualità veicolato dalla cosiddetta divulgazione scientifica massificata: 30%. Scarsino. La retorica del progresso scientifico da quotidiano o tg si ciba al 70% di fuffa (http://www.nature.com/news/1-500-scientists-lift-the-lid-on-reproducibility-1.19970).
Quando l'articolo di Nature è uscito è stata pioggia sul bagnato. Già, nel 2012 un gigante biotech aveva guadagnato i titoli di testa con una comunicazione importante.
Diciamolo, quando pigli a riferimento un articolo per impostare un progetto in ambito industriale e il contenuto si rivela non riproducibile girano i cabbasisi a diversa gente.
"In 2012, Amgen researchers made headlines when they declared that they had been unable to reproduce the findings in 47 of 53 'landmark' cancer papers"
Articoli "landmark", ok? Rutilanti scoperte di nuovi geni o pathway o altro nel campo della biologia del cancro. Non riproducibili 47 articoli su 53. Immagino che nelle sale riunioni della direzione ricerche Amgen si sentisse l'eco del vorticare anche qualche giorno dopo aver fatto il punto della situazione.
Eppure questa prolungata crisi di riproducibilità non corrisponde nel mainstream culturale a una simmetrica crisi di credibilità. Anzi, si persiste in una (quasi) illimitata apertura di credito, moltiplicata dai media tradizionali e digitali, che per quel che riguarda la divulgazione scientifica di questo si alimentano. Arriverà la resa dei conti, con le promesse non mantenute, o l'articolo ritirato, o un negative finding pubblicato. Tutto ciò non avrà eco, e si continuerà a dar voce alla solita percentuale di scoperte a basso tasso di riproducibilità (e quindi di credibilità) (http://www.nature.com/news/biotech-giant-publishes-failures-to-confirm-high-profile-science-1.19269)
E questi sintomi preoccupanti di una situazione globale da noi del tutto ignorati. Anzi, per tipo due anni non si è sentito che dire "peer reviewed", "impact factor" e non da ricercatori universitari (che sarebbe normale), ma da politici, ministri, giornalisti generalisti, attivisti e utenti dei social network.
Del tutto incuranti o ignari che la mitologica "comunità scientifica" da tempo si è resa conto che il sistema dell'editoria scientifica presenta disfunzionalità crescenti.
In una crisi generale delle riviste scientifiche (secondo me in larga parte dovuta al modello "publish or perish" che ormai governa buona parte della ricerca accademica), quella delle riviste biomediche ha suoi tratti peculiari. Se l'allarme di Randy Schekman aveva un carattere generale (https://www.scienzainrete.it/contenuto/articolo/francesco-aiello/randy-schekman-e-tirannia-di-nature/dicembre-2013), come del resto quelli più sopra citati, alcune denuncie riguardano nello specifico ricerca biomedica e conflitto di interessi (http://www.bmj.com/content/359/bmj.j4619).
In questo quadro compromesso ora anche gli editori ci mettono del proprio (o meglio, ora viene fuori come ce lo mettono, e da un po').
In due parole un fisico americano si è rotto le scatole di avere continue richieste di reviewing da Elsevier su materie che non gli competono, e l'ultima richiesta, che riguardava un'articolo di diabetologia, è stata la goccia che ha fatto traboccare il vaso. Guarda un po', il caso riguarda una rivista medica
Come può succedere che si incappi in articoli evidentemente risibili, che so, in materia di attivazione di legami CH? Forse i peer reviewers erano un biologo, un economista e un filologo antico... (parafrasando la conclusione dell'articolo del link)
https://forbetterscience.com/2018/01/15/how-elsevier-finds-its-peer-reviewers/
E tutto ciò mentre sui nostri media nazionali (compresi quelli sociali) e nella websfera italiana tutta si andava consolidando l'equazione medicina=Scienza (e vorrei sapere quanti tra matematici fisici e chimici in camera caritatis si sono piegati in due dalle risa), e più grave quella Scienza=Verità. Contraibile in medicina=Verità, che è un autentico abominio. E mentre la struttura di questo credo veniva cementata e consolidata, Il MIUR bocciava senza appello una serie di scuole di specializzazione in medicina (e quindi bocciava i docenti - medici - delle dette scuole, non certo gli studenti).
Non sono un fan delle valutazioni del MIUR, spesso centrate su metriche progettate con criteri discutibili e in fin dei conti funzionali ad un unico scopo (il taglio di spesa).
Ma tra amici avevamo rilevato come le dispense di un certo corso di statistica a Pavia manifestassero un allarmante livello di incuria (per non dire incompetenza). E guarda caso "Statistica sanitaria e Biometria" a Pavia è tra le specializzazioni bocciate. Anche dalle parti del S.Raffaele non erano messi così bene, a quanto pareva. E pure all'Humanitas le cose andavano maluccio (habitat di Mantovani,in vena di rilanciare il vaccino BCG per la TBC dalle nostre parti,stando a quel che scriveva sul Sole).
A proposito del famoso virologo e dei suoi emuli, da notare che più si aggravava la crisi delle discipline biomediche (mettete assime scarsa riproducibilità dei risultati, queste valutazioni ministeriali, il crescente numero di cause per malasanità) più si strepitava per affermare il principio di autorità. In quest'ottica l'invocata non democraticità della "Scienza" acquistava un significato più interessante, perché la supposta congiura degli ignoranti è poca cosa al confronto con i danni procurabili dagli asini in cattedra o col camice, o col bisturi in mano, specie se vicini alle leve del potere politico (riguardo a questo aspetto il risultato elettorale ha cambiato molto tutta la situazione).
http://www.corriere.it/scuola/17_agosto_20/scuole-formazione-medici-una-10-non-regola-b68e0224-85cb-11e7-a4e4-940a5da24d3a.shtml
http://milano.corriere.it/notizie/cronaca/17_ottobre_09/milano-medicina-bocciata-scuola-7-tagliati-33-corsi-privi-qualita-3a2df836-acb0-11e7-a5d5-6f9da1d87929.shtml
Da tempo sui media digitali e non dilaga l'hype su nuove "scoperte" biologiche. In materia di CRISPR, geni collegati a questo o a quello e ad altri temi che sanno di "futuro" pullulano comunicazioni e articoli. Ed è curioso che questa proliferazione avvenga nel corso di una conclamata crisi di riproducibilità, riconosciuta dal 52% degli addetti ai lavori. Nel 70% dei casi i risultati conclamati non sono riproducibili. E quindi se, come dovrebbe essere, la credibilità di un risultato è uguale alla sua riproducibilità, si può rapidamente calcolare il tasso di credibilità del materiale di attualità veicolato dalla cosiddetta divulgazione scientifica massificata: 30%. Scarsino. La retorica del progresso scientifico da quotidiano o tg si ciba al 70% di fuffa (http://www.nature.com/news/1-500-scientists-lift-the-lid-on-reproducibility-1.19970).
Quando l'articolo di Nature è uscito è stata pioggia sul bagnato. Già, nel 2012 un gigante biotech aveva guadagnato i titoli di testa con una comunicazione importante.
Diciamolo, quando pigli a riferimento un articolo per impostare un progetto in ambito industriale e il contenuto si rivela non riproducibile girano i cabbasisi a diversa gente.
"In 2012, Amgen researchers made headlines when they declared that they had been unable to reproduce the findings in 47 of 53 'landmark' cancer papers"
Articoli "landmark", ok? Rutilanti scoperte di nuovi geni o pathway o altro nel campo della biologia del cancro. Non riproducibili 47 articoli su 53. Immagino che nelle sale riunioni della direzione ricerche Amgen si sentisse l'eco del vorticare anche qualche giorno dopo aver fatto il punto della situazione.
Eppure questa prolungata crisi di riproducibilità non corrisponde nel mainstream culturale a una simmetrica crisi di credibilità. Anzi, si persiste in una (quasi) illimitata apertura di credito, moltiplicata dai media tradizionali e digitali, che per quel che riguarda la divulgazione scientifica di questo si alimentano. Arriverà la resa dei conti, con le promesse non mantenute, o l'articolo ritirato, o un negative finding pubblicato. Tutto ciò non avrà eco, e si continuerà a dar voce alla solita percentuale di scoperte a basso tasso di riproducibilità (e quindi di credibilità) (http://www.nature.com/news/biotech-giant-publishes-failures-to-confirm-high-profile-science-1.19269)
E questi sintomi preoccupanti di una situazione globale da noi del tutto ignorati. Anzi, per tipo due anni non si è sentito che dire "peer reviewed", "impact factor" e non da ricercatori universitari (che sarebbe normale), ma da politici, ministri, giornalisti generalisti, attivisti e utenti dei social network.
Del tutto incuranti o ignari che la mitologica "comunità scientifica" da tempo si è resa conto che il sistema dell'editoria scientifica presenta disfunzionalità crescenti.
In una crisi generale delle riviste scientifiche (secondo me in larga parte dovuta al modello "publish or perish" che ormai governa buona parte della ricerca accademica), quella delle riviste biomediche ha suoi tratti peculiari. Se l'allarme di Randy Schekman aveva un carattere generale (https://www.scienzainrete.it/contenuto/articolo/francesco-aiello/randy-schekman-e-tirannia-di-nature/dicembre-2013), come del resto quelli più sopra citati, alcune denuncie riguardano nello specifico ricerca biomedica e conflitto di interessi (http://www.bmj.com/content/359/bmj.j4619).
In questo quadro compromesso ora anche gli editori ci mettono del proprio (o meglio, ora viene fuori come ce lo mettono, e da un po').
In due parole un fisico americano si è rotto le scatole di avere continue richieste di reviewing da Elsevier su materie che non gli competono, e l'ultima richiesta, che riguardava un'articolo di diabetologia, è stata la goccia che ha fatto traboccare il vaso. Guarda un po', il caso riguarda una rivista medica
Come può succedere che si incappi in articoli evidentemente risibili, che so, in materia di attivazione di legami CH? Forse i peer reviewers erano un biologo, un economista e un filologo antico... (parafrasando la conclusione dell'articolo del link)
https://forbetterscience.com/2018/01/15/how-elsevier-finds-its-peer-reviewers/
E tutto ciò mentre sui nostri media nazionali (compresi quelli sociali) e nella websfera italiana tutta si andava consolidando l'equazione medicina=Scienza (e vorrei sapere quanti tra matematici fisici e chimici in camera caritatis si sono piegati in due dalle risa), e più grave quella Scienza=Verità. Contraibile in medicina=Verità, che è un autentico abominio. E mentre la struttura di questo credo veniva cementata e consolidata, Il MIUR bocciava senza appello una serie di scuole di specializzazione in medicina (e quindi bocciava i docenti - medici - delle dette scuole, non certo gli studenti).
Non sono un fan delle valutazioni del MIUR, spesso centrate su metriche progettate con criteri discutibili e in fin dei conti funzionali ad un unico scopo (il taglio di spesa).
Ma tra amici avevamo rilevato come le dispense di un certo corso di statistica a Pavia manifestassero un allarmante livello di incuria (per non dire incompetenza). E guarda caso "Statistica sanitaria e Biometria" a Pavia è tra le specializzazioni bocciate. Anche dalle parti del S.Raffaele non erano messi così bene, a quanto pareva. E pure all'Humanitas le cose andavano maluccio (habitat di Mantovani,in vena di rilanciare il vaccino BCG per la TBC dalle nostre parti,stando a quel che scriveva sul Sole).
A proposito del famoso virologo e dei suoi emuli, da notare che più si aggravava la crisi delle discipline biomediche (mettete assime scarsa riproducibilità dei risultati, queste valutazioni ministeriali, il crescente numero di cause per malasanità) più si strepitava per affermare il principio di autorità. In quest'ottica l'invocata non democraticità della "Scienza" acquistava un significato più interessante, perché la supposta congiura degli ignoranti è poca cosa al confronto con i danni procurabili dagli asini in cattedra o col camice, o col bisturi in mano, specie se vicini alle leve del potere politico (riguardo a questo aspetto il risultato elettorale ha cambiato molto tutta la situazione).
http://www.corriere.it/scuola/17_agosto_20/scuole-formazione-medici-una-10-non-regola-b68e0224-85cb-11e7-a4e4-940a5da24d3a.shtml
http://milano.corriere.it/notizie/cronaca/17_ottobre_09/milano-medicina-bocciata-scuola-7-tagliati-33-corsi-privi-qualita-3a2df836-acb0-11e7-a5d5-6f9da1d87929.shtml
giovedì 19 aprile 2018
NUMERO DI AVOGADRO, CHIMICA COME SCIENZA HARD ETC
Qualcuno aveva gentilmente richiesto una spiegazione precisa su perché il contar molecole non va bene nell'argomento standard dei chemical illiterates contro l'omeopatia, e mi è parso giusto levare la risposta da una coda dei commenti per dargli la giusta visibilità, facendola predecere da una doverosa premessa.
Cos'è che distingueva i corsi di laurea in chimica e chimica industriale da quelli in farmacia, CTF, biologia (e medicina), dal punto di vista degli esami fondamentali?
Due corsi biennali di matematica (istituzioni di matematica, esercitazioni di matematica), un corso biennale di fisica, un corso biennale di chimica fisica: otto esami con un alto contenuto di matematica, e non otto esami da poco, nell'antico ordinamento - esisteva anche un corso biennale di esercitazioni di chimica fisica (poi è arrivato il nuovo ordinamento, poi è arrivato il 3+2 e le cose sono cambiate, quando non nella forma nella sostanza).
Questo perché la chimica è una scienza hard che della matematica (e non dell'aritmetica) non può fare a meno. Per fare un esempio, la cinetica chimica non può fare a meno del calcolo differenziale. Ed è solo un esempio tra tanti possibili, i principi della spettroscopia di risonanza magnetica nucleare sono un'altro che mi viene in mente.
I modelli di cui la chimica si avvale sono costruiti sull'analisi matematica, fatti di analisi matematica. Oggi chi legge al computer uno spettro HNMR vede oscillazioni smorzate, preme il pulsante FT e ottiene lo spettro. Premendo FT è stata applicata al segnale acquisito una trasformata di Fourier, una black box ormai, per la maggioranza di coloro che svolgono l'operazione. Un tempo così non era, quando chi la effettuava era un chimico.
Oggi alle volte sembra che medici, biologi molecolari etc considerino la chimica "un altro ricettario" (vedendola ad immagine delle proprie discipline?). La chimica con tutti i suoi rami invece ricettario non è....
Dov'è il grottesco delle varie conte di molecole? Essendo fino a prova contraria la chimica una scienza sperimentale, usa grandezze sperimentali e sperimentabili. Il numero di molecole non lo è, direttamente. Il merito di Avogadro è che avendo determinato il suo numero, lo ha reso inutile (un numero di avogadro di qualcosa è una mole, e le moli si usano). Sono sperimentabili invece peso e assorbanza, per esempio (per usare due grandezze proporzionali al numero di moli, e quindi di molecole). Le molecole non sono palline, non le posso manipolare una ad una in bulk, che sia una soluzione o una pallina di zucchero. Se C è la concentrazione (inizialmente misurabile) e n il numero di diluizioni, C tende a zero con n. Per n vicino al limite (ed oltre i limiti di rilevabilità del soluto) con n+1, n+2, n+10 C resta all'incirca 0 (i limiti funzionano così). Una molecola in soluzione è approssimabile in molti modi, ma non con una miscela di palline bianche e nere. Messa così è difficile? Pazienza. Ma usare aritmetica, e non matematica, palline, conta di molecole è grottesco. E finché tale lo si dichiara può anche andar bene, ma quando lo si fa passare per Scienza o chimica è piuttosto osceno.
Con queste conte assurde si finisce per arrivare dalle parti di paradossi millenari come quello di Achille e la tartaruga, liquidati da tempo dall'analisi matematica (con il conto di molecole o palline ad un certo punto si arriva alla frazione di molecola o pallina, paradossale perché fisicamente insensata). E' un problema di modelli, un pessimo modello che porta ad un paradosso solo ad uso polemico resta un modello orrendo, e se diventa virale fa un pessimo servizio alla rappresentazione della chimica.
Qual'è l'analogia tra la conta di palline/molecole e Achille e la tartaruga? Che nel caso di Achille la serie converge, e nel caso delle diluizioni la successione ha un limite.
Formalizzando, la concentrazione, nel caso delle diluzioni centesimali, è rappresentata da una banale esponenziale negativa:
})
e
dove C è la concentrazione ennesima, C0 la concentrazione della soluzione madre, n il numero di diluizioni. In realtà la concentrazione molare ha un'estremo inferiore dell'intervallo di definizione , 1/6.022*10^(-23), oltre cui la grandezza perde di significato. Questo punto corrisponde a n= [-1/2 log(C/C0)] con C=1/6.022*10^(-23). Ma il comportamento della successione rimane quello, come se 0 fosse l'asintoto.
La successione tende a 0 piuttosto rapidamente (ma l'unica condizione per cui C=0 per ogni n (nel campo di definizione) è C0=0. Semplice, compatto, aderente alla realtà sperimentale. La sua aderenza alla realtà sarebbe perfetta, perché come diceva Giambattista Vico, "l'uomo conosce quel che fa". Ma c'è sempre di mezzo l'errore. Questo è metodo scientifico, il resto chiacchere.
Cos'è che distingueva i corsi di laurea in chimica e chimica industriale da quelli in farmacia, CTF, biologia (e medicina), dal punto di vista degli esami fondamentali?
Due corsi biennali di matematica (istituzioni di matematica, esercitazioni di matematica), un corso biennale di fisica, un corso biennale di chimica fisica: otto esami con un alto contenuto di matematica, e non otto esami da poco, nell'antico ordinamento - esisteva anche un corso biennale di esercitazioni di chimica fisica (poi è arrivato il nuovo ordinamento, poi è arrivato il 3+2 e le cose sono cambiate, quando non nella forma nella sostanza).
Questo perché la chimica è una scienza hard che della matematica (e non dell'aritmetica) non può fare a meno. Per fare un esempio, la cinetica chimica non può fare a meno del calcolo differenziale. Ed è solo un esempio tra tanti possibili, i principi della spettroscopia di risonanza magnetica nucleare sono un'altro che mi viene in mente.
I modelli di cui la chimica si avvale sono costruiti sull'analisi matematica, fatti di analisi matematica. Oggi chi legge al computer uno spettro HNMR vede oscillazioni smorzate, preme il pulsante FT e ottiene lo spettro. Premendo FT è stata applicata al segnale acquisito una trasformata di Fourier, una black box ormai, per la maggioranza di coloro che svolgono l'operazione. Un tempo così non era, quando chi la effettuava era un chimico.
Oggi alle volte sembra che medici, biologi molecolari etc considerino la chimica "un altro ricettario" (vedendola ad immagine delle proprie discipline?). La chimica con tutti i suoi rami invece ricettario non è....
Dov'è il grottesco delle varie conte di molecole? Essendo fino a prova contraria la chimica una scienza sperimentale, usa grandezze sperimentali e sperimentabili. Il numero di molecole non lo è, direttamente. Il merito di Avogadro è che avendo determinato il suo numero, lo ha reso inutile (un numero di avogadro di qualcosa è una mole, e le moli si usano). Sono sperimentabili invece peso e assorbanza, per esempio (per usare due grandezze proporzionali al numero di moli, e quindi di molecole). Le molecole non sono palline, non le posso manipolare una ad una in bulk, che sia una soluzione o una pallina di zucchero. Se C è la concentrazione (inizialmente misurabile) e n il numero di diluizioni, C tende a zero con n. Per n vicino al limite (ed oltre i limiti di rilevabilità del soluto) con n+1, n+2, n+10 C resta all'incirca 0 (i limiti funzionano così). Una molecola in soluzione è approssimabile in molti modi, ma non con una miscela di palline bianche e nere. Messa così è difficile? Pazienza. Ma usare aritmetica, e non matematica, palline, conta di molecole è grottesco. E finché tale lo si dichiara può anche andar bene, ma quando lo si fa passare per Scienza o chimica è piuttosto osceno.
Con queste conte assurde si finisce per arrivare dalle parti di paradossi millenari come quello di Achille e la tartaruga, liquidati da tempo dall'analisi matematica (con il conto di molecole o palline ad un certo punto si arriva alla frazione di molecola o pallina, paradossale perché fisicamente insensata). E' un problema di modelli, un pessimo modello che porta ad un paradosso solo ad uso polemico resta un modello orrendo, e se diventa virale fa un pessimo servizio alla rappresentazione della chimica.
Qual'è l'analogia tra la conta di palline/molecole e Achille e la tartaruga? Che nel caso di Achille la serie converge, e nel caso delle diluizioni la successione ha un limite.
Formalizzando, la concentrazione, nel caso delle diluzioni centesimali, è rappresentata da una banale esponenziale negativa:
e
dove C è la concentrazione ennesima, C0 la concentrazione della soluzione madre, n il numero di diluizioni. In realtà la concentrazione molare ha un'estremo inferiore dell'intervallo di definizione , 1/6.022*10^(-23), oltre cui la grandezza perde di significato. Questo punto corrisponde a n= [-1/2 log(C/C0)] con C=1/6.022*10^(-23). Ma il comportamento della successione rimane quello, come se 0 fosse l'asintoto.
La successione tende a 0 piuttosto rapidamente (ma l'unica condizione per cui C=0 per ogni n (nel campo di definizione) è C0=0. Semplice, compatto, aderente alla realtà sperimentale. La sua aderenza alla realtà sarebbe perfetta, perché come diceva Giambattista Vico, "l'uomo conosce quel che fa". Ma c'è sempre di mezzo l'errore. Questo è metodo scientifico, il resto chiacchere.
Iscriviti a:
Post (Atom)
CHI SONO? UNO COME TANTI (O POCHI)
Con una laurea in Chimica Industriale (ordinamento ANTICO, come sottolineava un mio collega più giovane) mi sono ritrovato a lavorare in ...
