Attualità,  Società

Il problema della Scienza sono gli Scienziati

E’ vero che la scienza non è democratica. E nemmeno potrebbe esserlo. Ma non è nemmeno la proprietà privata delle star televisive che la usano per la loro notorietà e profitto personale. Qui, ne parla Steve Templeton in un articolo che si basa in gran parte sul lavoro di John Ioannidis. Vediamo come l’umana debolezza degli scienziati ha creato un vero disastro, specialmente con l’epidemia di COVID-19. Corruzione, ricerca di notorietà, mancanza di creatività, gerarchizzazione, sfruttamento dell’ignoranza del pubblico, e pura cialtroneria, hanno fatto dei danni spaventosi, da cui non è ovvio che la scienza potrà mai riprendersi.  

(Prof. Ugo Bardi)

***

di Steve Templeton, Professore Associato di Microbiologia e Immunologia presso la Indiana University School of Medicine – Terre Haute. 

Cinque anni fa l’astrofisico e divulgatore scientifico Neil deGrasse Tyson ha twittato un testo davvero memorabile e degno di una citazione:

La Terra ha bisogno di un paese virtuale: #Rationalia, con una Costituzione di una sola riga: tutte le politiche devono essere basate sul peso dell’evidenza


Il mondo ideale di Tyson attraeva molte persone stanche della politica istintiva e guidata dalle emozioni e della guerra politica tribale che aveva invaso ogni arena della vita pubblica, inclusa la scienza. Ha attirato molti dei suoi colleghi scienziati, persone addestrate a pensare in modo obiettivo e testare ipotesi basate su osservazioni sul mondo naturale.

L’unico problema: l’enorme peso delle prove dimostra che il paese chiamato “Rationalia” semplicemente non esisterà mai.

Questo perché, per gli umani, pensare razionalmente richiede un’enorme quantità di energia e sforzo. Di conseguenza, la maggior parte delle volte non ci preoccupiamo di farlo. Invece, nella stragrande maggioranza dei casi, il nostro pensiero è guidato completamente dalla nostra intuizione e dai nostri istinti, senza che entri in gioco quel fastidioso pensiero razionale che interferisce sulle nostre decisioni.

Questa dicotomia è magistralmente spiegata nei minimi dettagli dal premio Nobel Daniel Kahneman nel suo libro Thinking Fast and Slow, ed è anche trattata con un focus sulle divisioni politiche nel capolavoro di Jonathan Haidt The Righteous Mind. Entrambi sono opere fantastiche di per sé e forniscono spiegazioni affascinanti sul perché le persone hanno punti di vista diversi e perché è così difficile cambiarli.

Ancora più importante, questa dicotomia cognitiva si applica a tutti, anche agli scienziati. Ciò potrebbe sorprendere qualcuno (compresi alcuni scienziati, a quanto pare), poiché i media e i politici hanno descritto gli scienziati (almeno quelli con cui sono d’accordo) come intrisi di una capacità magica di discernere e pronunciare la verità assoluta.

Questo non potrebbe essere più lontano dalla realtà. Dico spesso alle persone che la differenza tra uno scienziato e la persona media è che uno scienziato è più consapevole di ciò che non sa del proprio campo specifico (nota del traduttore: magari fosse sempre così!), mentre la persona media non sa ciò che non sa. In altre parole, tutti soffrono di un’ignoranza schiacciante, ma gli scienziati sono (si spera) di solito più consapevoli della  profondità della loro ignoranza. Occasionalmente gli può capitare di avere un’idea su come aumentare leggermente un particolare tipo di conoscenze, e talvolta quell’idea potrebbe persino rivelarsi vincente. Ma per la maggior parte passano il tempo a lavorare solo sulla conoscenza specifica del loro campo.

Gli scienziati sono spesso ostacolati dai propri anni di esperienza e dall’intuizione potenzialmente fuorviante che hanno sviluppato di conseguenza. Nel libro Virus Hunter, gli autori CJ Peters e Mark Olshaker raccontano come un ex direttore del CDC ha osservato che “giovani e inesperti agenti dell’EIS” (Epidemic Intelligence Service) solitamente inviati dal CDC per indagare su epidemie misteriose avevano in realtà qualche vantaggio rispetto ai loro più esperti e anziani stagionati. Pur avendo una formazione di prim’ordine e il supporto dell’intera organizzazione CDC, non avevano visto abbastanza per avere opinioni prestabilite e potevano essere più aperti a nuove possibilità e avere l’energia per perseguirle”. Gli esperti sono anche di solito pessimi nel fare previsioni, e come spiegato da Philip Tetlock nel suo libro Giudizio politico esperto, non sono più precisi nella previsione rispetto alla persona media. I recenti fallimenti dei modelli di previsione della pandemia hanno solo rafforzato questa conclusione.

La maggior parte degli scienziati di successo possono far risalire i loro successi principali a lavori che hanno fatto all’inizio della loro carriera. Questo accade non solo perché gli scienziati diventano più sicuri del loro posto di lavoro con gli anni, ma perché sono ostacolati dalle proprie esperienze e dai propri pregiudizi. Quando ero un tecnico di laboratorio alla fine degli anni ’90, ricordo di aver chiesto consiglio a un immunologo su un esperimento che stavo pianificando. Ha finito per darmi un sacco di ragioni per cui non c’era un buon modo per fare quell’esperimento e ottenere informazioni utili. Ho parlato a una collega postdoc di questo incontro, e ricordo che lei disse: “Non ascoltarlo. Quel tizio può dissuaderti dal fare qualsiasi cosa”. Gli scienziati esperti sono profondamente consapevoli di ciò che non funziona e ciò può comportare una grande riluttanza a correre rischi.

Gli scienziati operano in un ambiente altamente competitivo in cui sono costretti a trascorrere la maggior parte del loro tempo alla ricerca di finanziamenti per la ricerca scrivendo infinite sovvenzioni, la stragrande maggioranza delle quali non sono finanziate (n.d.t: la maledizione dello scienziato). Per essere competitivi per questo pool limitato di risorse, i ricercatori cercano i lati positivi della loro ricerca e pubblicano risultati positivi. Anche se i risultati dello studio si discostano da quanto originariamente previsto, il manoscritto risultante raramente si legge in questo senso. E queste pressioni spesso fanno sì che l’analisi dei dati possa soffrire di vari errori, dall’enfatizzare innocentemente i risultati positivi all’ignorare i dati negativi o contrari, per arrivare fino alla falsificazione totale. Esempi dettagliati di queste cose sono forniti da Stuart Ritchie nel suo libro Science Fictions: How Fraud, Bias, Negligence, and Hype Undermine the Search for Truth. (n.d.t. assolutamente da leggere!!). Ritchie non solo spiega come la scienza venga distorta dalle pressioni causate dalla competizione e dalla necessità di finanziamento, anche quando gli scienziati sono bene intenzionati, ma entra in dettagli piuttosto pesanti su alcuni dei truffatori più prolifici. Un’altra eccellente risorsa che copre gli errori scientifici e gli illeciti della ricerca è il sito Web Retraction Watch. Il gran numero di articoli ritrattati, molti dagli stessi scienziati che li avevano pubblicati, evidenziano l’importanza di documentare e attaccare le frodi scientifiche.

Prof. Steve Templeton

I problemi con il reporting e la replicabilità dei dati di ricerca sono noti da anni. Nel 2005, il professor John Ioannidis di Stanford, tra gli scienziati più citati al mondo, ha pubblicato uno degli articoli più citati della sua carriera (oltre 1.600), “Perché i risultati della ricerca più pubblicati sono falsi“. Nello studio, Ioannidis ha utilizzato simulazioni matematiche per dimostrare “che per la maggior parte dei progetti e delle impostazioni di studio, è più probabile che un’affermazione di ricerca sia falsa che vera. Inoltre, per molti campi scientifici attuali, i risultati della ricerca dichiarati possono spesso essere semplicemente misure accurate del pregiudizio prevalente”. Ioannidis ha anche offerto sei corollari derivati ​​dalle sue conclusioni:

  1. Più piccoli sono gli studi condotti in un certo campo scientifico, meno è probabile che i risultati della ricerca siano veri.
  2. Più piccole sono le dimensioni dell’effetto in un certo campo scientifico, meno è probabile che i risultati della ricerca siano veri.
  3. Maggiore è il numero e minore è la selezione delle correlazioni testate in un campo scientifico, meno è probabile che i risultati della ricerca siano veri.
  4. Maggiore è la flessibilità nei progetti, nelle definizioni, nei risultati e nelle modalità analitiche in un campo scientifico, meno è probabile che i risultati della ricerca siano veri.
  5. Maggiori sono gli interessi e i pregiudizi finanziari e di altro tipo in un campo scientifico, meno è probabile che i risultati della ricerca siano veri.
  6. Più un campo scientifico è alla moda (con un maggior numero di team scientifici coinvolti), meno è probabile che i risultati della ricerca siano veri.

Se guardiamo attentamente l’elenco, i numeri 5 e 6 dovrebbero saltare fuori come se urlassero. Vediamo di esaminarli più da vicino. Dice Ioannidis:

“Corollario 5: maggiori sono gli interessi e i pregiudizi finanziari e di altro tipo in un campo scientifico, meno è probabile che i risultati della ricerca siano veri.” Conflitti di interesse e pregiudizi possono aumentare i pregiudizi. I conflitti di interesse sono molto comuni nella ricerca biomedica, e in genere non sono adeguatamente segnalati. Il pregiudizio potrebbe non avere necessariamente radici finanziarie. Gli scienziati in un dato campo possono essere prevenuti semplicemente a causa della loro fede in una teoria scientifica o dell’impegno nei confronti delle proprie scoperte. Molti studi universitari, seppure apparentemente indipendenti, possono essere realizzati solo per fornire a medici e ricercatori qualifiche per la loro promozione o per la loro permanenza nella struttura. Anche questi conflitti non finanziari possono anche portare a risultati e interpretazioni distorti. Può succedere che ricercatori di prestigio possono sopprimere attraverso il processo di revisione tra pari (“peer review”) la comparsa e la diffusione di interpretazioni  che confutano i loro risultati, condannando così il loro campo a perpetuare falsi dogmi. L’evidenza empirica sull’opinione degli esperti mostra che è estremamente inaffidabile”.

“Corollario 6: più popolare è un campo scientifico (con più team scientifici coinvolti), meno è probabile che i risultati della ricerca siano veri. Questo corollario apparentemente paradossale esiste perché, come affermato sopra, il PPV (valore predittivo positivo) di risultati isolati diminuisce quando molte squadre di ricercatori sono coinvolte nello stesso campo. Questo potrebbe spiegare perché occasionalmente vediamo una grande eccitazione seguita rapidamente da gravi delusioni in campi che attirano un’ampia attenzione. Con molte squadre che lavorano sullo stesso campo e con abbondanza di dati sperimentali prodotti, il tempismo è essenziale per battere la concorrenza. Pertanto, ogni squadra può dare la priorità al perseguire e diffondere i suoi risultati “positivi” più impressionanti … “

Gli scienziati prevenuti a causa delle loro convinzioni, motivati ​​da quanto il loro campo è “caldo, possono quindi dare la priorità a risultati positivi con il risultato di ovvie distorsioni nella ricerca SARS-CoV-2. Ioannidis e colleghi hanno pubblicato studi sull’esplosione della ricerca SARS-CoV-2 pubblicata , rilevando “210.863 articoli rilevanti per COVID-19, che rappresentano il 3,7% dei 5.728.015 articoli in tutta la scienza pubblicata e indicizzata in Scopus nel periodo 1 gennaio. 2020 fino al 1° agosto 2021”. Gli autori di articoli relativi a COVID-19 erano esperti in quasi tutti i campi, tra cui “pesca, ornitologia, entomologia o architettura”. Entro la fine del 2020, Ioannidis ha scritto, “solo l’ingegneria automobilistica non aveva scienziati che pubblicavano su COVID-19. All’inizio del 2021, anche gli ingegneri automobilistici hanno detto la loro”. Altri hanno anche commentato la “covidizzazione ” della ricerca , evidenziando la riduzione della qualità della ricerca poiché la COVID-mania ha spinto i ricercatori da campi non correlati verso il campo più alla moda e più redditizio disponibili.

Come ho discusso in due post precedenti, il mascheramento universale e la segnalazione dei danni causati dal COVID ai bambini sono stati irrimediabilmente politicizzati e distorti a causa dei pregiudizi dilaganti di media, politici, scienziati e organizzazioni di sanità pubblica. Ma il vero colpevole potrebbe essere il pubblico stesso e la cultura della sicurezza a rischio zero del mondo occidentale che ha incoraggiato tutti questi attori nel campo a esagerare i danni per forzare cambiamenti comportamentali. Inoltre, la maggior parte delle persone compiacenti che stanno “prendendo sul serio la pandemia” vogliono sapere che tutti i sacrifici che hanno fatto sono valsi la pena.

Gli scienziati e i media sono più che felici di mettersi d’accordo per fornire notizie:

“Immagina di essere uno scienziato e di sapere che un risultato positivo di un tuo studio porterebbe a un riconoscimento istantaneo da parte del New York Times, della CNN e di altri organi internazionali, mentre un risultato negativo porterebbe a critiche feroci da parte dei tuoi colleghi, attacchi personali e censura sui social media, e difficoltà a pubblicare i risultati. Come vi comportereste?”

La risposta è ovvia. Il desiderio travolgente di un pubblico terrorizzato di avere prove che certi interventi siano efficaci per eliminare efficacemente il rischio di infezione spingerà inevitabilmente gli scienziati a fornire tali prove. Idealmente, un riconoscimento di questo pregiudizio comporterebbe un aumento dello scetticismo da parte di altri scienziati e media, ma ciò non è accaduto. Dichiarazioni esagerate di efficacia degli interventi e danni esagerati per promuoverne l’accettazione sono diventate la norma nella segnalazione di pandemia.

Dr. John Ioannidis

Come ho discusso in un post precedente, il modo migliore per mitigare i bias di ricerca è che i ricercatori invitino partner neutrali a replicare il loro lavoro e collaborare su ulteriori studi. La capacità di rendere disponibili tutti i dati al pubblico e ad altri scienziati invita anche a revisioni critiche che sono autofinanziate e quindi potenzialmente più accurate e meno distorte. La disponibilità pubblica di set di dati e documenti ha portato al miglioramento delle previsioni sulla pandemia e ha portato la possibilità che il virus SARS-CoV-2 sia emerso da un laboratorio di ricerca fuori dalle ombre della teoria della cospirazione e alla luce pubblica.

Come risultato della disponibilità di dati pubblici documentazione trasparente, ci sono state lamentele sul fatto che queste risorse sono state utilizzate in modo improprio da scienziati da poltrona o scienziati impegnati in sconfinamenti epistemici al di fuori dei rispettivi campi, risultando in un’enorme e confusa pila di informazioni fuorvianti. Eppure, anche se il processo della scienza fosse limitato solo agli “esperti”, la stragrande maggioranza degli studi produce comunque pochissime informazioni preziose o accurate ad altri ricercatori o al pubblico in generale. Solo attraverso una dura selezione naturale e un processo di replica tra pari le idee migliori sopravvivono oltre il loro clamore iniziale. È anche importante notare che gruppi di ricercatori in un campo particolare possono essere così paralizzati da pregiudizi interni e politici e pensiero di gruppo tossico che solo quelli al di fuori del loro campo sono in grado di richiamare l’attenzione sul problema. Pertanto, la capacità di altri scienziati e del pubblico di aiutare nel processo correttivo a lungo termine della scienza è il modo migliore per avvicinarsi alla verità, nonostante i nostri difetti collettivi.

Prof. Steve Templeton

Traduzione dall’articolo originale a cura del Prof. Ugo Bardi per The Unconditional Blog

Illustrazione di copertina: John Holcroft

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *