In the spring of 1979, a lab worker in Sverdlovsk, USSR removed a clogged air filter in the ventilation system and didn’t replace it. His note to the supervisor was never transferred to the official logbook, so when the next shift rolled in, workers simply started production as usual. Now, in most labs, this would have been a minor mistake. But this lab was a biological weapons facility producing huge quantities of anthrax— which, if inhaled, can kill up to 90% of those it infects. This deadly anthrax powder floated out into the sky for hours, causing the largest documented outbreak of inhalation anthrax on record and resulting in at least 64 deaths.
Nella primavera del 1979 un tecnico di laboratorio in Sverdlovsk, URSS, rimosse dal sistema di ventilazione un filtro dell’aria intasato, ma non lo sostituì. La nota destinata al supervisore non fu ricopiata nel registro ufficiale, per cui all’arrivo del nuovo turno, i tecnici ripresero la produzione come se niente fosse. In gran parte dei laboratori sarebbe considerato un errore da niente, ma questo laboratorio era un impianto di armi biologiche e produceva quantità enormi di antrace, che, se inalata, è in grado di uccidere il 90% degli infettati. La letale polvere di antrace fluttuò in aria per ore, causando il più grave caso documentato di inalazione di antrace che portò alla morte di almeno 64 persone.
What happened at Sverdlovsk was a tragedy, and the Soviet bioweapons program was a violation of international law. But these days, it’s not just state-sponsored bioweapons programs that keep biosecurity experts up at night. Nor is anthrax their largest concern. They’re worried about an even more dangerous kind of lab leak.
Quello che avvenne a Sverdlovsk fu una tragedia e la ricerca sovietica di armi biologiche una violazione della legge internazionale. Ma oggi, non sono solo i programmi di armi biologiche finanziati dallo stato a tenere svegli la notte gli esperti di biosicurezza. E l’antrace non è certo la peggiore delle loro preoccupazioni. Sono preoccupati, infatti, per incidenti di laboratorio ben peggiori.
Since the 1970s, researchers have been manipulating the DNA of microbes to give them abilities they didn’t have before. This is called “gain of function” work and it includes a huge body of scientific research. The majority of this work helps humanity with very little risk, for example, engineered viruses are used in vaccine production, gene therapy, and cancer treatments. But within the gain of function realm lies an intensely debated sub-field where scientists engineer superbugs. Officially known as “enhanced potential pandemic pathogens,” these ePPPs are typically variants of well-known viruses, such as Ebola or avian influenza that have been engineered to be, say, more transmissible or more deadly. The stakes of this kind of work are much higher: if even one unusually dangerous virus escaped a lab, it could cause a global pandemic.
Dagli anni ’70, i ricercatori manipolano il DNA dei microbi per fornire loro abilità che prima non avevano. Tale attività è detta ”guadagno di funzione” e include un’enorme quantità di ricerche scientifiche. La maggior parte di queste ricerche aiuta l’umanità con un rischio minimo, per esempio, ingegnerizzando i virus usati per produrre vaccini, terapie genetiche e trattamenti oncologici. Il mondo del guadagno di funzione comprende però una branca controversa che sviluppa supergermi. Ufficialmente detti “potenziali patogeni pandemici potenziati” di solito questi ePPP sono varianti di virus già noti, come l’ebola o l’influenza aviaria, ingegnerizzati, per esempio, per aumentarne la trasmissibilità o la letalità. L’azzardo di queste ricerche è altissimo: se anche uno solo di questi virus sfuggisse al laboratorio, potrebbe provocare una pandemia globale.
Virologists developing ePPPs argue this research could help us prepare for future pandemics, allowing us to jump start treatments and potentially save lives. For example, in the early 2010s, several research teams created a deadly strain of bird flu with the novel ability to spread through the air between mammals. Advocates of the project argued that by creating this ePPP, we could learn crucial information about a worst-case-scenario virus under controlled conditions. But many critics argued that it’s unclear whether bird flu would ever evolve in the wild as it did in the lab. Consequently, they believed the knowledge gained by studying this dangerous virus wasn’t remotely worth the risk of creating it in the first place.
Secondo i virologi che sviluppano ePPP queste ricerche potrebbero prepararci per le pandemie del futuro, permettendoci di iniziare subito i trattamenti e salvare vite. Per esempio, nei primi anni 2010, diversi team di ricerca progettarono un ceppo letale d’influenza aviaria con l’inedita abilità di trasmettersi per via aerea tra i mammiferi. I sostenitori di questo progetto ritenevano che creando tali ePPP si potessero apprendere informazioni cruciali sui peggiori virus in condizioni controllate. Molti erano dubbiosi e sostenevano che non fosse chiaro se l’aviaria si sarebbe evoluta in natura come accadeva in laboratorio. E ritenevano quindi che il sapere ottenuto studiando questo virus così pericoloso non giustificasse nemmeno lontanamente il rischio corso per svilupparlo.
Both sides of this ongoing debate are trying to save lives; they just disagree on the best way to do it. However, everyone agrees that an ePPP lab leak could be catastrophic. Labs that work with dangerous pathogens are designed with numerous safety features to protect the scientists who work there, as well as the outside world, such as ventilation systems that decontaminate air and airtight “spacesuits” with dedicated oxygen. Sometimes buildings are even nested inside each other to prevent natural disasters from breaching the closed environment. But this technology is expensive to build and maintain. And even when our tech doesn't fail, there’s still room for the most common kind of mistake: human error.
Entrambe le parti di questa diatriba cercano di salvare vite; solo non sono d’accordo sul modo migliore per farlo. Ma tutti concordano che la fuga di un ePPP da un laboratorio sarebbe una catastrofe. I laboratori con patogeni pericolosi prevedono numerose misure di sicurezza per proteggere gli scienziati che ci lavorano e il mondo esterno, come sistemi di ventilazione che decontaminano l’aria e “tute spaziali” ermetiche con ossigeno integrato. A volte gli edifici sono costruiti l’uno dentro l’altro per evitare che un disastro naturale possa violare l’ambiente circoscritto. La costruzione e la manutenzione di tale tecnologia sono però costose e anche quando la tecnologia non fallisce, c’è sempre l’eventualità del tipo di errore più comune: l’errore umano.
Many human errors are inconsequential: a researcher spills a sample, but quickly disinfects the otherwise well-controlled environment. Other incidents, however, are much more concerning. In 2009, a researcher accidentally stuck themselves with an Ebola-contaminated needle, endangering their life and the lives of those treating them. In 2014, six vials containing the virus that causes smallpox were found in an unsecured storage room where they’d been forgotten for decades. That same year, a CDC scientist unknowingly contaminated a sample of relatively harmless bird flu with a deadly lab-grown variant, and then shipped the contaminated sample to the USDA.
Molti errori umani sono insignificanti: un ricercatore fa cadere un campione, ma disinfetta immediatamente l’ambiente per il resto ben controllato. Altri incidenti, invece, sono molto più preoccupanti. Nel 2009, un ricercatore si punse inavvertitamente con un ago contaminato con l’ebola, mettendo in pericolo la propria vita e quella di chi lo curò. Nel 2014, sei fiale contenenti il virus che provoca il vaiolo furono trovate in un deposito non protetto dove erano state dimenticate per decenni. Lo stesso anno uno scienziato del CDC contaminò a sua insaputa un campione d’aviaria piuttosto innocuo con una variante letale del laboratorio e poi spedì i campioni contaminati al ministero americano dell’agricoltura.
While these incidents did not lead to larger crises, the potentially catastrophic consequences of an ePPP leak have convinced many scientists that we should stop this kind of research altogether. But if that doesn’t happen, what can we do to minimize risk? Well, first, we can work to reduce human error by examining past mistakes. Some experts have suggested creating an international database of leaks, near-misses, and fixes taken that would help labs adapt their protocols to minimize human errors. And a robust, well-funded pandemic early warning system would help protect us from any disease outbreak— whether it comes from a lab leak or a natural spillover.
Anche se questi incidenti non hanno portato a crisi maggiori, le conseguenze potenzialmente catastrofiche della dispersione di un ePPP hanno convinto molti scienziati che si dovrebbe cessare del tutto questo tipo di ricerca. Ma se questo non succede, cosa possiamo fare per minimizzare il rischio? Possiamo ridurre l’errore umano esaminando gli errori del passato. Alcuni esperti hanno suggerito di creare un database mondiale degli incidenti, di quelli sfiorati e delle soluzioni trovate, per adattare i protocolli dei laboratori e minimizzare l’errore umano. Inoltre un sistema di allerta precoce contro la pandemia solido e ben finanziato potrebbe proteggerci da qualsiasi focolaio, che derivi da una fuga di laboratorio o da un salto di specie in natura.
Developing the kind of global standards and databases necessary for these changes would be difficult— requiring unprecedented international collaboration and transparency. But we need to overcome these hurdles because pandemics don't care about borders or politics.
Sviluppare a livello globale le norme e i database necessari per questi cambiamenti sarà complicato e richiederà collaborazione e trasparenza a livello internazionale come mai prima. Dobbiamo però superare questi ostacoli perché le pandemie sono indifferenti ai confini e alla politica.