In the spring of 1979, a lab worker in Sverdlovsk, USSR removed a clogged air filter in the ventilation system and didn’t replace it. His note to the supervisor was never transferred to the official logbook, so when the next shift rolled in, workers simply started production as usual. Now, in most labs, this would have been a minor mistake. But this lab was a biological weapons facility producing huge quantities of anthrax— which, if inhaled, can kill up to 90% of those it infects. This deadly anthrax powder floated out into the sky for hours, causing the largest documented outbreak of inhalation anthrax on record and resulting in at least 64 deaths.
In het voorjaar van 1979 verwijderde een laborant in Sverdlovsk, Sovjet-Unie een verstopte luchtfilter van het ventilatiesysteem en verving hem niet. Zijn aantekening aan de leidinggevende werd nooit in het officiële logboek gezet. Dus toen de volgende ploeg binnenkwam, begonnen die zoals gebruikelijk met hun werk. In de meeste labs zou dat een kleine fout zijn geweest. Dit was echter een lab in een fabriek voor biologische wapens die grote hoeveelheden antrax maakte, dat, als het wordt ingeademd, tot 90% van degenen die besmet zijn kan doden. Dit levensgevaarlijke antraxpoeder vloog een paar uur lang de lucht in en veroorzaakte de voor zover bekend grootste uitbraak van antrax wat minstens 64 doden tot gevolg had.
What happened at Sverdlovsk was a tragedy, and the Soviet bioweapons program was a violation of international law. But these days, it’s not just state-sponsored bioweapons programs that keep biosecurity experts up at night. Nor is anthrax their largest concern. They’re worried about an even more dangerous kind of lab leak.
Wat is Sverdlovsk gebeurde was een drama, en het Russische biowapenprogramma was een inbreuk op het internationale recht. Tegenwoordig zijn het niet alleen door de staat gesponsorde biowapenprogramma’s die bioveiligheidsexperts ’s nachts wakker houden. Antrax is ook niet hun grootste zorg. Men is bang voor een zelfs nog gevaarlijker soort lek in het lab.
Since the 1970s, researchers have been manipulating the DNA of microbes to give them abilities they didn’t have before. This is called “gain of function” work and it includes a huge body of scientific research. The majority of this work helps humanity with very little risk, for example, engineered viruses are used in vaccine production, gene therapy, and cancer treatments. But within the gain of function realm lies an intensely debated sub-field where scientists engineer superbugs. Officially known as “enhanced potential pandemic pathogens,” these ePPPs are typically variants of well-known viruses, such as Ebola or avian influenza that have been engineered to be, say, more transmissible or more deadly. The stakes of this kind of work are much higher: if even one unusually dangerous virus escaped a lab, it could cause a global pandemic.
Sinds de zeventiger jaren bewerken onderzoekers het DNA van bacteriën om ze eigenschappen te geven die ze eerst nog niet hadden. ‘Functiewinst’ wordt dat genoemd. Er komt enorm veel wetenschappelijk onderzoek bij kijken. Het meeste daarvan helpt de mensheid zonder veel risico, zoals bijvoorbeeld bewerkte virussen voor het maken van vaccins, gentherapie en behandeling tegen kanker. Binnen het domein van functieverbetering ligt een hevig bediscussieerd deelgebied waarin wetenschappers superbacteriën maken. Officieel bekend als ′verbeterde mogelijk pandemische ziekteverwekkers’, zijn deze ‘ePPP’s’ varianten van bekende virussen, zoals Ebola of vogelgriep die bijvoorbeeld zo gemanipuleerd zijn, dat ze overdraagbaarder of nog dodelijker zijn. De inzet van dit werk is veel hoger: als zelfs maar één ongewoon gevaarlijk virus uit het lab ontsnapt, kan dat een wereldwijde pandemie veroorzaken.
Virologists developing ePPPs argue this research could help us prepare for future pandemics, allowing us to jump start treatments and potentially save lives. For example, in the early 2010s, several research teams created a deadly strain of bird flu with the novel ability to spread through the air between mammals. Advocates of the project argued that by creating this ePPP, we could learn crucial information about a worst-case-scenario virus under controlled conditions. But many critics argued that it’s unclear whether bird flu would ever evolve in the wild as it did in the lab. Consequently, they believed the knowledge gained by studying this dangerous virus wasn’t remotely worth the risk of creating it in the first place.
Virologen die ePPP’s ontwikkelen, betogen dat hun onderzoek ons helpt voorbereiden op toekomstige pandemieën, zodat ze snel kunnen beginnen en daarmee mogelijk levens kunnen sparen. In de jaren 2010 bijvoorbeeld, maakten verschillende onderzoeksteams een dodelijke variant van de vogelgriep die zich via de lucht kon verspreiden onder zoogdieren. Voorstanders van het project betoogden dat we door het maken van deze ePPP, essentiële informatie zouden krijgen over een worst-case-scenariovirus onder gecontroleerde omstandigheden. Veel critici opperden echter dat het onduidelijk is of vogelgriep zich ooit in het echt ontwikkelt zoals dat in het lab ging. Ze geloofden ook dat de kennis die werd verkregen met dit gevaarlijke virus, bij lange na niet de risico’s waard waren om het überhaupt te maken.
Both sides of this ongoing debate are trying to save lives; they just disagree on the best way to do it. However, everyone agrees that an ePPP lab leak could be catastrophic. Labs that work with dangerous pathogens are designed with numerous safety features to protect the scientists who work there, as well as the outside world, such as ventilation systems that decontaminate air and airtight “spacesuits” with dedicated oxygen. Sometimes buildings are even nested inside each other to prevent natural disasters from breaching the closed environment. But this technology is expensive to build and maintain. And even when our tech doesn't fail, there’s still room for the most common kind of mistake: human error.
Beide kampen in dit lopende debat proberen levens te redden; ze zijn het er alleen niet over eens op welke manier. Toch is iedereen het eens dat een uitbraak van een ePPP rampzalig kan zijn. Labs die werken met gevaarlijke ziekteverwekkers hebben tal van veiligheidsvoorzieningen om de wetenschappers die daar werken te beschermen, maar ook de buitenwereld, zoals met ventilatiesystemen die lucht zuiveren en luchtdichte ‘ruimtepakken’ met eigen zuurstof. Soms bouwt men gebouwen in elkaar waardoor natuurrampen het binnenste niet kunnen bereiken. Deze techniek is echter duur om te bouwen en te onderhouden. En zelfs als die techniek het goed doet, kunnen nog steeds de meestvoorkomende ongelukken gebeuren: menselijke fouten.
Many human errors are inconsequential: a researcher spills a sample, but quickly disinfects the otherwise well-controlled environment. Other incidents, however, are much more concerning. In 2009, a researcher accidentally stuck themselves with an Ebola-contaminated needle, endangering their life and the lives of those treating them. In 2014, six vials containing the virus that causes smallpox were found in an unsecured storage room where they’d been forgotten for decades. That same year, a CDC scientist unknowingly contaminated a sample of relatively harmless bird flu with a deadly lab-grown variant, and then shipped the contaminated sample to the USDA.
Veel menselijke fouten zijn niet consequent: een onderzoeker morst een staal, maar desinfecteert snel de verder goedgecontroleerde omgeving. Andere ongelukken zijn echter zorgelijker. In 2009 stak een onderzoeker zichzelf per ongeluk met een met Ebola besmette naald, en bracht zichzelf en zijn behandelaars in gevaar. In 2014 werden zes flacons met een virus dat de pokken veroorzaakt, gevonden in een onbeveiligde opslagruimte waar ze tientallen jaren waren vergeten. Datzelfde jaar besmette een CDC-wetenschapper onbedoeld een relatief onschuldig vogelgriepmonster met een dodelijke variant uit het lab, en verstuurde dat besmette monster naar het Ministerie van Landbouw.
While these incidents did not lead to larger crises, the potentially catastrophic consequences of an ePPP leak have convinced many scientists that we should stop this kind of research altogether. But if that doesn’t happen, what can we do to minimize risk? Well, first, we can work to reduce human error by examining past mistakes. Some experts have suggested creating an international database of leaks, near-misses, and fixes taken that would help labs adapt their protocols to minimize human errors. And a robust, well-funded pandemic early warning system would help protect us from any disease outbreak— whether it comes from a lab leak or a natural spillover.
Hoewel deze incidenten niet tot grotere crises leidden, hebben de mogelijke rampzalige gevolgen van een ePPP-lek veel wetenschappers er wel van overtuigd dat dit soort onderzoek sowieso moet stoppen. Maar als dat gebeurt, hoe minimaliseren we dan het risico? Ten eerste kan je menselijke fouten reduceren door te leren uit het verleden. Sommige experts hebben een internationale databank geadviseerd van lekken, bijna-ongelukken en reparaties die moet helpen bij het aanpassen van protocollen om menselijke fouten te minimaliseren. En een robuust goedgefinancierd pandemie-waarschuwingssysteem zou helpen om ons tegen uitbraken van elk soort ziekte, of het nou komt uit een lekkend lab of een natuurlijke besmetting.
Developing the kind of global standards and databases necessary for these changes would be difficult— requiring unprecedented international collaboration and transparency. But we need to overcome these hurdles because pandemics don't care about borders or politics.
Het ontwikkelen van noodzakelijke wereldwijde standaarden en databanken voor deze veranderingen kan moeilijk zijn en vereist een ongekende internationale samenwerking en transparantie. Toch moeten we deze hindernissen nemen, omdat pandemieën zich niets aantrekken van grenzen of politiek.