In the spring of 1979, a lab worker in Sverdlovsk, USSR removed a clogged air filter in the ventilation system and didn’t replace it. His note to the supervisor was never transferred to the official logbook, so when the next shift rolled in, workers simply started production as usual. Now, in most labs, this would have been a minor mistake. But this lab was a biological weapons facility producing huge quantities of anthrax— which, if inhaled, can kill up to 90% of those it infects. This deadly anthrax powder floated out into the sky for hours, causing the largest documented outbreak of inhalation anthrax on record and resulting in at least 64 deaths.
1979년 봄, 소련 예카테른부르크의 한 실험실에서 일하던 직원이 환기 장치에서 막힌 공기 필터를 뺀 후 실수로 새 필터를 끼우지 않았습니다. 그는 곧 이 사실을 관리자에게 알렸지만 공식 일지에 기록되지 않았고 다음 교대 근무자가 들어와 늘 하던대로 일을 계속했죠. 오늘날 대부분 실험실이라면 사소한 실수였을 겁니다. 하지만 이 실험실은 생물학 무기 연구 시설이어서 어마어마한 양의 탄저균을 배양하고 있었는데 이 균을 흡입한 감염자는 최대 90%까지 사망합니다. 이렇게 치명적인 탄저균 가루는 몇 시간 동안 바깥 공기 중에 떠다녔고 결국 탄저균 피해 역사상 가장 처참한 결과를 불러왔습니다. 최소 64명이 사망했죠.
What happened at Sverdlovsk was a tragedy, and the Soviet bioweapons program was a violation of international law. But these days, it’s not just state-sponsored bioweapons programs that keep biosecurity experts up at night. Nor is anthrax their largest concern. They’re worried about an even more dangerous kind of lab leak.
예카테른부르크에서 일어난 이 비극적인 사건은 소련 생물학 무기 프로그램이 국제법을 위반해서 일어난 일이었습니다. 하지만 생물 보안 전문가들이 오늘날 걱정하는 것은 단지, 국가에서 후원하는 생물학 무기 프로그램이나 탄저균뿐만이 아닙니다. 전문가들은 훨씬 더 위험한 실험실 유출을 걱정하고 있죠.
Since the 1970s, researchers have been manipulating the DNA of microbes to give them abilities they didn’t have before. This is called “gain of function” work and it includes a huge body of scientific research. The majority of this work helps humanity with very little risk, for example, engineered viruses are used in vaccine production, gene therapy, and cancer treatments. But within the gain of function realm lies an intensely debated sub-field where scientists engineer superbugs. Officially known as “enhanced potential pandemic pathogens,” these ePPPs are typically variants of well-known viruses, such as Ebola or avian influenza that have been engineered to be, say, more transmissible or more deadly. The stakes of this kind of work are much higher: if even one unusually dangerous virus escaped a lab, it could cause a global pandemic.
1970년대부터, 과학자들은 미생물 DNA를 조작하여 미생물에 새로운 능력이 생기게 하는 연구를 해왔습니다. “기능 획득“이라고 하는 이 연구는 과학 연구에서 큰 비중을 차지합니다. 대부분은 인간에게 유익하면서 위험성이 낮은 연구입니다. 예를 들면, 바이러스를 조작해 백신을 만들거나 유전자 치료와 암 치료에 활용하는 것이죠. 기능 획득 영역에서 심도 있게 논의되는 하위 분야는 슈퍼버그를 조작하는 분야입니다. 슈퍼버그는 공식적으로 “개선된 잠재적 전염 병원체(ePPP)“를 뜻하며 이 ePPP들은 대개 기존 바이러스의 변종입니다. 기존에 있던 에볼라나 조류 독감 따위의 바이러스를 새롭게 조작해서 전염이 더 잘 되고 더 치명적인 변종으로 만든 것이죠. 이런 작업은 훨씬 더 위험합니다. 흔치 않은 치명적 바이러스가 단 하나만 실험실에서 유출되어도 전 세계에 감염병이 유행할 수 있죠.
Virologists developing ePPPs argue this research could help us prepare for future pandemics, allowing us to jump start treatments and potentially save lives. For example, in the early 2010s, several research teams created a deadly strain of bird flu with the novel ability to spread through the air between mammals. Advocates of the project argued that by creating this ePPP, we could learn crucial information about a worst-case-scenario virus under controlled conditions. But many critics argued that it’s unclear whether bird flu would ever evolve in the wild as it did in the lab. Consequently, they believed the knowledge gained by studying this dangerous virus wasn’t remotely worth the risk of creating it in the first place.
ePPP를 개발하는 바이러스 학자들은 이 연구가 향후 감염병 유행을 막는 데 도움이 될 것이라고 말합니다. 질병 치료를 활성화하고 많은 생명을 살릴 수 있다는 거죠. 예를 들어, 2010년대 초반에 여러 연구팀이 치명적인 조류 독감 바이러스를 만들었는데 이 바이러스는 포유류 사이에서 공기를 통해 전염될 수 있었습니다. 이 연구에 찬성하는 사람들은 ePPP를 실험실에서 만들면 중요한 정보를 얻을 수 있다고 했죠. 최악의 시나리오 바이러스를 통제된 조건에서 연구할 수 있으니까요. 하지만 반대하는 사람들은 조류 독감이 실험실에서처럼 야생에서도 진화할 수 있다고 걱정했습니다. 그들은 이 위험한 바이러스를 연구해서 얻을 수 있는 지식의 가치보다 그로 인한 위험성이 훨씬 높다고 본 거죠.
Both sides of this ongoing debate are trying to save lives; they just disagree on the best way to do it. However, everyone agrees that an ePPP lab leak could be catastrophic. Labs that work with dangerous pathogens are designed with numerous safety features to protect the scientists who work there, as well as the outside world, such as ventilation systems that decontaminate air and airtight “spacesuits” with dedicated oxygen. Sometimes buildings are even nested inside each other to prevent natural disasters from breaching the closed environment. But this technology is expensive to build and maintain. And even when our tech doesn't fail, there’s still room for the most common kind of mistake: human error.
생명을 살리고자 하는 의도는 모두가 같았지만 그 방법에 대한 의견이 달랐던 겁니다. 다만, ePPP가 유출되면 엄청난 재앙이 될 것이라는 사실엔 모두가 동의했습니다. 위험한 병원균을 다루는 연구소에는 수많은 안전 장비를 설치합니다. 그곳에서 일하는 연구원들과 지역 사회를 보호하기 위해서죠. 예를 들면, 오염된 공기를 정화하는 환기 장치나 전용 산소가 공급되는 밀폐 우주복 같은 것들입니다. 어떤 연구소 건물들은 중첩 구조로 설계하기도 하는데 그렇게 하면, 자연 재해가 와도 밀폐된 실험실이 뚫리지 않습니다. 하지만 이런 기술로 건물을 짓고 유지하려면 비용이 많이 듭니다. 설사 이것이 성공한다고 하더라도 가장 빈번한 실수의 여지는 여전히 남아있죠. 바로 인재입니다.
Many human errors are inconsequential: a researcher spills a sample, but quickly disinfects the otherwise well-controlled environment. Other incidents, however, are much more concerning. In 2009, a researcher accidentally stuck themselves with an Ebola-contaminated needle, endangering their life and the lives of those treating them. In 2014, six vials containing the virus that causes smallpox were found in an unsecured storage room where they’d been forgotten for decades. That same year, a CDC scientist unknowingly contaminated a sample of relatively harmless bird flu with a deadly lab-grown variant, and then shipped the contaminated sample to the USDA.
대개 인간의 실수는 별로 중대하지 않습니다. 연구원이 실수로 표본을 쏟아도 잘 통제된 환경에서는 금방 소독하면 문제되지 않습니다. 하지만 더 우려되는 다른 실수도 있죠. 2009년, 한 연구원은 실수로 에볼라에 감염된 주사 바늘에 찔려 본인뿐 아니라 그를 치료한 사람들까지 위험에 빠뜨렸습니다. 2014년에는, 천연두 유발 바이러스가 포함된 유리병 여섯 개가 보안이 허술한 저장고 안에 수십 년 간 방치되기도 했죠. 같은 해, 미국질병통제예방센터의 한 연구원은 자신도 모르게 무해한 조류 독감 바이러스 표본 하나를 치명적으로 조작된 변종으로 오염시켰는데 오염된 표본을 그대로 미국 농무부에 발송했습니다.
While these incidents did not lead to larger crises, the potentially catastrophic consequences of an ePPP leak have convinced many scientists that we should stop this kind of research altogether. But if that doesn’t happen, what can we do to minimize risk? Well, first, we can work to reduce human error by examining past mistakes. Some experts have suggested creating an international database of leaks, near-misses, and fixes taken that would help labs adapt their protocols to minimize human errors. And a robust, well-funded pandemic early warning system would help protect us from any disease outbreak— whether it comes from a lab leak or a natural spillover.
이런 사건들은 다행히 큰 사고로 이어지지는 않았지만, ePPP가 유출되면 잠재적으로 커다란 재앙을 가져올 수 있으므로 많은 과학자들은 이런 연구를 다같이 멈춰야 한다고 생각했습니다. 하지만 그럴 수 없다면, 어떻게 해야 위험을 최소화할 수 있을까요? 우선, 과거의 실수를 되돌아보고 인적 오류를 줄여야 합니다. 일부 전문가는 국제적 자료 체계를 만들자고 제안합니다. 실험실 유출과 위기, 대응 자료를 모아 연구소가 인재를 최소화하게 돕는 거죠. 또한 재정 지원이 탄탄한 감염병 조기 경보 체계를 구축하면 어떤 질병이 발발해도 예방이 가능할 것입니다. 실험실 유출로 인한 질병이든 자연 발생 질병이든 다 막을 수 있죠.
Developing the kind of global standards and databases necessary for these changes would be difficult— requiring unprecedented international collaboration and transparency. But we need to overcome these hurdles because pandemics don't care about borders or politics.
이런 변화에 필요한 국제적 기준이나 자료 체계를 개발하는 일은 결코 쉽지 않을 것입니다. 새로운 국제적 협력과 투명성이 요구되기 때문이죠. 하지만 우린 이 벽을 넘어서야 합니다. 감염병 유행은 국경과 정치에 상관없이 발생할 테니까요.