In the spring of 1979, a lab worker in Sverdlovsk, USSR removed a clogged air filter in the ventilation system and didn’t replace it. His note to the supervisor was never transferred to the official logbook, so when the next shift rolled in, workers simply started production as usual. Now, in most labs, this would have been a minor mistake. But this lab was a biological weapons facility producing huge quantities of anthrax— which, if inhaled, can kill up to 90% of those it infects. This deadly anthrax powder floated out into the sky for hours, causing the largest documented outbreak of inhalation anthrax on record and resulting in at least 64 deaths.
در بهار ۱۹۷۹، یک کارمند آزمایشگاه در سوردلوفسک، اتحادیه جماهیر شوروی فیلتر هوای مسدودشدهای را بدون جایگزین کردن از سیستم تهویه برداشت. یادداشت او برای سرپرستش هیچگاه به دفتر رسمی انتقال نیافت، سپس هنگامی که شیفت بعدی آغاز شد، کارکنان بدون وقفه شروع به کار کردند. امروزه در اکثر آزمایشگاهها، این یک اشتباه جزئی است. اما این آزمایشگاه یک مرکز تسلیحات بیولوژیکی بود که مقادیر زیادی سیاه زخم تولید میکرد – که در صورت استنشاق، میتواند تا ۹۰ درصد از افراد آلوده را از بین ببرد. این پودر کشنده سیاه زخم برای ساعتها در آسمان شناور شد و باعث بزرگترین شیوع ثبت شدهی سیاه زخم استنشاقی در تاریخ و منجر به مرگ حداقل ۶۴ نفر شد.
What happened at Sverdlovsk was a tragedy, and the Soviet bioweapons program was a violation of international law. But these days, it’s not just state-sponsored bioweapons programs that keep biosecurity experts up at night. Nor is anthrax their largest concern. They’re worried about an even more dangerous kind of lab leak.
آنچه در سوردلوفسک اتفاق افتاد و برنامه سلاحهای زیستی شوروی نقض قوانین بینالمللی بود. اما این روزها، فقط برنامههای ساخت سلاحهای زیستی تحت حمایت دولت نیستند که کارشناسان امنیت زیستی را در شب بیدار نگه میدارند. سیاه زخم هم بزرگترین نگرانی آنها نیست. آنها نگران نوع خطرناکتری از نشت آزمایشگاهی هستند.
Since the 1970s, researchers have been manipulating the DNA of microbes to give them abilities they didn’t have before. This is called “gain of function” work and it includes a huge body of scientific research. The majority of this work helps humanity with very little risk, for example, engineered viruses are used in vaccine production, gene therapy, and cancer treatments. But within the gain of function realm lies an intensely debated sub-field where scientists engineer superbugs. Officially known as “enhanced potential pandemic pathogens,” these ePPPs are typically variants of well-known viruses, such as Ebola or avian influenza that have been engineered to be, say, more transmissible or more deadly. The stakes of this kind of work are much higher: if even one unusually dangerous virus escaped a lab, it could cause a global pandemic.
از دهه ۱۹۷۰، محققان دیانای میکروبها را دستکاری کردهاند تا به آنها تواناییهایی نوظهور بدهند. به این کار «افزایش عملکرد» گفته میشود و شامل حجم عظیمی از تحقیقات علمی است. اکثر این کارها با خطر بسیار کمی به بشریت کمک میکند، بهعنوان مثال، ویروسهای مهندسیشده در تولید واکسن، ژندرمانی و درمان سرطان استفاده میشوند. اما در قلمرو این روش، یک حوزه فرعیِ به شدت مورد بحث قرار دارد که در آن دانشمندان ابرمیکروبها را مهندسی میکنند. این میکروبها که رسما بهعنوان «پاتوژنهای همهگیر بالقوهی تقویتشده» معروفند، معمولاً انواعی از ویروسهای شناختهشده مانند ابولا یا آنفولانزای مرغی هستند که برای مثال، سرایتپذیرتر یا کشندهتر طراحی شدهاند. خطرات این نوع کار بسیار بیشتر است: اگر حتی یک ویروس غیرعادی خطرناک از آزمایشگاه فرار کند، میتواند باعث یک بیماری همهگیر جهانی شود.
Virologists developing ePPPs argue this research could help us prepare for future pandemics, allowing us to jump start treatments and potentially save lives. For example, in the early 2010s, several research teams created a deadly strain of bird flu with the novel ability to spread through the air between mammals. Advocates of the project argued that by creating this ePPP, we could learn crucial information about a worst-case-scenario virus under controlled conditions. But many critics argued that it’s unclear whether bird flu would ever evolve in the wild as it did in the lab. Consequently, they believed the knowledge gained by studying this dangerous virus wasn’t remotely worth the risk of creating it in the first place.
ویروسشناسان توسعهدهندهی این پاتوژنها استدلال میکنند که این تحقیق در آمادگی ما برای همهگیریهای آینده کمک میکند و به ما امکان شروع درمانها را میدهد تا به طور بالقوه زندگیها را نجات دهیم. بهعنوان مثال، در اوایل دهه ۲۰۱۰، چندین تیم تحقیقاتی یک سویه کشنده از آنفولانزای مرغی را با توانایی جدید برای انتشار از طریق هوا بین پستانداران ایجاد کردند. طرفداران این پروژه استدلال کردند که با ایجاد این پاتوژنها، میتوانیم اطلاعات مهمی در مورد بدترین حالت ممکن یک ویروس تحت شرایط کنترلشده بیاموزیم. اما بسیاری از منتقدان استدلال کردند که مشخص نیست آیا آنفولانزای مرغی در طبیعت مانند آزمایشگاه تکامل مییابد یا نه. در آخر، آنها معتقد بودند دانش به دست آمده از مطالعه این ویروس خطرناک در وهله اول ارزش خطر ایجادش را ندارد.
Both sides of this ongoing debate are trying to save lives; they just disagree on the best way to do it. However, everyone agrees that an ePPP lab leak could be catastrophic. Labs that work with dangerous pathogens are designed with numerous safety features to protect the scientists who work there, as well as the outside world, such as ventilation systems that decontaminate air and airtight “spacesuits” with dedicated oxygen. Sometimes buildings are even nested inside each other to prevent natural disasters from breaching the closed environment. But this technology is expensive to build and maintain. And even when our tech doesn't fail, there’s still room for the most common kind of mistake: human error.
هر دو طرف این بحث ادامهدار در تلاش برای نجات جانها هستند؛ فقط در مورد بهترین راه برای انجامش اختلاف نظر دارند. با این حال، همه موافقند که نشت آزمایشگاهیِ این پاتوژن میتواند فاجعهبار باشد. آزمایشگاههایی که با پاتوژنهای کشنده کار میکنند با ویژگیهای ایمنی متعددی طراحی شدند تا از دانشمندان مشغول در آنجا و همچنین دنیای بیرون محافظت کنند، مانند سیستمهای تهویه که هوا و «لباسهای فضایی» ضد هوا را با اکسیژن اختصاصی ضدعفونی میکنند. حتی گاهی ساختمانها درون یکدیگر تودرتو ساخته میشوند تا از وقوع بلایای طبیعی در محیط بسته جلوگیری شود. اما ساخت و نگهداری این فناوری هزینهبر است. و حتی زمانی که فناوری ما شکست نمیخورد، همچنان جایی برای رایجترین نوع اشتباه وجود دارد: خطای انسانی.
Many human errors are inconsequential: a researcher spills a sample, but quickly disinfects the otherwise well-controlled environment. Other incidents, however, are much more concerning. In 2009, a researcher accidentally stuck themselves with an Ebola-contaminated needle, endangering their life and the lives of those treating them. In 2014, six vials containing the virus that causes smallpox were found in an unsecured storage room where they’d been forgotten for decades. That same year, a CDC scientist unknowingly contaminated a sample of relatively harmless bird flu with a deadly lab-grown variant, and then shipped the contaminated sample to the USDA.
بسیاری از خطاهای انسانی بیاهمیت هستند: یک محقق نمونهای را میریزد، اما به سرعت محیطی که به خوبی کنترل شده است را ضدعفونی میکند. با این حال، حوادث دیگر بسیار نگرانکنندهتر هستند. در سال ۲۰۰۹، به طور تصادفی محققی یک سوزن آلوده به ابولا را به بدنش زد و جان خود و افرادی که آنها را درمان می کردند، به خطر انداخت. در سال ۲۰۱۴، شش ویال حاوی ویروس عامل آبله پیدا شد، در یک اتاق ذخیرهسازی ناامن، جایی که برای دههها فراموش شده بودند. در همان سال، یک دانشمند سیدیسی (مرکز کنترل و پیشگیری از بیماریها) ناخودآگاه نمونهای بیضرر از آنفولانزای مرغی را با نوع کشنده آزمایشگاهی آلوده کرد و سپس نمونه آلوده را به وزارت کشاورزی آمریکا فرستاد.
While these incidents did not lead to larger crises, the potentially catastrophic consequences of an ePPP leak have convinced many scientists that we should stop this kind of research altogether. But if that doesn’t happen, what can we do to minimize risk? Well, first, we can work to reduce human error by examining past mistakes. Some experts have suggested creating an international database of leaks, near-misses, and fixes taken that would help labs adapt their protocols to minimize human errors. And a robust, well-funded pandemic early warning system would help protect us from any disease outbreak— whether it comes from a lab leak or a natural spillover.
درحالیکه این حوادث منجر به بحرانهای بزرگتری نشد، پیامدهای بالقوه فاجعهبارِ نشت پاتوژن به بیرون بسیاری از دانشمندان را متقاعد کرده است که ما باید این نوع تحقیقات را به طور کامل متوقف کنیم. اما اگر این اتفاق نیفتد، چه کاری میتوان کرد تا خطر را به حداقل برسانیم؟ خوب، ابتدا میتوانیم با بررسی اشتباهاتِ گذشته، برای کاهش خطای انسانی تلاش کنیم. برخی از کارشناسان پیشنهاد کردهاند که یک پایگاه داده بینالمللی از نشتها، رویدادهای ناخواسته و تغییرات گذشته ایجاد شود تا به آزمایشگاهها در تطبیق قوانینشان برای کم کردن خطاهای انسانی کمک کند. و یک سامانه هشدار سریع بیماری همهگیر قوی و با بودجه مناسب میتواند به محافظت از ما علیه هر نوع شیوع بیماری کمک کند - چه نشت آزمایشگاهی باشد یا یک سرریز طبیعی.
Developing the kind of global standards and databases necessary for these changes would be difficult— requiring unprecedented international collaboration and transparency. But we need to overcome these hurdles because pandemics don't care about borders or politics.
ایجاد استانداردهای جهانی و پایگاههای اطلاعاتی لازم برای این تغییرات دشوار خواهد بود - و نیازمند همکاری بینالمللی و شفافیت بیسابقهای است. اما ما باید بر این موانع غلبه کنیم زیرا همهگیریها به مرزها یا سیاست اهمیت نمیدهند.