هوش مصنوعی و جلوگیری از شیوع آنفلوانزا در آینده
نهادهای پزشکی و مراقبتی سرتاسر جهان، به دلیل شیوع ویروس کورونای جدید، زمستان امسال را پرکار آغاز کردهاند.
بر اساس آخرین آمارها بیش از ۶۴ هزار مورد ابتلا به این ویروس که نام رسمی آن COVID-19 است، شناسایی شده و تعداد جان باختگان نیز از ۱۳۸۴ نفر فراتر رفته است. این ویروس با سرعت نگران کنندهای در حال گسترش است و هراس جهانی از شیوع آن، حتی به لغو رویدادهای مهمی مانند کنگره جهانی موبایل بارسلون (MWC 2020)، یک هفته مانده به آغاز، انجامیده است.
اما در آینده نزدیک، ساخت داروها به کمک هوش مصنوعی، میتواند به تولید واکسنها و درمانهایی منجر شود که به سرعت از شیوع ویروسهای کشنده، پیش از آنکه به اپیدمی جهانی تبدیل شوند، جلوگیری کند.
روشهای متداول ساخت دارو و واکسن، امروز دیگر کارآمد نیست؛ زیرا محققان گاه نزدیک به یک دهه را در آزمایشگاهها صرف میکنند تا یکی یکی مولکولهای کاندیدا را با روش سعی و خطا آزمایش کنند.
تحقیقی که در سال ۲۰۱۹ میلادی از سوی مرکز Tufts انجام شده، بیان میدارد که توسعه یک درمان دارویی جدید، به طور متوسط ۲٫۶ میلیارد دلار هزینه دارد که این هزینه نسبت به سال ۲۰۰۳ میلادی بیش از دو برابر شده است و جالب اینکه فقط ۱۲ درصد داروهای ساخته شده، موفق به دریافت تاییدیه سازمان غذا و داروی آمریکا (FDA) میشوند.
از سوی دیگر، به گفته دکتر اوا ماریا استراوچ، استادیار علوم دارویی و زیست پزشکی دانشگاه جورجیا، فرایند تایید داروها در FDA نیز خود ۵ تا ۱۰ سال به طول میانجامد.
با این حال، با کمک سیستمهای یادگیری ماشین، محققان زیست پزشکی میتوانند روش آزمون و خطا را به فراموشی بسپارند و به جای اینکه به طور سیستماتیک، هر روش درمانی احتمالی را به طور دستی آزمایش کنند، این کار را به هوش مصنوعی بسپارند. هوش مصنوعی با بررسی پایگاه دادههای عظیم، میتواند ترکیبهای مناسب احتمالی را بیابد و بگوید که کدام یک در درمان موثر خواهد بود.
جاشوا سوامیداس، متخصص زیست شناسی رایانشی در دانشگاه واشنگتن در سال ۲۰۱۹ به نشریه The Scientist گفته بود: دیگر زمان آن گذشته که تیمهای ساخت دارو، دادهها را در ذهنشان تحلیل کنند. باید روشهای سیستماتیکی به کار گرفته شود که بتوان مقادیر بزرگتری از دادهها را بررسی کرد.
برای مثال، تربینافین (terbinafine) یک داروی خوراکی ضد قارچ بود که در سال ۱۹۹۶ میلادی با نام تجاری لامیفیل (Lamifil) به بازار آمد. اما در عرض سه سال، چندین گزارش از عوارض منفی آن ثبت شد و تا سال ۲۰۰۸، سه نفر به دلیل مسمومیت کبدی حاصل از این دارو جان باختند و ۷۰ نفر نیز بستری شدند. پزشکان دریافتند که متابولیت تربینافین (TBF-A) موجب آسیب دیدن کبد میشود. اما در آن زمان نتوانستند بفهمند که این متابولیت چگونه در بدن فرد تولید میشود. این موضوع نزدیک به یک دهه برای جامعه پزشکی، به عنوان یک راز باقی ماند تا اینکه در سال ۲۰۱۸، نا لی دانگ، دانشجوی دانشگاه واشنگتن، مسیرهای متابولیکی را به یک سیستم هوش مصنوعی وارد کرد و ماشین موفق شد که مسیرهایی را که کبد میتواند تربینافین را به متابولیت تربینافین تبدیل کند، بیابد. با استفاده از این برنامه هوش مصنوعی مشخص شد که ایجاد متابولیت سمی یک فرایند دو مرحلهای است که شناسایی یکی از آنها به روش آزمایشگاهی بسیار دستوار است. اما این کار برای هوش مصنوعی با قابلیت بازشناسی الگو بسیار ساده انجام شد.
در واقع بیش از ۴۵۰ دارو در ۵۰ سال اخیر به دلیل ایجاد مسمومیت کبدی، مانند اتفاقی که در لامیفیل میافتد، از بازار خارج شده و این اتفاقات موجب شد که سازمان غذا و دارو، سایت Tox21.gov را راهاندازی کند. این وبسایت یک پایگاه داده آنلاین از مولکولها و سمومی است که آنها در برابر پروتئینهای مهم بدن انسان تولید میکنند. محققان با آموزش مدلهای هوش مصنوعی با استفاده از این مجموعه دادهها امیدوار به تشخیص سریعتر این موضوع هستند که آیا یک روش درمانی آثار جانبی خطرناکی خواهد داشت یا نه.
سام مایکل، مدیر ارشد اطلاعات مرکز ملی علوم کاربردی پیشرفته که در ساخت پایگاه داده مزبور مشارکت داشته، میگوید: ما در گذشته با این چالش مواجه بودیم که چگونه از پیش، سمی بودن ترکیبات دارویی را پیشبینی کنیم. این دقیقا عکس کاری است که برای غربالگری مولکولهای دارو انجام میدهیم. اینجا به دنبال یافتن ترکیبات دارویی نیستیم، بلکه میخواهیم بدانیم که احتمال سمی بودن ترکیبات دارویی چقدر است.
اما هوش مصنوعی، فقط برای کشف راز اسرار قدیمی پزشکی به کار نمیآید؛ بلکه از این فناوری برای طراحی واکسنهای بهتر آنفلوانزا نیز استفاده میشود. در سال ۲۰۱۹، محققان دانشگاه فلیندرز استرالیا، با استفاده از هوش مصنوعی یک واکنش معمول آنفلوانزا را آنچنان تقویت کردند که وقتی به بدن تزریق شود، موجب تولید آنتی بادی بیشتری میشود. تیم محققان این دانشگاه به رهبری نیکولای پتروفسکی، ابتدا یک الگوریتم جستجوی هوش مصنوعی به نام Sam طراحی کردند و روش تمییز بین مولکولهای موثر و غیر موثر در برابر آنفلوانزا را به آن یاد دادند. این تیم سپس برنامه دومی را آموزش دادند که میلیونها ترکیب شیمیایی را تولید کند و به Sam برگرداند تا این برنامه تشخیص دهد که کدام ترکیب میتواند موثر باشد. سپس تیم محققان تنها ترکیبهای برتر مورد تایید Sam را به صورت آزمایشگاهی تولید کرد. آزمایش این دارو روی حیوانات تایید کرد که این واکسن تقویت شده، از نمونه اولیه موثرتر است. آزمایشهای اولیه این دارو در آمریکا نیز آغاز شده و پیشبینی میشود پس از ۱۲ ماه به نتیجه نهایی برسد و اگر چنین شود، واکسن تقویت شده میتواند در یکی دو سال آینده در دسترس عموم قرار بگیرد. به این ترتیب تولید واکسنی که به طور معمول ۵ تا ۱۰ سال زمان میبرد، با استفاده از هوش مصنوعی به سرعت انجام میشود.
سیستمهای یادگیری ماشین میتوانند در میان حجم عظیمی از مجموعه دادهها با سرعتی بسیار بیشتر از محققان زیست شناس جستوجو و ترکیبات دقیق را بیابند، اما انسان نیز، حداقل در آینده نزدیک، از فرایند توسعه داروها حذف نخواهد شد. برای مثال، تولید، جمعآوری، ایندکس کردن، مرتب سازی و برچسب زدن دادههای مورد نیاز برای آموزش به مدل هوش مصنوعی، کاری است که توسط انسان انجام میشود.
حتی اگر سیستمهای یادگیری ماشین، از این هم توانمندتر شوند، همچنان در برابر ورود اطلاعات نادرست یا مغرضانه و دارای سوگیری، آسیبپذیر خواهند بود.
دکتر چارلز فیشر، موسس و مدیر ارشد اجرایی Unlearn.AI میگوید: بسیاری از مجموعه دادههایی که در پزشکی مورد استفاده قرار میگیرد، از جمعیت عمدتا سفید پوستان شمال آمریکا و اروپا به دست آمده است و اگر محققی سیستمهای یادگیری ماشین را روی این مجموعه دادهها استفاده کند و روشی درمانی ابداع کند، تضمینی وجود ندارد که این دارو روی جمعیتی با تنوع نژادی بیشتر نیز جواب بدهد.
فیشر برای مقابله با آثار سوء این سوگیری در دادهها، پیشنهاد میدهد که مجموعه دادههای بزرگتر با نرمافزارهای پیشرفته و کامپیوترهای قدرتمندتر مورد استفاده قرار بگیرد.
یکی دیگر از اجزای مهم دیگر، وجود دادههای پاک است.
دکتر جیل بکر، مدیر ارشد اجرایی Kebotix، استارتاپی که با استفاده از هوش مصنوعی و روباتیک، به طراحی مواد شیمیایی عجیب و تازه میپردازد، در این رابطه میگوید: ما سه منبع داده داریم. مااین ظرفیت را داریم که دادههای خودمان را تولید کنیم، در آزمایشگاههای مصنوعی به تولید داده بپردازیم یا از دادههای خارجی استفاده کنیم. این دادههای خارجی میتواند از نشریات، حق امتیازها یا سایر همکاران تحقیقاتی شرکت تامین شود. اما صرف نظر از منبع داده، باید زمان زیادی را صرف پاکسازی این دادهها کنیم.
وی توضیح میدهد: اطمینان از اینکه دادهها دارای متاداده مناسب برای مدلهای ما هستند، بسیار اهمیت دارد و این کار بسیار زمانبر و پر هزینه است.