هشدار کارشناسان در مورد توانایی هوش مصنوعی در ایجاد یک اپیدمی

هشدار کارشناسان در مورد توانایی هوش مصنوعی در ایجاد یک اپیدمی

کارشناسان هشدار داده‌اند که مدل‌های هوش مصنوعی می‌توانند پاتوژن‌هایی (میکروب‌ها، ویروس‌ها و سایر میکروارگانیسم‌ها) را ایجاد کنند که قادر به ایجاد یک بیماری همه‌گیر یا اپیدمی هستند.

مدل‌های تخصصی هوش مصنوعی که بر روی داده‌های بیولوژیکی آموزش دیده‌اند، شاهد پیشرفت‌های قابل‌توجهی بوده‌اند که به تسریع توسعه واکسن‌ها، درمان بیماری‌ها و موارد دیگر کمک می‌کنند؛ اما همان ویژگی‌هایی که این مدل‌ها را مفید می‌کنند، خطرات بالقوه‌ای را به همراه دارند.

به همین دلیل است که کارشناسان در مقاله جدیدی که در ۲۲ اوت در مجله معتبر Science منتشر شد، از دولت‌ها خواسته اند که نظارت اجباری و برنامه‌های محافظتی را برای مدل‌های پیشرفته بیولوژیکی معرفی کنند.

در حالی که مدل‌های هوش مصنوعی امروزی ممکن است به میزان قابل توجهی در خطر بیولوژیکی نقش نداشته باشند، سیستم‌های آینده می‌توانند به مهندسی پاتوژن‌های جدیدی که قادر به ایجاد بیماری‌های همه‌گیر هستند٬ کمک کنند.

این هشدار در مقاله توسط نویسندگانی از دانشگاه جان هاپکینز، دانشگاه استنفورد و دانشگاه فوردهام صادر شده است که می‌گویند مدل‌های هوش مصنوعی در حال آموزش هستند یا می‌توانند مقادیر زیادی از داده‌های بیولوژیکی را به طور معنی‌داری دستکاری کنند، از سرعت بخشیدن به طراحی دارو‌ها و واکسن‌ها گرفته تا بهبود عملکرد داده‌های بیولوژیکی.

اما مانند هر فناوری جدید قدرتمند، چنین مدل‌های بیولوژیکی نیز خطرات قابل توجهی را به همراه خواهند داشت.

به دلیل ماهیت کلی آن ها، همان مدل بیولوژیکی که قادر به طراحی یک ناقل ویروسی خوش خیم است، می‌تواند برای ارائه ژن درمانی برای طراحی یک ویروس بیماری‌زاتر که قادر به فرار از ایمنی ناشی از واکسن باشد، استفاده شود.

اگرچه بعید است مدل‌های هوش مصنوعی امروزی به ریسک‌های بیولوژیکی تا اندازه قابل توجهی کمک کنند، اما مواد ضروری برای ایجاد مدل‌های بیولوژیکی پیشرفته نگران‌کننده ممکن است از قبل وجود داشته باشند یا به زودی ایجاد شوند.

طبق گزارش‌ها، کارشناسان توصیه کرده اند که دولت‌ها مجموعه‌ای از آزمایش‌ها را ایجاد کنند که مدل‌های هوش مصنوعی بیولوژیکی باید آن را قبل از انتشار برای عموم انجام دهند؛ بنابراین مقامات می‌توانند تعیین کنند که چقدر دسترسی به مدل‌ها باید محدود شود.

آنیتا سیسرو، معاون مدیر مرکز امنیت سلامت جانز هاپکینز و یکی از نویسندگان این مقاله، گفت: ما باید از هم اکنون خطرات ابزار‌های به ویژه قدرتمند در آینده را برنامه ریزی کنیم.

به دلیل پیشرفت‌های مورد انتظار در قابلیت‌های هوش مصنوعی و سهولت نسبی در دست‌یابی به مواد بیولوژیکی و استفاده از اشخاص ثالث برای انجام آزمایش‌ها از راه دور، سیسرو معتقد است که خطرات بیولوژیکی ناشی از هوش مصنوعی ممکن است در طول ۲۰ سال آینده و شاید حتی بسیار کمتر خود را نشان دهند، مگر این که نظارت درستی وجود داشته باشد.

او می‌افزاید: ما باید نه تنها در مورد نسخه فعلی همه ابزار‌های موجود، بلکه به نسخه‌های بعدی فکر کنیم؛ زیرا شاهد رشد فوق العاده ای در این زمینه هستیم.

منبع: فاکس نیوز

+

[widget id="tabnakweb_category-posts-6"]

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

advanced-floating-content-close-btn