کارشناسان هشدار دادهاند که مدلهای هوش مصنوعی میتوانند پاتوژنهایی (میکروبها، ویروسها و سایر میکروارگانیسمها) را ایجاد کنند که قادر به ایجاد یک بیماری همهگیر یا اپیدمی هستند.
مدلهای تخصصی هوش مصنوعی که بر روی دادههای بیولوژیکی آموزش دیدهاند، شاهد پیشرفتهای قابلتوجهی بودهاند که به تسریع توسعه واکسنها، درمان بیماریها و موارد دیگر کمک میکنند؛ اما همان ویژگیهایی که این مدلها را مفید میکنند، خطرات بالقوهای را به همراه دارند.
به همین دلیل است که کارشناسان در مقاله جدیدی که در ۲۲ اوت در مجله معتبر Science منتشر شد، از دولتها خواسته اند که نظارت اجباری و برنامههای محافظتی را برای مدلهای پیشرفته بیولوژیکی معرفی کنند.
در حالی که مدلهای هوش مصنوعی امروزی ممکن است به میزان قابل توجهی در خطر بیولوژیکی نقش نداشته باشند، سیستمهای آینده میتوانند به مهندسی پاتوژنهای جدیدی که قادر به ایجاد بیماریهای همهگیر هستند٬ کمک کنند.
این هشدار در مقاله توسط نویسندگانی از دانشگاه جان هاپکینز، دانشگاه استنفورد و دانشگاه فوردهام صادر شده است که میگویند مدلهای هوش مصنوعی در حال آموزش هستند یا میتوانند مقادیر زیادی از دادههای بیولوژیکی را به طور معنیداری دستکاری کنند، از سرعت بخشیدن به طراحی داروها و واکسنها گرفته تا بهبود عملکرد دادههای بیولوژیکی.
اما مانند هر فناوری جدید قدرتمند، چنین مدلهای بیولوژیکی نیز خطرات قابل توجهی را به همراه خواهند داشت.
به دلیل ماهیت کلی آن ها، همان مدل بیولوژیکی که قادر به طراحی یک ناقل ویروسی خوش خیم است، میتواند برای ارائه ژن درمانی برای طراحی یک ویروس بیماریزاتر که قادر به فرار از ایمنی ناشی از واکسن باشد، استفاده شود.
اگرچه بعید است مدلهای هوش مصنوعی امروزی به ریسکهای بیولوژیکی تا اندازه قابل توجهی کمک کنند، اما مواد ضروری برای ایجاد مدلهای بیولوژیکی پیشرفته نگرانکننده ممکن است از قبل وجود داشته باشند یا به زودی ایجاد شوند.
طبق گزارشها، کارشناسان توصیه کرده اند که دولتها مجموعهای از آزمایشها را ایجاد کنند که مدلهای هوش مصنوعی بیولوژیکی باید آن را قبل از انتشار برای عموم انجام دهند؛ بنابراین مقامات میتوانند تعیین کنند که چقدر دسترسی به مدلها باید محدود شود.
آنیتا سیسرو، معاون مدیر مرکز امنیت سلامت جانز هاپکینز و یکی از نویسندگان این مقاله، گفت: ما باید از هم اکنون خطرات ابزارهای به ویژه قدرتمند در آینده را برنامه ریزی کنیم.
به دلیل پیشرفتهای مورد انتظار در قابلیتهای هوش مصنوعی و سهولت نسبی در دستیابی به مواد بیولوژیکی و استفاده از اشخاص ثالث برای انجام آزمایشها از راه دور، سیسرو معتقد است که خطرات بیولوژیکی ناشی از هوش مصنوعی ممکن است در طول ۲۰ سال آینده و شاید حتی بسیار کمتر خود را نشان دهند، مگر این که نظارت درستی وجود داشته باشد.
او میافزاید: ما باید نه تنها در مورد نسخه فعلی همه ابزارهای موجود، بلکه به نسخههای بعدی فکر کنیم؛ زیرا شاهد رشد فوق العاده ای در این زمینه هستیم.
منبع: فاکس نیوز