شفقنا – با جهش هوش مصنوعی در حوزه زیستشناسی و پزشکی، دانشمندان اکنون موفق به طراحی ویروسهای کاملاً جدیدی شدهاند.
به گزارش سرویس ترجمه شفقنا، اگرچه این ویروسها در نمونههای اخیر، تنها باکتریها (باکتریوفاژها) را هدف قرار دادهاند، اما این پیشرفت، زنگ خطر را در مورد توانایی AI برای طراحی نسل بعدی سلاحهای بیولوژیکی که میتوانند امنیت کنونی جهان را دور بزنند، به صدا درآورده است.
دو مطالعه اخیر، ابعاد خطر را به وضوح نشان دادهاند:
١- طراحی ویروسهای جدید: یک گروه تحقیقاتی (به رهبری سم کینگ از استنفورد) با استفاده از هوش مصنوعی، اقدام به ساخت باکتریوفاژهای جدید کرد. آنها با دقت تلاش کردند تا مدلهای هوش مصنوعی خود را بر روی ویروسهای آلودهکننده انسان یا گیاهان آموزش ندهند، اما این خطر بالقوه که هوش مصنوعی بتواند به طور مستقل یک عامل بیماریزای انسانی را طراحی کند، همچنان وجود دارد.
٢- دور زدن پروتکلها: همزمان، مطالعهای از محققان مایکروسافت که در نشریه ساینسمنتشر شد، نشان داد که هوش مصنوعی میتواند به راحتی اقدامات امنیتی موجود را دور بزند. نرمافزارهای غربالگری زیستامنیتی (BSS) که توسط شرکتهای تأمینکننده دیانای برای جلوگیری از سفارش مولکولهای سمی (مانند ریسین) استفاده میشوند، توالیهای ژنتیکی طراحیشده توسط هوش مصنوعی را تشخیص نمیدهند، زیرا این مدلها قادرند توالیهای کاملاً متفاوتی را تولید کنند که همان عملکرد سمی را دارند اما در پایگاه داده تهدیدات وجود ندارند.
ریشه مشکل: چالش «کاربرد دوگانه»
در قلب این مشکل، «چالش کاربرد دوگانه» قرار دارد؛ هر فناوری یا تحقیقی که بتواند هم برای منافع (مانند ساخت داروهای بهتر یا درمان آسم) و هم برای آسیب عمدی (مانند مهندسی یک پاتوژن کامل یا تحویل سلاح شیمیایی) استفاده شود.
کارشناسان هشدار میدهند که اگرچه هوش مصنوعی هنوز توانایی ایجاد یک سلاح بیولوژیکی کامل را ندارد، اما این توانایی دور از دسترس نیست و نیازمند یک سیستم ایمنی چندلایه و در حال تکامل است.
محققان مایکروسافت با کشف این آسیبپذیری، فوراً با ارائهدهندگان نرمافزارهای غربالگری زیستامنیتی همکاری کردند و با بهروزرسانی نرمافزارها، ریسک را تا حد زیادی کاهش دادند. با این حال، حتی پس از اعمال وصلههای امنیتی، به طور متوسط ۳ درصد از توالیهای ژنی بالقوه خطرناک همچنان از دید غربالگری پنهان ماندند.
برای مقابله با این تهدید نوظهور، کارشناسان راهحلهایی را پیشنهاد میکنند:
• آموزش دادهای کنترلشده: ضروری است که محققان در مورد اینکه چه دادههایی را برای آموزش مدلهای هوش مصنوعی استفاده میکنند و چه دادههایی را حذف میکنند، بسیار محتاط باشند.
• تشخیص توسط هوش مصنوعی: مایکروسافت در حال همکاری با نهادهای دولتی برای استفاده از هوش مصنوعی برای کشف سوءاستفادههای هوش مصنوعی است؛ از جمله جستجوی شواهدی از ساخت سموم خطرناک در دادههای فاضلاب و کیفیت هوا.
• قوانین اجباری: در حال حاضر بسیاری از غربالگریها داوطلبانه هستند. سیاستگذاران به دنبال تدوین چارچوبی هستند تا شرکتها را به انجام ارزیابیهای ایمنی استاندارد و اجباری برای سیستمهای هوش مصنوعی ترغیب کنند.
این تلاشها نشان میدهد که برای حفظ امنیت جهانی در برابر پاتوژنهای تولیدشده توسط هوش مصنوعی، یک «مسابقه تسلیحاتی تکاملی» ثابت و مستمر بین دفاع و تهدیدات جدید اجتنابناپذیر است.
این خبر را اینجا ببینید.











