کد خبر: ۴۰۱۴۶
|
۲۰ اسفند ۱۴۰۲ | ۱۴:۲۲

پیمانی جهانی برای جلوگیری از تولید سلاح‌های زیستی توسط هوش مصنوعی

بیش از ۱۰۰ دانشمند در برابر خطرات سلاح‌های زیستی هوش مصنوعی تعهد داده‌اند و بر تحقیقات مسئولانه و اقدامات اخلاقی تأکید دارند.

به گزارش «نبض فناوری»، اینترستینگ اینجینرینگ اعلام کرد، راه‌های زیادی برای استفاده اشتباه از هوش مصنوعی وجود دارد. به عنوان مثال، هوش مصنوعی ممکن است به فعالان نظامی در برنامه‌های جنگی کمک کند. با این حال، برخی محدودیت‌ها برای مقابله با سوءاستفاده احتمالی از هوش مصنوعی اعمال شده است.

بیش از ۱۰۰ دانشمند در مجموع متعهد به رعایت ۱۰ سیاست برای جلوگیری از استفاده از هوش مصنوعی در زیست بوم‌ها شده‌اند. هدف از این سیاست‌ها جلوگیری از ایجاد زیست بوم‌های مبتنی بر هوش مصنوعی است.

این توافق حاصل نشست ۲۰۲۳ دانشگاه واشنگتن بود. هدف این نشست تأکید بر مدیریت ریسک فعال برای کاهش خطرات مرتبط با فناوری‌های هوش مصنوعی است که می‌تواند به صورت عمدی یا غیر عمدی برای ایجاد آسیب مورد بهره برداری قرار گیرد.

این توافق‌نامه به جای اعمال ممنوعیت در استفاده از هوش مصنوعی بر ایجاد اصول راهنما تمرکز دارد. در عوض، اقداماتی را برای جلوگیری از فجایع ناخواسته  مرتبط با دی‌ان‌ای مطرح می‌کند.

سیاست‌های اصلی شامل تعهد دانشمندان به عدم مشارکت در تحقیقات است که می‌تواند منجر به آسیب کلی یا سوء استفاده شود. علاوه بر این، دانشمندان متعهد می‌شوند که فقط از خدمات دی‌ان‌ای ارائه دهندگان مجهز به اقدامات غربالگری استفاده کنند.

این اقدامات شامل تشخیص بیومولکول‌های خطرناک قبل از تولید آن‌هاست. هدف آن‌ها این است که اطمینان حاصل کنند تحقیقات مبتنی بر هوش مصنوعی در مرز‌های اخلاقی باقی می‌مانند و از پیامد‌های ناخواسته جلوگیری می‌کنند.

علاوه بر این، این توافق‌نامه می‌گوید که دانشمندان باید پیش از انتشار نرم افزار‌های مبتنی بر هوش مصنوعی، خطرات ایمنی را ارزیابی کرده و درتمرین‌های «تیم قرمز» شرکت کنند. تمرینات تیم قرمز شامل تمرینات شبیه سازی شده برای شناسایی نقاط ضعف بالقوه در پروتکل‌های غربالگری است.

این روش‌ها هر سناریویی را که تهدید بالقوه‌ای در مورد زیست بوم‌های هوش مصنوعی باشد، شناسایی و متوقف خواهند کرد. شبیه سازی نشان می‌دهد که شما هرگز نمی‌توانید خیلی مراقب باشید، اما همیشه محتاط باشید.

پیمانی جهانی برای جلوگیری از تولید سلاح‌های زیستی

این سیاست‌ها در بین بسیاری از افراد طنین‌انداز شده است، زیرا دانشمندان فردی از مؤسساتی مانند هاروارد و سایر کشور‌ها در کشور‌هایی مانند آلمان و ژاپن این توافق را تأیید کرده‌اند. قابل ذکر است، اریک هورویتز، مدیر ارشد علمی مایکروسافت، به همراه متخصصان شرکت‌هایی مانند «منتن ای‌آی» (ProteinQure)، «پروتئین کییِر» (Menten AI) و «پرفورنت بایو» (Profluent Bio) نیز این قرارداد را امضا کرده‌اند.

در حالی که این توافق اختیاری است و به تعهدات دانشمند فردی دلالت می‌کند، این امید وجود دارد که موسسات و همکاران به طور جمعی سیاست‌های مشخص شده را اتخاذ کنند. این توافق اختیاری جدید پس از آن صورت گرفت که داریو آمودی، مدیر عامل آنتروپیک، سال گذشته گفت که سلاح‌های زیستی مبتنی بر هوش مصنوعی خطری «میان‌مدت» هستند، اما تنها چند سال با آن فاصله دارند.

آمودی خاطرنشان کرد: مراحل خاصی در تولید سلاح‌های زیستی شامل دانشی است که در گوگل یا کتاب‌های درسی یافت نمی‌شود و به تخصص بالایی نیاز دارد. ما متوجه شدیم که ابزار‌های هوش مصنوعی امروزی می‌توانند برخی از این مراحل را پر کنند.

قوانین جامع فدرال ایالات متحده در مورد استفاده از هوش مصنوعی هنوز در حال توسعه است. کاخ سفید طرح منشور حقوق هوش مصنوعی را در سال ۲۰۲۲ پیشنهاد کرد. علاوه بر این، طبق کنفرانس ملی قانونگذاران ایالتی ایالات متحده، ۱۸ ایالت و پورتوریکو قوانین یا قطعنامه‌های مختلفی را در مورد استفاده از هوش مصنوعی در سال گذشته تصویب کردند.

این توافق با عنوان «ارزش‌های جامعه، اصول راهنما، و تعهدات توسعه مسئولانه هوش مصنوعی برای طراحی پروتئین» شناخته می‌شود.

منبع/ آنا

ارسال نظرات
آخرین وضعیت بازار رمزارزهای جهان در 3 اردیبهشت 1403 کارمزد بیت‌کوین صعودی یا نزولی است؟
جایگزین باتری‌های لیتیوم یونی؛ باتری که در چند ثانیه شارژ می‌شود
آخرین وضعیت بازار رمزارزهای جهان در اول اردیبهشت 1403 هاوینگ بیت‌کوین فرا رسید
به دلیل نگرانی از ایمنی داده‌ها؛ هلند استفاده از فیس‌بوک را ممنوع می‌کند
وبگردی