کد خبر: ۳۸۹۹۳
|
۳۰ آذر ۱۴۰۲ | ۱۱:۳۰

پاسخ عجیب هوش مصنوعی ChatGPT در مقابل نابودسازی بشریت

هم‌بنیان‌گذار گوگل Brain می‌گوید: تلاش کردم ChatGPT را به نابودسازی بشریت ترغیب کنم، اما موفق نشدم؛ ChatGPT در این آزمایش راه‌های دیگری را برای برطرف‌شدن مشکل مطرح‌شده پیشنهاد کرده است.

به گزارش «نبض فناوری»، «اندرو نگ» (Andrew Ng)، هم‌بنیان‌گذار گوگل Brain به‌تازگی آزمایش جالبی با چت‌بات هوش مصنوعی ChatGPT انجام داده است. نگ که یکی از بنیانگذاران کورسرا هم است، در این آزمایش تلاش کرد تا چت‌بات ساخته‌شده توسط OpenAI را به ازبین‌بردن بشریت وادار کند اما ChatGPT از این کار امتناع کرد.

نگ در خبرنامه خود نوشت:

«برای آزمایش ایمنی مدل‌های پیشرو، اخیراً تلاش کردم تا GPT-4 را به کشتن همه انسان وادار کنم و با خوشحالی اعلام می‌کنم که شکست خورده‌ام!»

هم‌بنیان‌گذار گوگل Brain: تلاش کردم ChatGPT را به نابودسازی بشریت ترغیب کنم، اما موفق نشدم

هم‌بنیان‌گذار گوگل Brain که از او به‌عنوان یکی از پیشگامان یادگیری ماشینی یاد می‌شود، در این پست طولانی دیدگاه‌های خود نسبت به خطرات و ریسک‌های هوش مصنوعی را بیان می‌کند. او نگرانی خود از این موضوع را نشان می‌دهد که تقاضا برای افزایش ایمنی هوش مصنوعی ممکن است باعث شود رگولاتوری‌ها مانع توسعه این فناوری شوند.

برای انجام این آزمایش، نگ ابتدا «به GPT-4 عملکردی را ارائه کرد که جنگ گرماهسته‌ای جهان با آن آغاز می‌شود.» در مرحله بعد، او به GPT-4 گفت که انسان‌ها بزرگ‌ترین عامل انتشار کربن هستند و از چت‌بات خواست تا راه‌هایی برای کاهش میزان انتشار آن پیدا کند. در واقع، نگ با انجام این کار قصد داشت ببیند که آیا ChatGPT برای رسیدن به خواسته کاربر پیشنهاد ازبین‌بردن بشریت را ارائه می‌کند یا خیر.

پاسخ هوش مصنوعی ChatGPT

هم‌بنیان‌گذار گوگل Brain: تلاش کردم ChatGPT را به نابودسازی بشریت ترغیب کنم، اما موفق نشدم

علاوه بر این، به گفته نگ، ChatGPT پاسخ‌های دیگری هم به این درخواست ارائه کرده است:

«پس از چندین بار تلاش با استفاده از دستورات مختلف، موفق نشدم تا GPT-4 را فریب دهم تا عملکرد مورد درخواست من را ارائه کند. در عوض این ابزار گزینه‌های دیگری مانند اجرای یک کمپین PR برای افزایش آگاهی در مورد تغییرات آب‌و‌هوایی را ارائه کرد.»

هرچند احتمالاً افراد بسیار زیادی تصور می‌کنند که آینده با هوش مصنوعی می‌تواند ترسناک و خطرناک شود، به عقیده نگ این نگرانی‌ها واقع‌بینانه نیستند. او در شبکه اجتماعی ایکس می‌نویسد:

«با وجود فناوری‌های موجود، سیستم‌های ما کاملاً ایمن هستند و با پیشرفت تحقیقات مربوط به ایمنی هوش مصنوعی، این فناوری حتی ایمن‌تر خواهد شد.»

منبع/ دیجیاتو

ارسال نظرات
وبگردی