کد خبر: ۴۵۵۸۸
|
۱۳ ارديبهشت ۱۴۰۴ | ۱۲:۰۰

عقلتان را به دست هوش مصنوعی نسپرید!

«هوش مصنوعی گفت!»؛ این جمله‌ای است که این روزها زیاد می‌شنویم و اغلب از خطری که پشت آن نهفته است، بی اطلاعیم!

به گزارش «نبض فناوری»، با گسترش استفاده از هوش مصنوعی در حوزه‌های مختلف، از پزشکی و تحقیقات علمی گرفته مدیریت کسب‌وکار، این فناوری به ابزاری قدرتمند تبدیل شده که بسیاری از مردم، کارهای روزمره‌شان را به کمک آن انجام می‌دهند؛ ابزاری که اگرچه کارایی زیادی دارد، اما ناکامل است.

خطاهای هوش مصنوعی، که گاهی به نتایج فاجعه‌بار منجر می‌شوند، هشداری جدی به کاربران می‌دهند: هرگز عقل و قضاوت انسانی را به‌طور کامل به دست این فناوری نسپارید. این گزارش به بررسی یک نمونه ملموس از خطای هوش مصنوعی، دلایل این خطاها، میزان شیوع آنها و راهکارهای اجتناب از پیامدهایشان می‌پردازد.

یک مثال ملموس: خطای مرگبار در تشخیص پزشکی

در سال ۲۰۲۴، یک سیستم هوش مصنوعی که برای تشخیص سرطان پوست در بیمارستانی در آمریکا استفاده می‌شد، به‌اشتباه تصاویر خال‌های خوش‌خیم را به‌عنوان ملانوما (سرطان پوست بدخیم) طبقه‌بندی کرد. 

این خطا، که به دلیل آموزش ناکافی مدل روی داده‌های متنوع پوست‌های تیره‌تر رخ داد، منجر به درمان غیرضروری و تهاجمی برای ده‌ها بیمار شد. خوشبختانه، مداخله پزشکان انسانی که نتایج را بازبینی کردند، از آسیب‌های گسترده‌تر جلوگیری کرد، اما این حادثه زنگ خطری برای وابستگی بیش‌ازحد به هوش مصنوعی بود.


چرا هوش مصنوعی خطا می‌کند؟

هوش مصنوعی، با وجود توانایی‌های شگفت‌انگیزش، به دلایل زیر مستعد خطاست:

✤ داده‌های ناقص یا مغرضانه:

مدل‌های هوش مصنوعی روی داده‌های آموزشی تکیه دارند. اگر این داده‌ها ناقص (مثل کمبود تصاویر پوست تیره در مثال بالا)، متناقض نما، اشکال دار یا مغرضانه باشند، خروجی‌ها نادرست خواهند بود. به گفته محققان MIT، بیش از ۶۰٪ مدل‌های هوش مصنوعی پزشکی به دلیل داده‌های غیرمتنوع دچار خطای تشخیص می‌شوند.

✤ فقدان درک عمیق:

هوش مصنوعی فاقد قضاوت انسانی و درک زمینه‌ای است. برای مثال، یک مدل زبانی ممکن است اطلاعات متناقض از منابع مختلف را بدون تحلیل درست ترکیب کند، چون نمی‌تواند مانند انسان اعتبار منابع را قضاوت کند.

✤ پیچیدگی بیش‌ازحد مدل‌ها:

مدل‌های پیشرفته مانند GPT یا Llama میلیاردها پارامتر دارند، که گاهی باعث تولید پاسخ‌های غیرقابل پیش‌بینی یا «توهم» (hallucination) می‌شود، یعنی ارائه اطلاعات کاملاً جعلی به‌عنوان حقیقت.

✤ عدم نظارت انسانی:

وقتی کاربران نتایج هوش مصنوعی را بدون بررسی می‌پذیرند، خطاها تشدید می‌شوند. گزارش‌های TechCrunch نشان می‌دهد که ۸۰٪ خطاهای فاجعه‌بار هوش مصنوعی به دلیل نبود نظارت انسانی رخ داده‌اند.


میزان خطای هوش مصنوعی چقدر است؟

میزان خطا بسته به کاربرد و مدل متفاوت است، اما مطالعات اخیر ارقام نگران‌کننده‌ای ارائه می‌دهند:

در مدل‌های زبانی پیشرفته، نرخ توهم (تولید اطلاعات نادرست) بین ۵ تا ۲۰٪ است، به‌ویژه در موضوعات تخصصی یا داده‌های کم.

در سیستم‌های تشخیص پزشکی، خطاها می‌توانند تا ۳۰٪ در شرایط خاص (مثل داده‌های متناقض نما یا به تعبیر دیگر، غیرنماینده) برسند.

یک گزارش از IEEE در سال ۲۰۲۴ نشان داد که ۱ از هر ۱۰ تصمیم هوش مصنوعی در کاربردهای حساس (مثل قضایی یا مالی) نیاز به اصلاح انسانی دارد.

این ارقام نشان می‌دهند که هوش مصنوعی، حتی در بهترین حالت، قابل اعتماد کامل نیست.


چگونه از خطاهای هوش مصنوعی در امان بمانیم؟

برای کاهش ریسک‌های ناشی از خطاهای هوش مصنوعی، اقدامات زیر توصیه می‌شود:

❈ همیشه نتایج را بررسی کنید:

هر خروجی هوش مصنوعی، از متن خبری گرفته تا تشخیص پزشکی، باید توسط انسان بازبینی شود. در مثال تشخیص سرطان پوست، دخالت پزشکان از فاجعه جلوگیری کرد.

❈ منابع را تأیید کنید:

اگر هوش مصنوعی اطلاعاتی ارائه می‌دهد، منابع اولیه (مثل وب‌سایت‌های رسمی یا گزارش‌های معتبر) را چک کنید. برای مثال، در گزارش تحقیقاتی، تأیید تاریخ یک رویداد از چند منبع معتبر ضروری است.

❈ درک محدودیت‌ها:

کاربران باید بدانند هوش مصنوعی در چه حوزه‌هایی قوی و در چه زمینه‌هایی ضعیف است. مثلاً، مدل‌های زبانی در تحلیل احساسات یا موضوعات خلاقانه بهتر عمل می‌کنند تا ارائه آمار دقیق.

❈ آموزش و فرهنگ‌سازی:

سازمان‌ها باید کارکنان را برای استفاده مسئولانه از هوش مصنوعی آموزش دهند. گوگل در سال ۲۰۲۴ برنامه‌ای برای آموزش ۱۰ میلیون نفر در استفاده محتاطانه از هوش مصنوعی راه‌اندازی کرد.

❈ طراحی مدل‌های شفاف‌تر:

توسعه‌دهندگان باید مدل‌هایی بسازند که خطاها را گزارش کنند یا میزان اطمینان خود را نشان دهند. OpenAI اخیراً اعلام کرد که در حال کار روی سیستمی برای نمایش «درجه اطمینان» پاسخ‌های ChatGPT است.


فراموش نکنید و به دیگران هم گوشزد کنید:

هوش مصنوعی ابزاری قدرتمند است، اما مانند هر ابزار دیگری، محدودیت‌ها و خطاهایی دارد که می‌توانند عواقب جدی به دنبال داشته باشند. نمونه‌هایی مانند خطای تشخیص پزشکی نشان می‌دهند که اعتماد کورکورانه به این فناوری می‌تواند خطرناک باشد. 

با بررسی دقیق، تأیید منابع و حفظ نظارت انسانی، می‌توان از مزایای هوش مصنوعی بهره برد و در عین حال از دام خطاهایش در امان ماند. عقلتان را به دست هوش مصنوعی نسپارید؛ آن را همراهی کنید.

 

ارسال نظرات
پاسخ دولت به نامه جنجالی اپراتورهای تلفن همراه در کشور؛ با هر افزایش غیرقانونی تعرفه اینترنت برخورد «عبرت آموز» می‌کنیم!