کد خبر: ۴۵۴۶۷
|
۰۴ ارديبهشت ۱۴۰۴ | ۱۳:۳۶

هشدار کارشناسان درباره گزارش جدید مدل هوش مصنوعی گوگل

در پی بررسی گزارش جدید گوگل درباره نسخه تازه هوش مصنوعی اش، نگرانی‌ها درباره ایمنی این ابزار بالا گرفت.

به گزارش «نبض فناوری»، انتشار گزارش جدید گوگل درباره مدل هوش مصنوعی جمینی 2.5 پرو (Gemini 2.5 Pro) با انتقادات گسترده کارشناسان مواجه شده است. بر اساس مقاله‌ای که در TechCrunch منتشر شد، این گزارش فاقد جزئیات کلیدی درباره ایمنی و اقدامات حفاظتی این مدل هوش مصنوعی است؛ موضوعی که نگرانی‌های جدی در میان پژوهشگران و فعالان حوزه فناوری ایجاد کرده است.

نام Gemini از صورت فلکی "جوزا" یا "دوپیکر" گرفته شده و تلفظ صحیح آن در انگلیسی «جِمِنای» (Gem-in-eye) است اما در فارسی، برای انطباق با تلفظ، معمولاً آن را به صورت «جمینی» می‌نویسند، هرچند برخی آن را «جمینای» هم می‌نویسند.

مدل جمینی 2.5، جدیدترین نسخه از سری مدل‌های هوش مصنوعی گوگل، قرار است قابلیت‌های پیشرفته‌ای در پردازش زبان طبیعی، تولید محتوا و تحلیل داده‌ها ارائه دهد. با این حال، کارشناسان در پست‌های شبکه اجتماعی ایکس اعلام کرده‌اند که گوگل اطلاعات کافی درباره نحوه مدیریت سوگیری‌ها (Bias)، پیشگیری از تولید محتوای مضر، و مکانیزم‌های ایمنی در برابر سوءاستفاده ارائه نکرده است. 

یکی از کاربران در ایکس نوشته است: «گوگل ادعا می‌کند که Gemini 2.5 Pro ایمن است، اما هیچ داده‌ای درباره تست‌های ایمنی یا پروتکل‌های مدیریت ریسک منتشر نکرده. این عدم شفافیت نگران‌کننده است.»

این انتقادات در حالی مطرح می‌شود که گوگل در سال‌های اخیر به دلیل مسائل مرتبط با اخلاق در هوش مصنوعی، از جمله اخراج برخی پژوهشگران برجسته خود که درباره سوگیری در مدل‌های هوش مصنوعی هشدار داده بودند، تحت فشار بوده است. کارشناسان معتقدند که بدون شفافیت و ارائه جزئیات دقیق، اعتماد عمومی به فناوری‌های هوش مصنوعی تضعیف خواهد شد، به‌ویژه در زمانی که این فناوری‌ها روزبه‌روز در زندگی روزمره نفوذ بیشتری پیدا می‌کنند.

در واکنش به این انتقادات، گوگل اعلام کرد که در حال تهیه یک گزارش تکمیلی است که جزئیات بیشتری درباره ایمنی این مدل ارائه خواهد داد. به گزارش Verge، سخنگوی گوگل اظهار داشت: «ما متعهد به توسعه هوش مصنوعی مسئولانه هستیم و به‌زودی گزارش مفصلی درباره پروتکل‌های ایمنی منتشر خواهیم کرد.» 

با این حال، برخی کارشناسان این پاسخ را کافی نمی‌دانند. یک پژوهشگر برجسته هوش مصنوعی در واکنش نوشت: «بدون ارزیابی مستقل، نمی‌توان به ادعاهای شرکت‌ها اعتماد کرد. گوگل باید استانداردهای شفافیت را رعایت کند و مدل‌هایش را قبل از عرضه عمومی تحت ارزیابی مستقل قرار دهد. این یک موضوع حیاتی برای آینده هوش مصنوعی است.»

این ماجرا بار دیگر ضرورت نظارت دقیق‌تر بر توسعه و عرضه فناوری‌های هوش مصنوعی را نشان می‌دهد. کارشناسان هشدار می‌دهند که عدم شفافیت در این حوزه می‌تواند به اعتماد عمومی لطمه بزند و حتی خطرات جدی برای کاربران ایجاد کند. انتظار می‌رود گوگل با انتشار گزارش تکمیلی و پاسخگویی به نگرانی‌ها، گامی در جهت جلب اعتماد جامعه بردارد.
 

ارسال نظرات