هشدار کارشناسان درباره گزارش جدید مدل هوش مصنوعی گوگل

به گزارش «نبض فناوری»، انتشار گزارش جدید گوگل درباره مدل هوش مصنوعی جمینی 2.5 پرو (Gemini 2.5 Pro) با انتقادات گسترده کارشناسان مواجه شده است. بر اساس مقالهای که در TechCrunch منتشر شد، این گزارش فاقد جزئیات کلیدی درباره ایمنی و اقدامات حفاظتی این مدل هوش مصنوعی است؛ موضوعی که نگرانیهای جدی در میان پژوهشگران و فعالان حوزه فناوری ایجاد کرده است.
نام Gemini از صورت فلکی "جوزا" یا "دوپیکر" گرفته شده و تلفظ صحیح آن در انگلیسی «جِمِنای» (Gem-in-eye) است اما در فارسی، برای انطباق با تلفظ، معمولاً آن را به صورت «جمینی» مینویسند، هرچند برخی آن را «جمینای» هم مینویسند.
مدل جمینی 2.5، جدیدترین نسخه از سری مدلهای هوش مصنوعی گوگل، قرار است قابلیتهای پیشرفتهای در پردازش زبان طبیعی، تولید محتوا و تحلیل دادهها ارائه دهد. با این حال، کارشناسان در پستهای شبکه اجتماعی ایکس اعلام کردهاند که گوگل اطلاعات کافی درباره نحوه مدیریت سوگیریها (Bias)، پیشگیری از تولید محتوای مضر، و مکانیزمهای ایمنی در برابر سوءاستفاده ارائه نکرده است.
یکی از کاربران در ایکس نوشته است: «گوگل ادعا میکند که Gemini 2.5 Pro ایمن است، اما هیچ دادهای درباره تستهای ایمنی یا پروتکلهای مدیریت ریسک منتشر نکرده. این عدم شفافیت نگرانکننده است.»
این انتقادات در حالی مطرح میشود که گوگل در سالهای اخیر به دلیل مسائل مرتبط با اخلاق در هوش مصنوعی، از جمله اخراج برخی پژوهشگران برجسته خود که درباره سوگیری در مدلهای هوش مصنوعی هشدار داده بودند، تحت فشار بوده است. کارشناسان معتقدند که بدون شفافیت و ارائه جزئیات دقیق، اعتماد عمومی به فناوریهای هوش مصنوعی تضعیف خواهد شد، بهویژه در زمانی که این فناوریها روزبهروز در زندگی روزمره نفوذ بیشتری پیدا میکنند.
در واکنش به این انتقادات، گوگل اعلام کرد که در حال تهیه یک گزارش تکمیلی است که جزئیات بیشتری درباره ایمنی این مدل ارائه خواهد داد. به گزارش Verge، سخنگوی گوگل اظهار داشت: «ما متعهد به توسعه هوش مصنوعی مسئولانه هستیم و بهزودی گزارش مفصلی درباره پروتکلهای ایمنی منتشر خواهیم کرد.»
با این حال، برخی کارشناسان این پاسخ را کافی نمیدانند. یک پژوهشگر برجسته هوش مصنوعی در واکنش نوشت: «بدون ارزیابی مستقل، نمیتوان به ادعاهای شرکتها اعتماد کرد. گوگل باید استانداردهای شفافیت را رعایت کند و مدلهایش را قبل از عرضه عمومی تحت ارزیابی مستقل قرار دهد. این یک موضوع حیاتی برای آینده هوش مصنوعی است.»
این ماجرا بار دیگر ضرورت نظارت دقیقتر بر توسعه و عرضه فناوریهای هوش مصنوعی را نشان میدهد. کارشناسان هشدار میدهند که عدم شفافیت در این حوزه میتواند به اعتماد عمومی لطمه بزند و حتی خطرات جدی برای کاربران ایجاد کند. انتظار میرود گوگل با انتشار گزارش تکمیلی و پاسخگویی به نگرانیها، گامی در جهت جلب اعتماد جامعه بردارد.