کد خبر: ۳۴۵۱۸
|
۱۹ فروردين ۱۴۰۲ | ۱۷:۳۰

گاف امنیتی کارمندان سامسونگ

سه کارمند سامسونگ در زمان استفاده از ربات چت هوش مصنوعی چت‌جی‌پی‌تی، ناخواسته اطلاعات محرمانه این شرکت را افشا کردند.

به گزارش «نبض فناوری»، چت‌جی‌پی‌تی ممکن است در ظاهر ابزاری به نظر برسد که می‌تواند برای مجموعه‌ای از وظایف کاری مفید باشد. اما قبل از این که از این ربات چت بخواهید یادداشت‌های مهم را خلاصه سازی کند یا کار شما را از نظر خطا بررسی کند، بهتر است به یاد داشته باشید که هر مطلبی که با چت‌جی‌پی‌تی به اشتراک می‌گذارید، می‌تواند برای آموزش سیستم استفاده شود و شاید حتی در پاسخ‌هایش به سایر کاربران ظاهر شود. این موضوعی است که احتمالا تعدادی از کارمندان سامسونگ باید قبل از این که اطلاعات محرمانه خود را با این ابزار هوش مصنوعی به اشتراک بگذارند، اطلاع می‌داشتند.

طبق گزارش اکونومیک کوریا، اندکی پس از این که واحد نیمه رسانای سامسونگ به مهندسان اجازه داد از چت‌جی‌پی‌تی استفاده کنند، کارکنان حداقل در سه مورد، اطلاعات محرمانه را در اختیار این ابزار قرار دادند. یکی از کارمندان ظاهرا از چت‌جی‌پی‌تی خواست کد منبع پایگاه داده حساس را برای خطا چک کند، کارمند دیگری بهینه سازی کد را درخواست کرد و سومی، یک جلسه ضبط شده را به چت‌جی‌پی‌تی ارسال کرد و از این ابزار خواست جزئیات این جلسه را تولید کند.

گزارش‌ها نشان می‌دهد سامسونگ پس از اطلاع از اشتباه‌های امنیتی، با محدود کردن میزان استفاده کارمندان از چت‌جی‌پی‌تی، میزان خطاهای آینده را محدود کند. همچنین گفته می‌شود که این شرکت سرگرم تحقیق از سه کارمند مورد بحث و ساخت ربات چت خود برای جلوگیری از وقوع خطاهای امنیتی مشابه است.

بر اساس گزارش وب سایت انگجت، در سیاست داده چت‌جی‌پی‌تی تاکید شده است که از درخواست‌های کاربران برای آموزش مدل‌های خود استفاده می‌کند مگر این که کاربران به صراحت با چنین چیزی مخالفت کنند. شرکت OpenAI که سازنده چت‌جی‌پی‌تی است، از کاربران خواسته است اطلاعات محرمانه خود را در مکالمات با چت‌جی‌پی‌تی به اشتراک نگذارند، زیرا قادر نیست درخواست‌های خاصی را از تاریخچه شما حذف کند. تنها راه خلاصی از اطلاعات قابل شناسایی شخصی در چت‌جی‌پی‌تی، حذف حساب کاربری است که این فرآیند ممکن است حداکثر چهار هفته طول بکشد.

منبع/ ایسنا

ارسال نظرات
وبگردی