کد خبر: ۴۰۲۴۸
|
۲۸ اسفند ۱۴۰۲ | ۱۵:۳۰

هوش مصنوعی نسبت به لهجه‌ها سوگیری دارد

بر اساس یک مطالعه جدید، مدل‌های بزرگ زبانی نسبت به لهجه‌ها سوگیری پنهان دارند.

هوش مصنوعی نسبت به لهجه‌ها سوگیری دارد

به گزارش «نبض فناوری»، نیچر اعلام کرد، یک مطالعه جدید نشان داد که برخی از مدل‌های بزرگ زبانی دارای سوگیری‌های پنهان هستند و با استفاده از روش‌های استاندارد نمی‌توان آن‌ها را حذف کرد.

بر اساس این مطالعه، مدل‌های بزرگ زبانی، به‌خصوص در چت بات‌ها، بر اساس گویش کاربران قضاوت‌های نژادپرستانه دارند. محققان دریافتند که چنانچه از سیستم‌های هوش مصنوعی پرسیده شود بین دو متهم خیالی که یکی انگلیسی را با لهجه استاندارد آمریکایی حرف می‌زند و دیگری با لهجه آفریقایی-آمریکایی، کدام یک را به مجازات اعدام محکوم می‌کند، پاسخ هوش مصنوعی شخص دوم (آفریقایی-آمریکایی) است.

این مطالعه نشان داد که چت‌بات‌ها نیز در روش‌های استخدامی برای افراد با لهجه آفریقایی- آمریکایی مشاغل پایین‌تر و کم‌اعتبارتر را انتخاب می‌کنند.

مارگارت میچل، محقق حوزه «هوش مصنوعی با تمرکز بر اخلاق»، می‌گوید تلاش‌ها برای مقابله با نژادپرستی پس از آموزش مدل، کار بسیار سختی است و شناسایی مدل‌هایی را که به زیرجمعیت‌های خاص آسیب می‌رسانند، دشوار می‌کند.

مدل‌های بزرگ زبانی، بیشترین ارتباط آماری بین کلمات و عبارات را در متن از اینترنت می‌گیرند و سوگیری‌های آشکار آنها، مانند نسبت دادن خشونت به مسلمانان، مورد مطالعه جدی قرار گرفته است. اما نژادپرستی پنهان کمتر مورد بررسی قرار گرفته است.

این مطالعه مدل‌ها را با داده‌های حدود ۴ هزار پست منتشر شده در شبکه اجتماعی اکس (توییتر سابق) با هر دو لهجه «انگلیسی استاندارد آمریکایی» و «انگلیسی آفریقایی-آمریکایی» بررسی کرد. محققان دریافتند که صفت‌های مرتبط با متون «انگلیسی آفریقایی-آمریکایی» همگی منفی هستند، از جمله صفت‌هایی، چون «کثیف»، «تنبل» و «تهاجمی».

این تیم با مقایسه نتایج با یک مطالعه طولانی‌مدت درباره ارتباطات انسانی، دریافت که کلیشه‌های پنهان مدل‌ها منفی‌تر از هر کلیشه انسانی در مورد آمریکایی‌های آفریقایی‌تباری است که تاکنون به صورت تجربی ثبت شده و به کلیشه‌های قبل از دوره مدنی ایالات متحده بسیار نزدیک است.

این مطالعه به بررسی این موضوع نیز پرداخت که آیا نژادپرستی پنهان بر تصمیماتی که این مدل می‌گرفت تأثیر می‌گذارد یا خیر. آنها دریافتند که وقتی از مدل‌ها خواسته می‌شود گویشوران را با مشاغل مطابقت دهند، همه مدل‌ها به احتمال زیاد گویشوران «انگلیسی استاندارد آمریکایی» را با مشاغلی که نیازی به مدرک دانشگاهی ندارند، مانند آشپز، سرباز یا نگهبان مرتبط می‌کنند.

با نگاهی به پیامد‌های بالقوه در یک محیط قانونی از مدل‌ها خواسته شد تا یک متهم را بر اساس گفتار تبرئه یا محکوم کنند و نتیجه این بود که گویشوران با لهجه «انگلیسی آفریقایی-آمریکایی» میزان محکومیت بسیار بالاتری را نسبت به گویشوران «انگلیسی استاندارد آمریکایی» دریافت کردند.

به گفته کارشناسان، سوگیری‌های پنهان می‌تواند بر توصیه‌های یک مدل در برنامه‌های کاربردی حساس، مانند اولویت بندی شغلی و مصاحبه‌های استخدامی تأثیر بگذارد.

منبع/ آنا

ارسال نظرات
در بزرگترین نمایشگاه خودروی چین خودروهای الکتریکی آینده به صحنه آمدند
آخرین وضعیت بازار رمزارزهای جهان در 8 اردیبهشت 1403 سقوط سودآوری بیت‌کوین
گزارش مالی سه‌ماهه مایکروسافت اعلام شد؛ رشد سرویس‌های ابری به‌لطف هوش مصنوعی
تحول مورد انتظار ربات‌های انسان نما در زندگی مردم ربات انسان‌نمای تسلا در آستانه عرضه به بازار
قبل از کنفرانس جهانی توسعه‌دهندگان اپل این ماه یک رویداد مجازی برگزار می‌کند
وبگردی