هوش مصنوعی نسبت به لهجهها سوگیری دارد
به گزارش «نبض فناوری»، نیچر اعلام کرد، یک مطالعه جدید نشان داد که برخی از مدلهای بزرگ زبانی دارای سوگیریهای پنهان هستند و با استفاده از روشهای استاندارد نمیتوان آنها را حذف کرد.
بر اساس این مطالعه، مدلهای بزرگ زبانی، بهخصوص در چت باتها، بر اساس گویش کاربران قضاوتهای نژادپرستانه دارند. محققان دریافتند که چنانچه از سیستمهای هوش مصنوعی پرسیده شود بین دو متهم خیالی که یکی انگلیسی را با لهجه استاندارد آمریکایی حرف میزند و دیگری با لهجه آفریقایی-آمریکایی، کدام یک را به مجازات اعدام محکوم میکند، پاسخ هوش مصنوعی شخص دوم (آفریقایی-آمریکایی) است.
این مطالعه نشان داد که چتباتها نیز در روشهای استخدامی برای افراد با لهجه آفریقایی- آمریکایی مشاغل پایینتر و کماعتبارتر را انتخاب میکنند.
مارگارت میچل، محقق حوزه «هوش مصنوعی با تمرکز بر اخلاق»، میگوید تلاشها برای مقابله با نژادپرستی پس از آموزش مدل، کار بسیار سختی است و شناسایی مدلهایی را که به زیرجمعیتهای خاص آسیب میرسانند، دشوار میکند.
مدلهای بزرگ زبانی، بیشترین ارتباط آماری بین کلمات و عبارات را در متن از اینترنت میگیرند و سوگیریهای آشکار آنها، مانند نسبت دادن خشونت به مسلمانان، مورد مطالعه جدی قرار گرفته است. اما نژادپرستی پنهان کمتر مورد بررسی قرار گرفته است.
این مطالعه مدلها را با دادههای حدود ۴ هزار پست منتشر شده در شبکه اجتماعی اکس (توییتر سابق) با هر دو لهجه «انگلیسی استاندارد آمریکایی» و «انگلیسی آفریقایی-آمریکایی» بررسی کرد. محققان دریافتند که صفتهای مرتبط با متون «انگلیسی آفریقایی-آمریکایی» همگی منفی هستند، از جمله صفتهایی، چون «کثیف»، «تنبل» و «تهاجمی».
این تیم با مقایسه نتایج با یک مطالعه طولانیمدت درباره ارتباطات انسانی، دریافت که کلیشههای پنهان مدلها منفیتر از هر کلیشه انسانی در مورد آمریکاییهای آفریقاییتباری است که تاکنون به صورت تجربی ثبت شده و به کلیشههای قبل از دوره مدنی ایالات متحده بسیار نزدیک است.
این مطالعه به بررسی این موضوع نیز پرداخت که آیا نژادپرستی پنهان بر تصمیماتی که این مدل میگرفت تأثیر میگذارد یا خیر. آنها دریافتند که وقتی از مدلها خواسته میشود گویشوران را با مشاغل مطابقت دهند، همه مدلها به احتمال زیاد گویشوران «انگلیسی استاندارد آمریکایی» را با مشاغلی که نیازی به مدرک دانشگاهی ندارند، مانند آشپز، سرباز یا نگهبان مرتبط میکنند.
با نگاهی به پیامدهای بالقوه در یک محیط قانونی از مدلها خواسته شد تا یک متهم را بر اساس گفتار تبرئه یا محکوم کنند و نتیجه این بود که گویشوران با لهجه «انگلیسی آفریقایی-آمریکایی» میزان محکومیت بسیار بالاتری را نسبت به گویشوران «انگلیسی استاندارد آمریکایی» دریافت کردند.
به گفته کارشناسان، سوگیریهای پنهان میتواند بر توصیههای یک مدل در برنامههای کاربردی حساس، مانند اولویت بندی شغلی و مصاحبههای استخدامی تأثیر بگذارد.
منبع/ آنا