کد خبر: ۱۳۶۵۷
|
۲۰ دی ۱۳۹۹ | ۱۵:۰۲
هوش مصنوعی و شفافیت در بخش دولتی،
در تصمیم‌گیری‌ها شفافیت همواره از اهمیت بالایی برخوردار بوده، خواه با استفاده از هوش مصنوعی گرفته شود یا گرفته نشود. با این حال گزارش ارائه شده سه مشکل خاص را در هنگام تلاش برای اعمال شفافیت در استفاده از هوش مصنوعی را مشخص می‌کند.

عدم شفافیت استفاده از هوش مصنوعی در بخش دولتی مشکل ساز است

هوش مصنوعی در بخش‌های کاربردی مختلفی ورود کرده‌است که جدیدترین کاربرد آن در شفافیت‌ها در بخش دولتی است.


به گزارش «نبض‌فناوری»؛  مرکز خلاقیت و نوآوری داده‌های آمریکا بررسی خود را در مورد جهت‌گیری در تصمیم‌گیری الگوریتمی منتشر کرده است. نحوه استفاده از الگوریتم‌ها برای ترویج انصاف و نه تضعیف آن است. اخیرا در گزارش‌های منتشر شده از تاثیرات خوب هوش مصنوعی در مدیریت دولت‌ها آورده شده است. در این جا به گزارش پیرامون شفافیت هوش مصنوعی و تصمیم گیری الگوریتمی مورد استفاده در بخش دولتی نگاه می‌کنیم و آن را بررسی می‌کنیم.

عدم شفافیت استفاده از هوش مصنوعی در بخش دولتی مشکل ساز است

 

بخش دولتی تصمیماتی اتخاذ می‌کند که می‌تواند تاثیرات چشم‌گیری بر شهروندان داشته باشد؛ به عنوان مثال مسائلی که مربوط به آزادی فردی یا استحقاق خدمات عمومی است. در این راستا گزارشی تهیه شد که خاطر نشان می‌کند فرصت‌های ارائه شده در استفاده از داده‌ها و هوش مصنوعی در تصمیم‌گیری‌ها افزایش یافته است. در تصمیم‌گیری‌ها شفافیت همواره از اهمیت بالایی برخوردار بوده، خواه با استفاده از هوش مصنوعی گرفته شود یا گرفته نشود. با این حال گزارش ارائه شده سه مشکل خاص را در هنگام تلاش برای اعمال شفافیت در استفاده از هوش مصنوعی را مشخص می‌کند.

 

 

مشکلات شفافیت هوش مصنوعی در بخش‌های دولتی


مشکل اول شفافیت هوش مصنوعی: خطرات متفاوتی در عدم شفافیت استفاده از هوش مصنوعی توسط دولت‌ها وجود دارند. خطر جهت‌گیری هنگام استفاده از هوش مصنوعی همیشه امنیت اجتماعی را تهدید کرده است. به عنوان مثال در مواردی که افراد در یک زیر گروه کوچک هستند، داده‌هایی که برای کلی‌گویی استفاده می‌شوند می‌توانند به میزان نامتناسبی امکان بروز خطا در میان گروه‌های اقلیت را افزایش دهد. در بسیاری از کاربردهای این فناوری‌ پیش‌بینی کننده، ممکن است تاثیرات کاذب روی فرد محدود باشد، با این حال در مناطق حساس وجهه‌های کاذب منفی و مثبت قابل توجهی به همراه دارد. تعصب ممکن است به این معنی باشد که افراد خاصی اثرات منفی را تجربه ‌کنند. خطر استفاده از هوش مصنوعی با توجه به تاثیرات قابل توجهی که بر افراد و گروه‌ها می‌گذارد، می‌تواند در تصمیم‌گیری‌های عمومی بسیار زیاد باشد.

مشکل دوم شفافیت هوش مصنوعی: مصاحبه‌های CDEI دشواری چگونگی تصمیم‌گیری الگوریتمی در دولت محلی را نشان داده‌ است که چگونه بدون نیاز به شفافیت، دشوارتر می‌شود. این نکته مهم است که بفهمیم چه زمانی هوش مصنوعی در بخش عمومی استفاده می‌شود تا کدورتی پیش نیاید. نحوه مدیریت خطرات و درک چگونگی تصمیم‌گیری آن نیز بسیار مهم است.

مشکل سوم شفافیت هوش مصنوعی: چندین مورد شفافیت در بخش دولتی وجود دارد اما ممکن است ارگان‌های عمومی مشخص نکنند که چگونه برخی از این‌ها باید در زمینه هوش مصنوعی اعمال شوند.

ارسال نظرات
با افتتاح نخستین دیتا سنتر در منطقه پیام؛ موتور قطب دیتا سنتر کشور روشن می شود
معرفی بزرگان فناوری اطلاعات؛ با خالق سیستم عامل لینوکس آشنا شوید
در راستای توسعه همکاری امضاء شد؛ نفوذ فناوری به حوزه نشر و کتاب
در راستای حمایت از شرکت­‌های دانش­‌بنیان برای ورود به بازار بورس؛ دستورالعمل اجرایی تبدیل شرکت‌های تجارتی به یکدیگر ابلاغ شد
نبرد بر سر اینترنت ماهواره‌ای و 5G: نبرد غول‌های فناوری در مقابل استارلینک
خود کفایی صنعت پتروشیمی با کمک یک شرکت دانش بنیان؛ تولید گاز سنتز پتروشیمی در کل چرخه به نقطه صد درصدی رسید
نیازمندیها