هشدار! هوش مصنوعی موتور جستوجو نیست!
به گزارش «نبض فناوری»، این اشتباه رایجی است که بسیاری از مردم در کار با نسخههای مختلف هوش مصنوعی و به طور ویژه، چت باتهای ساخته شده توسط AI، مثل چت جیپیتی مرتکب میشوند. اشتباهی فراگیر که در ساعات گذشته در آمریکا مناقشه برانگیز شد و توجه بسیاری از کاربران را به این مساله جلب کرد.
ماجرا از آنجایی آغاز شد که بار دیگر ماجرای عفو «هانتر بایدن» در دوران ریاست جمهوری پدرش، «جو بایدن» (رئیس جمهور فعلی آمریکا) در کانون توجه عموم قرار گرفت و برخی کوشیدند تا نمونههای مشابهی برای این گونه عفوها بیابند و برای این کار به سراغ هوش مصنوعی رفتند.
هانتر که به دلیل ارتباطات تجاری و مالی با برخی کشورها، از جمله اوکراین و چین در دوران ریاست جمهوری اوباما با اتهاماتی مواجه بود، در سالهای گذشته و در پی تحقیقات قضایی با اتهاماتی مانند فساد مالی، مورد محاکمه قرار گرفت و در نهایت در برخی موارد اتهامی محکوم و در بعضی دیگر تبرئه گردید.
البته این آرای قضایی در حالی برای پسر رئیس جمهور صادر شد که وی توانست با دادستان پرونده به توافق دست پیدا کند؛ روشی مرسوم در ایالات متحده که بر اساس آن، متهم اجازه معامله دارد و میتواند اتهاماتی را بپذیرد تا مشمول تخفیف یا حتی عدم رسیدگی به برخی اتهامات دیگر شود!
بدین ترتیب محکوم شدن هانتر بایدن به پرداخت جریمه مالیاتی و همچنین الزام به حضور در جلسات درمان اعتیاد به مواد مخدر به مدت دو سال و تبرئه از اتهاماتی مانند فساد مالی، توافقی خوانده شد که مخالفان بایدن تاکید دارند رئیس جمهور در شکل گیری آن نقش داشته و با سو استفاده سیاسی، رقم خورده است.
مساله چالش برانگیزی که حالا بار دیگر داغ شده است چراکه دولت بایدن به آخرین روزهای عمر خود رسیده و قرار است دولتی از جناح رقیب سکان دار امور شود و در نتیجه نزاعهای سیاسی به اوج خود رسیده و طرفین میکوشند یکدیگر را به شدت زیر سوال ببرند و انتخابها و عملکرد رقیب را زیر سوال ببرند.
رفتاری که استفاده نادرست از هوش مصنوعی هم به آن دامن زده است، به این صورت که با داغ شدن دوباره ماجرای عفو پسر رئیس جمهور فعلی از برخی اتهامات، برخی کوشیدهاند نمونههایی برای این نوع آرای قضایی بیابند و این کار را نه به مراجعه به امثال موتور جست و جوی گوگل یا بینگ، که با هوش مصنوعی انجام دادهاند.
رویکردی که البته از دید افراد آشنا با نقاط قوت و ضعف هوش مصنوعی، فرجامش از قبل مشخص بود و میتوانستند حدس بزنند که پرسیدن چنین سوالاتی از این ابزارهای نوپدید، میتواند موجب گمراهی و دریافت اطلاعات نادرست و حتی ساختگی شود و همین گونه هم شد؛ پاسخهای نادرست توسط برخی منتشر گردید و ابعاد تازهای به این ماجرای جنجالی بخشید.
دروغهای پر سروصدای هوش مصنوعی در ساعات اخیر
«ویلسون رئیس جمهور اسبق آمریکا هم دامادش "هانتر دبوتس" را عفو کرده بود»؛ این یکی از ادعاهای کذب مطرح شده در روزهای گذشته است که نتیجه به کارگیری یک چت بات هوش مصنوعی برای تحقیق پیرتامون تاریخچه عفوها در آمریکا در ادوار گذشته ریاست جمهوری در این کشور است.
عفو «نیل بوش»، توسط پدرش، جرج دبلیو بوش در دوران ریاست جمهوری وی و در ارتباط با «پرونده رسوایی سیلورادو»، ادعای کذب دیگری بود که برخی مطرح کردند و عفو «بیلی کارتر»، توسط برادرش جیمی کارتر، در دوران ریاست جمهوری جیمی و در ارتباط با «پرونده ارتباطات مالی مشکوک با لیبی»، یک نمونه دیگر از این داستانهای دروغین بود.
موارد و ادعاهایی که وقتی غیرواقعی بودن آنها مورد تاکید قرار گرفت (مثلا ثابت شد که ویلسون دامادی با نام هانتر دبوتس نداشته و عفو پسر بوش در دوران کلینتون رقم خورده است!)، مطرح کنندگان این ادعاها تاکید کردند که مستندات و اطلاعاتشان را از هوش مصنوعی گرفته اند تا بار دیگر ثابت شود که این فناوری نوظهور به رقم تواناییهای زیادی که دارد، در استنادات تاریخی قابل اتکا نیست.
چرا هوش مصنوعی اطلاعات دروغین را نشر میدهد؟
این نکتهای است که پیشتر هم توسط کارشناسان این حوزه مورد تاکید قرار گرفته بود و حالا بار دیگر با مثالی محکم، ثابت شده است؛ اینکه استفاده از هوش مصنوعی بهعنوان منبع اطلاعات تاریخی یا حقوقی، میتواند خطرناک باشد چراکه برخلاف موتورهای جستجو که به منابع قابل استناد لینک میدهند، هوش مصنوعی اطلاعاتی را تولید میکند که گاهی فاقد اعتبار یا حتی کاملاً اشتباه است.
نقطه ضعفی که البته ریشه آن مشخص است، از جمله اینکه هوش مصنوعی در منابع مورد استفاده برای تمرین و توسعه، شفاف نیست و برخلاف انسانها، نمیتواند منابع مستقیم خود را بهوضوح مشخص کند. یا این نکته که وقتی نتواند اطلاعات موثق بیابد، با اطلاعاتی که دارد، اطلاعات تازه تولید میکند که «معتبرنما» هستند، اما گاه از اساس واقعیت ندارند.
یکی دیگر از دلایل بروز این اشتباهات این است که هوش مصنوعی بر پایه اطلاعات موجود تمرین میکند و آموزش میبیند و بر این اساس، انبوه اطلاعات غلط و حتی جعلی هم در آموزش آن مورد استفاده قرار گرفته است و در نتیجه، گاهی بدون اینکه بخواهد و بداند، اطلاعات نادرست را در اختیار کاربران قرار میدهد!
نقطه ضعفی بسیار بزرگ که باید بدانیم در حال حاضر و تا اطلاع ثانوی در بطن این فناوری نوظهور و رو به گسترش وجود دارد و باید مراقبش باشیم. مراقب ابزاری که برای افزایش بهرهوری به شدت کاراست، اما اعتماد کورکورانه به آن، میتواند عواقب ناخوشی به دنبال داشته باشد و در نتیجه، بایستی در کار با آن، به شدت دقت کرد.