برچسب ها
دیپ فیک
دولت انگلیس اعلام کرد ایجاد و به اشتراک گذاری محتوای دیپ فیک هرزنگاری به یک جرم در این کشور تبدیل می شود.
کد خبر: ۴۴۰۸۴ تاریخ انتشار : ۱۴۰۳/۱۰/۱۸
تشخیص و حذف محتوای تولید شده توسط هوش مصنوعی با استفاده از تصویر و صدای افراد مشهور توسط یوتیوب ممکن شد. یوتیوب با همکاری آژانس هنرمندان خلاق (CAA) در حال توسعه ابزارهایی برای کمک به سازندگان محتوا در شناسایی و حذف محتوایی است که از تصاویر و صداهای تولید شده توسط هوش مصنوعی آنها استفاده میکند.
کد خبر: ۴۳۷۲۶ تاریخ انتشار : ۱۴۰۳/۰۹/۲۸
شرکت اوپن ای آی در هفته منتهی به انتخابات ریاست جمهوری هزاران درخواست برای تولید تصاویر دیپ فیک از کاندیداهای ریاست جمهور را رد کرد.
کد خبر: ۴۳۱۷۴ تاریخ انتشار : ۱۴۰۳/۰۸/۲۰
«اف بی آی» طی بیانیه ای درباره ویدئوهای جعلی که در پیش از برگزاری انتخابات ریاست جمهوری آمریکا در فضای مجازی منتشر شده، هشدار داد.
کد خبر: ۴۳۱۰۳ تاریخ انتشار : ۱۴۰۳/۰۸/۱۴
اپراتور Lingo Telecom، که این تماسهای جعلی از طریق آن مخابره شده بود، یک میلیون دلار جریمه مدنی (تعزیرات غیرکیفری) به FCC پرداخت خواهد کرد و موظف شده است که طرح خود برای انطباق با قوانین را ارائه کرده و اجرایی کند.
کد خبر: ۴۲۳۰۴ تاریخ انتشار : ۱۴۰۳/۰۶/۰۶
نشریه گاردین در مطلبی به عناصر بصری اشاره میکند که با توجه به آنها میتوان جعل عمیق را تشخیص داد.
کد خبر: ۴۱۹۰۷ تاریخ انتشار : ۱۴۰۳/۰۵/۰۶
گوگل بخش قوانین محتوای نامناسب خود را به روز رسانی کرد تا به طور واضح تبلیغ وب سایت ها و سرویس های انتشار هرزنگاری دیپ فیک را منع کند.
کد خبر: ۴۰۸۵۲ تاریخ انتشار : ۱۴۰۳/۰۲/۱۶
با توجه به ریسک های احتمالی؛
کارشناسان هوش مصنوعی و پیشگامان این حوزه در نامهای سرگشاده با تاکید بر ریسک های احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری شدند.
کد خبر: ۳۹۹۴۴ تاریخ انتشار : ۱۴۰۲/۱۲/۰۴
با تدوین پیش نویسی؛
هند تصمیم دارد قوانینی برای نظارت بر « دیپ فیک » وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود.
کد خبر: ۳۸۵۸۴ تاریخ انتشار : ۱۴۰۲/۰۹/۰۴
کمیسیون فدرال انتخابات آمریکا(FEC) مشغول بررسی دادخواستی است که از این سازمان می خواهد تبلیغات سیاسی که با استفاده از هوش مصنوعی کاندیدای رقیب را تخریب می کند، قانونمند سازد.
کد خبر: ۳۶۹۸۶ تاریخ انتشار : ۱۴۰۲/۰۵/۲۵
مشاور هوش مصنوعی در سازمان ملل متحد در مورد استفاده مخرب از فناوری جدید جعل عمیق( دیپ فیک ) که در آن، هوش مصنوعی میتواند تصاویر غیر واقعی اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید برای محافظت از مردم بیشتر تلاش کنند.
کد خبر: ۳۵۴۲۴ تاریخ انتشار : ۱۴۰۲/۰۲/۳۱
در پی ساخت تصاویر جعلی بحثبرانگیز، حالا دیگر امکان ساخت رایگان تصاویر با مدل هوش مصنوعی Midjourney وجود ندارد.
کد خبر: ۳۴۳۵۲ تاریخ انتشار : ۱۴۰۲/۰۱/۱۱
رگولاتور فضای سایبری چین اعلام کرد قوانین جدید برای تهیه کنندگان محتوا که داده های مربوط به صورت و صدا را تغییر می دهند از ۱۰ ژانویه ۲۰۲۳ میلادی اجرا می شود.
کد خبر: ۳۲۳۶۹ تاریخ انتشار : ۱۴۰۱/۰۹/۲۱
طبق آپدیت آیین نامه اجرایی اتحادیه اروپا،گوگل، فیس بوک، توئیتر و دیگر شرکت های فناوری باید اقداماتی برای مقابله با دیپ فیلک و حساب های کاربری جعلی در پلتفرم شان انجام دهند.
کد خبر: ۲۸۶۱۰ تاریخ انتشار : ۱۴۰۱/۰۳/۲۴
گوگل بیسر و صدا پروژههای دیپ فیک را در سرویس Colaboratory خود ممنوع کرد و به استفاده گسترده از منابع این پلتفرم برای هدف مذکور پایان داد.
کد خبر: ۲۸۳۱۸ تاریخ انتشار : ۱۴۰۱/۰۳/۱۰
از سوی رگولاتور چین؛
رگولاتور فضای سایبری چین پیش نویس قوانینی را برای تهیه کنندگان محتوا صادر کرد که وضعیت استفاده از داده های مربوط به شناسایی چهره و صوت را دگرگون می کند.
کد خبر: ۲۵۱۱۴ تاریخ انتشار : ۱۴۰۰/۱۱/۱۰
یک هوش مصنوعی جدید میتواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، و هم به شکل روان صحبت کنند.
کد خبر: ۱۷۵۶۵ تاریخ انتشار : ۱۴۰۰/۰۳/۰۳
هشدار محققان:
با وجود این که جعل غیرمجاز هویت افراد یکی از مشکلات همیشگی و نگرانکننده دیپفیک بوده، اما این فناوری پتانسیلهای دیگری هم دارد. برای مثال محققان نشان دادهاند که میتوان از دیپفیک برای دستکاری تصویرسازیهای ماهوارهای و خلق تصاویری با ظاهر واقعی – اما کاملا جعلی – استفاده کرد.
کد خبر: ۱۶۵۸۳ تاریخ انتشار : ۱۴۰۰/۰۲/۰۶
ساخت ویدئوهای جعلی پیش از این نیازمند استودیوهای بزرگ بود ولی امروزه به کمک تلفنهای هوشمند میتوان این ویدئوها را تولید کرد.
کد خبر: ۱۵۶۲۵ تاریخ انتشار : ۱۴۰۰/۰۱/۰۷
دست هوش مصنوعی در کار است؛
فناوری دیپ فیک یا همان جعل عمیق در طول ظهور و پیدایش خود، نه تنها جامعه بازیگران و سلبریتی ها را هدف گرفته بلکه به حریم چهرههای بزرگ سیاستمدار نیز تجاوز کرده است، باید گفت که به زودی تشخیص بین مرز حقیقت و دروغ کاملا غیر ممکن میشود.
کد خبر: ۱۳۹۹۹ تاریخ انتشار : ۱۳۹۹/۱۱/۰۹