برچسب ها
دیپ فیک
با توجه به ریسک های احتمالی؛
کارشناسان هوش مصنوعی و پیشگامان این حوزه در نامهای سرگشاده با تاکید بر ریسک های احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری شدند.
کد خبر: ۳۹۹۴۴ تاریخ انتشار : ۱۴۰۲/۱۲/۰۴
با تدوین پیش نویسی؛
هند تصمیم دارد قوانینی برای نظارت بر « دیپ فیک » وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود.
کد خبر: ۳۸۵۸۴ تاریخ انتشار : ۱۴۰۲/۰۹/۰۴
کمیسیون فدرال انتخابات آمریکا(FEC) مشغول بررسی دادخواستی است که از این سازمان می خواهد تبلیغات سیاسی که با استفاده از هوش مصنوعی کاندیدای رقیب را تخریب می کند، قانونمند سازد.
کد خبر: ۳۶۹۸۶ تاریخ انتشار : ۱۴۰۲/۰۵/۲۵
مشاور هوش مصنوعی در سازمان ملل متحد در مورد استفاده مخرب از فناوری جدید جعل عمیق( دیپ فیک ) که در آن، هوش مصنوعی میتواند تصاویر غیر واقعی اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید برای محافظت از مردم بیشتر تلاش کنند.
کد خبر: ۳۵۴۲۴ تاریخ انتشار : ۱۴۰۲/۰۲/۳۱
در پی ساخت تصاویر جعلی بحثبرانگیز، حالا دیگر امکان ساخت رایگان تصاویر با مدل هوش مصنوعی Midjourney وجود ندارد.
کد خبر: ۳۴۳۵۲ تاریخ انتشار : ۱۴۰۲/۰۱/۱۱
رگولاتور فضای سایبری چین اعلام کرد قوانین جدید برای تهیه کنندگان محتوا که داده های مربوط به صورت و صدا را تغییر می دهند از ۱۰ ژانویه ۲۰۲۳ میلادی اجرا می شود.
کد خبر: ۳۲۳۶۹ تاریخ انتشار : ۱۴۰۱/۰۹/۲۱
طبق آپدیت آیین نامه اجرایی اتحادیه اروپا،گوگل، فیس بوک، توئیتر و دیگر شرکت های فناوری باید اقداماتی برای مقابله با دیپ فیلک و حساب های کاربری جعلی در پلتفرم شان انجام دهند.
کد خبر: ۲۸۶۱۰ تاریخ انتشار : ۱۴۰۱/۰۳/۲۴
گوگل بیسر و صدا پروژههای دیپ فیک را در سرویس Colaboratory خود ممنوع کرد و به استفاده گسترده از منابع این پلتفرم برای هدف مذکور پایان داد.
کد خبر: ۲۸۳۱۸ تاریخ انتشار : ۱۴۰۱/۰۳/۱۰
از سوی رگولاتور چین؛
رگولاتور فضای سایبری چین پیش نویس قوانینی را برای تهیه کنندگان محتوا صادر کرد که وضعیت استفاده از داده های مربوط به شناسایی چهره و صوت را دگرگون می کند.
کد خبر: ۲۵۱۱۴ تاریخ انتشار : ۱۴۰۰/۱۱/۱۰
یک هوش مصنوعی جدید میتواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، و هم به شکل روان صحبت کنند.
کد خبر: ۱۷۵۶۵ تاریخ انتشار : ۱۴۰۰/۰۳/۰۳
هشدار محققان:
با وجود این که جعل غیرمجاز هویت افراد یکی از مشکلات همیشگی و نگرانکننده دیپفیک بوده، اما این فناوری پتانسیلهای دیگری هم دارد. برای مثال محققان نشان دادهاند که میتوان از دیپفیک برای دستکاری تصویرسازیهای ماهوارهای و خلق تصاویری با ظاهر واقعی – اما کاملا جعلی – استفاده کرد.
کد خبر: ۱۶۵۸۳ تاریخ انتشار : ۱۴۰۰/۰۲/۰۶
ساخت ویدئوهای جعلی پیش از این نیازمند استودیوهای بزرگ بود ولی امروزه به کمک تلفنهای هوشمند میتوان این ویدئوها را تولید کرد.
کد خبر: ۱۵۶۲۵ تاریخ انتشار : ۱۴۰۰/۰۱/۰۷
دست هوش مصنوعی در کار است؛
فناوری دیپ فیک یا همان جعل عمیق در طول ظهور و پیدایش خود، نه تنها جامعه بازیگران و سلبریتی ها را هدف گرفته بلکه به حریم چهرههای بزرگ سیاستمدار نیز تجاوز کرده است، باید گفت که به زودی تشخیص بین مرز حقیقت و دروغ کاملا غیر ممکن میشود.
کد خبر: ۱۳۹۹۹ تاریخ انتشار : ۱۳۹۹/۱۱/۰۹
کد خبر: ۱۲۲۱۸ تاریخ انتشار : ۱۳۹۹/۱۰/۰۶