آیا درباره خطرات جعل عمیق اغراق میشود؟
تاریخ انتشار: ۱۷ اسفند ۱۴۰۲ | کد خبر: ۳۹۹۰۲۷۵۲
ایتنا - دیپفیکهای هوش مصنوعی اغلب برای ایجاد آسیب استفاده میشوند، اما روشهای موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد.
در عصر دیجیتالی که در آن زندگی میکنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانیهای عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
همانقدر که تصاویر دستکاری شده پیچیدهتر میشوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروریتر میشود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبههای مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد.
با کنترلهای صحیح و هوشیار بودن نسبت به خطرات احتمالی جعل عمیق، میتوانیم این طوفان حوزه تکنولوژی را پشت سر بگذاریم.
این نکته را باید در نظر داشت که فناوری دیپ فیک، پدیده نوظهوری نیست، بلکه سالهاست در استودیوهای فیلمسازی هالیوود استفاده میشود، اما اکنون از طریق اپلیکیشنهای تجاری در دسترس همگان قرار گرفته است که منجر به افزایش حجم محتوای جعلی در حال گردش در فضای مجازی شده است.
هنگامی که از دیپ فیک برای تبلیغ اطلاعات نادرست و گمراه کننده استفاده میشود، دانستن اینکه ابزارهایی در حال توسعه هستند که ویدیوهای اصلاح شده توسط هوش مصنوعی را شناسایی میکنند، نیز امری ضروری است.
البته چیزی که امیدوار کننده است، همگرایی غولهای فناوری مانند گوگل، متا، اوپنایآی، مایکروسافت و دیگر شرکتها است که صریحا اعلام کردند باید روشهای جدیدی برای محدود کردن گسترش فناوری دیپفیک ایجاد شود. مانند افزودن برچسبها واترمارک نامرئی روی ویدئوها و تصاویری که با استفاده از دیپفیک و هوش مصنوعی ایجاد یا اصلاح میشوند.
یکی دیگر از عوامل اطمینان بخش این است که اخیرا قانونی پیشنهادی که توسط کمیسیون تجارت فدرال ایالات متحده تعیین شده است به زودی برای کمک به جلوگیری از تقلب از طریق هوش مصنوعی اجرایی میشود.
متا نیز به زودی شروع به برچسب گذاری تصاویر جعل عمیق یا تولید شده توسط هوش مصنوعی در پلتفرمهای خود در فیسبوک، اینستاگرام و Threads به عنوان "تولید شده توسط هوش مصنوعی" میکند تا آنها را از محتوای واقعی متمایز کند.
علاوه بر گسترش آگاهی فردی در بین کاربران اینترنت، اکثریت مردم در حال حاضر صحت محتوا را قبل از اشتراکگذاری تأیید میکنند و این امر نقش اساسی در کاهش خطرات ناشی از جعل عمیق دارد.
تشخیص جعل عمیق به طور فزایندهای دشوار شده اما غیرممکن نیست. در اینجا برجسته ترین روشها آمده است:
برنامهای برای تشخیص تغییرات هوش مصنوعی
برای تعیین اینکه آیا یک تصویر، ویدئو یا فایل صوتی دستکاری شده است یا نه، این نوع نرمافزار اثر انگشت دیجیتالی به جا مانده از محتوای تولید شده توسط هوش مصنوعی را تجزیه و تحلیل میکند.
واترمارکینگ مبتنی بر هوش مصنوعی
این تکنیک شامل افزودن یک شناسه منحصر به فرد به یک تصویر یا متن است که مبدأ آن را مشخص میکند. این کار ردیابی منبع را آسانتر میکند و میتواند به تعیین صحت آن کمک کند.
منبع محتوا
هدف این استراتژی حفظ منبع رسانههای دیجیتال اعم از طبیعی و مصنوعی است. نگه داشتن سوابق منابع رسانهای و تاریخچه به کاربران کمک میکند تشخیص دهند که آیا کسی آنها را دستکاری کرده است.
بدون استانداردهای جهانی برای شناسایی محتوای واقعی و جعلی، آشکارسازها ممکن است همه چیز را تشخیص ندهند، زیرا باید روی جزئیات دیگری تمرکز کنند که به تمایز بین محتوای واقعی و جعلی کمک می کند، از جمله:
صورت و بدن
اکثر دیپفیکها به جایگزینهای اعضای صورت محدود میشوند. از این رو، یکی از راههای شناسایی جعلی بودن، تشخیص ناهماهنگی بو عدم تناسب بین بدن و صورت، یا بین حالات چهره و حرکات یا موقعیتهای بدن است.
طول ویدیو
ساخت دیپفیکهای با کیفیت بالا به ساعتهای زیادی کار و آموزش روی الگوریتم نیاز دارند. بنابراین ویدئوهای جعلی معمولا فقط چند ثانیه تا چند دقیقه طول میکشند.
صوتی تصویری
برنامههایی برای ساخت صداهای جعلی وجود دارد. اگر ویدیو صدا ندارد یا صدایی دارد که با تصویر مطابقت ندارد، مخصوصاً حرکت لب، مراقب باشید.
داخل دهان
در نظر داشته باشید که فناوری دیپ فیک در بازتولید زبان، دندانها و حفره دهان در هنگام صحبت کردن بینقص عمل نمیکند. بنابراین تار شدن داخل دهان نشان دهنده یک تصویر نادرست و جعلی است.
جزئیات دیگر
جزئیات، پاشنه آشیل نرم افزار دیپفیک است. بنابراین میتوانیم آنها را با تمرکز بر جنبههای کوچک مانند سایههای مات دور چشم، موهای غیر واقعی صورت، پوست بیش از حد صاف یا چروک، خالهای غیرواقعی و رنگ غیر طبیعی لب، تشخیص دهیم.
منبع: ايتنا
کلیدواژه: جعل عمیق دیپ فیک هوش مصنوعی شده توسط هوش مصنوعی جعل عمیق دیپ فیک
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.itna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۹۰۲۷۵۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
آغاز عملیات حفر چاه عمیق زمین چمن فوتبال شهرستان پلدشت
به گزارش خبرگزاری صداوسیمای استان آذربایجان غربی، رییس اداره ورزش و جوانان شهرستان پلدشت گفت: بر اساس مصوبه سفر استاندار آذربایجان غربی به این شهرستان عملیات حفر چاه عمیق برای آبیاری زمین چمن فوتبال شهرستان پلدشت آغاز شد. محمدزاده گفت: برای حفر این چاه عمیق ۴۰۰ میلیون تومان اعتبار اختصاص یافته است که در مدت ۲۰ روز عملیات حفر این واه به پایان خواهد رسید. رییس اداره ورزش و جوانان شهرستان پلدشت خاطر نشان کرد: بعد از اتمام عملیات حفر چاه. اداره کل ورزش و جوانان استان برای لوله کشی دور ورزشگاه انقلاب جهت آبیاری چمن ورزشی ۶۰۰ میلیون تومان دیگر هزینه خواهد کرد.