امروز : سه‌شنبه 25آذرماه 1404 | ساعت : 05 : 36

آخرین اخبار

لهستان در هیچ نیروی چندملیتی احتمالی در اوکراین مشارکت نخواهد کرد

شفقنا- دونالد تاسک، نخست‌وزیر لهستان، پس از بازگشت از...

هشدار بانک جهانی نسبت به بحران بدهی مصر

شفقنا- بانک جهانی در تازه‌ترین گزارش خود تصویری هشدارآمیز...

نگرانی تل‌آویو از تلاش‌های قطر برای خرید جنگنده‌های «اف-۳۵»

شفقنا– منابع اسرائیلی اعلام کردند که تل‌آویو با نگرانی...

ترامپ:«۵۹ کشور آماده اعزام نیرو به غزه هستند/به پایان جنگ در اوکراین نزدیکیم»

شفقنا-«دونالد ترامپ»، رئیس جمهور آمریکا اظهار داشت گفت‌وگوهای خوبی...

سوریه در انتظار دو برابر شدن تولید گاز طبیعی تا پایان سال ۲۰۲۶

شفقنا- «محمد البشیر»، وزیر نفت سوریه اعلام کرد که...

گمرک ایران: میانگین زمان ترخیص کالا در سال‌جاری ۷ روز بوده است

شفقنا- گمرک ایران اعلام کرد: میانگین زمان ترخیص کالاها...

۷ بیماری که دارچین می‌تواند به درمان آنها کمک کند

شفقنا- دارچین از ادویه‌های پرمصرف در آشپزی و شیرینی‌پزی...

تبلیغات/ پیش فروش بلیط قطار دی 1404 برای تمامی مسیرها

رپرتاژاگهی- پیش فروش بلیط قطارهای مسافری حدفاصل تاریخ یکم دی...

کاهش ۴۰ درصدی مصرف در نخستین روز اجرای مصوبه بنزین

شفقنا- رییس اتاق بازرگانی ایران گفت: در نخستین روز...

افزایش سقف سن ثبت‌نام آزمون دانشجو معلمان تا ۳۰ سال

شفقنا- با ابلاغ رئیس جمهور و رئیس شورای عالی...

تبلیغات/ مسیرهایی با سود چند صد میلیونی برای رانندگان تاکسی در سال 1404

رپرتاژآگهی- چکیده : در سال ۱۴۰۴، انتخاب مسیرهای بین‌ شهری...

تبلیغات/ تجهیزات آتش نشانی در ساختمان

رپرتاژآگهی- تجهیزات آتش‌نشانی در ساختمان چیست و چرا اهمیت...

تضمین‌های امنیتی غرب برای اوکراین؛ «مشابه ماده پنجم پیمان ناتو»

شفقنا- فریدریش مرتس، صدراعظم آلمان، اعلام کرد که کشورهای...

تبلیغات/ انتخاب تورچ جوشکاری آرگون

رپرتاژاگهی- چکیده : انتخاب تورچ مناسب در فرآیند جوشکاری تیگ...

علامه حکیمی: «معلول ها» نشان می دهد، «علت ها» فاسدند!

شفقنا- مرحوم علامه محمدرضا حکیمی در کتاب «الحیات» نوشت:...

ضیایی پرور: تقویت نگاه انتقادی و مراجعه به منابع اصلی، راه مقابله با دیپ فیک های منفی است

شفقنا رسانه- در سال های اخیر استفاده و کاربرد هوش مصنوعی در تمام دنیا همه گیر شده است. اما مسأله ای که در این میان خودنمایی می کند چگونگی استفاده از آن است. دیپ فیک که از جمله نرم افزارهای مبتنی بر هوش مصنوعی است و با تغییر در محتواهای صوتی و تصویری، محتوای کاملاً متفاوتی از واقعیت به مخاطب می دهد. به همین دلیل آشنایی با دیپ فیک، استفاده از فرصت های آن و مقابله با تهدیدهای آن مسئله مهمی است. حمید ضیایی پرور کارشناس حوزه رسانه و مدرس دانشگاه در این باره می گوید:دیپ فیک یک فناوری مثل سایر فناوری های دیگر، مانند چاقوی دو لبه است. به عبارتی هم می تواند جنبه مثبت داشته باشد و هم منفی. به همین دلیل رسانه ها برای تشخیص فیلم های جعل عمیق از واقعیت باید آموزش کافی ببینند و علاوه بر داشتن نگاه انتقادی، به منابع اصلی مراجعه کنند.

 

ضیایی پرور در گفتگو با شفقنا رسانه به تاثیر دیپ فیک ها اشاره می کند و می گوید: دیپ فیک فناوری تغییر و دستکاری در تصاویر و شبیه واقعیت جلوه دادن آن ها است. به این فناوری جعل عمیق گفته می شود که جعل به معنی دستکاری، ابداع و خلق کردن، می تواند کاربرد مثبت و یا منفی داشته باشد.

او شبیه سازی های حوادث کربلا که عده ای در قالب تئاتر اجرا می کنند را یک نوع دیپ فیک می داند و می گوید: بسیاری از فیلم ها و سرگرمی ها بر این مبنا ایجاد شده اند. از دیپ فیک می توان استفاده مثبتِ آموزشی کرد و کاربردهای مختلف علمی، سرگرمی و … آن را در نظر گرفت.

این پژوهشگر حوزه دیپ فیک با اشاره به کارکردهای منفی این فناوری می گوید: فطرت عمومی بشر در تمام دنیا به سمت خیر و نیکی سیر می کند و افراد شرور ۵ الی ۱۰ درصد جهان را شامل می شوند که در حوزه دیپ فیک هم وجود دارند و این درصد اندک هستند که با مقاصد منفی از این فناوری استفاده می کنند. ما حصلش این می شود که فیک نیوز های حوزه خبر را با تکنیک های پیشرفته تر به دیپ فیک تبدیل می کنند و باورپذیری را برای قربانیان خود بیشتر می کنند. بنابراین ما چاره ای جز پذیرش این فناوری ها نداریم.

او می گوید: از سال ها پیش سینما از تکنیک جلوه های ویژه برای واقع نمایی استفاده می کرد. همین واقع نمایی را می توان در سینمای دفاع مقدس و فیلم های علمی تخیلی و یا در فیلم های سرگرم کننده اجرا کرد. علاوه بر آن می توان جعل عمیق را صرف جعل تصاویری کرد که فرد را بدنام و دچار صدمات کند و یا از فرد سوء استفاده کرد. این درصد اندک در دنیا این کار را انجام می دهند و باید بگویم که متاسفانه فضاهای پلتفرمینگ اجتماعی در دنیا هم پر از تولیدات این افراد است. چون در ارزش های خبری چنین موضوعاتی دارای ارزش شگفتی و اعجاب انگیزی هستند، در بین مردم ضریب نفوذ بالایی پیدا می کنند و در شبکه های اجتماعی دیده می شوند. به عنوان مثال دیپ فیک عمل شنیع یک بازیگر و یا خواننده بسیار مورد توجه قرار می گیرد و دیده می شود.

با این اوصاف راه تشخیص واقعیت از محتوای فیک چیست؟ ضیایی پرور پاسخ می دهد: تنها راه بالا بردن سواد رسانه ای گیرندگان، مصرف کنندگان و مخاطبان پیام است. به عبارتی ما چاره ای جز مواجه شدن با این فضاها را نداریم. رسانه ها هم باید هر محتوایی اعم صوتی، تصویری، متن و… را به راحتی باور نکنند. علاوه بر آن یکی از اصول سواد رسانه ای در دنیا داشتن و تقویت تفکر انتقادی است. به عبارتی خبرنگاران محتواهایی که با واقعیت جور در نمی آیند و یا دارای عنصر شگفتی هستند را باید با دید انتقادی و بسیار حساس بررسی کنند. به سراغ منابع اصلی بروند و ببینید که آیا در صفحه شخصی فلان بازیگر، خواننده و سیاستمدار که فیلم درباره اوست، اشاره ای شده و یا واکنشی نسبت به آن صورت گرفته است؟ در این صورت می توان به دستکاری در فیلم پی برد.

او مثال می آورد: اخیراً ویدئوی زیرنویس شده ای از آقای پوتین منتشر شده که نشان می دهد درباره جنگ اوکراین به زبان روسی صحبت می کند ولی در ترجمه فارسی آن نوشته ها کاملا متفاوت است. در بخشی از ترجمه از زبان پوتین آمده که «در قضیه جنگ اوکراین حق با ماست و به ایران حق می دهیم تا از اوکراین حمایت نکند. من به حدی با فرهنگ ایران آشنایی دارم که می دانم اگر قورمه سبزی در یخچال قرار بگیرد، روز بعد خوشمزه تر می شود و…». این یک دیپ فیک ساده بود که تنها با زیرنویس جعلی سعی کرده بودند آن را بسازند به عبارتی حتی تلاش نشده بود که صوت فیلم و کلمات پوتین را تغییر دهند. در مرحله پیشرفته تر این فناوری، لب ها و بدن سیاستمدار و یا فرد تکان می خورد.

ضیایی پرور می گوید: معمولا جاعلان برای اینکه جلوی مراجعه مردم به صفحه فرد را بگیرند، می گویند که《 این فیلم برای اولین بار منتشر می شود یا جایی هنوز منتشر نشده است و…》. این علامتی است تا به چنین مطالبی شک کنیم.

او یادآور می شود: سال گذشته به سفارش پژوهشگاه فرهنگ، هنر و ارتباطات وزارت فرهنگ و ارشاد اسلامی، کتابی با عنوان 《سواد رسانه ای برای روزنامه نگاران》تدوین کردم. این کتاب چند فصل دارد که یکی از فصول آن به دیپ فیک پرداختم و اشاره کردم که رسانه ها و روزنامه نگاران چگونه محتوای دیپ فیک را بشناسند و در فصل های بعدی به مباحث اخبار جعلی و … پرداختم. من معتقدم همه اقشار جامعه نیازمند آموزش سواد رسانه ای تخصصی هستند. به عبارتی هنرمندان، طلاب و روحانیون، مسئولین و سیاستمداران، مردم عادی و … باید آموزش تخصصی مخصوص حوزه خود را ببینند. لازمه این کار مچ شدن رسانه ها با فناوری ها و وسایل پیشرفته جدید است.

این کارشناس رسانه با اشاره به استفاده کشور چین از فناوری دیپ فیک می گوید: برخی از شبکه های تلویزیونی چین، مجری فیک دارند. به عبارتی تصویر فردی را فیلم برداری می کنند و در برنامه های مختلف، کامپیوتر متونی که باید ارائه شود را از طریق فناوری دیپ فیک به این مجری هوشمند می دهد. به عبارتی آن ها مجری هوشمند دیپ فیک درست کرده اند و به کامپیوتر متن می دهند تا این مجری به صورت مجازی متن خبر را بگوید. در چنین مواردی شبکه تلویزیونی مجبور نیست که برای استخدام مجری واقعی هزینه کند.

او در جمعبندی صحبت های خود می گوید: دیپ فیک یک فناوری مثل سایر فناوری های دیگر، مانند چاقوی دو لبه است. به عبارتی هم می تواند جنبه مثبت داشته باشد و هم منفی. به همین دلیل رسانه ها برای تشخیص فیلم های جعل عمیق از واقعیت باید آموزش کافی ببینند و علاوه بر داشتن نگاه انتقادی، به منابع اصلی مراجعه کنند.

 

 

 

 

اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید