امروز : سه‌شنبه 18آذرماه 1404 | ساعت : 13 : 36

آخرین اخبار

نیروهای ترکیه در حال آمادگی برای مشارکت در غزه با وجود مخالفت اسرائیل

شفقنا- نیروهای مسلح ترکیه آمادگی خود را برای مشارکت...

ارتباط ایهود باراک هم با مجرم جنسی آمریکایی فاش شد

شفقنا- ایمیل‌ها نشان می‌دهد که ایهود باراک، نخست‌وزیر سابق...

حذف مهدی طارمی از جام جهانی؟

شفقنا - رئیس فدراسیون فوتبال در گفت‌وگو با برنامه...

ترامپ خواهان عقب‌نشینی ارتش اسرائیل از خط زرد در نوار غزه است

شفقنا- منابع رسانه‌ای عبری از جمله روزنامه «هآرتص» اعلام...

بازی ایران مقابل رونالدو قطعی شد

شفقنا - مهدی تاج خبر نزدیک به قطعی را...

احتمال حذف چند ملی‌پوش از جام جهانی! + ویدیو

شفقنا - احتمالا چند ملی‌پوش از جام جهانی حذف...

عذرخواهی معاون اول رئیس جمهور از مردم بابت مشکلات معیشتی

شفقنا- معاون اول رئیس‌جمهور با تاکید بر اینکه جمعیت...

شکاف در آنفیلد؛ فرعون بین ناسپاسی و خشم مربی

شفقنا-محمد صلاح بدترین روزهای فوتبال خود را با پیراهن...

خسروانی: همچنان روند عرضه خودرو توسط خودروسازان مناسب نیست

شفقنا- به گفته یک عضو اتحادیه صنف فروشندگان خودرو...

رهبران جهان ۱.۹ میلیارد دلار برای ریشه‌کنی فلج اطفال اختصاص دادند

شفقنا- با وجود کاهش بودجه برای کمک‌های بین المللی،...

سخنگوی وزارت صمت: با افزایش قیمت خودرو مخالفیم

شفقنا- به گفته سخنگوی وزارت صمت، این وزارتخانه به...

مرگ تدریجی تالاب میانکاله

شفقنا- فرایند مرگ تدریجی تالاب میانکاله از جمله موضوعات...

در گفتگو با یک پژوهشگر ارتباطی مطرح شد؛ از پیشگیری تا سناریوی مواجهه با دیپ فیک ها

شفقنا رسانه- در سال های اخیر استفاده و کاربرد هوش مصنوعی در تمام دنیا همه گیر شده است. اما مسأله ای که در این میان خودنمایی می کند چگونگی استفاده از آن است. دیپ فیک که از جمله نرم افزارهای مبتنی بر هوش مصنوعی است و با تغییر در محتواهای صوتی و تصویری، محتوای کاملا متفاوتی از واقعیت به مخاطب می دهد. به همین دلیل آشنایی با دیپ فیک، استفاده از فرصت های آن و مقابله با تهدیدهای آن مسئله مهمی است. مریم سلیمی، پژوهشگر ارتباطی در این باره می گوید: دیپ فیک ها می توانند سبب بی‌علاقگی نسبت به واقعیت شوند که بر این اساس، مردم دیگر خسته‌شده و به اخبار هیچ‌توجهی نمی‌کنند؛ چراکه می‌دانند به هر حال بیشترین چیزی که مشاهده می‌کنند، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود.

 

سلیمی با اشاره به اینکه ذی نفعان و قربانیان این فناوری چه کسانی هستند، به شفقنا رسانه می گوید: همه حوزه ها در معرض دیپ فیک ها بوده و این خطر در گام اول سیاستمداران، سلبریتی ها و افراد مشهور و اثرگذار و در گام های بعدی افراد و اشخاص عادی را تهدید می کند. با این همه سلفی که مردم عادی جهان از خود گرفته اند، شاید به زودی هر یک از افراد معمولی نیز قربانی این فناوری شوند.

این پژوهشگر ارتباطی با بیان اینکه «دیپ‌فیک» به گونه‌ای از فناوری اطلاق می‌شود که برپایه هوش مصنوعی، به جعل چهره و صدای افراد در قالب فیلم می‌پردازد، می گوید:  تکنیک دیپ فیک یا جعل عمیق می‌تواند با جعل چهره افراد در قالب ویدیو، گاه به پدیده‌ای مسئله‌آفرین در جهت سیاسی، اجتماعی و اخلاقی بدل شود و گاه در خدمت صنعت فیلم‌سازی و تبلیغات قرار بگیرد.

او با اشاره به موارد استفاده از این فناوری می گوید: دیپ فیک ها ممکن است با اهداف مختلف سیاسی، اجتماعی، تجاری، حتی اعمال فشارها، اخاذی و…  تولید شوند علاوه بر آن ممکن است برخی از آن ها اهداف طنز یا هشدار دهی داشته باشند.

سلیمی ادامه می دهد: از دیپ فیک همچنین در دوره های بحرانی و جنگ نیز استفاده می شود که از نمونه های اخیر می توان به جنگ روسیه و اوکراین اشاره کرد. به عبارتی در این جنگ در کنار جنگ نظامی از دیپ فیک در قالب جریان جنگ روایت ها و جنگ رسانه ای بهره گرفته شد.

این مدرس سواد خبری ضمن تأکید بر اینکه دیپ فیک و هوش مصنوعی به نقطه خطرناکی رسیده اند که هوشیاری های بیش از پیش را می طلبد، می گوید: ساخت ویدئوهای جعلی به یاری هوش مصنوعی و با تکنیک ها و روش های مختلف تشخیص آثار واقعی و جعلی را به خصوص در شرایط خاص و بحرانی با سختی بسیار روبرو می کند، به طوری که ممکن است تبعات بسیاری نیز به دنبال داشته باشد.

سلیمی به دیپ فیک بیانیه ساختگی زلنسکی رئیس جمهور اوکراین اشاره می کند و می گوید: در این ویدئوی جعلی زلنسکی از اوکراینی ها می خواهد سلاح خود را زمین بگذارند. بعد از این ماجرا زلنسکی این ویدئو را ساختگی می داند و در واکنش به این دیپ فیک در حساب رسمی اینستاگرام خود توصیه می کند که نیروهای روسیه سلاح های خود را زمین بگذارند و به خانه بازگردند.

این پژوهشگر ارتباطی می گوید: گرچه این ویدئو از رسانه های اجتماعی حذف شد ولی به هر تقدیر اینگونه نمونه ها قادرند تأثیرات منفی خود را گذاشته و مخاطبان را گیج و سردرگم کنند. به عبارتی رسانه های اجتماعی همچون فیس بوک یا همان متا از سال 2020 به این سو، دیپ فیک و سایر ویدئوهای دستکاری شده را در پلتفرم های خود ممنوع کرده و آنها را حذف می کنند. این خط‌مشی شامل محتوایی می‌شود که توسط هوش مصنوعی یا الگوریتم‌های یادگیری ماشینی ایجاد شده است و می‌تواند کاربران را گمراه کند.

این مدرس دانشگاه به نمونه دیگری از دیپ فیک و تاثیرات آن اشاره می کند و توضیح می دهد: از نمونه ویدئوهای دستکاری شده می توان به نمونه نانسی پلوسی رییس مجلس نمایندگان کنگره ایالات متحده اشاره کرد که طی آن تلاش شد تا سرعت ویدئو به میزان 25 درصد کم شود تا چنین القا کند که او به دلیل کهولت یا حتی متأثر از مواد مخدر و مصرف الکل در ادای کلمات مشکل دارد. این ویدئو در فیس بوک برچسب  «تقریبا جعلی» دریافت کرد. چون اصل ویدئو درست بود و تقطیع نشده بود، بلکه فقط سرعت آن دستکاری شده بود.

او ادامه می دهد: از دیگر نمونه ها می توان  از افرادی یاد کرد که با استفاده از فیلترهای جعلی  در نقش چهره‌های شاخص مخالفان دولت روسیه با نمایندگان ارشد اروپایی، تماس ویدیویی برقرار کرده بودند. اینگونه اتفاقات در مسیر فریب سیاستمداران می تواند به تصمیمات اشتباه و تبعات بسیار منجر شود.

سلیمی ضمن اشاره به تهدیدهای دیپ فیک تاکید می کند: دیپ فیک ها علاوه بر حوزه های سیاسی، اجتماعی و… ، عامل تهدیدی برای حوزه اقتصادی و بازار‌های مالی و سرمایه هستند، چراکه به سادگی می‌توانند روایت‌های ساختگی نسبت به شرکت‌ها ایجاد کرده و روی قیمت‌های بازار سهام، بازار ارز دیجیتال و… تأثیر بگذارند.

او ادامه می دهد: دیپ فیک ها همچنین می توانند سبب بی‌علاقگی نسبت به واقعیت شوند که بر این اساس، مردم دیگر خسته‌شده و به اخبار هیچ‌توجهی نمی‌کنند؛ چراکه می‌دانند به هر حال بیشترین چیزی که مشاهده می‌کنند، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود.

سلیمی ضمن بیان اینکه توجه به نکات فنی، احاطه بر متن، زیر و فرامتن، بررسی ویدیو به صورت فریم و…  می تواند از راههای تشخیص دیپ فیکها باشد، می گوید: از دیگر روش ها جستجوی دیپ فیک ها در موتورهای جستجو و شناسایی منبع اصلی انتشار، اطمینان از اعتبار منبع و…  است.

این دکترای علوم ارتباطات تاکید می کند: هوش مصنوعی در حوزه دیپ فیک هم زهر است و هم پادزهر چون همانقدر که هوش مصنوعی به تولید آن کمک می کند در موارد پیچیده و انهایی که تشخیص واقعی از ساختگی و جعلی سخت است، هوش مصنوعی راهگشاست.

این مدرس سوادهای نوین اضافه می کند:  ارتقای سوادهای نوین مخاطبان و کاربران اعم از سواد خبری، رسانه ای، بصری و… در این مسیر بسیار ضروری است و این مهم از سوی رسانه ها، نظام آموزشی، مسئولان، قوای مختلف باید مدنظر قرار گیرد.

او می گوید: نیاز به قوانین سختگیرانه ای در حوزه دیپ فیک است. چراکه عدم جدی گرفتن دیپ فیک ها و خطرات آن می تواند به خصوص در ایام خاص، بحرانی، دوران انتخابات و… هزینه های بسیاری بیافریند.

این پژوهشگر تاکید می کند: هر ویدئویی ممکن است واقعی نباشد، به همین دلیل ابتدا باید از صحت آن مطمئن شده و سپاس آن را برای دیگران ارسال کنیم. اگر در خصوص جعلی یا ساختگی بودن یک تصویر، خبر یا ویدئو اطمینان نداریم، هرگز آن را برای کسی ارسال نکنیم. علاوه بر آن باید خود و اعضای خانواده و اطرافیانمان را با خطر دیپ فیک آشنا کرده و بکوشیم تا آتش دیپ فیک دامن گیرمان نشود. چراکه  انتشار محتوا و ویدیوهای مختلف از سوی ما، زمینه و فرصت لازم برای سوء استفاده از انها در هر قالبی از زورگویی سایبری تا خطر دیپ فیک را افزایش می دهد.
وی با تاکید بر اینکه نباید دیپ فیک و خطر سوء استفاده از ویدئوها را مختص سیاستمداران و افراد مشهور و.. بدانیم، می گوید:هرگونه تولید محتوایی از سوی ما باید آگاهانه، هوشیارانه و هدفمند و با توجه به شان و جایگاه اجتماعی خود در حال و آینده صورت گیرد.
سلیمی یاداور می شود: با همه این ملاحظات، تحولات تکنولوژیک، پتانسیل های هوش مصنوعی و… را نباید نادیده گرفت و باید برای خود سناریوهایی به منظور مواجهه با دیپ فیک ها چه در سطح حقیقی و یا حقوقی در نظر گرفت.

اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید