امروز : سه‌شنبه 18آذرماه 1404 | ساعت : 15 : 13

آخرین اخبار

ترامپ: زمان برگزاری انتخابات در اوکراین فرا رسیده است

شفقنا - رئیس جمهور ایالات متحده آمریکا دونالد ترامپ...

گزارش شفقنا از رونمایی موسوعه ۶۰ جلدی دانشنامه قرآنی اهل‌ بیت (ع)

شفقنا- مراسم رونمایی از موسوعه ۶۰ جلدی دانشنامه قرآنی...

استقلال؛ آرامش در تیم ساپینتو

شفقنا- عملکرد بسیار خوب زوج خط دفاعی آبی پوشان...

موسسه تحقیقات آب: الگوی بارندگی در ایران تغییر می کند

شفقنا- رئیس موسسه تحقیقات آب وزارت نیرو گفت: مدل‌ها...

تفاوت رفتار ویروس آنفلوآنزا در سال جاری

شفقنا- رئیس مرکز مدیریت بیماری‌های واگیر وزارت بهداشت با...

روند صعودی بازار سرمایه

شفقنا- بازار سرمایه به روند صعودی که از سه...

واکنش آلونسو به اخراج از رئال

شفقنا- سرمربی رئال مادرید به اخراج از این تیم...

نیروهای ترکیه در حال آمادگی برای مشارکت در غزه با وجود مخالفت اسرائیل

شفقنا- نیروهای مسلح ترکیه آمادگی خود را برای مشارکت...

ارتباط «ایهود باراک» با مجرم جنسی آمریکایی فاش شد

شفقنا- ایمیل‌ها نشان می‌دهد که ایهود باراک، نخست‌وزیر سابق...

حذف مهدی طارمی از جام جهانی؟

شفقنا - رئیس فدراسیون فوتبال در گفت‌وگو با برنامه...

ترامپ خواهان عقب‌نشینی ارتش اسرائیل از خط زرد در نوار غزه است

شفقنا- منابع رسانه‌ای عبری از جمله روزنامه «هآرتص» اعلام...

البرزی: برای تشخیص دیپ فیک، باید به تکنیک های تولید محتوا مسلط شویم

شفقنا رسانه- در سال های اخیر استفاده و کاربرد هوش مصنوعی در تمام دنیا همه گیر شده است. اما مسأله ای که در این میان خودنمایی می کند چگونگی استفاده از آن است. دیپ فیک که از جمله نرم افزارهای مبتنی بر هوش مصنوعی است و با تغییر در محتواهای صوتی و تصویری، محتوای کاملاً متفاوتی از واقعیت به مخاطب می دهد. به همین دلیل آشنایی با دیپ فیک، استفاده از فرصت های آن و مقابله با تهدیدهای آن مسئله مهمی است. هادی البرزی دکترای مدیریت رسانه در این باره می گوید: برای تشخیص جعل عمیق، باید به تکنیک های تولید محتوا مسلط شویم و سواد رسانه ای خود را در حوزه های مختلف بالا ببریم. این امر بر عهده رسانه، آموزشگاه ها و آموزش و پرورش است تا بر روی سواد رسانه ای مردم، تاثیرات جعل عمیق و آموزش آن ها کار کنند.

 

 

البرزی در گفتگو با شفقنا رسانه به تاثیر دیپ فیک ها اشاره می کند و می گوید: هوش مصنوعی براساس قابلیت یادگیری ماشینی کار می کند که باعث می شود تا ابزارهای کامپیوتری و رسانه ای همان یادگیری را داشته باشند و همان موضوعاتی را تکرار کنند که انسان ها می توانند انجام دهند. ما می توانیم در حوزه سینما از هوش یادگیری ماشینی استفاده کنیم اما یکی از موضوعاتی است که می توان آن را از خطرات حوزه دیپ فیک و جعل عمیق دانست این است که جعل عمیق در جاهایی می تواند مخاطب را فریب دهد و بر روی تصمیمات او تاثیر بگذارد.

او با اشاره به قربانیان دیپ فیک می گوید: مخاطبان و مردم می توانند قربانیان دیپ فیک باشند و جعل عمیق می تواند بر روی تصمیم گیری های آن ها تاثیر بگذارد و مردم را دچار اشتباه کند. علاوه بر آن با توجه به اینکه در دنیای جدید، اخبار نقش زیادی در حوزه اطلاع رسانی و بحث تصمیم گیری مردم دارند، محتوای دارای ویژگی جعل عمیق می تواند در رویدادهای سیاسی مثل انتخابات تاثیر بگذارد و آراء مردم را تغییر دهد و یا در تصمیمات حوزه های اجتماعی، فرهنگی و… مردم تاثیر بگذارد.

این کارشناس فضای رسانه ای می گوید: همه افراد مطلع از جعل عمیق می توانند ذی نفعان این فناوری باشند ولی جعل عمیق می تواند افراد دارای سواد رسانه ای پایین را تحت تاثیر قرار دهد.

با این اوصاف راه تشخیص واقعیت از محتوای فیک چیست؟ البرزی پاسخ می دهد: ابزارها در مراحلی حالت خاص دارند و بعد عمومی می شوند. اگر فکر درستی برای چنین ابزارهای رسانه ای نکنیم، می توانند برای ما مشکلاتی ایجاد کنند. بنابراین یکی از راه های مقابله با دیپ فیک بالا بردن سواد رسانه ای مردم و آموزش آن ها مبنی بر اینکه با نگاه انتقادی به هر نوع محتوای دریافتی در حوزه فیلم و صوت نگاه کنند، تا باعث نشود در لحظه اول هرچیزی را که دریافت می کنند باور و برای هم ارسال کنند.

او ادامه می دهد:  باید خیلی بر روی منبع محتواهای دریافتی فضای مجازی دقت کنیم و بدانیم آیا آن منبع واقعی است یا با ابزارهای یادگیری ماشینی ساخته شده اند. بنابراین برای تشخیص جعل عمیق، باید به تکنیک های تولید محتوا مسلط شویم و سواد رسانه ای خود را در حوزه های مختلف بالا ببریم. این امر بر عهده رسانه، آموزشگاه ها و آموزش و پرورش است تا بر روی سواد رسانه ای مردم، تاثیرات جعل عمیق و آموزش آن ها کار کنند. به عبارتی تشخیص محتوای درست از نادرست یکی از موضوعاتی است که در سواد رسانه ای باید به آن توجه شود.

این مدرس دانشگاه می گوید: ما می توانیم از فرصت های دیپ فیک هم استفاده کنیم. به عبارتی اگر با تکنیک های مختلف ساخت محتوا آشنا باشیم، به راحتی می توانیم محتوای درست را تشخیص دهیم و کمتر فریب بخوریم. ممکن است در موارد مختلف بخواهند محتوایی را با جعل عمیق دستکاری کنند به همین دلیل باید تکنیک های مختلف مورد نیاز در پوشش اخبار را بدانیم.

با توجه به فرهنگ سازی کم در حوزه سواد رسانه ای چطور می توان از فرصت های این ابزار استفاده کرد و با تهدیدهای آن مقابله؟ البرزی پاسخ می دهد: یکی از نکاتی که باید به آن توجه کرد، این است که سواد رسانه ای در کشور ما در میان همه اعضای جامعه وجود ندارد چراکه بارها یک محتوای جعلی دست به دست شده و توانسته تاثیرات خودش را بگذارد و بعداً مشخص شده که در این مسئله از جعل عمیق استفاده شده است. جعل عمیق نشان می دهد که یک موضوع چگونه می تواند در حوزه های مختلف تاثیرات خودش را بگذارد. بنابراین باید آموزش رسانه ای بدهیم و مخاطب را با انواع تکنیک ها و تاکتیک های رسانه ای آشنا کنیم.

او تاکید می کند: بحث یادگیری عمیق و شناسایی انواع تاکتیک های مورد استفاده خیلی مهم است. طبق تحقیقات صورت گرفته پس از انتشار یک خبر جعلی، درصد پایینی از مردم تکذیبیه آن خبر را می بینند و خبر اولیه نادرست، بیشتر در ذهن افکار عمومی می ماند و بازتاب پیدا می کند. بنابراین بالا بردن سواد رسانه ای یعنی پیشگیری بهتر از درمان است. نکته مهم دیگر در این زمینه تجربه رسانه ای است. به عبارتی اگر ما بتوانیم محتواهایی تولید کنیم تا به مردم نشان دهد که جعل عمیق هستند، یعنی در بین محتوا و پایان آن ابزار جعل عمیق را معرفی کنیم، بهتر می توانند در موارد بعدی آن را بشناسند. مخاطب هرچقدر بیشتر با این ابزارها آشنا شود، کمتر فریب می خورد. پس ما باید از دیپ فیک و فرصت های آن استفاده کنیم و کمتر تحت تاثیر تهدیدهای آن قرار بگیریم.

البرزی می گوید: ما سواد رسانه ای در خصوص جعل عمیق را برای دانش آموزان و نسل جدید مهم می دانیم و باید بدانیم که جعل عمیق و تکنیک یادگیری ماشینی در سینما مورد استفاده قرار می گیرد اما استفاده از دیپ فیک در خبر خیلی خطرناک است. چون در سینما مخاطب متوجه است که فیلم می بیند و احتمال تخیلی بودن برخی قسمت های فیلم وجود دارد اما در مورد خبر که گزارش عینی از رویداد است این موضوع خیلی متفاوت می شود و باید تلاش کنیم تا در این حوزه تحت تاثیر جعل عمیق قرار نگیریم.

اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید