شفقنا – بر اساس یک گزارش، ویدیوهایی که هوش مصنوعی (AI) تولید کرده و دختران جوان را در لباسهای باز یا عریان نشان میدهد، با وجود ممنوعیت این محتوا، میلیونها لایک و اشتراکگذاری در تیکتاک به دست آوردهاند.
به گزارش سرویس ترجمه شفقنا، سازمان بررسی واقعیت در اسپانیا به نام «مالدیتا» بیش از ۲۰ حساب در پلتفرم تیکتاک یافته که بیش از ۵۲۰۰ ویدیو از دختران جوان با لباسهای بیکینی، یونیفرم مدرسه و البسه چسبان منتشر کردهاند. در مجموع، این حسابها بیش از ۵۵۰ هزار دنبالکننده و نزدیک به ۶ میلیون لایک جمعآوری کردهاند.
بررسیها نشان میدهد در بخش نظرات این ویدیوها، پیوندهایی به پلتفرمهای خارجی مانند گروههای تلگرامی که محتوای هرزهنگاری کودکان میفروشند، وجود دارد. مالدیتا اعلام کرد ۱۲ گروه تلگرامی شناساییشده در این مطالعه را به پلیس اسپانیا گزارش داده است.
این حسابها همچنین از طریق فروش ویدیوها و تصاویر تولیدشده توسط هوش مصنوعی از طریق سرویس اشتراک تیکتاک – که به خالقان محتوا در ازای دسترسی ماهانه به محتوایشان حقالزحمه میپردازد – سود ایجاد میکنند. بر اساس توافق این پلتفرم با خالقان محتوا، تیکتاک تقریباً ۵۰ درصد از سود این مدل را دریافت میکند.
این گزارش در حالی منتشر میشود که کشورهای مختلف جهان مانند استرالیا، دانمارک و اتحادیه اروپا یا محدودیتهای شبکههای اجتماعی برای کاربران زیر ۱۶ سال را اعمال کردهاند یا در حال بررسی آن به عنوان راهی برای ایمنسازی فضای آنلاین برای جوانان هستند.
تیکتاک از خالقان محتوا میخواهد هنگام استفاده از هوش مصنوعی در تولید ویدیو، آن را برچسبگذاری کنند. همچنین بر اساس دستورالعملهای این پلتفرم، محتوایی که «برای افراد مضر» تشخیص داده شود، ممکن است حذف گردد.
با این حال، گزارش مالدیتا نشان داد اکثر ویدیوهای تحلیلشده فاقد هرگونه واترمارک یا شناسهای مبنی بر استفاده از هوش مصنوعی بودند. برخی ویدیوها دارای واترمارک «TikTok AI Alive» بودند که به طور خودکار برای تبدیل تصاویر ثابت به ویدیو در داخل پلتفرم استفاده میشود.
تلگرام و تیکتاک در بیانیهای به یورونیوز نکست اعلام کردند که «به طور کامل متعهد» به جلوگیری از محتوای سوءاستفاده جنسی از کودکان در پلتفرم خود هستند.
تلگرام تمام تصاویر آپلودشده در پلتفرم خود را اسکن کرده و با محتوای سوءاستفاده جنسی کودکان که قبلاً حذف شدهاند، مقایسه میکند تا از گسترش آن جلوگیری کند. این بیانیه میافزاید: این واقعیت که مجرمان مجبورند از گروههای خصوصی و الگوریتمهای پلتفرم دیگری برای رشد استفاده کنند، گواه اثربخشی نظارت داخلی تلگرام است.
تلگرام اعلام کرد در سال ۲۰۲۵ بیش از ۹۰۹ هزار گروه و کانال حاوی محتوای سوءاستفاده جنسی از کودکان را حذف کرده است.
تیکتاک نیز ادعا کرد ۹۹ درصد محتوای مضر برای کودکان به طور خودکار حذف شده و ۹۷ درصد دیگر از محتوای تولیدشده توسط هوش مصنوعی نیز به صورت پیشدستانه حذف گردیده است. این پلتفرم تأکید کرد بلافاصله به حذف یا تعطیلی حسابهایی که محتوای صریح جنسی کودکان را منتشر میکنند واکنش نشان داده و آنها را به مرکز ملی کودکان گمشده و مورد بهرهبرداری آمریکا گزارش میدهد.
تیکتاک همچنین به سیانان اعلام کرد از آوریل تا ژوئن ۲۰۲۵ بیش از ۱۸۹ میلیون ویدیو حذف و بیش از ۱۰۸ میلیون حساب کاربری مسدود کرده است.
این خبر را اینجا ببینید.











