شرکت‌های OpenAI، مایکروسافت، گوگل، متا و چند شرکت دیگر متعهد شده‌اند که از ابزارهای هوش مصنوعی در راستای تولید محتوا جنسی جهت امنیت کودکان استفاده نکنند.

دو گروه با نام‌های “Thorn” و “All Tech Is Human” در راستای جلوگیری از تولید محتوای جنسی اقداماتی انجام داده‌اند که Thorn در زمینه امنیت کودکان فعالیت می‌کند و All Tech Is Human یک سازمان غیرانتفاعی متمرکز بر حریم خصوصی است. Thorn معتقد است که تعهدات شرکت‌های هوش مصنوعی، گامی بزرگ در جهت محافظت از کودکان در برابر سوء استفاده جنسی است و این‌کار تا به‌حال در این صنعت سابقه نداشته و برای جلوگیری از انتشار و به اشتراک گذاشتن عکس‌ها و ویدیوهای نامناسب از کودکان در فضای مجازی انجام می‌شود.

سال 2023، بیش از 104 میلیون فایل حاوی تصاویر و ویدیوهای نامناسب از کودکان در آمریکا منتشر شد. ربات‌های هوش مصنوعی به مجرمان برای پیشبرد اهداف‌شان کمک می‌کنند و این امر کار پلیس را برای پیدا کردن کودکانی که مورد آزار قرار گرفته‌اند سخت‌تر می‌کند. گروه Thorn و سازمان All Tech Is Human روز سه‌شنبه گزارش جدیدی با عنوان “ایمنی در طراحی هوش مصنوعی و جلوگیری از آزار جنسی کودکان” منتشر کردند که راهکارهایی را برای شرکت‌های سازنده ابزارهای هوش مصنوعی، موتورهای جستجو، شبکه‌های اجتماعی و برنامه‌نویس‌ها پیشنهاد می‌کند. هدف این راهکارها، محافظت از کودکان در برابر آسیب‌های هوش مصنوعی است.

OPEN AI

یکی از بندهای این گزارش به شرکت‌ها می‌گوید که در حین آموزش به هوش مصنوعی، باید خیلی مراقب اطلاعاتی که استفاده می‌کنند باشند و نباید از اطلاعاتی استفاده کنند که تصاویر و ویدیوهای آزار جنسی کودکان را نشان می‌دهد. حتی نباید از اطلاعاتی که صحنه‌های جنسی با افراد بزرگسال دارد استفاده کنند. به‌دلیل اینکه هوش مصنوعی نمی‌تواند بین این دو موضوع تمایز قائل شود، بنابراین احتمال تولید محتوای نامناسب وجود دارد. Thorn همچنین از پلتفرم‌های رسانه‌های اجتماعی می‌خواهد تا برنامه‌هایی را که به افراد این اجازه را می‌دهند تا تصاویر کودکان را برهنه کنند، حذف کند.

با پیشرفت هوش مصنوعی، شاهد افزایش تولید محتوای دروغین و جعلی مرتبط با سوءاستفاده جنسی از کودکان هستیم. یافتن موارد واقعی سوءاستفاده از کودکان در میان انبوهی از محتوای جعلی آنلاین، کار بسیار سختی است و به‌همین دلیل، شناسایی قربانیان واقعی برای مجریان قانون دشوارتر شده است. این موضوع مانع از اقدامات مؤثر برای حمایت از کودکانی می‌شود که در خطر هستند.

ربکا پورتنوف، رئیس بخش علوم داده‌ مؤسسه‌ Thorn، در مصاحبه‌ای با وال استریت ژورنال اظهار داشت: «ما تسلیم مشکلات نمی‌شویم. هدف ما از این پروژه این است که نشان دهیم می‌توان با استفاده از فناوری نیز، جلوی سوءاستفاده‌ آنلاین از کودکان را گرفت.»

پورتنوف به این نکته نیز اشاره کرد که برخی شرکت‌ها برای جلوگیری از ترکیب داده‌های مربوط به کودکان با محتوای بزرگسالان در مدل‌های هوش مصنوعی خود، اقدام به تفکیک تصاویر، ویدئو و فایل‌های صوتی حاوی کودکان از مجموعه داده‌های بزرگسالان کرده‌اند. رویکرد دیگری نیز وجود دارد که شامل افزودن واترمارک به محتوای تولید شده توسط هوش مصنوعی است، اما این روش به دلیل سهولت حذف واترمارک قابل اعتماد نیست.