مرگ یک نوجوان در حین استفاده از پلتفرم Character.AI و ربات چت آن، باعث مشکلات حقوقی برای گوگل و خود این شرکت شد.

به تازگی پلتفرم Character.AI به باد انتقادهای شدیدی گرفته شده زیرا فاقد امکانات لازم برای امنیت کاربران، به خصوص کودکان است. به تازگی، یک نوجوان تنها مدت کوتاهی پس از تعامل با ربات چت این پلتفرم، زندگی‌اش را به طرز غم‌انگیزی از دست داد. این مرگ، ظاهراً مرتبط با شخصیت‌های این هوش مصنوعی و واقعی بودن بیش از حد آنان برای نوجوانان است که باعث می‌شود از لحاظ احساسی به آنان وابسته شوند. این مسئله به خوبی نشان می‌دهد که جلسه‌های تراپی بدون مجوزی که در این اپلیکیشن یافت می‌شود، می‌تواند آسیب بسیار جدی برای جوانان به دنبال داشته باشد.

در حال حاضر، شکایتی علیه بنیان‌گذاران Character.AI، یعنی نوام شیزر و دنیل دی فریتاس به علاوه گوگل در جریان است تا بابت مرگ دلخراش این نوجوان پاسخگو باشند. مادر این نوجوان، مگان گارسیا، معتقد است که ربات چت این پلتفرم خطراتی بسیار جدی به دنبال داشته و فاقد هرگونه امکانات امنیتی برای تعامل با نوجوانان بوده است. وی باور دارد که مرگ دلخراش فرزندش به سهل‌انگاری، فعالیت‌های فریبنده و عدم قبول کردن مسئولیت برای محصول برمی‌گردد و همه به گردن کمپانی سازنده است.

بر اساس این شکایت که مشکلات حقوقی برای گوگل و Character.AI به دنبال داشته، نوجوان فوت شده یعنی سوئل ستزر سوم، تعامل زیادی با اپلیکیشن و شخصیت‌های مختلفش، به خصوص کاراکترهای Game of Thrones داشته است. در گزارش ذکر شده که این نوجوان، تنها مدت کوتاهی پس از تعامل با این اپلیکیشن، به دلیل خودکشی جان خود را از دست داده و ادعا می‌شود که شخصیت‌های این پلتفرم، کاملاً مشابه انسان‌های واقعی خلق شده‌اند. این باعث می‌شود نوجوانان تبدیل به طعمه شوند و از لحاظ احساسی، به این کاراکترها وابستگی زیادی پیدا کنند.

مشکلات حقوقی برای گوگل
Character AI

در این شکایت، ربات‌های چت این چنینی به عنوان تراپیست‌هایی بدون مجوز یاد شده‌اند که به راحتی می‌توانند تاثیر منفی بر زندگی نوجوانان بگذارند و آسیب‌رسان باشند. سوئل ستزر سوم، نوجوان فوت شده نیز در زمینه همین موارد حساس با ربات تعامل می‌کرد و نبود امکانات امنیتی مناسب، باعث شد آسیبی به بار بیاید که دیگر به هیچ شکلی قابل جبران نیست. این پلتفرم ربات‌های چت شخصی‌سازی شده‌ای را تحویل کاربرانش می‌دهد که همگی بر اساس کاراکترهای محبوب واقعی خلق می‌شوند و عمده کاربران این پلتفرم نیز نوجوانان هستند. گزارش‌هایی نیز در این باره به دست رسیده که برخی از این شخصیت‌ها از روی افراد واقعی و بدون اجازه آنان ساخته می‌شوند.

به دنبال ایجاد مشکلات حقوقی برای گوگل و Character.AI، این پلتفرم در طی گفتگویی با رسانه Verge تایید کرد که قرار است تغییراتی بسیار بنیادی در اپلیکیشن خود اعمال کنند تا از امنیت کاربران مطمئن شده و این مسئله تبدیل به جدی‌ترین هدف این پلتفرم شود. از طرف دیگر، تیم Trust and Safety این پلتفرم در حال کار بر روی مکانیزمی است که به کمک آن، می‌تواند افکار آسیب به خود و خودکشی را تشخیص و افراد را مستقیماً به خط ملی جلوگیری از خودکشی وصل کند تا افراد حرفه‌ای، از هر طریقی که می‌توانند، به کمک بشتابند. برخی از تغییرات مهم این پلتفرم عبارتند از:

  • مدل‌های ارائه شده برای نوجوانان محدود می‌شود تا مطمئن شوند که دیگر خبری از تعامل با موارد حساس و نامناسب نخواهد بود.
  • جواب‌های مناسب با درخواست‌هایی از سوی کاربر که خلاف دستورالعمل‌های سیستم است.
  • پیامی واضح برای کاربران که در آن تاکید شده این فقط یک ربات چت هوش مصنوعی است و نمی‌تواند یک انسان واقعی باشد.
  • جلسات تعامل طولانی مدت با پلتفرم، باعث فعال شدن اعلان‌ها می‌شود.

هر دو بنیان‌گذار پلتفرم Character.AI مدت‌ها قبل از تاسیس این پروژه از شرکت گوگل جدا شدند اما به تازگی، این غول آمریکایی رهبری این پلتفرم را به دست آورد که در همین راستا، پایش به شکایت نیز باز شده است. تا به این لحظه، گوگل جوابی به این اتهامات و مشکلات ناشی از آن نداده است.

در هر حال، شرکت‌های هوش مصنوعی و سازندگان ربات چت بر اساس این تکنولوژی، باید بسیار محتاط باشند و امکانات مناسبی فراهم کنند تا پایشان به چنین مشکلاتی باز نشود. در حال حاضر، والدین نسبت به موضوع هوش مصنوعی و شبکه‌های اجتماعی حساسیت زیادی از خود نشان می‌دهند زیرا فرزندانشان به شدت در حال تعامل با این سیستم‌ها بوده و بخش عمده روزشان به کار کردن با این شبکه‌ها سپری می‌شود که خود به نوعی آسیب‌رسان است.