گزارش‌ها نشان می‌دهد چند پروژهگر OpenAI با نوشتن نامه‌ای درباره خطرات وحشتناک هوش مصنوعی برای بقای بشریت به هیئت‌مدیره یاعث اخراج بنیان‌گذار و مدیرعامل این کمپانی یعنی سم آلتمن شدند.

همان‌طورکه می‌دانید، اواخر هفته گذشته، مدیرعامل OpenAI، سم آلتمن با تصمیم هیئت‌مدیره این کمپانی اخراج شد، اما پس‌از مدت‌زمان کوتاهی به‌سمتش بازگشت تا ثابت شود حضور او به‌عنوان مغز متفکر و بنیان‌گذار این فناوری موردنیاز پیش‌برد اهداف بعدی این مجموعه است. همچنین، گزارش‌ها نشان می‌دهد اخراج آلتمن به‌دلیل مشکلات و سرپیجی از تصمیمات اعضای هیئت‌مدیره نبود، بلکه چند کارمند و پژوهشگر OpenAI با ارسال نامه‌ای از پیا‌مد‌های خطرناک جبران‌ناپذیر هوش مصنوعی صحبت کردند که باعث اخراج موقت رئیس این کمپانی بزرگ شد.

دلایل اخراج سم آلتمن

یک منبع آگاه خبری با نشریه رویتز صحبت کرد و گفت اگر فناوری هوش مصنوعی کنترل نشود یا محدودیت‌هایی برای آن اعمال نشود، می‌تواند باعث نتایج زیان‌باری برای بشریت داشته باشد؛ همچنین، این منبع عنوان می‌کند که اعضای هیئت‌مدیره OpenAI به‌طرز عجیبی نگران پیشرفت‌های سریع هوش مصنوعی هستند و تصور می‌کنند شاید سم آلتمن نتواند به‌خوبی اوضاع را کنترل کند. یک پیام داخلی از پروژه Q یا Q-Star خبر می‌دهد که برای توسعه هوش مصنوعی عمومی (AGI) مورد استفاده قرار خواهد گرفت، اما اطلاعات گسترده‌ای درباره آن دردست نیست؛ باوجوداین به‌برخی قابلیت‌های ‌آن باتوجه‌به شایعات می‌پردازیم.

براساس آخرین اخبار و شایعات، کمپانی OpenAI براین‌باور است AGI می‌تواند بیشتر وظایف انسانی را باکمترین خطا انجام دهد و همین موضوع برای بقای بیشتری بسیار خطرناک خواهد بود، زیرا طیف وسیعی از مجموعه‌های بزرگ و تولیدکنندگان ترجیح می‌دهند از هوش مصنوعی برای پیش‌برد اهدافشان استفاده کنند بدون آنکه هزینه‌ای برای آن‌ها داشته باشد. همچنین، مدل هوش مصنوعی AGI می‌تواند مسائل ریاضی یا سایر علوم را به‌درستی حل کند که باعث می‌شود میزان خلاقیت و ایده‌پردازی دانش‌آموزان از سنین پایین کاهش یابد؛ برهمین‌اساس، پژوهشگران از تصور می‌کنند با افزایش قابلیت‌های هوش مصنوعی، قابلیت‌های ذهنی انسان کمتر می‌شود.

هوش مصنوعی بشریت را تهدید می کند

علاوه‌براین، باید یادآور شویم هوش مصنوعی AGI نمی‌تواند به‌صورت دقیق مسائل ریاضی را دراین‌ برهه‌زمانی حل کند، بنابراین خوش‌بینی‌های زیادی برای کنترل آن بین پژوهشگران OpenAI وجود دارد. به‌عبارتی‌دیگر، دانشمندان می‌گویند تنها یک پاسخ صحیح برای مسائل ریاضی وجود دارد و اگر هوش مصنوعی بتواند آن‌ها را به‌درستی پاسخ دهد، احتمالا توانایی گرفتن تصمیماتی شبیه‌به هوش انسانی را دارد که برای بشریت مضر محسوب می‌شود، چراکه از خالقش پیشی می‌گیرد و کنترل انسان را به‌دست خواهد گرفت.

در نهایت باید یادآور شویم پژوهشگران OpenAI با نوشتن نامه توانستند هیئت‌مدیره را از خطرات هوش مصنوعی باخبر سازند، اما هیچ‌گونه اطلاعاتی درباره پیامد‌های اصلی یا راه‌حلی برای جلوگیری از آن درمیان نگذاشتند. ازسوی‌دیگر، باید گفت طی سال‌های اخیر بحث‌های بی‌پایانی درباره هوش مصنوعی و انقراض بشتریت درباره به‌وجود آمد که رسانه‌های فناوری برای داغ کردن مباحث مربوط این حزوه آن‌ها با پیچ‌وتاب‌های فراوانی منتشر می‌کردند، اما حقیقت آن است که بشتریت می‌تواند این تکنولوژی نوپا را کنترل کند تا باعث انقراض یا کاهش خلاقیت‌های فردی نشود.

اخبار مرتبط: