گزارشها نشان میدهد چند پروژهگر OpenAI با نوشتن نامهای درباره خطرات وحشتناک هوش مصنوعی برای بقای بشریت به هیئتمدیره یاعث اخراج بنیانگذار و مدیرعامل این کمپانی یعنی سم آلتمن شدند.
همانطورکه میدانید، اواخر هفته گذشته، مدیرعامل OpenAI، سم آلتمن با تصمیم هیئتمدیره این کمپانی اخراج شد، اما پساز مدتزمان کوتاهی بهسمتش بازگشت تا ثابت شود حضور او بهعنوان مغز متفکر و بنیانگذار این فناوری موردنیاز پیشبرد اهداف بعدی این مجموعه است. همچنین، گزارشها نشان میدهد اخراج آلتمن بهدلیل مشکلات و سرپیجی از تصمیمات اعضای هیئتمدیره نبود، بلکه چند کارمند و پژوهشگر OpenAI با ارسال نامهای از پیامدهای خطرناک جبرانناپذیر هوش مصنوعی صحبت کردند که باعث اخراج موقت رئیس این کمپانی بزرگ شد.
یک منبع آگاه خبری با نشریه رویتز صحبت کرد و گفت اگر فناوری هوش مصنوعی کنترل نشود یا محدودیتهایی برای آن اعمال نشود، میتواند باعث نتایج زیانباری برای بشریت داشته باشد؛ همچنین، این منبع عنوان میکند که اعضای هیئتمدیره OpenAI بهطرز عجیبی نگران پیشرفتهای سریع هوش مصنوعی هستند و تصور میکنند شاید سم آلتمن نتواند بهخوبی اوضاع را کنترل کند. یک پیام داخلی از پروژه Q یا Q-Star خبر میدهد که برای توسعه هوش مصنوعی عمومی (AGI) مورد استفاده قرار خواهد گرفت، اما اطلاعات گستردهای درباره آن دردست نیست؛ باوجوداین بهبرخی قابلیتهای آن باتوجهبه شایعات میپردازیم.
براساس آخرین اخبار و شایعات، کمپانی OpenAI براینباور است AGI میتواند بیشتر وظایف انسانی را باکمترین خطا انجام دهد و همین موضوع برای بقای بیشتری بسیار خطرناک خواهد بود، زیرا طیف وسیعی از مجموعههای بزرگ و تولیدکنندگان ترجیح میدهند از هوش مصنوعی برای پیشبرد اهدافشان استفاده کنند بدون آنکه هزینهای برای آنها داشته باشد. همچنین، مدل هوش مصنوعی AGI میتواند مسائل ریاضی یا سایر علوم را بهدرستی حل کند که باعث میشود میزان خلاقیت و ایدهپردازی دانشآموزان از سنین پایین کاهش یابد؛ برهمیناساس، پژوهشگران از تصور میکنند با افزایش قابلیتهای هوش مصنوعی، قابلیتهای ذهنی انسان کمتر میشود.
علاوهبراین، باید یادآور شویم هوش مصنوعی AGI نمیتواند بهصورت دقیق مسائل ریاضی را دراین برههزمانی حل کند، بنابراین خوشبینیهای زیادی برای کنترل آن بین پژوهشگران OpenAI وجود دارد. بهعبارتیدیگر، دانشمندان میگویند تنها یک پاسخ صحیح برای مسائل ریاضی وجود دارد و اگر هوش مصنوعی بتواند آنها را بهدرستی پاسخ دهد، احتمالا توانایی گرفتن تصمیماتی شبیهبه هوش انسانی را دارد که برای بشریت مضر محسوب میشود، چراکه از خالقش پیشی میگیرد و کنترل انسان را بهدست خواهد گرفت.
در نهایت باید یادآور شویم پژوهشگران OpenAI با نوشتن نامه توانستند هیئتمدیره را از خطرات هوش مصنوعی باخبر سازند، اما هیچگونه اطلاعاتی درباره پیامدهای اصلی یا راهحلی برای جلوگیری از آن درمیان نگذاشتند. ازسویدیگر، باید گفت طی سالهای اخیر بحثهای بیپایانی درباره هوش مصنوعی و انقراض بشتریت درباره بهوجود آمد که رسانههای فناوری برای داغ کردن مباحث مربوط این حزوه آنها با پیچوتابهای فراوانی منتشر میکردند، اما حقیقت آن است که بشتریت میتواند این تکنولوژی نوپا را کنترل کند تا باعث انقراض یا کاهش خلاقیتهای فردی نشود.
اخبار مرتبط: