مولد هوش مصنوعی Gemini در رویداد Google I/O 2024 در ویدئو معرفی دچار یک اشتباه فاحش شد و پاسخ اشتباهی را دراختیار کاربران گذاشت.

شب‌گذشته، کمپانی گوگل با برگزاری رویداد Google I/O 2024 به‌صورت رسمی از مولدهای هوش مصنوعی Gemini به‌همراه قابلیت‌های منحصر‌به‌فرد برای تولید ویدئو و متن رونمایی کرد که می‌تواند برای بهبود کیفیت زندگی و کارها مورد استفاده قرار بگیرد! برخلاف سال‌های‌گذشته، این کنفرانس سالانه گوگل بسیار پرهیجان دنبال شد و محصولاتی کاملا غیرقابل‌منتظره معرفی شدند! به‌عنوان‌مثال ما انتظار رونمایی از پیکسل فولد 2، پیکسل تبلت 2 و سیستم‌عامل اندروید 15 را داشتیم که غول آمریکایی با کنار گذاشتن آن‌‌ها اقدام به رقابت‌با OpenAI در حوزه هوش مصنوعی کرد.

گزارش‌ها نشان می‌دهد مدیرعامل و کارمندان ارشد گوگل هنگام معرفی محصولات نرم‌افزاری، 121 بار از واژه هوش مصنوعی استفاده کردند که نشان‌دهنده زرق‌وبرق طیف وسیعی از مولد‌های هوش مصنوعی برپایه مدل‌های زبان بزرگ (LLM) است. بااین‌حال، زمان معرفی ویدئویی هوش مصنوعی Gemini، این مولد قدرت‌مند با پاسخی اشتباه کاربران و کارشناسان را متعجب کرد! به‌عبارتی‌دقیق‌تر، ویدئویی به‌شما پیشنهاد می‌‌کند «درب دوربین را بازکرده و فیلم را خارج کنید».

اگر با دوربین‌های عکاسی آشنا باشید، می‌دانید که بازکردن درب دوربین در محیط‌های پرنور می‌تواند باعث ازبین‌رفتن تمام عکس‌ها شود! کارشناسان می‌گویند چت‌بات Gemini اصولا پاسخ‌‌های اشتباه ارائه نمی‌کند، اما این‌موضوع این‌بار تاثیر منفی روی مولد هوش مصنوعی جمینای می‌گذارد، چراکه چنین اتفاقی در رویداد Google I/O 2024 هنگام معرفی صورت گرفت. البته باید خاطرنشان کنیم، اولین‌بار نیست که هوش مصنوعی گوگل در ارائه‌ پاسخ درست ناکام می‌ماند. سال گذشته چت‌بات Bard به اشتباه و با اطمینان گفت تلسکوپ فضایی جیمز وب اولین‌بار توانسته از سیاره‌ای خارج از منظومه‌ی شمسی عکس بگیرد.

گزارش‌ها نشان می‌دهد کمپانی‌ها و مجموعه‌هایی که از هوش مصنوعی Gemini استفاده می‌کنند، ازنظر قانونی درقبال آنچه ربات‌ها می‌گویند مسئولیت خواهند داشت؛ به‌عنوان‌مثال، اوایل سال‌جاری میلادی، دادگاه عالی کانادا، شرکت هواپیمایی Air Canada را به دلیل ارائه اطلاعات نادرست درخصوص تخفیف‌ها ازسوی‌ چت‌بات محکوم کرد! ازاین‌سو، مصرف‌کنندگان باید پیش‌از همکاری با گوگل برای Gemini فکر عواقب آن درصورت انتشار اطلاعات غلط باشد.

اخبار مرتبط: