گزارش‌ها نشان می‌دهد ذخیره‌سازی مدل‌های زبان بزرگ هوش مصنوعی روی حافظه‌های داخلی دستگاه‌های هوشمند کار بسیار دشواری است، اما اپل قصد دارد با دستگاه‌ها با حافظه محدود تمامی این مشکلات را یک‌‌بار برای همیشه حل کند.

همان‌طورکه می‌دانید مدل‌های زبان بزرگ (LLMs) برای تقویت پردازنده یا کارت گرافیک فوق‌العاده منابع مهمی محسوب می‌شود و کمپانی‌های بزرگ فعال در صنعت کامپیوتری برای شتاب بیشتر پردازنده‌های روی به استفاده از هوش مصنوعی می‌آورند که از مهم‌ترین آن‌ها می‌توان NVIDIA یا AMD اشاره کرد. باوجوداین، شایعات اخیر نشان می‌دهد کمپانی اپل قصد دارد از این فناوری برای تقویت حافظه دستگاه‌های پرچمدارش مانند آیفون، آیپد و کامپیوترهای مک استفاده کند تا دیگر کاربران با محدودیت‌های کنونی مواجه نباشند؛ در ادامه به‌جزئیات بیشتری از این خبر می‌پردازیم.

iOS 18 دارای فناوری هوش مصنوعی است

باتوجه‌به شرایط، باید اشاره کنیم مدل‌های زبان بزرگ به شتاب‌دهنده‌های هوش مصنوعی و ظرفیت DRAM بالا برای ذخیره‌سازی اطلاعات نیاز دارند، اما احتمالا غول فناوری ساکن کوپرتینو به‌دنبال روشی جایگزین می‌گردد. وب‌سایت خبری TechPowerup گزارش کرد اپل قصد دارد همین فناوری را برای دستگاه‌های آیفون و آیپد و سایر محصولاتش با حافظه داخلی محدود به‌ارمغان بیاورد. برای درک بهتر علاقه‌مندان به حوزه تکنولوژی، کمپانی اپل مقاله‌ای را منتشر کرده که نشان می‌دهد هدف استفاده از مدل‌های زبان بزرگ یا LLMs برای گوشی‌های آیفون برطرف کردن برخی محدودیت‌های آن است؛ بنابراین، داشمندان اپل تکنیکی را استفاده می‌کنند که تراشه حافظه برای ذخیره‌سازی هوش مصنوعی مولد نیاز به ظرفیت کمتری دارد.

علاوه‌براین، تمام دستگاه‌های هوشمند تراشه حافظه داخلی دارند و گوشی‌های آیفون یا سایر محصولات اپل از این قاعده مستثنی نیستند؛ بااین‌حال، مهندسان بخش سخت‌افزاری غول کوپرتینو تکنیکی به‌نام Windowing را معرفی می‌کنند که به‌واسطه‌آن هوش مصنوعی مولد برخی اطلاعات و داده‌های از‌قبل پردازش‌شده را دوباره برای دستورات جدید مورد استفاده قرار می‌دهد تا نیازی به‌ پردازش مجدد و استفاده از تراشه حافظه نباشد؛ همچنین، این فناوری می‌تواند فرآیند پاسخگویی به دستورات کاربران را نیز سریع‌تر کند. ازسوی‌دیگر، تکنیک دومی تحت‌عنوان Row-Column Bundling وجود دارد که برای گروه‌بندی اطلاعات مورد استفاده قرار می‌گیرد و به هوش مصنوعی مولد اجازه می‌دهد داده‌ها را با سرعت بیشتری درمقاسه‌با گذشته بخواند.

اپل تکنیک جدیدی را برای ذخیره سازی LLM معرفی کرد

براین‌اساس باید گفت روش‌های بالا می‌توانند به هوش مصنوعی اجازه دهند تا دو برابر اندازه حافظه رم موجود در آیفون پردازش داشته باشند که نتیجه آن باعث 5 برابر افزایش سرعت در پردازنده مرکزی و 25 برابر افزایش سرعت در پردازنده گرافیکی می‌شود. باتوجه‌به اخبار ماه‌های گذشته می‌توان گفت اپل به‌صورت جدی روی تکنولوژی هوش مصنوعی فعالیت می‌کند و احتمالا اولین محصول آن چت‌باتی تحت‌عنوان Apple GPT خواهد بود که طی ماه‌های آینده دردسترس قرار می‌گیرد؛ همچنین، سری آیفون ۱۶ به میکروفون‌های ارتقایافته مجهز خواهند شد که به‌تقویت دستیار هوش مصنوعی Siri برای انجام بهتر وظایف کمک می‌کند.

شایعات تایید می‌کند اپل به تحقیق‌وتوسعه سیستم‌عامل iOS 18 می‌پردازد و قصد دارد هوش مصنوعی مولد را برای نسل‌ فعلی و نسل‌های گذشته آیفون به‌صورت ابری روی این آپدیت نرم‌افزاری پشتیبانی کند، اما سری آیفون ۱۶ از مولد هوش مصنوعی به‌صورت آفلاین روی تراشه A18 برخوردار می‌شوند که اجازه می‌دهد بدون اتصال به سرویس‌های ابری از قابلیت‌های مهم هوش مصنوعی برخوردار شوند. طی سال‌های گذشته، شرکت‌های بزرگی مانند آمازون، گوگل، OpenAI، مایکروسافت و چند مجموعه دیگر به فناوری هوش مصنوعی مولد دست پیدا کردند، اما اپل از آ‌ن‌ها عقب‌ مانده و اکنون قصد دارد در سال 2024 میلادی این شکاف را کمتر کند. باید خاطرنشان کنیم معرفی چنین ویژگی بزرگی به افزایش فروش چندبرابری آیفون، آیپد و مک کمک بزرگی می‌کند، اما باید دید مدل‌های زبان بزرگ در حافظه داخلی چه عملکردی خواه داشت.

اخبار مرتبط:

AMA