اپل در تلاشش برای حفظ امنیت و حریم خصوصی داده‌های هوش مصنوعی، با وظیفه‌ای دشوار روبرو است.

در عرصه فناوری، تقریباً تمامی بازیگران اصلی اکنون بر روی هوش مصنوعی سرمایه‌گذاری کرده‌اند و شرکت اپل نیز از این قافله عقب نمانده است. تمایز اصلی اپل اما، در رویکرد این شرکت به امنیت و حریم خصوصی داده‌ها در بستر هوش مصنوعی نهفته است. در رویداد سالانه‌ WWDC که اوایل ماه جاری برگزار شد، اپل از «هوش مصنوعی اپل» رونمایی کرد. این شرکت اذعان داشته که فناوری مذکور، استاندارد جدیدی را در زمینه‌ امنیت و حریم خصوصی هوش مصنوعی رقم خواهد زد. این ادعا درحالی مطرح می‌شود که اپل قصد دارد سیستم چت‌جی‌پی‌تیِ OpenAI را به صورت یکپارچه با محصولات و نرم افزار خود ادغام کند.

برخی کارشناسان امنیتی درحالی‌که به نیت خیرخواهانه‌ اپل که در این صنعت نادر است ایمان دارند، اما بر پیچیدگی‌های اجرایی رویکرد آن‌ها و احتمال افزایش حملات سایبری علیه اپل تأکید می‌کنند. بااین‌حال، این متخصصان همچنان خوش‌بین هستند. ران سندروویتز، مدیر ارشد عملیات شرکت Wing Security که در زمینه‌ امنیت نرم‌افزارهای جانبی فعالیت می‌کند، وعده‌های امنیتی و حفظ حریم خصوصی اپل در حوزه‌ هوش مصنوعی، به همراه رویکرد شفاف این شرکت در نحوه‌ به‌کارگیری این فناوری را «قدمی مثبت در مسیر درست» توصیف کرده است.

کارشناسان تردیدهایی درباره اجرای وعده‌های امنیتی اپل در هوش مصنوعی دارند. آن‌ها به‌رویکرد همیشگی اپل در جمع‌آوری کمترین اطلاعات ممکن از کاربران و عدم کسب سود از این داده‌ها اشاره می‌کنند. همین باعث تمایز اپل در میان شرکت‌های فناوری می‌شود که هیچ قانونی آن‌ها را کنترل نمی‌کند و حتی مجموعه‌ای از قوانین و استانداردهای داخلی برای خود تدوین نکرده‌اند. برعکسِ اپل، شرکت‌هایی مثل متا و گوگل سال‌ها پیش از ظهور هوش مصنوعی، مدل کسب‌وکار خود را بر پایه جمع‌آوری، به اشتراک‌گذاری و فروش اطلاعات کاربران به دیگران بنا کرده‌اند.

پیشرفت‌های عظیم و نوآوری‌هایی که ابزارهای هوش مصنوعی نظیر مدل‌های زبان بزرگ (LLM) و یادگیری ماشین به ارمغان می‌آورند، با چالش‌های جدی در زمینه‌ امنیت و محرمانگی داده‌ها همراه است. ران سندروویتز، مدیر ارشد عملیات Wing Security، ورود اطلاعات به LLMها را به «گفتن رازی به دوستی به امید فراموش شدن» تشبیه می‌کند، اما با این تفاوت که راز در حافظه‌ LLM باقی می‌ماند. ما پس از ورود داده‌ها به LLM، امکان کنترل یا ردیابی مسیر آن‌ها را نداریم. حتی اگر داده‌های ورودی بلافاصله حذف شوند، آموخته‌های LLM از آن داده‌ها همچنان در سیستم باقی می‌ماند.

 هوش مصنوعی اپل

این شرکت همچنان بر رویکرد خود در زمینه‌ حفظ حریم خصوصی و امنیت اطلاعات کاربران پافشاری می‌کند. اپل قول داده است کنترل بیشتری به کاربران برای استفاده از سیستم محبوب چت‌جی‌پی‌تی (LLM متعلق به OpenAI) بدهد و قبل از به اشتراک گذاشتن هرگونه اطلاعات، از کاربر اجازه بگیرد. شایان ذکر است چت‌جی‌پی‌تی قرار است به‌زودی در سرویس‌هایی مانند سیری و ابزارهای نوشتاری اپل ادغام شود.

جمع‌آوری کمترین داده‌ ممکن، همیشه از نقاط قوت امنیت اطلاعات در اپل بوده است. هرچه داده‌ کمتری جمع‌آوری شود، خطرسرقت، گم شدن یا فروش آن نیز کاهش می‌یابد. با ورود هوش مصنوعی (AI) به میدان، این رویکرد با چالش‌هایی روبرو می‌شود. ابزارهای یادگیری ماشین (LLM) برای آموزش و عملکرد بهتر به حجم عظیمی از داده نیاز دارند. همچنین، برخی عملیات هوش مصنوعی فراتر از توان پردازشی گوشی‌ها و لپ‌تاپ‌های معمولی است.

کریگ فدریگی، معاون ارشد مهندسی نرم‌افزار اپل، در مراسم WWDC به اهمیت درک بافت شخصی کاربران برای دستیارهای هوشمند کارآمد اشاره کرد. درک بافت شخصی کاربران، به معنای شناخت عمیق‌تر از زمینه و شرایط فردی هر کاربر است. او تاکید کرد که این درک باید با رویکردی متعادل و با اولویت امنیت داده‌ها حاصل شود. به‌عبارت‌دیگر، دستیابی به هوش مصنوعی کارآمد، مستلزم یافتن راهی برای تأمین نیازهای داده‌ای و پردازشی این فناوری، بدون به خطر انداختن امنیت و حریم خصوصی کاربران است.

این شرکت قصد دارد تا حد امکان پردازش‌های هوش مصنوعی را مستقیما روی دستگاه‌های کاربران انجام دهد. برای کارهایی که نیاز به قدرت پردازشی بالاتری دارند، اپل از سیستم رایانش ابری خصوصی خود (Private Cloud Compute) استفاده خواهد کرد. این سیستم امکان استفاده از مدل‌های پیچیده‌تر هوش مصنوعی را فراهم می‌کند.

با این حال، اپل تضمین داده است که اطلاعات ارسالی به این سیستم ابری به‌هیچ وجه ذخیره یا در دسترس اپل قرار نمی‌گیرد. فدریکگی، معاون ارشد مهندسی نرم‌افزار اپل، همچنین تاکید کرد که مشابه با رویکرد امنیتی در دستگاه‌های این شرکت، کارشناسان مستقل می‌توانند کدهای اجرا شده روی سرورهای رایانش ابری را بررسی کنند تا از پایبندی اپل به این وعده اطمینان حاصل شود.

اپل برحفظ حریم خصوصی سیستم رایانش ابری خود تاکید می‌کند اما کارشناسان همچنان ابهاماتی دارند. جوزیا هاگن، محقق ارشد امنیت سایبری در ترند((Trend Micro با بیش از ۲۰ سال تجربه در حوزه هوش مصنوعی، در تلاش جدی اپل برای اجرای وعده‌هایش تردید ندارد. او همچنین مزایای امنیتی بالقوه‌ رایانش ابری را تایید می‌کند. به گفته‌ هاگن، وسعت این سیستم امکان شناسایی سریع‌تر ناهنجاری‌ها و جلوگیری از حملات سایبری پیش از وقوع را فراهم می‌کند. چالش اصلی اپل، طراحی کنترل‌هایی برای جلوگیری از سوءاستفاده هکرها از هوش مصنوعی در برنامه‌های متصل به آن است.

جوزیا هاگن، کارشناس امنیت سایبری، نسبت به سوءاستفاده از هوش مصنوعی در رایانش ابری خصوصی اپل هشدار می‌دهد. او معتقد است مجرمین سایبری از مدل‌های هوش مصنوعی مانند چت‌جی‌پی‌تی برای بررسی انبوه داده‌های سرقتی استفاده خواهند کرد. اما نگرانی بزرگ‌تر او، ربات‌های خودکار هوش مصنوعی رایگان است که این کار را به شکل گسترده‌تر و ارزان‌تری انجام می‌دهند. هاگن در انتها نتیجه‌گیری می‌کند که اپل یک شرکت امنیتی نیست و تأمین امنیت کل اکوسیستم خودشان چالش بزرگی است. او هشدار می‌دهد که هر شرکتی، حتی اپل، ممکن است در زمینه‌ امنیت سایبری نقاط کوری داشته باشد.