اپل در تلاشش برای حفظ امنیت و حریم خصوصی دادههای هوش مصنوعی، با وظیفهای دشوار روبرو است.
در عرصه فناوری، تقریباً تمامی بازیگران اصلی اکنون بر روی هوش مصنوعی سرمایهگذاری کردهاند و شرکت اپل نیز از این قافله عقب نمانده است. تمایز اصلی اپل اما، در رویکرد این شرکت به امنیت و حریم خصوصی دادهها در بستر هوش مصنوعی نهفته است. در رویداد سالانه WWDC که اوایل ماه جاری برگزار شد، اپل از «هوش مصنوعی اپل» رونمایی کرد. این شرکت اذعان داشته که فناوری مذکور، استاندارد جدیدی را در زمینه امنیت و حریم خصوصی هوش مصنوعی رقم خواهد زد. این ادعا درحالی مطرح میشود که اپل قصد دارد سیستم چتجیپیتیِ OpenAI را به صورت یکپارچه با محصولات و نرم افزار خود ادغام کند.
برخی کارشناسان امنیتی درحالیکه به نیت خیرخواهانه اپل که در این صنعت نادر است ایمان دارند، اما بر پیچیدگیهای اجرایی رویکرد آنها و احتمال افزایش حملات سایبری علیه اپل تأکید میکنند. بااینحال، این متخصصان همچنان خوشبین هستند. ران سندروویتز، مدیر ارشد عملیات شرکت Wing Security که در زمینه امنیت نرمافزارهای جانبی فعالیت میکند، وعدههای امنیتی و حفظ حریم خصوصی اپل در حوزه هوش مصنوعی، به همراه رویکرد شفاف این شرکت در نحوه بهکارگیری این فناوری را «قدمی مثبت در مسیر درست» توصیف کرده است.
کارشناسان تردیدهایی درباره اجرای وعدههای امنیتی اپل در هوش مصنوعی دارند. آنها بهرویکرد همیشگی اپل در جمعآوری کمترین اطلاعات ممکن از کاربران و عدم کسب سود از این دادهها اشاره میکنند. همین باعث تمایز اپل در میان شرکتهای فناوری میشود که هیچ قانونی آنها را کنترل نمیکند و حتی مجموعهای از قوانین و استانداردهای داخلی برای خود تدوین نکردهاند. برعکسِ اپل، شرکتهایی مثل متا و گوگل سالها پیش از ظهور هوش مصنوعی، مدل کسبوکار خود را بر پایه جمعآوری، به اشتراکگذاری و فروش اطلاعات کاربران به دیگران بنا کردهاند.
پیشرفتهای عظیم و نوآوریهایی که ابزارهای هوش مصنوعی نظیر مدلهای زبان بزرگ (LLM) و یادگیری ماشین به ارمغان میآورند، با چالشهای جدی در زمینه امنیت و محرمانگی دادهها همراه است. ران سندروویتز، مدیر ارشد عملیات Wing Security، ورود اطلاعات به LLMها را به «گفتن رازی به دوستی به امید فراموش شدن» تشبیه میکند، اما با این تفاوت که راز در حافظه LLM باقی میماند. ما پس از ورود دادهها به LLM، امکان کنترل یا ردیابی مسیر آنها را نداریم. حتی اگر دادههای ورودی بلافاصله حذف شوند، آموختههای LLM از آن دادهها همچنان در سیستم باقی میماند.
این شرکت همچنان بر رویکرد خود در زمینه حفظ حریم خصوصی و امنیت اطلاعات کاربران پافشاری میکند. اپل قول داده است کنترل بیشتری به کاربران برای استفاده از سیستم محبوب چتجیپیتی (LLM متعلق به OpenAI) بدهد و قبل از به اشتراک گذاشتن هرگونه اطلاعات، از کاربر اجازه بگیرد. شایان ذکر است چتجیپیتی قرار است بهزودی در سرویسهایی مانند سیری و ابزارهای نوشتاری اپل ادغام شود.
جمعآوری کمترین داده ممکن، همیشه از نقاط قوت امنیت اطلاعات در اپل بوده است. هرچه داده کمتری جمعآوری شود، خطرسرقت، گم شدن یا فروش آن نیز کاهش مییابد. با ورود هوش مصنوعی (AI) به میدان، این رویکرد با چالشهایی روبرو میشود. ابزارهای یادگیری ماشین (LLM) برای آموزش و عملکرد بهتر به حجم عظیمی از داده نیاز دارند. همچنین، برخی عملیات هوش مصنوعی فراتر از توان پردازشی گوشیها و لپتاپهای معمولی است.
کریگ فدریگی، معاون ارشد مهندسی نرمافزار اپل، در مراسم WWDC به اهمیت درک بافت شخصی کاربران برای دستیارهای هوشمند کارآمد اشاره کرد. درک بافت شخصی کاربران، به معنای شناخت عمیقتر از زمینه و شرایط فردی هر کاربر است. او تاکید کرد که این درک باید با رویکردی متعادل و با اولویت امنیت دادهها حاصل شود. بهعبارتدیگر، دستیابی به هوش مصنوعی کارآمد، مستلزم یافتن راهی برای تأمین نیازهای دادهای و پردازشی این فناوری، بدون به خطر انداختن امنیت و حریم خصوصی کاربران است.
این شرکت قصد دارد تا حد امکان پردازشهای هوش مصنوعی را مستقیما روی دستگاههای کاربران انجام دهد. برای کارهایی که نیاز به قدرت پردازشی بالاتری دارند، اپل از سیستم رایانش ابری خصوصی خود (Private Cloud Compute) استفاده خواهد کرد. این سیستم امکان استفاده از مدلهای پیچیدهتر هوش مصنوعی را فراهم میکند.
با این حال، اپل تضمین داده است که اطلاعات ارسالی به این سیستم ابری بههیچ وجه ذخیره یا در دسترس اپل قرار نمیگیرد. فدریکگی، معاون ارشد مهندسی نرمافزار اپل، همچنین تاکید کرد که مشابه با رویکرد امنیتی در دستگاههای این شرکت، کارشناسان مستقل میتوانند کدهای اجرا شده روی سرورهای رایانش ابری را بررسی کنند تا از پایبندی اپل به این وعده اطمینان حاصل شود.
اپل برحفظ حریم خصوصی سیستم رایانش ابری خود تاکید میکند اما کارشناسان همچنان ابهاماتی دارند. جوزیا هاگن، محقق ارشد امنیت سایبری در ترند((Trend Micro با بیش از ۲۰ سال تجربه در حوزه هوش مصنوعی، در تلاش جدی اپل برای اجرای وعدههایش تردید ندارد. او همچنین مزایای امنیتی بالقوه رایانش ابری را تایید میکند. به گفته هاگن، وسعت این سیستم امکان شناسایی سریعتر ناهنجاریها و جلوگیری از حملات سایبری پیش از وقوع را فراهم میکند. چالش اصلی اپل، طراحی کنترلهایی برای جلوگیری از سوءاستفاده هکرها از هوش مصنوعی در برنامههای متصل به آن است.
جوزیا هاگن، کارشناس امنیت سایبری، نسبت به سوءاستفاده از هوش مصنوعی در رایانش ابری خصوصی اپل هشدار میدهد. او معتقد است مجرمین سایبری از مدلهای هوش مصنوعی مانند چتجیپیتی برای بررسی انبوه دادههای سرقتی استفاده خواهند کرد. اما نگرانی بزرگتر او، رباتهای خودکار هوش مصنوعی رایگان است که این کار را به شکل گستردهتر و ارزانتری انجام میدهند. هاگن در انتها نتیجهگیری میکند که اپل یک شرکت امنیتی نیست و تأمین امنیت کل اکوسیستم خودشان چالش بزرگی است. او هشدار میدهد که هر شرکتی، حتی اپل، ممکن است در زمینه امنیت سایبری نقاط کوری داشته باشد.