اپل در حال توسعه تکنیکهای جدیدی برای تجزیه و تحلیل الگوهای دادههای کاربر و بینشهای جمعآوری شده به منظور بهبود ویژگیهای هوش مصنوعی (AI) خود است. این غول فناوری مستقر در کوپرتینو روز دوشنبه این تکنیکهای حفظ حریم خصوصی تفاضلی را به اشتراک گذاشت و تاکید کرد که این روشها به حریم خصوصی کاربران تجاوز نخواهد کرد. در عوض، این شرکت بر جمعآوری دادههایی مانند روندهای استفاده و دادههای جاسازی شده برای اندازهگیری و بهبود ابزارهای تولید متن و Genmoji خود تمرکز دارد. نکته قابل توجه این است که اپل گفته است این اطلاعات فقط از دستگاههایی گرفته میشود که کاربران آنها برای به اشتراک گذاشتن تجزیه و تحلیل دستگاه رضایت دادهاند.
برای اخبار روز تکنولوژی با آی تی هوم همراه باشید.
رویکرد اپل برای یادگیری از دادههای کاربر بدون نقض حریم خصوصی
سازنده آیفون در پستی در دامنه تحقیقات یادگیری ماشین خود، جزئیات تکنیک جدیدی را که برای بهبود برخی از ویژگیهای Apple Intelligence در حال توسعه است، شرح داد. ارائه هوش مصنوعی این غول فناوری تاکنون چندان چشمگیر نبوده است و این شرکت ادعا میکند یکی از دلایل آن، شیوههای اخلاقی آن در مورد پیشآموزش و منبعیابی دادهها برای مدلهای هوش مصنوعی خود است. اپل ادعا میکند که مدلهای هوش مصنوعی مولد آن بر اساس دادههای مصنوعی (دادههایی که توسط سایر مدلهای هوش مصنوعی یا منابع دیجیتالی ایجاد شدهاند و نه توسط هیچ انسانی) آموزش داده میشوند.
در حالی که این هنوز یک روش مناسب برای آموزش مدلهای زبانی بزرگ (LLM) است، زیرا دانش آنها را در مورد جهان فراهم میکند، از آنجایی که این مدلها از سبک نوشتن و ارائه انسانی یاد نمیگیرند، خروجی میتواند بیروح و کلیشهای به نظر برسد. این موضوع به عنوان “AI slop” نیز شناخته میشود. برای رفع این مشکلات و بهبود کیفیت خروجی مدلهای هوش مصنوعی خود، این غول فناوری اکنون به دنبال گزینهای برای یادگیری از دادههای کاربر بدون بررسی واقعی دادههای خصوصی کاربران است. اپل این تکنیک را “حریم خصوصی تفاضلی” مینامد.
استفاده از حریم خصوصی تفاضلی برای بهبود Genmoji و تولید متن
برای Genmoji، اپل از روشهای حفظ حریم خصوصی تفاضلی برای شناسایی درخواستهای محبوب و الگوهای درخواست از کاربرانی که برای به اشتراک گذاشتن تجزیه و تحلیل دستگاه با این شرکت رضایت دادهاند، استفاده خواهد کرد. سازنده آیفون میگوید تضمین ریاضی ارائه خواهد کرد که درخواستهای منحصر به فرد یا نادر کشف نخواهند شد و درخواستهای خاص نمیتوانند به هیچ فردی مرتبط شوند. جمعآوری این اطلاعات به شرکت کمک میکند تا انواع درخواستهایی را که “بیشترین نماینده تعامل کاربر واقعی” هستند، ارزیابی کند.

اساساً، اپل به دنبال نوع درخواستهایی خواهد بود که منجر به خروجی رضایتبخش میشوند و جایی که کاربران بارها درخواستهایی را برای رسیدن به نتیجه دلخواه اضافه میکنند. یک مثال به اشتراک گذاشته شده در این پست شامل عملکرد مدلها در تولید چندین موجودیت بود. اپل قصد دارد این رویکرد را برای Image Playground، Image Wand، Memories Creation و ابزارهای نوشتن در Apple Intelligence، و همچنین در Visual Intelligence با نسخههای آینده گسترش دهد.
گسترش استفاده از حریم خصوصی تفاضلی برای سایر ویژگیهای Apple Intelligence
یکی دیگر از زمینههای کلیدی که این غول فناوری از این تکنیک استفاده میکند، تولید متن است. این رویکرد تا حدودی با رویکرد مورد استفاده در Genmoji متفاوت است. برای ارزیابی قابلیت ابزارهای خود در تولید ایمیل، این شرکت مجموعهای از ایمیلها را ایجاد کرد که موضوعات رایج را پوشش میدهند. برای هر موضوع، این شرکت چندین تغییر ایجاد کرد و سپس بازنماییهایی از ایمیلها را استخراج کرد که شامل ابعاد کلیدی مانند زبان، موضوع و طول بود. اپل اینها را جاسازی مینامد. این جاسازیها سپس برای تعداد کمی از کاربرانی که برای اشتراک گذاشتن تجزیه و تحلیل دستگاه رضایت دادهاند، ارسال شد.

سپس جاسازیهای مصنوعی با نمونهای از ایمیلهای کاربران مطابقت داده شد. این غول فناوری گفت: “در نتیجه این محافظتها، اپل میتواند دادههای مصنوعی ایجاد کند که منعکس کننده روندهای کلی باشد، بدون اینکه هرگز محتوای ایمیل کاربران را جمعآوری یا بخواند.” در اصل، این شرکت از محتوای ایمیلها اطلاعی نخواهد داشت، اما همچنان میتواند درک کند که افراد ترجیح میدهند ایمیلهای خود را چگونه بیان کنند. اپل در حال حاضر از این روش برای بهبود تولید متن در ایمیلها استفاده میکند و میگوید که در آینده از همین رویکرد برای خلاصهسازی ایمیلها نیز استفاده خواهد کرد.
حفظ حریم خصوصی در عین بهبود هوش مصنوعی: رویکرد نوآورانه اپل
استفاده اپل از تکنیکهای حفظ حریم خصوصی تفاضلی برای بهبود ویژگیهای هوش مصنوعی خود نشاندهنده تعهد این شرکت به حفظ حریم خصوصی کاربران در عین تلاش برای ارائه قابلیتهای هوشمندتر است. این رویکرد به اپل اجازه میدهد تا از الگوهای دادههای کاربر به صورت جمعی یاد بگیرد بدون اینکه به اطلاعات شخصی آنها دسترسی داشته باشد. این روش میتواند الگویی برای سایر شرکتهای فناوری باشد که به دنبال توسعه اخلاقی و مسئولانه هوش مصنوعی هستند.