متا با وجود اعلام عمومی مارک زاکربرگ، مدیرعامل این شرکت، برای دسترسپذیر کردن هوش مصنوعی عمومی (AGI)، نگرانیهایی جدی درباره آینده این تکنولوژی ابراز کرده است. این شرکت اخیراً چارچوبی به نام “Frontier AI Framework” را منتشر کرده که در آن به برخی از خطرات “بحرانی” هوش مصنوعی اشاره شده است. این خطرات شامل تهدیدات بالقوه در حوزه امنیت سایبری و حتی سلاحهای شیمیایی و بیولوژیکی میشود.
متا با به اشتراک گذاشتن این دستورالعملها، امیدوار است با سایر بازیگران اصلی صنعت همکاری کند تا خطرات را شناسایی و از بروز مشکلات “فاجعهبار” جلوگیری کند. این شرکت قصد دارد با مدلسازی تهدیدات و تعیین آستانههای مشخص، از بروز نتایج غیرقابل پیشبینی جلوگیری کند.
هدف متا: جلوگیری از پیامدهای “فاجعهبار” هوش مصنوعی
در پستی که متا در وبلاگ خود منتشر کرده، آمده است: “منبعباز کردن هوش مصنوعی نه فقط یک انتخاب، بلکه ضروری است”. این شرکت معتقد است که به اشتراک گذاشتن تحقیقات بین سازمانها میتواند باعث یادگیری از تجربیات یکدیگر شده و نوآوری را در این زمینه تشویق کند.
چارچوب هوش مصنوعی متا با اجرای منظم مدلسازی تهدیدات، به طور فعال به شناسایی خطرات بالقوه کمک میکند. این مدلسازیها زمانی استفاده میشود که یک مدل هوش مصنوعی احتمالاً از مرزهای کنونی پیشی بگیرد و تبدیل به تهدیدی بزرگ شود.
این فرایند با همکاری کارشناسان داخلی و خارجی انجام میشود و نتیجه آن سه سطح از ریسک را مشخص میکند: “بحرانی”، جایی که توسعه مدل باید متوقف شود؛ “بالا”، جایی که مدل در وضعیت فعلی نباید منتشر شود؛ و “متوسط”، که نیاز به بررسی بیشتر در مورد نحوه انتشار آن دارد.
برخی تهدیدات این مدلها شامل کشف آسیبپذیریهای جدید، کلاهبرداریهای خودکار و حتی تولید عوامل بیولوژیکی با تأثیرات سنگین است.
در این چارچوب، متا توضیح میدهد که “هرچند تمرکز اصلی این چارچوب پیشبینی و کاهش خطرات فاجعهبار است، باید تاکید کرد که هدف از توسعه سیستمهای هوش مصنوعی پیشرفته، بهرهبرداری از پتانسیل عظیم این تکنولوژیها برای بهبود جامعه است.”
متا همچنین اعلام کرده که بهروزرسانیهای این چارچوب با همکاری دانشگاهها، سیاستگذاران، سازمانهای مدنی، دولتها و جامعه جهانی هوش مصنوعی ادامه خواهد داشت تا همگام با پیشرفتهای این تکنولوژی، اقدامات لازم صورت گیرد.
برای اطلاع از اخبار روز تکنولوژی کانال تلگرام آی تی هوم را دنبال کنید.