چگونه گوگل امنیت نسل جدید هوش مصنوعی را تأمین میکند
با معرفی CodeMender، AI VRP و SAIF 2.0، گوگل برای ارتقای امنیت هوش مصنوعی تلاش میکند
هوش مصنوعی در عرصه علم و نوآوری یک نقطه عطف است، اما همزمان فرصتهایی برای سوءاستفاده نیز ایجاد میکند. مهاجمان، کلاهبرداران و حتی بازیگران دولتی در حال بررسی راههایی هستند تا از توانمندیهای AI برای ضربهزدن به افراد و نفوذ به سیستمها بهره ببرند. از حملات سریعتر تا مهندسی اجتماعی پیچیدهتر، هوش مصنوعی ابزارهای جدیدی در اختیار عوامل بد قرار میدهد.
به گزارش روز صفر گوگل باور دارد که نه تنها میتوان این تهدیدها را مهار کرد، بلکه میتوان از خود AI برای دفاع بهره برد و آن را به ابزاری تعیینکننده در تقویت امنیت تبدیل کرد. به همین دلیل، گوگل امروز از مجموعهای از اقدامهای جدید خبر داده است که برای موازنهسازی قدرت میان حمله و دفاع در دنیای هوش مصنوعی طراحی شدهاند. از جمله این اقدامها، معرفی ابزار CodeMender برای افزایش امنیت کد بهصورت خودکار، راهاندازی برنامه پاداش آسیبپذیری AI، و نسخه جدید چارچوب امنیتی Secure AI Framework 2.0 است.
دفاع خودکار: معرفی CodeMender
در تلاش برای ایجاد سیستمهایی که از ابتدا امن طراحی شوند، گوگل ابزاری به نام CodeMender عرضه کرده است. این عامل هوش مصنوعی با کمک مدلهای Gemini، توانمندیهای استدلال پیشرفتهای دارد و بهصورت خودکار آسیبپذیریهای کد را تشخیص و اصلاح میکند. در مراحل کاری این ابزار:
- الگوریتمهای ریشهیابی خطا (root cause analysis) به کمک Gemini، با ترکیب روشهایی مانند fuzzing و استدلال منطقی، علت اصلی نقص را شناسایی میکنند.
- پچهای خوداصلاحشونده تولید شده بررسی میشوند و سپس توسط «عامل نقد» (critique agent) به دقت ارزیابی میگردند تا از صحت و امنیت آنها مطمئن شوند، پیش از آنکه توسط انسان تصویب نهایی شوند.
CodeMender نمادی از جهش به سوی دفاع پیشگیرانه و استفاده از AI برای تسریع زمان واکنش به آسیبپذیری است.
پژوهشگران امنیتی در سراسر جهان شریک حیاتی در شناسایی آسیبپذیریها هستند. در این راستا، گوگل برنامهی جدید AI Vulnerability Reward Program (AI VRP) را معرفی کرده است. این برنامه خلاهای موجود را پر میکند:
- جدول پاداش واحد برای مسائل امنیتی و سوءاستفاده AI در یک چارچوب مشترک فراهم میکند.
- مکانیزم گزارشدهی شفافتر ایجاد میکند تا پژوهشگران بدانند چه نوع مسائل در محدوده برنامه قابل قبول است.
- بخشی از مسائلی که پیشتر در برنامه سوءاستفاده (Abuse VRP) قرار داشتند، به این برنامه منتقل شدهاند تا واقعاً همه جنبههای AI تحت پوشش قرار گیرند.
تا کنون، برنامههای پاداش گوگل بیش از ۴۳۰ هزار دلار به آسیبپژوهان هوش مصنوعی پرداخت کردهاند؛ حال با این ابتکار جدید، انتظار میرود مشارکت فعالتر و متمرکزتر شود.
ایمنسازی عاملهای هوشمند: توسعه SAIF 2.0
هوش مصنوعی با ورود به عرصه عاملهای خودران (autonomous agents) و ابزارهای قدرتمند، نیازمند اعتبارسنجی امنیتی جدیتر است. به همین دلیل، Google چارچوب خود را گسترش داده و Secure AI Framework 2.0 را معرفی کرده است که شامل سه بُعد جدید است:
- نقشه ریسک عامل (Agent Risk Map): ساختار طراحیشده برای شناسایی تهدیدات خاص عاملها در سطوح گوناگون
- توانمندیهای امنیتی درون عاملها: تضمین میشود که عاملها بهصورت امن طراحی شوند و اصولی مانند کنترل انسانی، محدودیت عملکرد و قابلیت رصد اقدامات رعایت شوند
- اهدا نقشه ریسک به ابتکارات صنعت: بخشی از نقشه ریسک به ابتکاراتی مانند «ائتلاف امنیت AI» (CoSAI) اهدا میشود تا امنیت هوش مصنوعی در سطح صنعتی ارتقا یابد.
در کنار این، گوگل به انتشار دادههای نقشه ریسک و روشهای طراحی عاملهای امن پرداخته و با نهادهای دولتی، دانشگاهها و مؤسسات صنعت همکاری میکند.
اعمال این اقدامها تنها به مقابله با تهدیدهای تازه محدود نمیشود. گوگل قصد دارد از AI به عنوان نیروی محرکه برای رساندن تعادل میان دفاع و حمله استفاده کند. در این مسیر، شرکت با اشتراکگذاری روشهای خود، همکاری با دولتها و نهادهای فناور و ایفای نقش کلیدی در ائتلافهای صنعتی مانند CoSAI، تعهد خود را بر رهبری جهانی امنیت هوش مصنوعی نشان داده است.
با معرفی CodeMender، AI VRP و SAIF 2.0، گوگل میکوشد این پیام را منتقل کند که در عصر هوش مصنوعی، قدرت نه فقط به کسی که ابزارها را در اختیار دارد، بلکه با کسی است که امنیت آنها را تضمین میکند.
در وبسایت روز صفر، این تغییرات را به دقت رصد خواهیم کرد و ضمن انتشار تحلیلهای کاربردی، تلاش میکنیم کاربران را در مسیر تحول هوش مصنوعی و امنیت همراه کنیم.




