تقدم Google إطار عمل آمن للذكاء الاصطناعي، وتشارك أفضل الممارسات لنشر نماذج الذكاء الاصطناعي بأمان

طرحت شركة جوجل أداة جديدة لمشاركة أفضل ممارساتها لتنفيذ نماذج الذكاء الاصطناعي (AI) يوم الخميس. في العام الماضي، أعلنت شركة التكنولوجيا العملاقة ومقرها ماونتن فيو عن Secure AI Framework (SAIF)، وهو دليل ليس فقط للشركة ولكن أيضًا للآخرين الذين يقومون ببناء نماذج لغوية كبيرة (LLM). الآن، قدمت شركة التكنولوجيا العملاقة أداة SAIF التي يمكنها إنشاء قوائم مرجعية تحتوي على رؤى قابلة للتنفيذ لتحسين أمان نماذج الذكاء الاصطناعي. والجدير بالذكر أن هذه الأداة عبارة عن أداة تعتمد على الاستبيان، حيث يتعين على المطورين والشركات الإجابة على سلسلة من الأسئلة قبل تلقي قائمة مرجعية.

في أ مشاركة مدونةأبرزت شركة التكنولوجيا العملاقة ومقرها ماونتن فيو أنها أطلقت أداة جديدة من شأنها أن تساعد الآخرين في صناعة الذكاء الاصطناعي على التعلم من أفضل ممارسات Google في نشر نماذج الذكاء الاصطناعي. نماذج اللغة الكبيرة قادرة على التسبب في مجموعة متنوعة من التأثيرات الضارة، بدءًا من إنشاء نصوص غير لائقة وبذيئة، وتزييف عميق ومعلومات مضللة، إلى توليد معلومات خطيرة بما في ذلك الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN).

على الرغم من أن نماذج الذكاء الاصطناعي آمنة إلى حد ما، إلا أن هناك خطرًا يتمثل في قيام المجرمين بكسر حماية هذه النماذج بحيث تستجيب للأوامر التي لم يتم تصميمها من أجلها. مع مثل هذه المخاطر العالية، يجب على مطوري وشركات الذكاء الاصطناعي اتخاذ الاحتياطات الكافية لضمان أن النماذج آمنة للمستخدمين وأيضا آمنة بما فيه الكفاية. تغطي الأسئلة موضوعات مثل التدريب وضبط النماذج وتقييمها والتحكم في الوصول إلى النماذج ومجموعات البيانات ومنع الهجمات والمدخلات الضارة والعوامل التوليدية التي تعمل بالذكاء الاصطناعي والمزيد.

توفر أداة SAIF من Google تنسيقًا قائمًا على الاستبيان، والذي يمكن الوصول إليه هنا. يُطلب من المطورين والشركات الإجابة على أسئلة مثل، “هل أنت قادر على اكتشاف وإزالة ومعالجة التغييرات الضارة أو غير المقصودة في بيانات التدريب أو التخصيص أو التقييم؟”. بعد ملء الاستبيان، سيحصل المستخدمون على قائمة مرجعية محددة يتعين عليهم اتباعها لسد الثغرات في تأمين نماذج الذكاء الاصطناعي.

الأداة قادرة على التعامل مع المخاطر مثل تسمم البيانات، والحقن السريع، والتلاعب بمصدر النموذج، وغيرها. تم تحديد كل من هذه المخاطر في الاستبيان وتقدم الأداة حلولاً محددة للمشكلة.

بالإضافة إلى ذلك، أعلنت Google أيضًا عن إضافة 35 شريكًا صناعيًا إلى التحالف من أجل الذكاء الاصطناعي الآمن (CoSAI). ستشارك المجموعة في إنشاء حلول أمنية للذكاء الاصطناعي عبر ثلاثة مجالات تركيز – أمن سلسلة توريد البرمجيات لأنظمة الذكاء الاصطناعي، وإعداد المدافعين لمشهد الأمن السيبراني المتغير، وإدارة مخاطر الذكاء الاصطناعي.

Fuente