英特尔宣布加入MLCommons AI安全性工作组,将与产学界专家团队合作建立人工智能安全标准,借此打造负责任的人工智能开发指南。
为了降低强大技术带来的社会性风险,并且负责任地训练和布署大型自然语言模型与工具,工作小组将提供一个安全性评级系统,用以评估新型、快速演变的人工智能技术所带来风险。
工作小组初期重点将以斯坦福大学基础模型研究中心及语言模型全面评估(HELM)研究人员的成果为基础,为大型自然语言模型制定安全标准。 英特尔将与AIS工作组分享内部用于开发人工智能模型和工具时严谨且与跨领域审查的流程,协助建立一套通用的最佳实践和标准,以评估如何安全开发和布署利用大型自然语言模型的生成式人工智能工具。
作为创始成员之一,英特尔将贡献其专业知识,协助创建一个灵活的人工智能安全标准平台,用于衡量人工智能工具与模型的安全性,以及潜在风险因子。
随着测试趋于成熟,工作小组制定的人工智能安全标准,将成为社会看待人工智能布署与安全性的重要准则。
英特尔企业副总裁暨数据中心AI解决方案总经理Deepak Patil表示,英特尔致力于负责任地推动人工智能发展,让每个人都能平等、安全地使用人工智能,并且将以全方位角度看待安全性问题,同时在硬件和软件进行创新,致力于推动生态系建立值得信赖的人工智能。
由于大型自然语言模型的普遍性,如何串联整个生态系解决AI开发和布署的安全性问题至关重要,Deepak Patil表示乐于与业界共同定义新的流程、方法和标准,借此提升日后无所不在的人工智能应用。