关于我们

质量为本、客户为根、勇于拼搏、务实创新

< 返回新闻公共列表

联合国科技大会关注大模型安全,蚂蚁集团发布了两项国际标准

发布时间:2024-04-17 16:01:32

站长之家(ChinaZ.com)4月17日 消息:第27届联合国科技大会于4月15日至19日在瑞士日内瓦举行。16日,世界数字技术学院在以“塑造人工智能的未来”为主题的人工智能边会上(WDTA)发布了《生成人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准等一系列突破性成果。这是国际组织首次国际标准发布在大型模型安全领域,代表全球人工智能安全评估和测试进入新的基准。

据了解,这两个国际标准是OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等几十个单位的专家学者共同编制。其中,蚂蚁集团牵头编制了《大语言模型安全测试方法》。

image.png

(图:WDTA发布大型安全国际标准,OpenAI、参与蚂蚁集团、科大讯飞等。

WDTA人工智能安全可信负责任工作组组长黄连金表示,随着人工智能系统,特别是大语言模型,继续成为社会各方面不可或缺的一部分,以全面的标准解决其安全挑战至关重要。本标准汇集了全球人工智能安全领域的专家智慧,填补了大语言模型和生成人工智能应用安全测试领域的空白,为行业提供了统一的测试框架和明确的测试方法,有助于提高人工智能系统的安全性,促进人工智能技术的负责任发展,增强公众信任。

世界数字技术学院(WDTA)它是一个在日内瓦注册的国际非政府组织,遵循联合国的指导框架,致力于促进全球数字技术和国际合作。AISTR(安全、可信、负责任)计划是WDTA的核心倡议,旨在保证人工智能系统的安全、可信和责任。蚂蚁集团、华为、科大讯飞、国际数据空间协会(IDSA)、弗劳恩霍夫研究所和中国电子研究所都是其成员单位。

近年来,世界各国都在加强对大型模型安全的研究和控制。中国发布了《全球人工智能治理倡议》、《生成人工智能服务管理暂行办法》、《生成人工智能服务安全基本要求》,旨在促进生成人工智能安全可信度的发展,促进全球人工智能治理领域的合作共识。

根据信息,发布的两个国际标准是大型模型和生成人工智能应用的安全测试标准。

WDTA是生成式人工智能应用安全测试标准的领导者。该标准为生成人工智能应用程序的安全性提供了一个框架,特别是那些使用大语言模型的人(LLM)构建的应用程序。它定义了人工智能应用架构各层的测试和验证范围,包括基本模型选择、嵌入和矢量数据库、RAG或检索增强生成、人工智能应用运行安全等,确保人工智能应用的各个方面都经过严格的安全和合规评估,确保其在整个生命周期中免受威胁和漏洞。

蚂蚁集团是《大语言模型安全测试方法》的领导者。该标准为大型模型本身的安全评估提供了一套全面、严谨、实用的结构性方案。它提出了大语言模型的安全风险分类、攻击分类和测试方法,并率先提供了四种不同攻击强度的攻击技术分类标准,提供了严格的评估指标和测试程序,可以解决大语言模型固有的复杂性,全面测试其抵抗敌对攻击的能力,使开发人员和组织能够识别和缓解潜在的漏洞,并最终提高使用大语言模型构建的人工智能系统的安全性和可靠性。

QQ截图20240417154139.jpg

(图:作为标准参与单位代表,蚂蚁集团王维强在会上发言)

蚂蚁集团机械智能部总经理、蚂蚁安全实验室首席科学家王伟强作为标准参与者的代表,应邀出席会议并发表演讲。他说,生成人工智能将释放巨大的生产力,但也要高度警惕它带来的新风险。大型科技公司应在促进生成人工智能安全和负责任的发展中发挥关键作用,利用其资源、专业知识和影响力促进最佳实践,建立一个优先考虑安全、隐私和道德的生态系统。例如,通过制定行业标准和指南,为开发和部署生成人工智能系统的开发人员和机构提供明确的指导;投资研发和开放确保生成人工智能安全的工具,形成产业共同治理。

根据公开信息,蚂蚁集团自2015年以来积极投资可信人工智能技术研究,建立了大型综合安全管理体系。蚂蚁集团还开发了自己的行业首个AIGC安全与真实性评估、大模型智能风险控制、AI鲁棒、可解释性检测等大型安全一体化解决方案“蚁天鉴”。本次发布的《大语言模型安全评价方法》是基于“蚁天鉴”AI安全检测系统的应用实践,与全球生态合作伙伴沟通编制的。此外,蚂蚁集团还成立了科技伦理委员会和专门的团队来评估和管理生成人工智能的风险。公司所有人工智能产品都需要通过科技伦理评价机制,以确保人工智能的安全和可信度。


/template/Home/Zkeys/PC/Static