关于我们

质量为本、客户为根、勇于拼搏、务实创新

< 返回新闻公共列表

蚂蚁集团、OpenAI、科大讯飞等联合编制 发布大模型安全国际标准

发布时间:2024-04-17 21:00:33

4月17日,第27届联合国科技大会在瑞士日内瓦举行。世界数字技术学院(WDTA)发布了《生成人工智能应用安全测试标准》和《大语言模型安全测试方法》等一系列突破性成果。

据悉,这两个国际标准是OpenAI、由蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等几十个单位的专家学者共同编制而成。蚂蚁集团牵头编制了《大语言模型安全测试方法》。

该标准汇集了全球人工智能安全领域的专家智慧,它填补了大语言模型和生成人工智能应用安全测试领域的空白,为行业提供了统一的测试框架和明确的测试方法,有助于提高人工智能系统的安全性,促进人工智能技术的负责任发展,增强公众信任。

世界数字技术学院(WDTA)它是一个在日内瓦注册的国际非政府组织,遵循联合国的指导框架,致力于促进全球数字技术和国际合作。

AI STR(安全、可信、负责任)计划是WDTA的核心倡议,旨在确保人工智能系统的安全、可信度和责任。蚂蚁集团、华为、科大讯飞、国际数据空间协会(IDSA)、弗劳恩霍夫研究所和中国电子研究所都是其成员单位。

根据公开信息,蚂蚁集团自2015年以来积极投资可信人工智能技术研究,建立了大型综合安全管理体系。蚂蚁集团还为AIGC安全真实性评估、大模型智能风险控制、AI鲁棒、可解释性检测等开发了业内首个大模型安全一体化解决方案。

本次发布的《大语言模型安全评价方法》是基于人工智能安全检测系统的应用实践,与全球生态合作伙伴进行沟通和编制。此外,蚂蚁集团还成立了科技伦理委员会和专门的团队来评估和管理生成人工智能的风险。公司所有人工智能产品都需要通过科技伦理评价机制,以确保人工智能的安全和可信度。

蚂蚁集团、OpenAI、科大讯飞等联合编制 大模型安全国际标准发布


/template/Home/Zkeys/PC/Static