语法赚取ISO/IEC 42001:2023认证,加强对负责人AI的承诺

已发表: 2025-04-15

在Grammarly,我们致力于建立支持有效,周到的沟通的AI,而没有妥协安全,隐私或用户信任。这项承诺一直指导我们如何设计,开发和部署我们的AI驱动写作帮助。现在,它得到了国际认可的标准的支持:Grammarly已正式获得ISO/IEC 42001:2023认证

随着人工智能的工作,写作和联系越来越核心,围绕其道德发展和使用的明确准则的需求从未有所更大。输入ISO 42001- 世界上第一个国际标准,专门针对负责任地管理AI系统。

什么ISO/IEC 42001:2023是什么 - 为什么它很重要

ISO 42001帮助组织建立一个以安全,透明且与人类价值观保持一致的方式管理AI的框架。该认证从一开始就验证了语法优先级的:建立AI,以增强通信,同时主动评估风险和保护用户数据。 ISO 42001合规性表明,Grammarly的AI是:

  • 在道德上设计以与人类价值观保持一致
  • 与最佳实践保持一致,并关注新兴法规
  • 安全和隐私意识以保护敏感数据
  • 不断监视风险和意外后果
  • 可信赖的企业和用户应用程序可靠

Grammarly的认证意味着我们对AI的方法已被独立验证与这个强大的框架,这使我们成为了全球实现这一里程碑的第一家公司之一。

在白皮书中了解更多
探索我们建立安全和负责人AI的框架

语法如何与ISO 42001保持一致

我们将负责的AI原则嵌入了产品开发生命周期的每个部分。以下是我们到ISO 42001的关键控制领域的映射:

优先责任的政策

语法保留了一套正式的AI政策,以指导我们AI系统的开发,部署和监督。每年审查这些政策,并反映我们对安全,隐私和以用户为中心的创新的承诺。我们已经建立了人工智能管理系统(AIMS)并进行独立审核以确保问责制。

一个专门负责的人工智能团队

我们建立了一个跨职能团队,该团队负责监督AI治理并确保与道德原则保持一致。角色和职责在我们的组织结构中明确定义。所有员工都接受了AI道德,隐私和安全惯例的持续培训。

精心管理的AI资源

我们的数据集和第三方工具将经过仔细的审查和确保。我们保持严格的访问控制,并禁止合作伙伴使用任何客户内容来培训其模型。我们的生成AI由Microsoft Azure Openai和OpenAI等值得信赖的合作伙伴提供支持,但是客户数据从未共享用于模型培训。

主动风险和影响评估

我们进行了彻底的AI特定风险评估,包括红色小组和对抗性测试,以评估公平,安全性和偏见。用户有权报告疑虑,我们通过自动和人类评估不断监视AI输出。

AI的完整生命周期方法

我们的AI系统在每个阶段都受到管辖 - 从设计和开发到部署和退役。在发布新功能之前,我们进行了广泛的测试,以确保其符合质量,包容性和可用性的高标准。

安全,公平和透明的数据使用

语法对用于构建我们AI的数据进行了强大的治理,强调了质量,公平性和隐私。用户可以控制其内容的使用方式,我们从不出售用户内容。

对于利益相关者的清晰,可访问的信息

透明度是语法的核心原则。我们为AI生成的建议提供了解释,并在我们的用户信任中心中保留有关我们的隐私和安全惯例的清晰文档。专门的客户支持和成功团队可以回答与AI相关的问题。

以人为中心的人工智能使用

Grammarly的AI旨在支持(而不是取代)人类的创造力和判断力。用户始终控制他们如何与AI建议互动,我们的系统是在最前沿的透明度和用户代理构建的。

负责的第三方合作伙伴关系

我们将我们的供应商和子处理器保持在为自己设定的相同的高标准上。所有合作伙伴都会接受年度安全和合规性审查,我们对使用第三方AI模型的位置透明。 Grammarly拥有包括SOC 2(类型2),ISO 27001和ISO 27701在内的企业级认证,并且符合HIPAA,CCPA,GDPR等。

建立您可以信任的AI

实现ISO/IEC 42001:2023认证不仅仅是一个里程碑 - 反映了我们对负责任地构建AI的深入。我们负责的AI团队确保安全性,公平性和透明度嵌入到我们创建的每个模型以及我们提供的每个用户体验中。

我们致力于帮助个人和企业自信地利用AI进行更有效的沟通,而无需妥协信任。

在grammarly.com/responsible-ai上了解有关我们方法的更多信息,并查看我们的白皮书,以深入探索我们负责的AI实践。