从原则到实践:负责任的人工智能之路
已发表: 2024-07-29人工智能正在通过提高我们日常任务的效率和推进技术新领域来迅速改变我们的社会。然而,人工智能的快速采用引发了对其影响和安全性的重要讨论。
为了负责任地对待人工智能,请考虑人工智能和汽车之间的一些相似之处。
是什么让汽车安全?这不仅仅是安全带、交通法规或碰撞测试——尽管它们都有助于整体安全。一系列制造流程、功能、测试、治理、教育和社会规范使数十亿人能够每天安全地使用汽车。
汽车和人工智能很相似。在 Grammarly,我们将负责任的人工智能视为整个人工智能管道(从概念到开发再到部署)的一系列制衡。没有单一因素或控制可以使人工智能变得负责任,但整个组织采用的标准和实践可以建立一种全面的方法来实现负责任的人工智能。
什么是负责任的人工智能?
负责任的人工智能是以正念、道德健全且符合人类价值观的方式创建和利用人工智能。这是关于以一种优先考虑预期影响的方式来控制人工智能,同时减少不需要的行为或结果。这需要充分了解我们所掌握的人工智能技术的能力,识别潜在的陷阱,选择正确的用例,并建立风险保护措施。
负责任的人工智能在人工智能管道的不同阶段采取不同的形式。负责任地部署人工智能可能需要与实施现有人工智能模型或从头开始构建基于人工智能的技术所需的原则不同的原则。设定明确的期望并为人工智能在人工智能管道的每个阶段运行建立路标至关重要。
考虑到这一点,企业如何确保在实施负责任的人工智能时走在正确的轨道上?
打造负责任的人工智能框架
迈向负责任的人工智能之路包括了解技术、考虑其预期影响以及减轻潜在风险,例如意外行为、幻觉或生成危险内容。这些步骤可确保 AI 行为符合您公司的价值观。
考虑将人工智能嵌入其业务的公司应考虑人工智能可能如何影响其品牌、用户或决策结果。在组织中建立负责任的人工智能框架可以帮助指导有关构建或采用人工智能的决策。
美国国家标准与技术研究所发布的人工智能风险管理框架是这一努力的宝贵资源。该框架可帮助组织认识和管理与生成式人工智能相关的风险,并指导公司制定负责任的人工智能原则。
Grammarly 负责任的人工智能标准
在 Grammarly,我们每天都会创建和使用基于人工智能的解决方案。负责任的人工智能是我们产品开发和卓越运营的基石。我们拥有一支专门的负责任的人工智能团队,由研究人员、分析语言学家、机器学习工程师和安全专家组成,他们批判性地思考我们试图为我们的公司、我们的用户和我们的产品实现的目标。
随着我们公司的发展,我们制定了自己负责任的人工智能标准:
- 透明度:用户应该能够知道他们何时与人工智能交互。这包括识别人工智能生成的内容并提供有关人工智能训练方法的详细信息。这将帮助用户了解人工智能如何做出决策。了解人工智能的局限性和能力使用户能够对其应用做出更明智的决策。
- 公平性:人工智能公平性不仅仅是 Grammarly 的一个流行词;这是一个指导原则。通过评估人工智能输出的工具和严格的敏感性风险评估,Grammarly 主动减少偏见和攻击性内容。这种保证尊重、包容性和公平的承诺推动着每一次用户互动。
- 用户代理:真正的控制权掌握在用户手中。 Grammarly 赋予用户塑造与人工智能互动的能力。用户拥有最终决定权——无论他们选择接受写作建议还是决定他们的内容是否训练模型。这确保人工智能放大而不是覆盖他们的声音。
- 问责制:Grammarly 认识到滥用的可能性,直接面对人工智能的挑战。 Grammarly 通过全面的偏见测试以及在整个开发过程中雇用我们负责任的 AI 团队,确保对其 AI 输出负责。负责任的人工智能是公司结构的一部分,确保人工智能是赋权的工具,而不是错误或伤害的根源。
- 隐私和安全: Grammarly 的负责任人工智能方法坚定地致力于用户隐私和安全。我们不会出售用户数据或允许第三方访问用户数据用于广告或培训。严格遵守法律、监管和内部标准支持这一承诺,确保所有人工智能开发和培训保持最高的隐私和安全措施。
迈向更负责任的未来
为人工智能技术营造一个负责任的环境需要外部利益相关者的共同努力——从技术行业到监管机构再到民族国家。为了负责任地使用人工智能,我们必须承认并解决固有偏见,努力提高人工智能决策过程的透明度,并确保用户拥有必要的知识来就其使用做出明智的决策。
接受这些原则对于释放人工智能的全部潜力并降低其潜在风险至关重要。这种集体努力将为人工智能技术创新、公平和可靠的未来铺平道路。