负责任的人工智能的演变:透明度和用户代理

已发表: 2025-01-08

生成性、代理性、自主性、适应性——这些术语定义了当今的人工智能格局。然而,负责任的人工智能——道德和安全地部署人工智能,最大限度地提高其效益,同时最大限度地减少其危害——也必须成为对话的关键部分。随着人工智能技术越来越多地融入劳动力、系统和客户体验,维护道德标准的责任不再仅仅落在人工智能开发人员的肩上。它必须得到企业领导者的支持,他们将承担更多的责任,以确保他们部署的人工智能不仅能够发挥作用,而且符合人类的基本价值观。

负责任的人工智能不是商业利他主义,而是商业利他主义。这是商业策略。随着人工智能越来越多地承担复杂的任务、推动决策并直接与客户和员工互动,除了其功能之外,它提供的价值和安全性将决定员工的生产力和客户满意度。

2025 年重要的人工智能趋势
下载 2025 年 AI 候选名单,了解有关重要趋势的更多行动步骤。

理解和赋权推动创新

负责任的人工智能包括合规性、隐私性和安全性,并延伸到人工智能系统的道德、安全和公平部署。虽然这些方面的量化和执行更具挑战性,但它们是影响员工体验、品牌声誉和客户成果的关键业务需求。

在当前人工智能革命开始时,Grammarly 开发了一个负责任的人工智能框架来指导道德部署。该框架围绕五个核心支柱:透明度、公平和安全、用户代理、问责制以及隐私和安全。到 2025 年,这些支柱中的每一个都将仍然至关重要,但有两个支柱将经历最重大的演变并需要更多的关注:透明度用户代理。这两个支柱将对人们如何体验人工智能产生最大的影响,并将决定在这些体验中赢得或失去的信任。

透明度:通过理解建立信任

从最简单的形式来看,透明度意味着人们可以识别人工智能生成的内容,理解人工智能驱动的决策,并知道他们何时与人工智能互动。虽然人工智能输出是“人造的”,但它承载着为其提供动力的模型的意图。透明度使用户能够在参与输出时掌握意图并做出明智的决策。

迄今为止,人工智能开发人员一直对透明度负责,公众努力让 OpenAI、Google 和 Grammarly 等公司对其工具的行为负责。然而,随着大型语言模型 (LLM) 和人工智能应用程序渗透到业务系统、产品、服务和工作流程中,责任正在转移到部署这些工具的公司身上。在用户眼中,企业有责任对其部署的人工智能保持透明,并且当其人工智能产生负面影响时可能会导致声誉受损。未来一年,随着欧盟人工智能法案NIST人工智能风险管理框架等新法规和拟议法规的出台,我们可以预期企业也可能承担更多的法律责任。

实现透明度具有挑战性。然而,用户并不是在寻找绝对的特异性;而是在寻找绝对的特异性。他们想要连贯性和理解性。监管机构和人们希望企业了解其人工智能工具的工作原理,包括其风险和后果,并以易于理解的方式传达这些见解。为了提高人工智能实践的透明度,企业领导者可以采取以下步骤:

  1. 运行 AI 模型清单。为了有效地让人们了解您的人工智能的行为方式,首先要了解您的人工智能基础。与您的 IT 团队合作,映射整个技术堆栈(无论是第三方还是内部技术堆栈)中使用的 AI 模型,并确定它们驱动的功能和引用的数据。
  2. 记录功能和限制。提供有关人工智能的功能、风险以及预期或可接受的用途的全面且易于理解的信息。采取基于风险的方法,从影响最大的用例开始。这可以确保人们了解最重要的信息,同时帮助您的安全团队识别潜在问题的根源。
  3. 调查AI供应商的商业模式。如果您正在部署第三方法学硕士或人工智能应用程序,请了解供应商实践背后的动机。例如,Grammarly 的基于订阅的模式与用户体验质量而不是广告保持一致,从而确保安全并培养用户信任。

通过采取这些步骤,企业领导者可以成为负责任的人工智能管理者,在应对先进人工智能技术不断发展的格局时,提高透明度、建立信任并坚持问责制。

用户代理:通过授权提高绩效

用户代理意味着让人们(包括客户和员工)控制他们的人工智能体验。作为最终决策者,人们带来了背景专业知识,并且必须了解人工智能的能力和局限性,才能有效地应用这些专业知识。就目前的形式而言,人工智能不应取代人类的判断,而应通过提高人们的技能并扩大其影响力来增强人们的能力。当人工智能成为实现个人自主的工具时,它会增强人类的优势并建立对其应用程序的信任。

优先考虑用户代理既符合道德又明智的做法。企业需要员工和客户成为人工智能盟友,拥有指导强大的人工智能用例和自主代理的技能——不仅可以防止恶意活动,还可以防止无效活动。同样,产品和客户体验中的人工智能并不总是完美的。赢得客户的信任会鼓励他们报告错误、错误和改进,以帮助增强您的业务产品。

支持用户代理需要让人们能够批判性地评估人工智能输出及其对特定用例的适合性。它还包括让人们了解他们可以应用的技术设置和控制来管理人工智能的交互方式以及交互时间。领导者可以通过采取以下步骤来推动用户代理:

  1. 提供用户教育。为了促进知情参与,为用户提供解释人工智能建议、了解其局限性以及确定何时需要人工监督的指导。这种教育应该在您的网站、员工培训中提供,由面向客户的团队提供,并且可能在您与人工智能交互的产品中提供。
  2. 建立简单的 IT 控制和设置。通过让用户控制人工智能设置来增强用户的能力,例如个性化推荐的偏好、数据共享选项和决策阈值。透明的设置增强了自主性,让用户可以根据自己的需求定制人工智能。
  3. 制定加强用户自主权的政策。通过围绕人工智能在高风险领域的使用制定指南,确保人工智能应用补充而不是取代人类专业知识。政策应鼓励用户将人工智能视为支持而不是超越其专业知识的工具。

实施这些步骤可以帮助企业领导者确保人工智能尊重并增强人类能动性。这将促进一种协作动态,让用户感到自己被赋予权力、知情并掌控自己的人工智能体验。

展望:负责任的人工智能作为商业优势

随着人工智能的发展并进一步嵌入到业务运营中,企业领导者在促进负责任的人工智能方面的作用比以往任何时候都更加重要。透明度和用户代理不仅是道德要求,也是战略优势,使公司能够在人工智能日益定义的环境中处于领先地位。通过拥抱这些支柱,企业领导者(尤其是安全和 IT 领域的领导者)可以确保人工智能应用程序符合组织价值观和用户期望,从而创建可信且有效的系统。

2025 年重要的人工智能趋势
下载 2025 年 AI 候选名单,了解有关重要趋势的更多行动步骤。