從原則到實踐:負責任的人工智慧之路
已發表: 2024-07-29人工智慧正在透過提高我們日常任務的效率和推進技術新領域來迅速改變我們的社會。然而,人工智慧的快速採用引發了對其影響和安全性的重要討論。
為了負責任地對待人工智慧,請考慮人工智慧和汽車之間的一些相似之處。
是什麼讓汽車安全?這不僅僅是安全帶、交通法規或碰撞測試——儘管它們都有助於整體安全。一系列製造流程、功能、測試、治理、教育和社會規範使數十億人能夠每天安全地使用汽車。
汽車和人工智慧很相似。在 Grammarly,我們將負責任的人工智慧視為整個人工智慧管道(從概念到開發再到部署)的一系列制衡。沒有單一因素或控制可以使人工智慧變得負責任,但整個組織採用的標準和實踐可以建立一種全面的方法來實現負責任的人工智慧。
什麼是負責任的人工智慧?
負責任的人工智慧是以正念、道德健全且符合人類價值觀的方式創建和利用人工智慧。這是關於以一種優先考慮預期影響的方式來控制人工智慧,同時減少不必要的行為或結果。這需要充分了解我們所掌握的人工智慧技術的能力,識別潛在的陷阱,選擇正確的用例,並建立風險保護措施。
負責任的人工智慧在人工智慧管道的不同階段採取不同的形式。負責任地部署人工智慧可能需要與實施現有人工智慧模型或從頭開始建立基於人工智慧的技術所需的原則不同的原則。設定明確的期望並為人工智慧在人工智慧管道的每個階段運行建立路標至關重要。
考慮到這一點,企業如何確保在實施負責任的人工智慧時走在正確的軌道上?
打造負責任的人工智慧框架
邁向負責任的人工智慧之路包括了解技術、考慮其預期影響以及減輕潛在風險,例如意外行為、幻覺或產生危險內容。這些步驟可確保 AI 行為符合您公司的價值觀。
考慮將人工智慧嵌入其業務的公司應考慮人工智慧可能如何影響其品牌、用戶或決策結果。在組織中建立負責任的人工智慧框架可以幫助指導建構或採用人工智慧的決策。
美國國家標準與技術研究所發布的人工智慧風險管理框架是這項努力的寶貴資源。該框架可幫助組織認識和管理與生成式人工智慧相關的風險,並指導公司製定負責任的人工智慧原則。
Grammarly 負責任的人工智慧標準
在 Grammarly,我們每天都會創建和使用基於人工智慧的解決方案。負責任的人工智慧是我們產品開發和卓越營運的基石。我們擁有一支專門的負責任的人工智慧團隊,由研究人員、分析語言學家、機器學習工程師和安全專家組成,他們批判性地思考我們試圖為我們的公司、我們的用戶和我們的產品實現的目標。
隨著我們公司的發展,我們制定了自己負責任的人工智慧標準:
- 透明度:使用者應該能夠知道他們何時與人工智慧互動。這包括識別人工智慧生成的內容並提供有關人工智慧訓練方法的詳細資訊。這將有助於用戶了解人工智慧如何做出決策。了解人工智慧的限制和能力使用戶能夠對其應用做出更明智的決策。
- 公平性:人工智慧公平性不僅僅是 Grammarly 的一個流行詞;這是一個指導原則。透過評估人工智慧輸出的工具和嚴格的敏感度風險評估,Grammarly 主動減少偏見和攻擊性內容。這種保證尊重、包容性和公平的承諾推動著每一次用戶互動。
- 使用者代理:真正的控制權掌握在使用者手中。 Grammarly 賦予使用者塑造與人工智慧互動的能力。使用者擁有最終決定權——無論他們選擇接受寫作建議還是決定他們的內容是否訓練模型。這確保人工智慧放大而不是覆蓋他們的聲音。
- 問責制:Grammarly 認識到濫用的可能性,直接面對人工智慧的挑戰。 Grammarly 透過全面的偏見測試以及在整個開發過程中聘用我們負責任的 AI 團隊,確保對其 AI 輸出負責。負責任的人工智慧是公司結構的一部分,確保人工智慧是賦權的工具,而不是錯誤或傷害的根源。
- 隱私與安全: Grammarly 的負責任人工智慧方法堅定地致力於使用者隱私和安全。我們不會出售用戶資料或允許第三方存取用戶資料用於廣告或培訓。嚴格遵守法律、監管和內部標準來支持這項承諾,確保所有人工智慧開發和培訓保持最高的隱私和安全措施。
邁向更負責任的未來
為人工智慧技術創造一個負責任的環境需要外部利害關係人的共同努力——從科技業到監管機構再到民族國家。為了負責任地使用人工智慧,我們必須承認並解決固有偏見,努力提高人工智慧決策過程的透明度,並確保使用者擁有必要的知識來就其使用做出明智的決策。
接受這些原則對於釋放人工智慧的全部潛力並降低其潛在風險至關重要。這種集體努力將為人工智慧技術創新、公平和可靠的未來鋪平道路。