ไวยากรณ์ได้รับการรับรอง ISO/IEC 42001: 2023 ซึ่งเป็นการตอกย้ำความมุ่งมั่นในการรับผิดชอบ AI

เผยแพร่แล้ว: 2025-04-15

ที่ไวยากรณ์เรามุ่งมั่นที่จะสร้าง AI ที่สนับสนุนการสื่อสารที่มีประสิทธิภาพและรอบคอบ - โดยไม่ลดทอนความปลอดภัยความเป็นส่วนตัวหรือความไว้วางใจของผู้ใช้ ความมุ่งมั่นดังกล่าวได้ชี้นำวิธีที่เราออกแบบพัฒนาและปรับใช้ความช่วยเหลือด้านการเขียน AI ของเรา ตอนนี้ได้รับการสนับสนุนจากมาตรฐานที่ได้รับการยอมรับในระดับสากล:ไวยากรณ์ได้รับการรับรองอย่างเป็นทางการ ISO/IEC 42001: 2023

เมื่อ AI กลายเป็นศูนย์กลางของวิธีที่เราทำงานเขียนและเชื่อมต่อความต้องการแนวทางที่ชัดเจนเกี่ยวกับการพัฒนาจริยธรรมและการใช้งานไม่เคยยิ่งใหญ่กว่านี้ เข้าสู่ ISO 42001- มาตรฐานสากลครั้งแรกของโลกมุ่งเน้นไปที่การจัดการระบบ AI อย่างรับผิดชอบโดยเฉพาะ

สิ่งที่ ISO/IEC 42001: 2023 คือ - และทำไมมันถึงสำคัญ

ISO 42001 ช่วยให้องค์กรสร้างกรอบการทำงานสำหรับการปกครอง AI ในลักษณะที่ปลอดภัยโปร่งใสและสอดคล้องกับคุณค่าของมนุษย์ การรับรองนี้ตรวจสอบสิ่งที่ไวยากรณ์ได้จัดลำดับความสำคัญตั้งแต่ต้น: การสร้าง AI ที่ช่วยเพิ่มการสื่อสารในขณะที่ประเมินความเสี่ยงเชิงรุกและการปกป้องข้อมูลผู้ใช้ การปฏิบัติตามมาตรฐาน ISO 42001 แสดงให้เห็นว่า AI ของไวยากรณ์คือ:

  • ออกแบบมาอย่างมีจริยธรรมให้สอดคล้องกับคุณค่าของมนุษย์
  • สอดคล้องกับแนวปฏิบัติที่ดีที่สุดและมองไปที่กฎระเบียบที่เกิดขึ้นใหม่
  • ปลอดภัยและเป็นส่วนตัวเพื่อปกป้องข้อมูลที่ละเอียดอ่อน
  • ตรวจสอบความเสี่ยงและผลที่ตามมาอย่างต่อเนื่อง
  • น่าเชื่อถือและเชื่อถือได้สำหรับแอปพลิเคชันองค์กรและผู้ใช้

การรับรองของไวยากรณ์หมายความว่าแนวทางของเราในการตรวจสอบ AI ได้รับการตรวจสอบอย่างอิสระกับกรอบการทำงานที่แข็งแกร่งนี้ทำให้เราเป็นหนึ่งใน บริษัท แรก ๆ ทั่วโลกเพื่อให้บรรลุเหตุการณ์สำคัญนี้

เรียนรู้เพิ่มเติมในกระดาษสีขาว
สำรวจกรอบของเราสำหรับการสร้าง AI ที่ปลอดภัยและรับผิดชอบ

ไวยากรณ์สอดคล้องกับ ISO 42001 อย่างไร

เราได้ฝังหลักการ AI ที่รับผิดชอบไว้ในทุกส่วนของวงจรชีวิตการพัฒนาผลิตภัณฑ์ของเรา นี่คือวิธีที่วิธีการของเราแผนที่ไปยังพื้นที่ควบคุมคีย์ของ ISO 42001:

นโยบายที่จัดลำดับความสำคัญของความรับผิดชอบ

ไวยากรณ์รักษาชุดนโยบาย AI อย่างเป็นทางการซึ่งเป็นแนวทางในการพัฒนาการปรับใช้และการกำกับดูแลระบบ AI ของเรา นโยบายเหล่านี้ได้รับการตรวจสอบเป็นประจำทุกปีและสะท้อนความมุ่งมั่นของเราต่อความปลอดภัยความเป็นส่วนตัวและนวัตกรรมที่เน้นผู้ใช้เป็นศูนย์กลาง เราได้จัดตั้งระบบการจัดการปัญญาประดิษฐ์ (AIMS) และดำเนินการตรวจสอบอิสระเพื่อให้แน่ใจว่ามีความรับผิดชอบ

ทีม AI ที่รับผิดชอบโดยเฉพาะ

เราได้สร้างทีมข้ามสายงานที่ดูแลการกำกับดูแล AI และสร้างความมั่นใจในการจัดแนวกับหลักการทางจริยธรรม บทบาทและความรับผิดชอบถูกกำหนดไว้อย่างชัดเจนภายในโครงสร้างองค์กรของเรา พนักงานทุกคนได้รับการฝึกอบรมอย่างต่อเนื่องด้านจริยธรรม AI ความเป็นส่วนตัวและแนวทางปฏิบัติด้านความปลอดภัย

จัดการทรัพยากร AI อย่างระมัดระวัง

ชุดข้อมูลและเครื่องมือของบุคคลที่สามของเราได้รับการตรวจสอบและปลอดภัยอย่างรอบคอบ เราดูแลการควบคุมการเข้าถึงที่เข้มงวดและห้ามมิให้คู่ค้าใช้เนื้อหาลูกค้าใด ๆ เพื่อฝึกอบรมแบบจำลองของพวกเขา AI Generative ของเราขับเคลื่อนโดยพันธมิตรที่เชื่อถือได้เช่น Microsoft Azure Openai และ OpenAI แต่ข้อมูลลูกค้าไม่เคยแบ่งปันสำหรับการฝึกอบรมแบบจำลอง

ความเสี่ยงเชิงรุกและการประเมินผลกระทบ

เราดำเนินการประเมินความเสี่ยงเฉพาะ AI อย่างละเอียดรวมถึงการทดสอบเป็นทีมสีแดงและการทดสอบที่เป็นปฏิปักษ์เพื่อประเมินความเป็นธรรมความปลอดภัยและอคติ ผู้ใช้มีอำนาจในการรายงานข้อกังวลและเราตรวจสอบเอาต์พุต AI อย่างต่อเนื่องผ่านการประเมินอัตโนมัติและการประเมินของมนุษย์

วิธีการใช้ชีวิตแบบเต็มรูปแบบสำหรับ AI

ระบบ AI ของเราถูกควบคุมในทุกขั้นตอน - จากการออกแบบและการพัฒนาไปจนถึงการปรับใช้และการรื้อถอน ก่อนที่จะเปิดตัวคุณสมบัติใหม่เราทำการทดสอบอย่างกว้างขวางเพื่อให้แน่ใจว่าได้มาตรฐานที่สูงสำหรับคุณภาพการรวมและการใช้งาน

การใช้ข้อมูลที่ปลอดภัยยุติธรรมและโปร่งใส

ไวยากรณ์บังคับใช้การกำกับดูแลที่แข็งแกร่งเหนือข้อมูลที่ใช้ในการสร้าง AI ของเราโดยเน้นคุณภาพความยุติธรรมและความเป็นส่วนตัว ผู้ใช้สามารถควบคุมวิธีการใช้เนื้อหาของพวกเขาและเราไม่เคยขายเนื้อหาผู้ใช้

ข้อมูลที่ชัดเจนและเข้าถึงได้สำหรับผู้มีส่วนได้เสีย

ความโปร่งใสเป็นหลักการสำคัญที่ไวยากรณ์ เราให้คำอธิบายสำหรับคำแนะนำที่สร้างขึ้นโดย AI และเก็บรักษาเอกสารที่ชัดเจนเกี่ยวกับความเป็นส่วนตัวและแนวทางปฏิบัติด้านความปลอดภัยของเราในศูนย์ความน่าเชื่อถือของผู้ใช้ของเรา การสนับสนุนลูกค้าและทีมงานที่ประสบความสำเร็จมีให้เพื่อตอบคำถามที่เกี่ยวข้องกับ AI

การใช้ AI ที่มีมนุษย์เป็นศูนย์กลาง

AI ของไวยากรณ์ได้รับการออกแบบมาเพื่อสนับสนุน - ไม่แทนที่ - ความคิดสร้างสรรค์และการตัดสินของมนุษย์ ผู้ใช้ยังคงควบคุมว่าพวกเขามีส่วนร่วมกับคำแนะนำ AI และระบบของเราถูกสร้างขึ้นด้วยความโปร่งใสและเอเจนซี่ผู้ใช้ในระดับแนวหน้า

พันธมิตรที่รับผิดชอบของบุคคลที่สาม

เราถือผู้ขายและเครื่องประมวลผลย่อยของเราให้อยู่ในมาตรฐานระดับสูงเดียวกันกับที่เรากำหนดไว้สำหรับตัวเราเอง พันธมิตรทั้งหมดได้รับการตรวจสอบความปลอดภัยและการปฏิบัติตามกฎระเบียบประจำปีและเรามีความโปร่งใสเกี่ยวกับที่ใช้โมเดล AI ของบุคคลที่สาม Grammarly ถือการรับรองระดับองค์กรรวมถึง SOC 2 (ประเภท 2), ISO 27001 และ ISO 27701 และเป็นไปตาม HIPAA, CCPA, GDPR และอีกมากมาย

การสร้าง AI คุณสามารถไว้วางใจได้

การได้รับการรับรอง ISO/IEC 42001: 2023 เป็นมากกว่าเหตุการณ์สำคัญ - มันเป็นภาพสะท้อนของความสนใจที่เราใส่ใจเกี่ยวกับการสร้าง AI อย่างรับผิดชอบ ทีม AI ที่รับผิดชอบของเราทำให้มั่นใจได้ว่าความปลอดภัยความเป็นธรรมและความโปร่งใสจะถูกฝังอยู่ในทุกรุ่นที่เราสร้างและประสบการณ์ผู้ใช้ทุกคนที่เราส่งมอบ

เรามุ่งมั่นที่จะช่วยเหลือบุคคลและธุรกิจอย่างมั่นใจใช้ AI เพื่อสื่อสารอย่างมีประสิทธิภาพมากขึ้น - โดยไม่ลดทอนความไว้วางใจ

เรียนรู้เพิ่มเติมเกี่ยวกับวิธีการของเราที่ Grammarly.com/responsible-ai และตรวจสอบกระดาษสีขาวของเราเพื่อสำรวจการปฏิบัติ AI ที่รับผิดชอบของเราในเชิงลึก