ไวยากรณ์ได้รับการรับรอง ISO/IEC 42001: 2023 ซึ่งเป็นการตอกย้ำความมุ่งมั่นในการรับผิดชอบ AI
เผยแพร่แล้ว: 2025-04-15ที่ไวยากรณ์เรามุ่งมั่นที่จะสร้าง AI ที่สนับสนุนการสื่อสารที่มีประสิทธิภาพและรอบคอบ - โดยไม่ลดทอนความปลอดภัยความเป็นส่วนตัวหรือความไว้วางใจของผู้ใช้ ความมุ่งมั่นดังกล่าวได้ชี้นำวิธีที่เราออกแบบพัฒนาและปรับใช้ความช่วยเหลือด้านการเขียน AI ของเรา ตอนนี้ได้รับการสนับสนุนจากมาตรฐานที่ได้รับการยอมรับในระดับสากล:ไวยากรณ์ได้รับการรับรองอย่างเป็นทางการ ISO/IEC 42001: 2023
เมื่อ AI กลายเป็นศูนย์กลางของวิธีที่เราทำงานเขียนและเชื่อมต่อความต้องการแนวทางที่ชัดเจนเกี่ยวกับการพัฒนาจริยธรรมและการใช้งานไม่เคยยิ่งใหญ่กว่านี้ เข้าสู่ ISO 42001- มาตรฐานสากลครั้งแรกของโลกมุ่งเน้นไปที่การจัดการระบบ AI อย่างรับผิดชอบโดยเฉพาะ
สิ่งที่ ISO/IEC 42001: 2023 คือ - และทำไมมันถึงสำคัญ
ISO 42001 ช่วยให้องค์กรสร้างกรอบการทำงานสำหรับการปกครอง AI ในลักษณะที่ปลอดภัยโปร่งใสและสอดคล้องกับคุณค่าของมนุษย์ การรับรองนี้ตรวจสอบสิ่งที่ไวยากรณ์ได้จัดลำดับความสำคัญตั้งแต่ต้น: การสร้าง AI ที่ช่วยเพิ่มการสื่อสารในขณะที่ประเมินความเสี่ยงเชิงรุกและการปกป้องข้อมูลผู้ใช้ การปฏิบัติตามมาตรฐาน ISO 42001 แสดงให้เห็นว่า AI ของไวยากรณ์คือ:
- ออกแบบมาอย่างมีจริยธรรมให้สอดคล้องกับคุณค่าของมนุษย์
- สอดคล้องกับแนวปฏิบัติที่ดีที่สุดและมองไปที่กฎระเบียบที่เกิดขึ้นใหม่
- ปลอดภัยและเป็นส่วนตัวเพื่อปกป้องข้อมูลที่ละเอียดอ่อน
- ตรวจสอบความเสี่ยงและผลที่ตามมาอย่างต่อเนื่อง
- น่าเชื่อถือและเชื่อถือได้สำหรับแอปพลิเคชันองค์กรและผู้ใช้
การรับรองของไวยากรณ์หมายความว่าแนวทางของเราในการตรวจสอบ AI ได้รับการตรวจสอบอย่างอิสระกับกรอบการทำงานที่แข็งแกร่งนี้ทำให้เราเป็นหนึ่งใน บริษัท แรก ๆ ทั่วโลกเพื่อให้บรรลุเหตุการณ์สำคัญนี้
ไวยากรณ์สอดคล้องกับ ISO 42001 อย่างไร
เราได้ฝังหลักการ AI ที่รับผิดชอบไว้ในทุกส่วนของวงจรชีวิตการพัฒนาผลิตภัณฑ์ของเรา นี่คือวิธีที่วิธีการของเราแผนที่ไปยังพื้นที่ควบคุมคีย์ของ ISO 42001:
นโยบายที่จัดลำดับความสำคัญของความรับผิดชอบ
ไวยากรณ์รักษาชุดนโยบาย AI อย่างเป็นทางการซึ่งเป็นแนวทางในการพัฒนาการปรับใช้และการกำกับดูแลระบบ AI ของเรา นโยบายเหล่านี้ได้รับการตรวจสอบเป็นประจำทุกปีและสะท้อนความมุ่งมั่นของเราต่อความปลอดภัยความเป็นส่วนตัวและนวัตกรรมที่เน้นผู้ใช้เป็นศูนย์กลาง เราได้จัดตั้งระบบการจัดการปัญญาประดิษฐ์ (AIMS) และดำเนินการตรวจสอบอิสระเพื่อให้แน่ใจว่ามีความรับผิดชอบ
ทีม AI ที่รับผิดชอบโดยเฉพาะ
เราได้สร้างทีมข้ามสายงานที่ดูแลการกำกับดูแล AI และสร้างความมั่นใจในการจัดแนวกับหลักการทางจริยธรรม บทบาทและความรับผิดชอบถูกกำหนดไว้อย่างชัดเจนภายในโครงสร้างองค์กรของเรา พนักงานทุกคนได้รับการฝึกอบรมอย่างต่อเนื่องด้านจริยธรรม AI ความเป็นส่วนตัวและแนวทางปฏิบัติด้านความปลอดภัย

จัดการทรัพยากร AI อย่างระมัดระวัง
ชุดข้อมูลและเครื่องมือของบุคคลที่สามของเราได้รับการตรวจสอบและปลอดภัยอย่างรอบคอบ เราดูแลการควบคุมการเข้าถึงที่เข้มงวดและห้ามมิให้คู่ค้าใช้เนื้อหาลูกค้าใด ๆ เพื่อฝึกอบรมแบบจำลองของพวกเขา AI Generative ของเราขับเคลื่อนโดยพันธมิตรที่เชื่อถือได้เช่น Microsoft Azure Openai และ OpenAI แต่ข้อมูลลูกค้าไม่เคยแบ่งปันสำหรับการฝึกอบรมแบบจำลอง
ความเสี่ยงเชิงรุกและการประเมินผลกระทบ
เราดำเนินการประเมินความเสี่ยงเฉพาะ AI อย่างละเอียดรวมถึงการทดสอบเป็นทีมสีแดงและการทดสอบที่เป็นปฏิปักษ์เพื่อประเมินความเป็นธรรมความปลอดภัยและอคติ ผู้ใช้มีอำนาจในการรายงานข้อกังวลและเราตรวจสอบเอาต์พุต AI อย่างต่อเนื่องผ่านการประเมินอัตโนมัติและการประเมินของมนุษย์
วิธีการใช้ชีวิตแบบเต็มรูปแบบสำหรับ AI
ระบบ AI ของเราถูกควบคุมในทุกขั้นตอน - จากการออกแบบและการพัฒนาไปจนถึงการปรับใช้และการรื้อถอน ก่อนที่จะเปิดตัวคุณสมบัติใหม่เราทำการทดสอบอย่างกว้างขวางเพื่อให้แน่ใจว่าได้มาตรฐานที่สูงสำหรับคุณภาพการรวมและการใช้งาน
การใช้ข้อมูลที่ปลอดภัยยุติธรรมและโปร่งใส
ไวยากรณ์บังคับใช้การกำกับดูแลที่แข็งแกร่งเหนือข้อมูลที่ใช้ในการสร้าง AI ของเราโดยเน้นคุณภาพความยุติธรรมและความเป็นส่วนตัว ผู้ใช้สามารถควบคุมวิธีการใช้เนื้อหาของพวกเขาและเราไม่เคยขายเนื้อหาผู้ใช้
ข้อมูลที่ชัดเจนและเข้าถึงได้สำหรับผู้มีส่วนได้เสีย
ความโปร่งใสเป็นหลักการสำคัญที่ไวยากรณ์ เราให้คำอธิบายสำหรับคำแนะนำที่สร้างขึ้นโดย AI และเก็บรักษาเอกสารที่ชัดเจนเกี่ยวกับความเป็นส่วนตัวและแนวทางปฏิบัติด้านความปลอดภัยของเราในศูนย์ความน่าเชื่อถือของผู้ใช้ของเรา การสนับสนุนลูกค้าและทีมงานที่ประสบความสำเร็จมีให้เพื่อตอบคำถามที่เกี่ยวข้องกับ AI
การใช้ AI ที่มีมนุษย์เป็นศูนย์กลาง
AI ของไวยากรณ์ได้รับการออกแบบมาเพื่อสนับสนุน - ไม่แทนที่ - ความคิดสร้างสรรค์และการตัดสินของมนุษย์ ผู้ใช้ยังคงควบคุมว่าพวกเขามีส่วนร่วมกับคำแนะนำ AI และระบบของเราถูกสร้างขึ้นด้วยความโปร่งใสและเอเจนซี่ผู้ใช้ในระดับแนวหน้า
พันธมิตรที่รับผิดชอบของบุคคลที่สาม
เราถือผู้ขายและเครื่องประมวลผลย่อยของเราให้อยู่ในมาตรฐานระดับสูงเดียวกันกับที่เรากำหนดไว้สำหรับตัวเราเอง พันธมิตรทั้งหมดได้รับการตรวจสอบความปลอดภัยและการปฏิบัติตามกฎระเบียบประจำปีและเรามีความโปร่งใสเกี่ยวกับที่ใช้โมเดล AI ของบุคคลที่สาม Grammarly ถือการรับรองระดับองค์กรรวมถึง SOC 2 (ประเภท 2), ISO 27001 และ ISO 27701 และเป็นไปตาม HIPAA, CCPA, GDPR และอีกมากมาย
การสร้าง AI คุณสามารถไว้วางใจได้
การได้รับการรับรอง ISO/IEC 42001: 2023 เป็นมากกว่าเหตุการณ์สำคัญ - มันเป็นภาพสะท้อนของความสนใจที่เราใส่ใจเกี่ยวกับการสร้าง AI อย่างรับผิดชอบ ทีม AI ที่รับผิดชอบของเราทำให้มั่นใจได้ว่าความปลอดภัยความเป็นธรรมและความโปร่งใสจะถูกฝังอยู่ในทุกรุ่นที่เราสร้างและประสบการณ์ผู้ใช้ทุกคนที่เราส่งมอบ
เรามุ่งมั่นที่จะช่วยเหลือบุคคลและธุรกิจอย่างมั่นใจใช้ AI เพื่อสื่อสารอย่างมีประสิทธิภาพมากขึ้น - โดยไม่ลดทอนความไว้วางใจ
เรียนรู้เพิ่มเติมเกี่ยวกับวิธีการของเราที่ Grammarly.com/responsible-ai และตรวจสอบกระดาษสีขาวของเราเพื่อสำรวจการปฏิบัติ AI ที่รับผิดชอบของเราในเชิงลึก
