Grammarly mendapatkan sertifikasi ISO/IEC 42001: 2023, memperkuat komitmen untuk AI yang bertanggung jawab
Diterbitkan: 2025-04-15Di Grammarly, kami berkomitmen untuk membangun AI yang mendukung komunikasi yang efektif dan bijaksana - tanpa mengorbankan keselamatan, privasi, atau kepercayaan pengguna. Komitmen itu selalu membimbing cara kami merancang, mengembangkan, dan menggunakan bantuan penulisan bertenaga AI kami. Sekarang, ini didukung oleh standar yang diakui secara internasional:Grammarly secara resmi ISO/IEC 42001: 2023 bersertifikat.
Ketika AI menjadi semakin sentral dalam cara kita bekerja, menulis, dan menghubungkan, kebutuhan akan pedoman yang jelas seputar pengembangan dan penggunaan etisnya tidak pernah lebih besar. MasukkanISO 42001- Standar internasional pertama di dunia berfokus secara khusus pada pengelolaan sistem AI secara bertanggung jawab.
What ISO/IEC 42001: 2023 adalah - dan mengapa itu penting
ISO 42001 membantu organisasi membangun kerangka kerja untuk mengatur AI dengan cara yang aman, transparan, dan selaras dengan nilai -nilai manusia. Sertifikasi ini memvalidasi apa yang telah diprioritaskan secara tata bahasa sejak awal: membangun AI yang meningkatkan komunikasi sambil secara proaktif menilai risiko dan melindungi data pengguna. Kepatuhan ISO 42001 menunjukkan bahwa AI Grammarly adalah:
- Secara etis dirancanguntuk menyelaraskan dengan nilai -nilai manusia
- Selaras denganpraktik terbaik danmata terhadap peraturan yang muncul
- Aman dan sadar privasiuntuk melindungi data sensitif
- Terus dipantauuntuk risiko dan konsekuensi yang tidak diinginkan
- Dapat dipercaya dan dapat diandalkanuntuk aplikasi perusahaan dan pengguna
Sertifikasi Grammarly berarti pendekatan kami terhadap AI telah diverifikasi secara independen terhadap kerangka kerja yang kuat ini - menjadikan kami salah satu perusahaan pertama secara global untuk mencapai tonggak sejarah ini.
Bagaimana secara tata bahasa selaras dengan ISO 42001
Kami telah menanamkan prinsip -prinsip AI yang bertanggung jawab ke dalam setiap bagian dari siklus pengembangan produk kami. Begini cara pendekatan kami memetakan ke area kontrol utama ISO 42001:
Kebijakan yang memprioritaskan tanggung jawab
Grammarly mempertahankan serangkaian kebijakan AI formal yang memandu pengembangan, penyebaran, dan pengawasan sistem AI kami. Kebijakan-kebijakan ini ditinjau setiap tahun dan mencerminkan komitmen kami terhadap keselamatan, privasi, dan inovasi yang berpusat pada pengguna. Kami telah mendirikan sistem manajemen kecerdasan buatan (AIMS) dan melakukan audit independen untuk memastikan akuntabilitas.
Tim AI yang bertanggung jawab yang berdedikasi
Kami telah membangun tim lintas fungsi yang mengawasi tata kelola AI dan memastikan keselarasan dengan prinsip-prinsip etika. Peran dan tanggung jawab didefinisikan dengan jelas dalam struktur organisasi kami. Semua karyawan menerima pelatihan berkelanjutan dalam etika AI, privasi, dan praktik keamanan.

Sumber Daya AI yang dikelola dengan cermat
Kumpulan data dan alat pihak ketiga kami ditinjau dan diamankan dengan cermat. Kami mempertahankan kontrol akses yang ketat dan melarang mitra menggunakan konten pelanggan apa pun untuk melatih model mereka. AI generatif kami ditenagai oleh mitra tepercaya seperti Microsoft Azure Openai dan Openai, tetapi data pelanggan tidak pernah dibagikan untuk pelatihan model.
Penilaian risiko dan dampak proaktif
Kami melakukan penilaian risiko spesifik AI menyeluruh, termasuk tim merah dan pengujian permusuhan, untuk mengevaluasi keadilan, keselamatan, dan bias. Pengguna diberdayakan untuk melaporkan masalah, dan kami terus memantau output AI melalui evaluasi otomatis dan manusia.
Pendekatan siklus hidup penuh ke AI
Sistem AI kami diatur di setiap tahap - dari desain dan pengembangan hingga penyebaran dan penonaktifan. Sebelum merilis fitur baru, kami menjalankan pengujian ekstensif untuk memastikannya memenuhi standar tinggi untuk kualitas, inklusivitas, dan kegunaan.
Penggunaan data yang aman, adil, dan transparan
Secara tata bahasa menegakkan tata kelola yang kuat atas data yang digunakan untuk membangun AI kami, menekankan kualitas, keadilan, dan privasi. Pengguna dapat mengontrol bagaimana konten mereka digunakan, dan kami tidak pernah menjual konten pengguna.
Informasi yang jelas dan mudah diakses untuk pemangku kepentingan
Transparansi adalah prinsip inti di Grammarly. Kami memberikan penjelasan untuk saran yang dihasilkan AI dan memelihara dokumentasi yang jelas di sekitar praktik privasi dan keamanan kami di Pusat Kepercayaan Pengguna kami. Dukungan pelanggan yang berdedikasi dan tim sukses tersedia untuk menjawab pertanyaan terkait AI.
Penggunaan AI yang berpusat pada manusia
AI Grammarly dirancang untuk mendukung - bukan menggantikan - kreativitas dan penilaian manusia. Pengguna selalu tetap mengendalikan bagaimana mereka terlibat dengan saran AI, dan sistem kami dibangun dengan transparansi dan agen pengguna di garis depan.
Kemitraan pihak ketiga yang bertanggung jawab
Kami memegang vendor dan subprosesor kami dengan standar tinggi yang sama yang kami tetapkan untuk diri kami sendiri. Semua mitra menjalani ulasan keamanan dan kepatuhan tahunan, dan kami transparan tentang di mana model AI pihak ketiga digunakan. Grammarly memegang sertifikasi kelas perusahaan termasuk SOC 2 (Tipe 2), ISO 27001, dan ISO 27701, dan sesuai dengan HIPAA, CCPA, GDPR, dan banyak lagi.
Membangun AI yang bisa Anda percayai
Mencapai sertifikasi ISO/IEC 42001: 2023 lebih dari tonggak - ini adalah cerminan seberapa dalam kita peduli membangun AI secara bertanggung jawab. Tim AI kami yang bertanggung jawab memastikan bahwa keamanan, keadilan, dan transparansi tertanam dalam setiap model yang kami buat dan setiap pengalaman pengguna yang kami berikan.
Kami berkomitmen untuk membantu individu dan bisnis dengan percaya diri menggunakan AI untuk berkomunikasi lebih efektif - tanpa berkompromi dengan kepercayaan.
Pelajari lebih lanjut tentang pendekatan kami di grammarly.com/responsible-ai, dan periksa buku putih kami untuk menjelajahi praktik AI kami yang bertanggung jawab secara mendalam.
