Грамматика зарабатывает сертификацию ISO/IEC 42001: 2023, усиливая приверженность ответственному ИИ
Опубликовано: 2025-04-15В Grammarly мы стремимся создать ИИ, который поддерживает эффективное, вдумчивое общение, не представляя компромисса в области безопасности, конфиденциальности или доверия пользователей. Это обязательство всегда руководствовалось тем, как мы разрабатываем, разрабатываем и развертываем нашу помощь в письменной форме. Теперь он подкреплен всемирно признанным стандартом:грамматика официально является сертифицированным ISO/IEC 42001: 2023.
По мере того, как ИИ становится все более важным для того, как мы работаем, пишем и связываем, необходимость четких руководящих принципов, связанных с его этическим развитием и использованием, никогда не была больше. ВведитеISO 42001- первый в мире международный стандарт, специально предназначенный для ответственного управления системами ИИ.
Что такое ISO/IEC 42001: 2023 - и почему это важно
ISO 42001 помогает организациям создать основу для управления ИИ таким образом, который является безопасным, прозрачным и соответствующим человеческим ценностям. Эта сертификация подтверждает то, что грамматика расставила приоритеты с самого начала: создание ИИ, которое усиливает связь, в то же время активно оценивая риск и защищает пользовательские данные. Соответствие ISO 42001 показывает, что AI Grammarly есть:
- Этически спроектированныйдля соответствия человеческим ценностям
- Выровнен случшими практиками иобращением на новые правила
- Безопасная и конфиденциальнаядля защиты конфиденциальных данных
- Непрерывно контролируетсяна предмет рисков и непреднамеренных последствий
- Достоверные и надежныедля предприятий и пользовательских приложений
Сертификация Grammarly означает, что наш подход к ИИ был независимо проверен на эту надежную структуру - что приводит нас к одной из первых компаний по всему миру для достижения этой вехи.
Как грамматика выравнивается с ISO 42001
Мы встроили ответственные принципы ИИ в каждую часть нашего жизненного цикла разработки продукта. Вот как наше подход карты в области управления ключами ISO 42001:
Политики, которые приоритет ответственности
Грамматика поддерживает официальный набор политик ИИ, которые направляют разработку, развертывание и надзор за нашими системами ИИ. Эти политики рассматриваются ежегодно и отражают нашу приверженность безопасности, конфиденциальности и ориентированным на пользователя инноваций. Мы создали систему управления искусственным интеллектом (AIMS) и проводим независимые аудиты для обеспечения ответственности.
Специальная ответственная команда ИИ
Мы создали межфункциональную команду, которая курирует управление ИИ и обеспечивает согласованность с этическими принципами. Роли и обязанности четко определены в нашей организационной структуре. Все сотрудники проходят постоянное обучение по этике ИИ, конфиденциальности и практике безопасности.
Тщательно управляемые ресурсы ИИ
Наши наборы данных и сторонние инструменты тщательно рассмотрены и защищены. Мы поддерживаем строгие элементы управления доступа и запрещаем партнерам использовать любой контент клиентов для обучения их моделей. Наш генеративный ИИ работает от доверенных партнеров, таких как Microsoft Azure Openai и Openai, но данные клиентов никогда не передаются для модельного обучения.

Упреждающие оценки риска и воздействия
Мы проводим тщательные оценки рисков, специфичные для ИИ, в том числе красное командное и состязательное тестирование, для оценки справедливости, безопасности и предвзятости. Пользователи уполномочены сообщать о проблемах, и мы постоянно отслеживаем результаты ИИ с помощью автоматической и человеческой оценки.
Полный жизненный цикл подход к ИИ
Наши системы ИИ регулируются на каждом этапе - от проектирования и разработки до развертывания и вывода вывода. Прежде чем выпустить новую функцию, мы проводим обширные испытания, чтобы обеспечить его высокие стандарты для качества, инклюзивности и удобства использования.
Безопасное, справедливое и прозрачное использование данных
Грамматика обеспечивает сильное управление по сравнению с данными, используемыми для создания нашего ИИ, подчеркивая качество, справедливость и конфиденциальность. Пользователи могут контролировать, как используется их контент, и мы никогда не продаем пользовательский контент.
Ясная, доступная информация для заинтересованных сторон
Прозрачность является основным принципом в грамматике. Мы предоставляем объяснения для предложений, сгенерированных AI, и сохраняем четкую документацию о нашей практике конфиденциальности и безопасности в нашем трастовом центре пользователя. Выделенные команды поддержки и успеха клиентов доступны, чтобы ответить на вопросы, связанные с искусственным интеллектом.
Использование ИИ, ориентированное на человека
ИИ Grammarly предназначен для поддержки, а не замены, - числа творчества и суждения. Пользователи всегда контролируют, как они взаимодействуют с предложениями искусственного интеллекта, и наши системы создаются с прозрачностью и пользовательским агентством на переднем крае.
Ответственные сторонние партнерства
Мы держим наших поставщиков и подпроцессоров в тех же высоких стандартах, которые мы устанавливаем для себя. Все партнеры проходят ежегодные обзоры безопасности и соответствия, и мы прозрачны в отношении того, где используются сторонние модели ИИ. Грамматика содержит сертификаты корпоративного уровня, включая SOC 2 (тип 2), ISO 27001 и ISO 27701, и соответствует HIPAA, CCPA, GDPR и многим другим.
Создание ИИ вы можете доверять
Достижение сертификации ISO/IEC 42001: 2023 - это больше, чем веха - это отражение того, как глубоко мы заботимся о ответственности построения ИИ. Наша ответственная команда искусственного интеллекта гарантирует, что безопасность, справедливость и прозрачность встроены в каждую модель, которую мы создаем, и каждый пользовательский опыт, который мы предоставляем.
Мы стремимся помогать отдельным лицам и предприятиям уверенно использовать ИИ для более эффективного общения, не представляя компромисса по доверию.
Узнайте больше о нашем подходе на grammarly.com/responsible-ai и ознакомьтесь с нашей белой книгой, чтобы глубоко изучить наши ответственные практики искусственного интеллекта.
