Грамматика зарабатывает сертификацию ISO/IEC 42001: 2023, усиливая приверженность ответственному ИИ

Опубликовано: 2025-04-15

В Grammarly мы стремимся создать ИИ, который поддерживает эффективное, вдумчивое общение, не представляя компромисса в области безопасности, конфиденциальности или доверия пользователей. Это обязательство всегда руководствовалось тем, как мы разрабатываем, разрабатываем и развертываем нашу помощь в письменной форме. Теперь он подкреплен всемирно признанным стандартом:грамматика официально является сертифицированным ISO/IEC 42001: 2023.

По мере того, как ИИ становится все более важным для того, как мы работаем, пишем и связываем, необходимость четких руководящих принципов, связанных с его этическим развитием и использованием, никогда не была больше. ВведитеISO 42001- первый в мире международный стандарт, специально предназначенный для ответственного управления системами ИИ.

Что такое ISO/IEC 42001: 2023 - и почему это важно

ISO 42001 помогает организациям создать основу для управления ИИ таким образом, который является безопасным, прозрачным и соответствующим человеческим ценностям. Эта сертификация подтверждает то, что грамматика расставила приоритеты с самого начала: создание ИИ, которое усиливает связь, в то же время активно оценивая риск и защищает пользовательские данные. Соответствие ISO 42001 показывает, что AI Grammarly есть:

  • Этически спроектированныйдля соответствия человеческим ценностям
  • Выровнен случшими практиками иобращением на новые правила
  • Безопасная и конфиденциальнаядля защиты конфиденциальных данных
  • Непрерывно контролируетсяна предмет рисков и непреднамеренных последствий
  • Достоверные и надежныедля предприятий и пользовательских приложений

Сертификация Grammarly означает, что наш подход к ИИ был независимо проверен на эту надежную структуру - что приводит нас к одной из первых компаний по всему миру для достижения этой вехи.

Узнайте больше в белой бумаге
Исследуйте нашу структуру для строительства безопасного и ответственного ИИ

Как грамматика выравнивается с ISO 42001

Мы встроили ответственные принципы ИИ в каждую часть нашего жизненного цикла разработки продукта. Вот как наше подход карты в области управления ключами ISO 42001:

Политики, которые приоритет ответственности

Грамматика поддерживает официальный набор политик ИИ, которые направляют разработку, развертывание и надзор за нашими системами ИИ. Эти политики рассматриваются ежегодно и отражают нашу приверженность безопасности, конфиденциальности и ориентированным на пользователя инноваций. Мы создали систему управления искусственным интеллектом (AIMS) и проводим независимые аудиты для обеспечения ответственности.

Специальная ответственная команда ИИ

Мы создали межфункциональную команду, которая курирует управление ИИ и обеспечивает согласованность с этическими принципами. Роли и обязанности четко определены в нашей организационной структуре. Все сотрудники проходят постоянное обучение по этике ИИ, конфиденциальности и практике безопасности.

Тщательно управляемые ресурсы ИИ

Наши наборы данных и сторонние инструменты тщательно рассмотрены и защищены. Мы поддерживаем строгие элементы управления доступа и запрещаем партнерам использовать любой контент клиентов для обучения их моделей. Наш генеративный ИИ работает от доверенных партнеров, таких как Microsoft Azure Openai и Openai, но данные клиентов никогда не передаются для модельного обучения.

Упреждающие оценки риска и воздействия

Мы проводим тщательные оценки рисков, специфичные для ИИ, в том числе красное командное и состязательное тестирование, для оценки справедливости, безопасности и предвзятости. Пользователи уполномочены сообщать о проблемах, и мы постоянно отслеживаем результаты ИИ с помощью автоматической и человеческой оценки.

Полный жизненный цикл подход к ИИ

Наши системы ИИ регулируются на каждом этапе - от проектирования и разработки до развертывания и вывода вывода. Прежде чем выпустить новую функцию, мы проводим обширные испытания, чтобы обеспечить его высокие стандарты для качества, инклюзивности и удобства использования.

Безопасное, справедливое и прозрачное использование данных

Грамматика обеспечивает сильное управление по сравнению с данными, используемыми для создания нашего ИИ, подчеркивая качество, справедливость и конфиденциальность. Пользователи могут контролировать, как используется их контент, и мы никогда не продаем пользовательский контент.

Ясная, доступная информация для заинтересованных сторон

Прозрачность является основным принципом в грамматике. Мы предоставляем объяснения для предложений, сгенерированных AI, и сохраняем четкую документацию о нашей практике конфиденциальности и безопасности в нашем трастовом центре пользователя. Выделенные команды поддержки и успеха клиентов доступны, чтобы ответить на вопросы, связанные с искусственным интеллектом.

Использование ИИ, ориентированное на человека

ИИ Grammarly предназначен для поддержки, а не замены, - числа творчества и суждения. Пользователи всегда контролируют, как они взаимодействуют с предложениями искусственного интеллекта, и наши системы создаются с прозрачностью и пользовательским агентством на переднем крае.

Ответственные сторонние партнерства

Мы держим наших поставщиков и подпроцессоров в тех же высоких стандартах, которые мы устанавливаем для себя. Все партнеры проходят ежегодные обзоры безопасности и соответствия, и мы прозрачны в отношении того, где используются сторонние модели ИИ. Грамматика содержит сертификаты корпоративного уровня, включая SOC 2 (тип 2), ISO 27001 и ISO 27701, и соответствует HIPAA, CCPA, GDPR и многим другим.

Создание ИИ вы можете доверять

Достижение сертификации ISO/IEC 42001: 2023 - это больше, чем веха - это отражение того, как глубоко мы заботимся о ответственности построения ИИ. Наша ответственная команда искусственного интеллекта гарантирует, что безопасность, справедливость и прозрачность встроены в каждую модель, которую мы создаем, и каждый пользовательский опыт, который мы предоставляем.

Мы стремимся помогать отдельным лицам и предприятиям уверенно использовать ИИ для более эффективного общения, не представляя компромисса по доверию.

Узнайте больше о нашем подходе на grammarly.com/responsible-ai и ознакомьтесь с нашей белой книгой, чтобы глубоко изучить наши ответственные практики искусственного интеллекта.