De los principios a la práctica: el camino hacia una IA responsable
Publicado: 2024-07-29La inteligencia artificial está transformando rápidamente nuestra sociedad al mejorar la eficiencia en nuestras tareas diarias y avanzar en nuevas fronteras en tecnología. Sin embargo, la rápida adopción de la IA genera debates esenciales sobre sus impactos y seguridad.
Para abordar la IA de manera responsable, considere algunos paralelismos entre la IA y el automóvil.
¿Qué hace que los automóviles sean seguros? No se trata sólo de los cinturones de seguridad, las leyes de tránsito o las pruebas de choque, aunque todos contribuyen a su seguridad general. Una constelación de procesos de fabricación, características, pruebas, gobernanza, educación y normas sociales permite que miles de millones de personas utilicen automóviles de forma segura a diario.
Los coches y la IA son similares. En Grammarly, pensamos en la IA responsable como una serie de controles y equilibrios a lo largo de todo el proceso de la IA, desde la concepción hasta el desarrollo y la implementación. No existe un factor o control único que haga que la IA sea responsable, pero los estándares y prácticas adoptados en toda una organización pueden establecer un enfoque integral hacia la IA responsable.
¿Qué es la IA responsable?
La IA responsable consiste en crear y utilizar inteligencia artificial de una manera consciente, moralmente sólida y alineada con los valores humanos. Se trata de controlar la IA de una manera que priorice el impacto deseado y al mismo tiempo disminuya el comportamiento o los resultados no deseados. Esto requiere ser plenamente conscientes de las capacidades de la tecnología de IA a nuestra disposición, identificar los posibles obstáculos, seleccionar los casos de uso correctos e instituir protecciones contra los riesgos.
La IA responsable adopta diferentes formas en diferentes etapas dentro del proceso de IA. La implementación responsable de la IA puede requerir principios diferentes a los necesarios para implementar un modelo de IA existente o para construir tecnología basada en IA desde cero. Es esencial establecer expectativas claras y establecer pautas para que su IA opere en cada etapa del proceso de IA.
Teniendo esto en cuenta, ¿cómo pueden las empresas asegurarse de que van por el camino correcto a la hora de implementar una IA responsable?
Elaboración de marcos de IA responsables
El camino hacia una IA responsable implica comprender la tecnología, considerar su impacto previsto y mitigar riesgos potenciales, como comportamientos no deseados, alucinaciones o generación de contenido peligroso. Estos pasos garantizan que el comportamiento de la IA se alinee con los valores de su empresa.
Las empresas que estén considerando incorporar la IA en sus negocios deberían considerar cómo la IA podría afectar a su marca, a sus usuarios o a los resultados de sus decisiones. Establecer un marco para una IA responsable en su organización puede ayudar a guiar las decisiones sobre la creación o adopción de IA.
El Marco de Gestión de Riesgos de IA, publicado por el Instituto Nacional de Estándares y Tecnología, es un recurso valioso en este esfuerzo. Este marco ayuda a las organizaciones a reconocer y gestionar los riesgos asociados con la IA generativa y guía a las empresas a medida que desarrollan sus principios para una IA responsable.
Los estándares de IA responsable de Grammarly
En Grammarly, creamos y consumimos soluciones basadas en IA todos los días. La IA responsable es la piedra angular de nuestro desarrollo de productos y excelencia operativa. Contamos con un equipo dedicado de IA responsable compuesto por investigadores, lingüistas analíticos, ingenieros de aprendizaje automático y expertos en seguridad que piensan críticamente sobre lo que intentamos lograr para nuestra empresa, nuestros usuarios y nuestro producto.
A medida que nuestra empresa ha ido evolucionando, hemos desarrollado nuestros propios estándares de IA responsable:
- Transparencia:los usuarios deberían poder saber cuándo están interactuando con la IA. Esto incluye identificar contenido generado por IA y proporcionar detalles sobre los métodos de entrenamiento de IA. Esto ayudará a los usuarios a comprender cómo la IA toma decisiones. Conocer las limitaciones y capacidades de la IA permite a los usuarios tomar decisiones más informadas sobre su aplicación.
- Equidad:la equidad de la IA no es simplemente una palabra de moda en Grammarly; es un principio rector. A través de herramientas que evalúan los resultados de la IA y evaluaciones rigurosas de riesgos de sensibilidad, Grammarly mitiga de manera proactiva los sesgos y el contenido ofensivo. Este compromiso de garantizar el respeto, la inclusión y la justicia impulsa cada interacción del usuario.
- Agencia del usuario:el verdadero control está en manos del usuario. Grammarly brinda a sus usuarios la capacidad de dar forma a sus interacciones con la IA. Los usuarios tienen la última palabra: si eligen aceptar sugerencias de escritura o decidir si su contenido entrena modelos o no. Esto garantiza que la IA amplifique su voz, en lugar de anularla.
- Responsabilidad:al reconocer el potencial de uso indebido, Grammarly enfrenta directamente los desafíos de la IA. Grammarly garantiza la responsabilidad de sus resultados de IA mediante pruebas exhaustivas para detectar sesgos y empleando nuestro equipo de IA responsable durante todo el proceso de desarrollo. La IA responsable es parte del tejido de la empresa, lo que garantiza que la IA sea una herramienta para el empoderamiento, no una fuente de error o daño.
- Privacidad y seguridad:el enfoque de Grammarly hacia la IA responsable está fuertemente comprometido con la privacidad y seguridad del usuario. No vendemos datos de usuarios ni permitimos que terceros accedan a datos de usuarios para publicidad o capacitación. El estricto cumplimiento de los estándares legales, regulatorios e internos respalda esta promesa, garantizando que todo el desarrollo y la capacitación en IA mantengan las más altas medidas de privacidad y seguridad.
Hacia un futuro más responsable
Fomentar un entorno responsable para la tecnología de IA requiere un esfuerzo de colaboración de partes interesadas externas, desde la industria tecnológica hasta los reguladores y los estados-nación. Para utilizar la IA de manera responsable, debemos reconocer y abordar los sesgos inherentes, esforzarnos por lograr la transparencia en los procesos de toma de decisiones de la IA y garantizar que los usuarios tengan el conocimiento necesario para tomar decisiones informadas sobre su uso.
Adoptar estos principios es crucial para desbloquear todo el potencial de la IA y al mismo tiempo mitigar sus riesgos potenciales. Este esfuerzo colectivo allanará el camino hacia un futuro en el que la tecnología de IA sea innovadora, justa y confiable.