Agencia de usuarios en implementaciones de IA: por qué la IA responsable conduce a mejores productos
Publicado: 2024-10-28En Grammarly, hablamos regularmente sobre cómo la IA responsable implica construir e implementar IA de una manera que se alinee con los valores humanos. Las prácticas responsables de IA dan prioridad a poner el poder directamente en manos del usuario, garantizando que comprenda cómo funciona un producto y tenga la capacidad de controlarlo. Los productos que fomentan la agencia del usuario también conducen a mejores resultados comerciales. La IA responsable, en su forma más resumida, consiste en última instancia en centrar la experiencia del usuario y garantizar que la tecnología que se crea genere beneficios y reduzca los daños.
En este momento, los productos de inteligencia artificial y aprendizaje automático pueden ser una fuente de ansiedad para los usuarios. La gente está nerviosa por lo que significa la IA para el futuro de su trabajo. Una empresa centrada en las personas responde a estas preocupaciones y se encuentra con las personas en su situación tanto en el producto como en la experiencia del usuario. Hay dos palancas que tirar para lograrlo: transparencia y control. Combinados, estos principios crean agencia de usuario.
Cómo la transparencia genera confianza
La transparencia es la base de la confianza entre los sistemas de IA y los usuarios. Cuando se ejecuta bien, la transparencia arroja luz sobre todo el ciclo de vida de la IA, desde la captura y el almacenamiento de datos hasta la toma de decisiones algorítmica. Si bien la transparencia establece la confiabilidad y confiabilidad de una herramienta, puede resultar difícil crearla de manera que los usuarios la entiendan.
Un aspecto importante de la transparencia es reconocer los riesgos y los sesgos inherentes a los datos de entrenamiento de IA y sus resultados. Construir IA de manera responsable implica abordar intencionalmente estos sesgos y reconocer públicamente su existencia. Por ejemplo, en Grammarly adoptamos varios enfoques para reducir el daño y los prejuicios, y compartimos abiertamente tanto los riesgos como nuestros métodos:
- Combinamos múltiples modelos y nos esforzamos por la transparencia en su construcción.
- Creamos filtros personalizados para evitar que el lenguaje sesgado llegue a los usuarios.
- Implementamos un sólido proceso de evaluación de riesgos que evalúa el daño potencial de las nuevas funciones antes de su lanzamiento.
Los proveedores deben comunicar los orígenes de los modelos de IA y cómo toman decisiones. Para hacer esto con éxito, el sistema debe brindarle al usuario la información que necesita en un lenguaje y formato fáciles de entender. Esto puede resultar difícil por varias razones. En primer lugar, debido a la naturaleza de la tecnología, a menudo no hay forma de saber por qué un modelo de IA tomó una decisión específica. En segundo lugar, la alfabetización en IA varía ampliamente entre el público. Busque proveedores que superen estos desafíos y se esfuercen por alcanzar este nivel de transparencia, lo que en última instancia ayuda a los usuarios a confiar en estos sistemas y utilizarlos con seguridad.
La transparencia también garantiza la rendición de cuentas porque permite responsabilizar a los desarrolladores y sistemas por sus acciones. Al comprender cómo funciona un sistema de inteligencia artificial, los usuarios pueden informar fácilmente cualquier problema. Esto también crea un camino y un precedente para la mejora continua. Al desmitificar estos procesos, los usuarios están mejor posicionados para interactuar con la IA de manera efectiva, lo que genera resultados más informados y equitativos.
El papel del control en la agencia de usuarios.
Una vez que un producto de IA ha establecido cómo proporcionar transparencia, también puede permitir el control del usuario. Desde decidir cuándo y cómo utilizar las recomendaciones de la IA hasta tener control sobre los datos propios, el control del usuario se manifiesta de varias maneras. Tomemos, por ejemplo, cuántas sugerencias se presentan en Grammarly. Los usuarios son informados sobre el fundamento de una sugerencia (¡transparencia!) y conservan total autonomía para aceptar o rechazar estas sugerencias (¡control!).
En una era en la que los datos impulsan la innovación en IA, los usuarios deben conservar el control sobre sus datos personales. La IA responsable permite a los usuarios decidir cuándo, cómo y si sus datos se utilizan para entrenar un modelo de IA u optimizar un producto. Las herramientas de inteligencia artificial deberían permitir a los usuarios tomar decisiones sobre sus datos personales que se ajusten a sus preferencias y valores. En Grammarly, los usuarios tienen control sobre dónde funciona nuestro producto y el uso de sus datos.
El camino hacia una IA responsable requiere mejorar la agencia de los usuarios a través de la transparencia y el control. Permitir que los usuarios tomen decisiones informadas sobre el uso de la IA hace que, en última instancia, el uso de la IA sea seguro. Para cada sistema e implementación de IA, estos principios serán dinámicos. Al considerar herramientas de inteligencia artificial para su negocio, busque empresas que estén iterando, respondiendo a los comentarios y realizando mejoras.
A medida que el ecosistema de la IA evolucione, la gente seguirá lidiando con sus sentimientos acerca de esta tecnología emergente. Las prácticas responsables de IA y los principios de transparencia y control ayudarán a guiar a las empresas en la creación de productos líderes. Las personas llegarán a confiar en los productos que funcionan bien para sus usuarios y, al hacerlo, generarán productos aún mejores y mejores resultados comerciales.