Dos princípios à prática: o caminho para uma IA responsável
Publicados: 2024-07-29A inteligência artificial está a transformar rapidamente a nossa sociedade, melhorando a eficiência nas nossas tarefas diárias e avançando novas fronteiras na tecnologia. Contudo, a rápida adoção da IA levanta discussões essenciais sobre os seus impactos e segurança.
Para abordar a IA de forma responsável, considere alguns paralelos entre a IA e o automóvel.
O que torna os carros seguros? Não se trata apenas de cintos de segurança, leis de trânsito ou testes de colisão – embora todos contribuam para a segurança geral. Uma constelação de processos de fabricação, recursos, testes, governança, educação e normas sociais permite que bilhões de pessoas usem carros com segurança diariamente.
Carros e IA são semelhantes. Na Grammarly, pensamos na IA responsável como uma série de verificações e equilíbrios em todo o pipeline de IA, desde a concepção até o desenvolvimento e a implantação. Não existe um fator ou controle único que torne a IA responsável, mas os padrões e práticas adotados em uma organização podem estabelecer uma abordagem abrangente para a IA responsável.
O que é IA responsável?
A IA responsável está criando e utilizando inteligência artificial de uma maneira consciente, moralmente correta e alinhada com os valores humanos. Trata-se de controlar a IA de uma forma que priorize o impacto pretendido e, ao mesmo tempo, reduza comportamentos ou resultados indesejados. Isto requer estar plenamente consciente das capacidades da tecnologia de IA à nossa disposição, identificando as potenciais armadilhas, selecionando os casos de utilização corretos e instituindo proteções contra riscos.
A IA responsável assume diferentes formas em diferentes estágios do pipeline de IA. A implantação responsável da IA pode exigir princípios diferentes daqueles necessários para implementar um modelo de IA existente ou para construir tecnologia baseada em IA a partir do zero. É essencial definir expectativas claras e estabelecer diretrizes para que sua IA opere em cada estágio do pipeline de IA.
Com isso em mente, como as empresas podem garantir que estão no caminho certo ao implementar uma IA responsável?
Criando estruturas de IA responsáveis
A jornada em direção à IA responsável envolve compreender a tecnologia, considerar o impacto pretendido e mitigar riscos potenciais, como comportamentos não intencionais, alucinações ou geração de conteúdo perigoso. Essas etapas garantem que o comportamento da IA esteja alinhado aos valores da sua empresa.
As empresas que consideram incorporar a IA nos seus negócios devem considerar como a IA pode afetar a sua marca, os seus utilizadores ou os resultados das decisões. Estabelecer uma estrutura para IA responsável em sua organização pode ajudar a orientar decisões sobre a construção ou adoção de IA.
A Estrutura de Gestão de Riscos de IA, publicada pelo Instituto Nacional de Padrões e Tecnologia, é um recurso valioso neste esforço. Esta estrutura ajuda as organizações a reconhecer e gerir os riscos associados à IA generativa e orienta as empresas à medida que desenvolvem os seus princípios para uma IA responsável.
Padrões de IA responsáveis da Grammarly
Na Grammarly, criamos e consumimos soluções baseadas em IA todos os dias. A IA responsável é a base do nosso desenvolvimento de produtos e excelência operacional. Temos uma equipe dedicada de IA responsável, composta por pesquisadores, linguistas analíticos, engenheiros de aprendizado de máquina e especialistas em segurança que pensam criticamente sobre o que estamos tentando alcançar para nossa empresa, nossos usuários e nosso produto.
À medida que a nossa empresa evoluiu, desenvolvemos os nossos próprios padrões de IA responsável:
- Transparência:os usuários devem saber quando estão interagindo com a IA. Isso inclui identificar conteúdo gerado por IA e fornecer detalhes sobre métodos de treinamento de IA. Isso ajudará os usuários a entender como a IA toma decisões. Conhecer as limitações e capacidades da IA permite aos utilizadores tomar decisões mais informadas sobre a sua aplicação.
- Justiça:justiça em IA não é apenas uma palavra da moda na Grammarly; é um princípio orientador. Por meio de ferramentas que avaliam os resultados da IA e avaliações rigorosas de risco de sensibilidade, o Grammarly mitiga proativamente preconceitos e conteúdo ofensivo. Este compromisso em garantir respeito, inclusão e justiça impulsiona cada interação do usuário.
- Agência do usuário:o verdadeiro controle está nas mãos do usuário. Grammarly capacita seus usuários com a capacidade de moldar suas interações com IA. Os usuários têm a palavra final – se escolhem aceitar sugestões de redação ou decidir se seu conteúdo treina modelos ou não. Isso garante que a IA amplifique, em vez de substituir, sua voz.
- Responsabilidade:Reconhecendo o potencial de uso indevido, a Grammarly confronta diretamente os desafios da IA. Grammarly garante a responsabilidade por seus resultados de IA por meio de testes abrangentes de preconceitos e empregando nossa equipe de IA responsável durante todo o processo de desenvolvimento. A IA responsável faz parte da estrutura da empresa, garantindo que a IA seja uma ferramenta de capacitação e não uma fonte de erros ou danos.
- Privacidade e segurança:a abordagem da Grammarly para IA responsável está fortemente comprometida com a privacidade e segurança do usuário. Não vendemos dados do usuário nem permitimos que terceiros acessem os dados do usuário para publicidade ou treinamento. A adesão estrita aos padrões legais, regulatórios e internos apoia esta promessa, garantindo que todo o desenvolvimento e treinamento de IA mantenham as mais altas medidas de privacidade e segurança.
Rumo a um futuro mais responsável
A promoção de um ambiente responsável para a tecnologia de IA requer um esforço colaborativo das partes interessadas externas – desde a indústria tecnológica aos reguladores e aos estados-nação. Para utilizar a IA de forma responsável, devemos reconhecer e abordar os preconceitos inerentes, lutar pela transparência nos processos de tomada de decisão da IA e garantir que os utilizadores tenham o conhecimento necessário para tomar decisões informadas sobre a sua utilização.
A adoção destes princípios é crucial para desbloquear todo o potencial da IA e, ao mesmo tempo, mitigar os seus riscos potenciais. Este esforço coletivo abrirá caminho para um futuro onde a tecnologia de IA será inovadora, justa e confiável.