Fazer login no IT Mídia Redefinir senha
Bem-vindo de volta,
Digite seu e-mail e clique em enviar
Ainda não tem uma conta? Cadastre-se
Salvar em Nova pasta de favoritos

+

Criar pasta
Salvar Escolher Pasta
Como garantir que os desenvolvedores cidadãos criem IA de maneira responsável
Home > Tendências

Como garantir que os desenvolvedores cidadãos criem IA de maneira responsável

'Confie, mas verifique' é um bom conselho, mas podemos realisticamente fazer os dois com IA?

James Kobielus, Infoworld (EUA)

26/03/2021 às 18h01

Foto: Adobe Stock

A indústria de Inteligência Artificial está jogando um jogo perigoso agora, ao abraçar uma nova geração de desenvolvedores cidadãos. Por um lado, provedores de soluções de IA, consultores e outros estão falando muito bem sobre “IA responsável”. Mas eles também estão incentivando uma nova geração de desenvolvedores não tradicionais a incorporar deep learning, machine learning, processamento de linguagem natural e outras informações em praticamente tudo.

Um cínico pode argumentar que essa atenção aos usos responsáveis ​​da tecnologia é a tentativa da indústria de IA de neutralizar as demandas por maior regulamentação. Obviamente, ninguém espera que os fornecedores policiem como seus clientes usam seus produtos. Não é surpreendente que a principal abordagem da indústria para desencorajar aplicativos que atropelam a privacidade, cometem preconceitos sociais, gafe ético e coisas do gênero é emitir documentos de posição bem-intencionados sobre IA responsável. Exemplos recentes vieram da Microsoft, Google, Accenture, PwC, Deloitte e The Institute for Ethical AI and Machine Learning.

Outra abordagem que os fornecedores de IA estão adotando é construir recursos de IA responsáveis em suas ferramentas de desenvolvimento e plataformas de tempo de execução. Um anúncio recente que chamou minha atenção foi a visualização pública da Microsoft do Azure Percept. Este pacote de software, hardware e serviços foi projetado para estimular o desenvolvimento em massa de aplicativos de IA para implantação de borda.

Essencialmente, o Azure Percept incentiva o desenvolvimento de aplicativos de IA que, do ponto de vista social, podem ser altamente irresponsáveis. Estou me referindo à IA incorporada em câmeras inteligentes, alto-falantes inteligentes e outras plataformas cujo objetivo principal é espionar, vigiar e escutar. Especificamente, a nova oferta:

CIO2503

E-book por:

  • Fornece um kit de desenvolvimento de software low-code que acelera o desenvolvimento desses aplicativos;
  • Integra-se com os Azure Cognitive Services, Azure Machine Learning, Azure Live Video Analytics e serviços Azure IoT (Internet das Coisas);
  • Automatiza muitas tarefas de desenvolvimento por meio da integração com o gerenciamento de dispositivos do Azure, desenvolvimento de modelo de IA e serviços de analytics;
  • Fornece acesso a modelos de IA pré-construídos do Azure e de código aberto para detecção de objetos, análise de prateleira, detecção de anomalias, localização de palavras-chave e outras funções de borda;
  • Garante automaticamente uma comunicação confiável e segura entre dispositivos de borda conectados de forma intermitente e a nuvem Azure;
  • Inclui uma câmera inteligente e uma plataforma de dispositivo de áudio inteligente habilitado para voz com módulos de IA acelerados por hardware integrados.

Para seu crédito, a Microsoft abordou a IA responsável no anúncio do Azure Percept. No entanto, você seria perdoado se pulasse isso. Após o núcleo da discussão do produto, o fornecedor afirma que:

“Como o Azure Percept é executado no Azure, ele inclui as proteções de segurança já incorporadas à plataforma Azure. …Todos os componentes da plataforma Azure Percept, do kit de desenvolvimento e serviços aos modelos de IA do Azure, passaram pelo processo de avaliação interna da Microsoft para operar de acordo com os princípios de IA responsáveis da Microsoft. …A equipe do Azure Percept está trabalhando atualmente com clientes selecionados para entender suas preocupações em torno do desenvolvimento e implantação responsáveis de IA em dispositivos de borda, e a equipe irá fornecer a eles documentação e acesso a kits de ferramentas como Fairlearn e InterpretML para suas próprias implementações de IA responsável”.

Tenho certeza de que esses e outros kits de ferramentas da Microsoft são bastante úteis para a construção de grades de proteção para evitar que aplicativos de IA se tornem invasores. Mas a noção de que você pode incutir responsabilidade em um aplicativo de IA - ou em qualquer produto - é problemática.

Partes inescrupulosas podem abusar intencionalmente de qualquer tecnologia para fins irresponsáveis, não importa o quão bem-intencionado seja seu design original. Esta manchete diz tudo sobre o recente anúncio do Facebook que está considerando colocar tecnologia de reconhecimento facial em um produto proposto de óculos inteligentes, “mas apenas se puder garantir que 'estruturas de autoridade' não abusem da privacidade do usuário”. Alguém já se deparou com uma estrutura de autoridade que nunca foi tentada ou teve a capacidade de abusar da privacidade do usuário?

Além disso, nenhum conjunto de componentes pode ser certificado como estando em conformidade com princípios amplos, vagos ou qualitativos, como aqueles incluídos sob o título de “IA responsável''. Uma abordagem abrangente para garantir resultados “responsáveis” no produto acabado envolveria, no mínimo, revisões rigorosas das partes interessadas, transparência algorítmica, garantia de qualidade e controles e pontos de verificação de mitigação de risco.

Além disso, se a IA responsável fosse um estilo discreto de engenharia de software, precisaria de métricas claras que um programador pudesse verificar ao certificar que um aplicativo criado com o Azure Percept produz resultados que são objetivamente éticos, justos, confiáveis, seguros, privados, seguros, inclusivos, transparente e/ou responsável. A Microsoft iniciou uma abordagem para desenvolver essas listas de verificação, mas não está nem de longe pronta para ser incorporada como uma ferramenta nos esforços de desenvolvimento de software de verificação. E uma lista de verificação por si só pode não ser suficiente. Em 2018, escrevi sobre as dificuldades em certificar qualquer produto de IA como seguro em um cenário de laboratório.

Mesmo que a IA responsável fosse tão fácil quanto exigir que os usuários empregassem um padrão de aplicativo de borda de IA padrão, é ingênuo pensar que a Microsoft ou qualquer fornecedor pode escalar um vasto ecossistema de desenvolvedores de IA de borda que aderem religiosamente a esses princípios.

No lançamento do Azure Percept, a Microsoft incluiu um guia que ensina os usuários a desenvolver, treinar e implantar soluções de IA de borda. Isso é importante, mas também deve discutir o que realmente significa responsabilidade no desenvolvimento de quaisquer aplicativos. Ao considerar a possibilidade de dar luz verde a um aplicativo, como o Edge AI, que tem consequências sociais potencialmente adversas, os desenvolvedores devem assumir a responsabilidade por:

  • Tolerância: Considere se uma aplicação de Edge-AI deve ser proposta em primeiro lugar. Do contrário, simplesmente tenha autocontrole e moderação para não levar essa ideia adiante. Por exemplo, pode ser melhor nunca propor uma nova câmera poderosa e inteligente se houver uma boa chance de que ela caia nas mãos de regimes totalitários.
  • Liberação: Um aplicativo Edge-AI deve ser liberado primeiro com as autoridades regulatórias, legais ou comerciais apropriadas antes de solicitar autorização oficial para construí-lo? Considere um alto-falante inteligente que pode reconhecer a fala de pessoas distantes que não têm consciência. Pode ser muito útil para respostas de controle de voz para pessoas com demência ou distúrbios da fala, mas pode ser um pesadelo para a privacidade se implantado em outros cenários.
  • Perseverança: Questione se os administradores de TI podem perseverar em manter um aplicativo Edge-AI em conformidade sob circunstâncias previsíveis. Por exemplo, um sistema de gravação de streaming de vídeo pode descobrir e correlacionar automaticamente novas fontes de dados para compilar dados pessoais abrangentes sobre assuntos de vídeo. Sem ser programado para fazer isso, tal sistema pode invadir furtivamente a privacidade e as liberdades civis.

Se os desenvolvedores não seguirem essas disciplinas no gerenciamento do ciclo de vida do aplicativo de IA de borda, não se surpreenda se seu trabalho manual se comportar de maneira irresponsável. Afinal, eles estão construindo soluções baseadas em IA, cuja principal função é assistir e ouvir as pessoas de forma contínua e inteligente.

O que poderia dar errado?

Vai um cookie?

A CIO usa cookies para personalizar conteúdo e anúncios, para melhorar sua experiência em nosso site. Ao continuar, você aceitará o uso. Para mais detalhes veja nossa Política de Privacidade.

Este anúncio desaparecerá em:

Fechar anúncio

15