Enquanto algumas gigantes do Vale do Silício se debatem com os aspectos éticos de fornecer inteligência artificial de última geração aos militares e às autoridades policiais com histórico de abusos, a Amazon, aparentemente, não tem restrições a esse respeito.

Quando indagada sobre a divergência cultural entre os interesses “de nível executivo” da Amazon e os de seus funcionários, que protestaram contra a venda da tecnologia de reconhecimento facial para agências de polícia, Teresa Carlson, vice-presidente mundial do setor público na Amazon Web Services, foi franca. “Temos um compromisso com nossos clientes, e temos um compromisso inabalável com o governo dos EUA e com os governos com os quais trabalhamos em todo o mundo”, declarou Carlson no Fórum de Segurança de Aspen em 20 de julho, no Colorado.

Os comentários de Carlson, que passaram praticamente despercebidos, salvo por uma nota em um jornal comercial da área tecnológica, marcam a maior discussão pública dos últimos meses sobre o papel da Amazon como fornecedora de tecnologia para forças militares e policiais, o que tem sido fonte de bastante controvérsia para a empresa.

Funcionários da Amazon recentemente fizeram circular uma carta ao presidente da empresa, Jeff Bezos, protestando contra a venda do software de reconhecimento facial da Amazon, chamado Rekognition, para as autoridades policiais; a carta mencionava o “tratamento cada vez mais desumano dado a refugiados e imigrantes” pelo Departamento de Segurança Nacional (DHS). A União Americana pelas Liberdades Civis (ACLU) manifestou preocupação com a venda da tecnologia da Amazon, apontando que o Rekognition poderia permitir à polícia monitorar constantemente e assediar minorias étnicas e dissidentes políticos. A Microsoft e a Salesforce enfrentaram pressões internas semelhantes de seus funcionários, que pleitearam o fim dos trabalhos em prol do DHS, inconformados que as empresas onde trabalham apoiassem as políticas de imigração dos EUA.

“Os empregados precisam ter voz”, disse Carlson, em relação às recentes críticas. “Não posso falar por outras empresas, mas queremos trabalhar com nosso governo”, acrescentou. “Nós nos sentimos compelidos (…) Acreditamos que o governo deva ter o mesmo recurso, nossos soldados de guerra em campo, nossos servidores civis, todos devem ter os mesmos recursos.” Carlson reconheceu que “sempre haverá pessoas mal-intencionadas”, mas prosseguiu com o elogio às aplicações positivas do software.

Quando a jornalista do New York Times Cecilia Kang perguntou se a Amazon “estabeleceu algum limite ou criou padrões, diretrizes do que se dispõe ou não a fazer em termos de atividade de defesa”, Carlson titubeou.

“Não estabelecemos nenhum limite sobre isso”, ela respondeu. “Nós damos apoio inabalável à nossa comunidade de defesa, inteligência e autoridades policiais.” Ela ainda admitiu que a Amazon com frequência não “conhece todos os usos que eles estão realmente dando à ferramenta”, mas insistiu que o governo dos EUA deveria ter as “ferramentas de ponta mais inovadoras” à disposição, para que não fossesuperado por seus “adversários”. Carlson apontou os “direitos de uso ético” como um mecanismo pelo qual a Amazon poderia exigir de volta sua tecnologia caso usada de forma ilegal, embora não esteja claro como isso impactaria atividades legais às quais seus funcionários se oponham, como as praticadas pelo Serviço de Imigração e Controle Aduaneiro dos EUA.

A Amazon, conhecida por sua plataforma de serviços de computação e servidores e por sua loja virtual, está rapidamente ocupando espaço nas áreas de defesa e segurança nacional, oferecendo uma série de recursos de aprendizagem de máquina [machine learning] ao Pentágono e às agências de polícia de todo o país. A empresa atualmente administra uma importante estrutura de computação em nuvem para as agências de inteligência dos EUA, e está participando da licitação de um contrato de 10 bilhões de dólares para fornecer estruturas semelhantes ao Departamento de Defesa.

E-mails vazados obtidos pelo Intercept revelaram que a Amazon forneceu “algumas cargas de trabalho [workloads]” à controversa iniciativa do Projeto Maven, lançado pelo Departamento de Defesa no ano passado. O contrato é a primeira grande iniciativa do Pentágono de integrar a aprendizagem de máquina desenvolvida no Vale do Silício aos recursos militares. A iniciativa emprega a tecnologia de inteligência artificial para ajudar os analistas a identificarem imagens capturadas por drones no campo de batalha, catalogando automaticamente pessoas, construções e eventos.

Esses esforços serão usados pelos drones Predator e Reaper para atacar alvos “no Oriente Médio”, segundo o site Defense One. Os críticos alertam que o uso de tecnologias avançadas de inteligência artificial na guerra de drones irá encorajar a prática de “ataques baseados em padrões de comportamento, que elegem pessoas como alvos não com base em suas atividades conhecidas, mas em probabilidades calculadas a partir de filmagens de longa distância”. O presidente Donald Trump teria aumentado a frequência dos ataques com drones em quatro a cinco vezes à que era usada pelo presidente Barack Obama, que, por sua vez, já havia aumentado essa frequência em dez vezes em relação ao presidente George W. Bush.

O Google conseguiu um contrato do Projeto Maven e tentou esconder seu envolvimento no assunto, que foi, porém, noticiado pelo site Gizmodo e pelo Intercept em março. Em resposta a isso, vários funcionários do Google pediram demissão em protesto, e milhares assinaram uma carta exigindo que a empresa encerrasse seus vínculos com os militares. Muitos se mostraram chocados com a possibilidade de que o Google tivesse violado seu antigo mantra (“Não seja mau”) ao trabalhar para os militares, e também ao tentar enganar seus próprios funcionários alegando que qualquer atividade com o Pentágono não seria usada para propósitos letais – um objetivo declarado expressamente pelo alto escalão da Força Aérea.

Desde então, o Google declarou que não irá renovar sua atuação no Projeto Maven quando o contrato vencer no ano que vem, e começou a trabalhar no desenvolvimento de um código de princípios éticos para o uso da tecnologia de inteligência artificial. A empresa, no entanto, não se comprometeu a recusar futuros contratos na área de defesa.

Na semana passada, a Amazon enfrentou mais uma onda de críticas, depois que um estudo da ACLU descobriu que seu software de reconhecimento facial identificou erroneamente 28 membros do Congresso, majoritariamente pessoas não brancas.

Um representante não identificado da Amazon declarou à Verge, ao USA Today e a outras publicações que os resultados do estudo no Congresso decorreram de calibragem incorreta do software. O representante disse que a tecnologia não poderia ser usada com “razoável nível de certeza” com o limite de precisão estabelecido pela ACLU em seu experimento.

Foto do Título: Amazon Web Services em Herndon, Virgínia, em 26 de novembro de 2017.

Tradução: Deborah Leão