Para muita gente, o reconhecimento facial passou rapidamente de novidade tecnológica a vida real, com milhões de pessoas no mundo todo dispostas a ter seus rostos digitalizados por softwares de aeroporto, iPhones ou fazendas de servidores do Facebook. Mas pesquisadores do instituto AI Now, da Universidade de Nova York, emitiram um forte alerta não só contra o reconhecimento facial onipresente, mas também em relação ao seu parente mais sinistro: o chamado reconhecimento de emoção, tecnologia que afirma poder encontrar um significado oculto na forma do seu nariz e da sua boca e na maneira como você sorri. Se isso soa como algo retirado do século 19, é porque é mais ou menos por aí.
O relatório de 2018 do AI Now é um registro de 56 páginas de como a “inteligência artificial” – um termo abrangente que inclui uma miríade tanto de tentativas científicas para simular o julgamento humano quanto absurdos de marketing – continua a se espalhar sem supervisão, regulamentação ou escrutínio ético significativo. O relatório abrange uma ampla extensão de usos e abusos, incluindo casos de discriminação racial, vigilância policial e de como as leis de sigilo comercial podem ocultar códigos tendenciosos de um público com vigilância da IA. Mas o AI Now, que foi criado no ano passado para lidar com as implicações sociais da inteligência artificial, expressa no documento um receio quanto ao reconhecimento de emoção, “uma subclasse de reconhecimento facial que alega detectar coisas como personalidade, sentimentos íntimos, saúde mental e ‘envolvimento do trabalhador’ com base em imagens ou vídeos de rostos”. A ideia de ter seu chefe observando você por meio de uma câmera que usa aprendizado de máquina para avaliar constantemente seu estado mental é ruim o suficiente, embora a perspectiva da polícia usar “reconhecimento de emoção” para deduzir sua criminalidade futura baseada em “microexpressões” seja exponencialmente pior.
“A capacidade de usar reconhecimento facial e análise massiva de dados para encontrar correlações está levando a algumas alegações muito suspeitas.”
Isso porque o “reconhecimento de emoção”, explica o relatório, é pouco mais do que a informatização da fisiognomia, uma cepa de pseudociência totalmente desacreditada e desmentida de outra época que afirmava que o caráter de uma pessoa podia ser discernido de seus corpos – e de seus rostos, em particular. Não havia razão para acreditar que isso fosse verdade na década de 1880, quando figuras como o desacreditado criminologista italiano Cesare Lombroso promoveram a teoria, e há ainda menos razões para acreditar nisso hoje. Ainda assim, é uma ideia atraente, apesar da falta de base em qualquer ciência, e as empresas centradas em dados aproveitaram a oportunidade para não apenas colocar nomes em rostos, mas para atribuir padrões de comportamento e previsões inteiras a uma relação invisível entre sua sobrancelha e nariz que só pode ser decifrado através do olho de um computador. Há dois anos, estudantes de uma universidade de Xangai publicaram um relatório detalhando o que alegaram ser um método de aprendizado de máquina para determinar a criminalidade com base apenas em características faciais. O artigo foi amplamente criticado, inclusive por Kate Crawford, do AI Now, que disse ao Intercept que se tratava de “frenologia literal… apenas usando ferramentas modernas de aprendizado de máquina supervisionado em vez de pinças”.
Crawford e seus colegas agora se opõem mais do que nunca à disseminação desse tipo de previsão algorítmica cultural e cientificamente regressiva: “Embora a fisiognomia tenha caído em desuso após sua associação com a ciência racial nazista, os pesquisadores estão preocupados com o ressurgimento de ideias fisiognômicas em aplicativos de reconhecimento de emoção”, diz o relatório. “A ideia de que os sistemas de inteligência artificial podem nos dizer o que um aluno, um cliente ou um suspeito criminal realmente está sentindo ou que tipo de pessoa eles são intrinsecamente está se mostrando atraente para corporações e governos, embora as justificativas científicas para tais alegações sejam altamente questionáveis, e a história de seus objetivos discriminatórios, bem documentada.”
Em um e-mail para o Intercept, Crawford, co-fundadora do AI Now e renomada professora de pesquisa na NYU, juntamente com Meredith Whittaker, co-fundadora do AI Now e cientista pesquisadora da NYU, explicou por que o reconhecimento de emoção é mais preocupante hoje do que nunca, referindo-se a duas empresas que usam aparências para tirar conclusões importantes sobre as pessoas. “Da Faception alegando ser capaz de ‘detectar’ se alguém é terrorista a partir de seu rosto até o HireVue registrando em massa candidatos a empregos para prever se eles serão bons funcionários com base em suas ‘microexpressões faciais’, a capacidade de usar reconhecimento facial e análise maciça de dados para encontrar correlações está levando a algumas alegações muito suspeitas”, disse Crawford.
A Faception tem pretendido determinar a partir da aparência se alguém é “psicologicamente desequilibrado”, ansioso ou carismático, enquanto a HireVue tem classificado candidatos a empregos na mesma base.
Como acontece com qualquer sistema computadorizado de julgamento e tomada de decisões automáticos e invisíveis, o potencial para se ser classificado, sinalizado ou etiquetado erroneamente é imenso com o reconhecimento de emoção, especialmente devido à frágil base científica: “Como uma pessoa descrita por esses sistemas contestaria o resultado?”, acrescentou Crawford. “O que acontece quando contamos com sistemas de inteligência artificial fechados para julgar a ‘vida interior’ ou o valor de seres humanos? Alguns desses produtos citam teorias profundamente controversas que são muito contestadas na literatura psicológica, mas que estão sendo tratadas como fato por startups de IA.”
O que é pior do que a má ciência julgar qualquer um dentro do alcance da câmera é que os algoritmos tomando essas decisões são mantidos em sigilo pelas empresas que os desenvolvem, a salvo de escrutínio rigoroso, por trás de um véu de sigilo comercial. Whittaker, do AI Now, destaca o sigilo corporativo como algo que confunde as práticas já problemáticas de reconhecimento de emoção: “Como a maior parte dessas tecnologias está sendo desenvolvida por empresas privadas, que operam sob as leis de sigilo corporativo, nosso relatório faz uma forte recomendação de proteções para denunciantes éticos dentro dessas empresas”. Tais denúncias continuarão a ser fundamentais, escreveu Whittaker, porque muitas empresas de dados tratam a privacidade e a transparência como um passivo, em vez de uma virtude: “As justificativas variam, mas a maioria [dos desenvolvedores de AI] nega toda a responsabilidade e diz que cabe aos clientes decidir o que fazer com ela”. Pseudociência em parceria com engenharia de computação de última geração com ausência de responsabilização. O que pode dar errado?
Tradução: Cássia Zanon
Lista de e-mails gerenciada pelo MailChimp
Quanto mais estúpida é uma ideia e quanto mais ela parece “mágica” mais rápido ela se difunde. Em um ou dois anos veremos onde esse “reconhecimento” de emoções chegará.
Duas palavras: Cruz Credo!
Mas, por outro lado, tire toda a comida de seu gato e deixe ele preso com você. E durma com a porta do quarto trancada. Se ele te pegar, já sabe. Mesmo que ele te ame.
O cerco sobre o cidadão comum se fecha rapidamente. O que é isto? Precisam de um pretexto para nos matar? Ou de uma forma para matarmos uns aos outros?
A cada dia faz mais sentido retornarmos à frugalidade da era pré-tecnológica. Se é pra morrer de doença, que não sejamos cobaias de nenhuma experiência sórdida.
Qual a vantagem de se contribuir pra um mundo que nos controla, nos priva e nos amedronta? Isto é vida? Eu abriria mão de meu computador, de água encanada, luz elétrica, transporte fácil, dinheiro… tudo, só pra ter o direito de viver. Mas, viver de verdade. Não isto que o mundo nos oferece.
Seremos ameaçados, se fizermos isto? Com certeza. Tudo está na mão de poucos. Tudo depende das bênçãos de um sistema que é feito apenas para oprimir.
Pra mim, o futuro é o MST e as comunidades indígenas. Eles são o Brasil de verdade. Quem optar pela vida distópica e puder ser incluído nela (falo dos que atendem aos padrões lombrosianos jamais apagados da memória ocidental) terá de assumir seu papel parasitário, bárbaro, invasor, violento. Quando a maioria estiver do outro lado, se tudo der certo, serão eles os extermináveis. seremos todos o inferno sartriano da raça superior.
Oba.
Muito bom obrigado
a vida ensina muitos fatos cruéis; por exemplo: o que esta ao alcance todos sem exceção não pode ser lá essas coisas…
sexo está nessa categoria.