Por Josette Goulart /Veja

Timnit Gebru foi demitida após escrever artigo questionando riscos ambientais e éticos de grandes modelos de linguagem artificial, como o Google Assistente

A ruidosa demissão de uma das mais importantes especialistas em ética na inteligência artificial do Google, a doutora Timnit Gebru, levou o presidente da empresa a ter que dar explicações a seus funcionários nesta semana. A resposta de Sundar Pichai ao caso não foi espontânea, no entanto. Aconteceu uma semana depois de o tema ter mobilizado a comunidade acadêmica mundial e funcionários do Google. Mais de 1.400 funcionários e 1.900 outros apoiadores, inclusive acadêmicos brasileiros, assinaram uma carta de protesto pela demissão. Tamanha mobilização tem uma razão de ser: no pano de fundo da demissão de Gebru está um artigo de sua coautoria que aponta os riscos ambientais e éticos para modelar e treinar grandes modelos de linguagem, como os que são usados pelo Google.

Timnit Gebru era co-líder da área de ética em inteligência artificial do Google
 Divulgação/Twitter

As grandes empresas tecnológicas estão na busca constante de como aprimorar a linguagem humana nas máquinas. Assim surgem os tradutores instantâneos, os reconhecedores de voz, os robôs que produzem textos convincentes e significativos. Assim nasceram Alexa, da AmazonSiri, da Apple ou o Google Assistente. Mas Gebru e outros cinco autores, entre eles quatro funcionários do Google e a professora de linguística computacional da Universidade de Washington, Emily M. Bender, questionam se as grandes empresas tecnológicas estão observando os riscos potenciais associados ao desenvolvimento dessas tecnologias e se esses riscos estão sendo mitigados.

O artigo produzido por eles não foi publicado ainda, mas a revista MIT Review destacou os principais pontos que estão sendo discutidos. “Os modelos de linguagem podem ser tão grandes?”, perguntam os autores já no título do artigo. E por que a preocupação com o tamanho? Para treinar grandes modelos de inteligência artificial é preciso muito processamento de computador, ou seja, consome muita energia elétrica. Consumo de energia elétrica significa produção de carbono. O Google neste ano, em setembro, anunciou que quer ser carbono zero em 2030, mas será que é suficiente?

Outro risco apontado é o fato de que esses grandes modelos captam tudo o que está na internet, então existe o risco de que linguagem racista, sexista e abusiva acabe ajudando a treinar os modelos. Além disso, é difícil reconhecer mudanças de linguagem e vocabulário como os causados por movimentos como o MeToo ou o Black Lives Matter. Segundo os autores do artigo, um modelo de inteligência artificial treinado com tudo o que está na internet não conseguirá perceber essas nuances. Tampouco conseguirá capturar idiomas e normas de povos que têm menos acesso à internet. Assim, os grandes modelos tendem a produzir uma linguagem homogeneizada, refletindo práticas dos países e comunidades mais ricos. Um conjunto de dados tão grandes também é muito difícil de auditar. O terceiro ponto apontado é um risco de direcionar pesquisa para o que não é tão necessário para a humanidade. E, por último, está o fato desses modelos imitarem tão bem a linguagem humana real que seria fácil usá-los para enganar as pessoas, seja em eleições, ou em disseminação de informações falsas sobre a Covid-19.Saiba logo no início da manhã as notícias mais importantes sobre a pandemia do coronavirus e seus desdobramentos. 

A cientista brasileira Ana Carolina da Hora, conhecida como Nina da Hora, diz que o episódio da demissão de Gebru traz um outro efeito que é sobre a própria comunidade acadêmica mundial. Afinal, o Google lança e lidera tendências, por isso o que seus pesquisadores dizem é tão importante. E se agora eles não puderem dizer nada? A dúvida surge por conta do fato de o artigo de coautoria de Gebru ter sido impedido de ser publicado pelo chefe da área de inteligência artificial do Google, Jeff Dean. Ele disse que o artigo não atendia ao “nosso critério” e que teria “ignorado muitas pesquisas relevantes”. O artigo de Gebru, no entanto, tinha 128 citações de estudos pelo mundo, um número considerado elevado para um simples artigo.

Em sua carta aos funcionários, o presidente do Google disse que a empresa incentiva a diversidade e que vai fazer uma investigação sobre as circunstâncias da demissão de Gebru, uma líder negra talentosa, segundo ele, que deixou o Google infeliz. Mas ele diz que fará isso com Jeff Dean, o chefe de Gebru que a demitiu. Nas redes sociais, a equipe de Gebru segue decepcionada com a forma como o Google está lidando com a situação. Pichai parece lamentar o ocorrido, mas não a demissão.

Gebru era colíder da equipe de ética de inteligência artificial. Ela ficou muito conhecida pela coautoria em um artigo inovador que mostrava que o reconhecimento facial é menos preciso na identificação de mulheres e pessoas de cor, o que significa que seu uso pode acabar em discriminação. Ela acusa o Google de tê-la expulsado, nas suas férias, depois de ter tido seu artigo acadêmico censurado pela empresa. No Twitter, Gebru disse que havia pedido uma reunião quando voltasse. O chefe dela, Jeff Dean, diz que ela havia questionado direcionamentos do Google e não se sentia confortável em continuar, e ele teria aceitado seu pedido de demissão.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui