O teclado virtual Gboard (Google) foi flagrado sugerindo termos sexuais ao digitar a palavra “neguinha”. O aplicativo para celulares Android e iPhone (iOS) traz uma função de predição que tem como objetivo sugerir palavras a partir do que foi digitado antes pelo usuário. Entretanto, em testes do TechTudo, a sugestão de termos impróprios como “assanhada” e “novinha” aconteceu mesmo ao instalar o teclado e usá-lo pela primeira vez em um Galaxy A10 e em um Huawei P30 Pro.

Em resposta, o Google declarou que "O Gboard foi projetado para evitar previsões enviesadas em seus modelos genéricos, mas a linguagem humana é complexa e, como em qualquer sistema que filtra frases sensíveis, às vezes sugestões inadequadas entram nos modelos de aprendizado de máquina. Quando descobrimos uma sugestão inadequada, trabalhamos rapidamente para removê-la". O TechTudo confirmou nesta quinta-feira (30) que as sugestões ofensivas foram removidas do teclado.

Quer comprar celular, TV e outros produtos com desconto? Conheça o Compare TechTudo

Ao digitar a palavra “neguinha” no Gboard, os termos sugeridos pelo teclado nos testes foram “novinha” e “assanhada”. O aplicativo usa inteligência artificial para aprimorar funcionalidades como correção ortográfica e predição de texto, tecnologia esta que aprende com os hábitos do usuário para retornar resultados que atendam à sua demanda. Contudo, a exibição de termos sexuais mesmo ao usar o Gboard pela primeira vez levanta questões de racismo e machismo, já que o mesmo não acontece ao digitar variações como “neguinho”, “negra” e “negro”, que retornam termos genéricos como “que”, “e” e “da”.

Não é a primeira vez que a automação do Google falha em representatividade: ano passado, usuários constataram que a ferramenta de pesquisa exibia imagens de sexo explícito, indexadas de sites de pornografia, ao buscar “mulher negra dando aula” — e o mesmo não acontecia ao usar palavras-chave relacionadas a mulheres brancas. Na França, o Google teve de mudar o algoritmo do buscador para que resultados pornográficos parassem de aparecer ao pesquisar "lesbienne" (lésbica, em francês) e outros termos relacionados à orientação sexual.

O aprendizado de máquina mencionado pelo Google em nota usa inteligência artificial para observar o comportamento do usuário e, assim, oferecer sugestões que sejam relevantes para ele. A tecnologia aparece, por exemplo, com as recomendações de músicas do Spotify ou orientações de rotas alternativas do Google Maps. Apesar de parecer “neutra” por buscar automatizar ações, a técnica pode refletir preconceitos da sociedade, uma vez que seu trabalho se baseia em conteúdos produzidos por pessoas.

Por isso, o problema não se limita ao gigante das buscas: a bot Tay, programada pela Microsoft em 2016 para conversar com internautas no Twitter, levou menos de 24 horas para reproduzir comentários racistas, transfóbicos e anti-semitas, já que ela aprendia com os tuítes de outros usuários do microblog.

A Apple passou por situação semelhante com o filtro de conteúdo adulto disponível no navegador Safari. Em fevereiro, um usuário no Twitter apontou que, ao

... ativar a restrição etária, o browser impedia a exibição de resultados para “asiática” e “adolescente” por causa de pornografia. Não é à toa: de acordo com levantamento do Pornhub, alguns dos termos mais pesquisados no site em 2019 foram “japanese” (japonês ou japonesa, em português), “korean” (coreano ou coreana), “asian” (asiático ou asiática), “ebony” (ébano; palavra usada para buscar pornografia com negras) e “teen” (adolescente).

Como desfazer "remover palavra" do Gboard? Tire dúvidas no Fórum do TechTudo.



>>> Veja o artigo completo no TechTudo

Sobre Gerência Imóveis

A primeira plataforma que conecta o proprietário à imobiliária e/ou corretor de imóveis com o foco em potencializar as vendas e torná-las mais seguras maximizando o tempo do corretor.