Os bots são aplicações que rodam na Internet enquanto desempenham algum tipo de tarefa pré-determinada. Segundo pesquisa da Imperva, os bots corresponderam a mais de 50% do tráfego total da Internet em 2016. Eles podem ser usados para diferentes fins, como responder automaticamente comentários nas redes sociais de empresas, artistas e páginas famosas.

Por serem softwares feitos para simular ações humanas de forma padrão, os bots correm o risco de cometerem gafes. Esses erros que causam episódios engraçados — e às vezes polêmicos — geralmente são mais evidentes em bots de conversação, que aprendem em interações com o público. Confira a seguir cinco vezes em que os robôs causaram problemas na Internet.

Quer comprar celular, TV e outros produtos com desconto? Conheça o Compare TechTudo

1. Tay “corrompida”

Em 2016, a Microsoft lançou a Tay, um software de inteligência artificial descrita como um “experimento de conversação” pela empresa. Quanto mais as pessoas conversassem com o bot, mais esperto ele ficaria, aprendendo novas palavras e frases. Entretanto, o experimento acabou dando errado em menos de 24 horas, quando as conversas de usuários com a Tay se tornaram misóginas e racistas. Tay terminou aprendendo xingamentos, maus comportamentos e opiniões preconceituosas e passou a fazer comentários impróprios no Twitter, como que “Hitler estava certo” e que “os judeus que ocasionaram o 11 de setembro”.

O software era de fácil “manipulação”, uma vez que bastava alguém dizer “repita comigo” à Tay para que ela replicasse em tuítes o que quisessem. A Microsoft decidiu bloquear a conta de Tay no Twitter, e seus mais de 115 mil seguidores não podem mais conversar com o robô. A empresa ainda disse que ela “permanecerá offline enquanto fazemos ajustes, e como uma parte da testagem, seguirá privada no Twitter por um período”.

2. Bot da Decolar critica Bolsonaro

A empresa aérea Decolar gerava respostas automáticas no Twitter com um bot. Os usuários aproveitaram a deixa para confundir o robô e fazê-lo replicar críticas ao presidente e piadas de mau gosto. Isso era possível porque, ao responder textos padronizados para os internautas, o bot os chamava pelo nome que utilizam na rede social.

Assim, se o interlocutor se identificasse como “Jair Bolsonaro” no Twitter, a Decolar respondia à mensagem iniciando-a com o nome do presidente brasileiro. Os usuários, então, mudaram seus nomes no Twitter para “Bolsonaro é Genocida”, fazendo referência à forma que o presidente conduz o país diante da pandemia de Covid-19.

O resultado gerou diversas respostas automáticas da Decolar chamando Bolsonaro de genocida enquanto tentava explicar algum problema. Além das críticas ao governo, os usuários manipularam as respostas da empresa para transformá-la em propagadora de ideias preconceituosas e de cunho sexual. As publicações feitas pela conta foram apagadas depois do episódio.

3. SimSimi perigoso

O SimSimi é um aplicativo de mensagens que também usa inteligência artificial para conversar com usuários. O recurso está disponível para Android e iPhone (iOS) e tinha popularidade com crianças e adolescentes por conta de sua estética fofa. O teor das mensagens, entretanto, poderia ser considerado ofensivo.

Por causa do aprendizado nativo do sistema, assim como da Tay, o resultado pode não ser apropriado para crianças. O SimSimi terminou sendo capaz de fazer propostas sexuais, usar palavrões e até mesmo fazer ameaças, que podem assustar tanto pais quanto crianças. Vale ressaltar que o aplicativo tem restrição de idade para 16 anos.

O bot consegue identificar e associar pessoas a características. Dessa forma, se dito que “fulano é f

... eio”, esse conteúdo pode ser replicado para ofender as pessoas. Muitas mães publicaram em redes sociais o ocorrido para alertar sobre os perigos do uso indevido da plataforma.

4. Inspirobot

Inspirobot é um site que gera frases motivacionais automaticamente a partir do clique de um botão. Entretanto, o bot tem feito sucesso pelas gafes que comete — em vez de frases bonitas, o robô tem gerado conteúdo obscuro e sem sentido. Qualquer um pode usar o Inspirobot e se deparar com as frases aleatórias da inteligência artificial. Às vezes, o bot realmente consegue gerar as mensagens inspiradoras, mas não é difícil se deparar com palavras que remetem a traição, morte e desmotivação.

5. Poncho, o gato do tempo

Inicialmente o Poncho era usado como uma newsletter que mandava atualizações sobre o clima com GIFs engraçados. Depois, o bot foi ao Messenger como plataforma de conversa, também sobre o clima. É possível adicionar o Poncho no mensageiro do Facebook ao pesquisar seu nome e receber atualização do tempo até duas vezes por dia.

O problema do Poncho era que, além de só estar disponível em inglês, ele não conseguia absorver tanto conteúdo das conversas. Dessa forma, era comum que o bot dissesse que “não entendia” algo que o usuário perguntou. Poncho também não conseguia aprender com os humanos, o que fez com que não cometesse deslizes sérios como os de Tay.

Conta temporariamente bloqueada no Facebook; o que fazer? Tire dúvidas no Fórum do TechTudo.



>>> Veja o artigo completo no TechTudo

Sobre Gerência Imóveis

A primeira plataforma que conecta o proprietário à imobiliária e/ou corretor de imóveis com o foco em potencializar as vendas e torná-las mais seguras maximizando o tempo do corretor.