Inteligência artificial: As 8 falhas mais engraçadas e chocantes de todos os tempos

janeiro 11, 2021
A era de ouro da inteligência artificial pode ter acabado de começar, mas o caminho tem seus desafios. Uma infinidade de falhas de tecnologia parece indicar que ainda não chegamos lá; talvez as máquinas também não possam ser perfeitas.
Embora o objetivo da IA seja resolver problemas, ela também pode criar novos problemasque podem alertar ou divertir os consumidores. No final, quem sai perdendo são as empresas envolvidas.
De qualquer forma, as falhas servem como um lembrete das vulnerabilidades das IA e de como a tecnologia tem um longo caminho a percorrer antes de ser considerada superior aos humanos com segurança.
De previsões malucas a tropeço de robos, aqui estão 8 falhas em IA que aconteceram nos últimos anos:
AI Chatbot Tay da Microsoft
Com os chatbots se tornando populares nas redes sociais, a Microsoft lançou sua versão para usuários do Twitter em março de 2016.
Chamado de ‘Tay’, ele foi programado para ter conversas casuais no idioma de um típico millennial.
De acordo com a empresa, Tay aproveitou a IA para aprender com essas interações e manter conversas melhores no futuro.
No entanto, o chatbot do Twitter teve que ser retirado menos de 24 horas após seu lançamento.
Visando suas vulnerabilidades, os trollsmanipularam Tay para fazer declarações profundamente sexistas e racistas.
Após este desastre, Peter Lee, vice-presidente corporativo da Microsoft para IA e pesquisa, apresentou um pedido público de desculpas, afirmando que a empresa assumiu ‘total responsabilidade por não ver essa possibilidade com antecedência.’
Ferramenta de recrutamento baseada em IA da Amazon
De acordo com um relatório da Reuters, a Amazon vinha desenvolvendo programas de Machine Learning (ML) desde 2014 para revisar os currículos dos candidatos a empregos.
Mas é bem sabido que a IA tem um grande problema de preconceito e a empresa demonstrou isso com um exemplo em 2015, quando percebeu que seu novo sistema não estava classificando candidatos de forma neutra em relação ao gênero.
Ou seja, seus especialistas em Machine Learning haviam ensinado sua própria IA a preferir candidatos do sexo masculino a candidatos do sexo feminino.
Isso aconteceu porque esses modelos foram treinados para verificar os candidatos por meio do rastreamento de padrões nos currículos enviados à empresa ao longo de um período de 10 anos.
A empresa de Seattle dissolveu a equipe alguns anos depois, após não conseguir desenvolver ou trabalhar para resolver esse problema.
IA do Google para fotos Panorâmicas
Todos sabem agora que o maior buscador do mundo utiliza IA para exibir versões aprimoradas de fotos tiradas por usuários nos smartphones que utilizam Android.
Em janeiro de 2018, o usuário do Reddit Alex Harker postou três fotos tiradas em uma estação de esqui, que o Google juntou em uma imagem panorâmica.
Só que a imagem resultante tem um erro gigante. Faltando noções básicas de composição, o AI Panorama do Google ampliou o torso transformando a imagem em algo bizarro.
Falha de reconhecimento facial na China
Em novembro de 2018, a polícia chinesa admitiu ter envergonhado erroneamente uma mulher bilionária depois que um sistema de reconhecimento facial, projetado para pegar os transgressores, a “flagrou” em cartaz em um ponto de ônibus no local do crime.
Os agentes de segurança nas principais cidades asiáticas utilizam câmeras inteligentes para detectar os criminosos, cujos nomes e rostos aparecem em uma tela pública.
Depois que isso se tornou viral na mídia social chinesa, um pesquisador do Cloud Walk afirmou que a falta de detecção ao vivo do algoritmo pode ter sido o problema.
Robot Blooper da Boston Dynamics
A Boston Dynamics, de propriedade da SoftBank, estreou seu robô humanoide Atlas no Congresso de Futuros Líderes em Ciência e Tecnologia em 2017.
Embora tenha mostrado uma destreza impressionante no palco, ele tropeçou na cortina e caiu do palco exatamente quando estava se encerrando.
Por mais engraçado que possa parecer agora, a empresa foi de alguma forma poupada do ridículo online. O desastre apensa se tornou viral quandos os usuários do Reddit perceberam isso.
Amazon’s Rekognition
Em 2018, membros do Congresso dos Estados Unidos processaram a Amazon depois que seu software de reconhecimento facial erroneamente confundiu 28 congressistas com fotos de criminosos.
Na verdade, de acordo com a American Civil Liberties Union (ACLU), quase 40% das pessoas eram negras, indicando que a tecnologia é preconceituosa racialmente.
Infelizmente, apesar dessas falhas demonstradas, as agências de lei ainda estão tentando usar essas ferramentas para identificar os criminosos.
Cloi, assistente de IoT AI da LG
Na CES 2018, um robô LG criado para ajudar os usuários a controlar eletrodomésticos falhou repetidamente em responder aos comandos do chefe de marketing da LG nos Estados Unidos, David VanderWaal.
O assistente da IoT AI Cloi simplesmente piscava os olhos quando chamado. Ancorado em torno do ThinQ, o software de IA interno da LG, a estreia “desastrosa” de Cloi foi implacavelmente ridicularizada nas redes sociais.
Previsões da AI Copa do Mundo 2018
A Copa do Mundo FIFA 2018, que aconteceu na Rússia, manteve o mundo todo entretido – especialmente os entusiastas da IA.
Isso porque, antes do início da Copa do Mundo, vários pesquisadores tentaram prever seu desfecho por meio da tecnologia.
Para fazer isso, os pesquisadores simularam o evento 100.000 vezes e usaram três técnicas diferentes de modelagem de dados.
Os estudiosos utilizaram informações baseadas em Copas do Mundo anteriores, as analisando a partir de vários parâmetros; infelizmente, eles não conseguiram prever o vencedor.
Embora uma das seleções, o Brasil, tenha chegado nas quartas, duas das seleções mais fortes, não conseguiram nem chegar às quartas. E, obviamente, a inteligência artificial não conseguiu prever o título da França.