Erros Graves com Inteligência Artificial

Erros Graves com Inteligência Artificial

outubro 23, 2020 0 Por carolcfuenmayor

Já ouvimos muito que a tecnologia vem fazendo coisas maravilhosas, melhorando e automatizando vários processos do nosso cotidiano. Essa industria tem avançado muito no mundo inteiro.

Um questionamento que muitos podem fazer é: como as máquinas têm essa capacidade de entender e aprender o que devem fazer? Será que tudo que é feito para a máquina fazer, ela faz de forma intencional ou será que há imprevistos?

Vamos analisar casos que a tecnologia da Inteligência Artificial (IA) cometeu falhas, seja por meio de falhas tecnologias em seu softwares ou pro meio de usuários que manipularam as informações do sistema.

Vídeos mentirosos utilizando IA

É muito comum usar programas de edição de imagens para manipular fotos originais ou até mesmo criar imagens totalmente falsas. Com o uso da inteligência artificial isso ficou desenvolvido.

O programa que muitos andam utilizando, o FaceApp, tem a possibilidade de mudar de assunto de um vídeo para o outro.

Assim como toda tecnologia, você pode usa-la para usos benéficos como para intenções maliciosas. Um exemplo, é que muitos usuários utilizam esse recurso para sobrepor rostos de pessoas famosas em muitos vídeos adultos.

Com essas atitudes, as pessoas que utilizam a internet contribuem para que cada da mais fique mais complicado de separar o que são informações verdadeiras e o que são vídeos falsos. E com isso a inteligência artificial se torna um recurso muito poderoso de forma indevida.

Um fato que foi feito para demonstrar o qual poderosa essa tecnologia pode ser, o diretor Jordan Peele e o CEO da BuzzFeed, Jonah Perett, fizeram um vídeo demonstrando o Baraack Obama, ex-presidente dos Estados Unidos, entregando um PSA sobre o poder de deepfakes.

Bots do Twitter

Essa tecnologia foi planejada para melhorar a plataforma do Twitter em relação ao atendimento ao cliente para as marcas. Porém, isso acabou se tornou uma preocupação. Como? Pesquisas revelam que possivelmente 48 milhões de usuários no Twitter podem ser, na verdade, robôs.

Basicamente era para usar os algoritmos para seguir hashtags específicas ou até mesmo um retorno para as consultas de clientes. Porém, as contas dos bots estão simulando ser pessoas reais e com isso disseminando ainda notícias falsas pela internet.

Isso pode ser tão grave que pode influenciar e muito na política, que foi o que aconteceu na Saída do Reino Unido da União Europeia e no de 2016 na eleição dos Estados Unidos. A própria plataforma do Twitter achou aproximadamente 50 mil bots de origem russa com postagens sobre eleições.

Amazon: a IA que tem preferências para empregar homens

No ano de 2018, uma agência britânica Reuters, divulgou em uma notícia que a Amazon deve que inutilizar uma ferramenta que era usava no recrutamento de empregados, pois segundo a ferramenta os homens eram melhores que as mulheres.

Os funcionários que não queriam ter suas informações divulgadas,  explicaram a Reuters sobre sua participação no projeto. Os programadores queriam que essa ferramenta analisasse quais são os melhores candidatos para preencher a vaga de trabalho baseando nas informações dos seus currículos.

Porém, as pessoas que estavam trabalhando no projeto perceberam que a IA estava afetando negativamente as mulheres. Essa ferramenta usava currículos dos últimos 10 anos, cuja maioria eram homens.

Como efeito, o algoritmo começou a analisar os currículos em relação à palavra-chave “mulheres”. Por mais que os programadores estivessem em se empenhando para fazer modificações para ajustar esse tipo de injustiça, a Amazon decidiu cancelar o projeto.

Conteúdo fora de contexto para o Youtube kids

O YouTube Kids foi feito para que as crianças possam de divertir por meio de vídeos de entretenimento e também de aprendizado. Entretanto, houve algumas falhas de vídeos com o spam, que modificaram o algoritmo da plataforma.

Assim como muitas plataformas, é possível achar e publicar vídeos por meio de tags. Por causa que a maior parte de seus usuários são crianças que são muitas vezes inocentes e totalmente despreparadas para os perigos da internet, muitos vídeos maliciosos usam palavras-chave populares para atrair milhares de visualizações.

A inteligência artificial faz de forma automática alguns desses vídeos, por meio de animações de ações, relacionando as tags mais utilizadas do momento. Mesmo os vídeos que são feitos por animadores, os títulos são planejados e feito com palavras-chave.

Essas palavras-chave auxiliam muito na hora de manipular a inteligência artificial do YouTube para que fiquem no topo das recomendações. Com isso pode ocorrer em grande quantidade, como já ocorreu, de crianças verem por meio desse aplicativo conteúdo de violência e conteúdo sexual.

Porque esses problemas acontecem?

Esse tipo situação onde a máquina pode apresentar erros na hora de mostrar e processar informações, acontece por causa de dois motivos em seu aprendizado: Os dados que foram colocados para o seu aprendizado e a influência das pessoas.

Em relação aos dados, se forem colocados em uma IA de forma limitada, com intenções maliciosas e com um filtro com falhas, a IA será apenas um reflexo dessa má estrutura.

Nos casos onde os desenvolvedores fizeram todo o procedimento corretamente, ainda sim, os usuários podem influenciar para um mau funcionamento do funcionamento.

Quando se projeta um software, você analisa todo seu funcionamento, possíveis falhas da tecnologia e também as dificuldades que os usuários podem ter, mas é muito difícil prever a malícia das pessoas e seu alto nível de egoísmo.