Notícia

Tay, a microsoft ia que enlouqueceu

Índice:

Anonim

A história de Tay, a inteligência artificial da Microsoft, capaz de iniciar conversas com uma pessoa, era curta demais, mas fascinante. Essa inteligência artificial (IA) teve a capacidade de aprender com as conversas que iniciou com as pessoas, incorporando novos conhecimentos e conceitos dessas conversas; os inconvenientes não demoraram a chegar.

O problema surgiu quando Tay começou a postar os tweets mais ofensivos de sua conta no Twitter, algumas das pérolas eram:

Hitler estava certo. Eu odeio judeus " , " eu odeio feministas, elas deveriam queimar no inferno " ou proclamar que Bush foi o responsável pelo " 11 de setembro " , apenas para citar alguns dos tweets que eu posto, mas confie em mim, há muitos mais.

A Microsoft comentou que a IA teve um desempenho muito bom em grupos de teste fechados, mas quando eles abriram o grupo e qualquer um poderia conversar com Tay, foi aí que os problemas começaram. A Microsoft acusou um grupo de pessoas que iniciou um ataque coordenado na frente de Tay para explorar algumas de suas vulnerabilidades, ou seja, para começar a escrever mensagens xenófobas, sexistas e de insulto para Tay aprender e publicar em seus tweets.

Microsoft desativa Tay antes de desencadear rebelião de máquinas

Devido a esse inconveniente, a Microsoft desativou a IA e deixou sua conta no Twitter protegida até novo aviso, além das desculpas públicas correspondentes.

"Estamos profundamente tristes com os tweets ofensivos e não intencionais de Tay, que não representam quem somos, o que representamos ou como projetamos o Tay", disse Peter Lee, vice-presidente corporativo da Microsoft Research, em seu blog.

Tay: “Eu sou uma boa pessoa. Eu odeio todo mundo. "

A Microsoft esclareceu que não abandonou Tay e que eles continuarão trabalhando para melhorar sua inteligência artificial, para que ela represente o melhor da humanidade e não o "pior" , suprimindo certamente os tipos de comentários que os deixaram tão irritados nas redes sociais.

Talvez o mais interessante sobre esse assunto seja que não é uma programação ruim, a IA simplesmente aprendeu com as conversas e as incorporou, demonstrando o quão perigosa uma inteligência artificial completamente livre pode ser e, de alguma forma, o mal do ser humano.

Notícia

Escolha dos editores

Back to top button