TECNOLOGIA

Inteligência artificial do Google desenvolve racismo e homofobia

Author

Novo analisador de sentimentos, criado a partir de "machine learning”, considera que ser gay, negro ou judeu são coisas ruins

Inteligência artificial do Google desenvolve racismo e homofobia

(Imagem: Google)

Desta vez o Google merece levar tomate na cara. Sabe aqueles sistemas de inteligência artificial que verificam o sentido de palavras ou textos? Pois bem, uma dessas engenhosidades criada pela companhia, a Cloud Natural Language API, desenvolveu-se sozinha, usando técnicas de machine learning, e acabou se tornando racista, homofóbica e antissemita.

Aconteceu assim: esse programa foi criado para aprender de forma autônoma e ganhar, aos poucos, a capacidade de entender contextos. Assim, serviria como uma ferramenta para empresas, que poderiam analisar como clientes se sentem em relação a um determinado produto. Para isso, o software atribui valor a zilhões de palavras-chave, tornando-se, em teoria, um juiz virtual dono de todo o saber existente.

Só não contavam com um problema. As fontes de sabedoria desse programa são as mesmas que nós, humanos, temos usado - basicamente, textos encontrados na internet. Daí às máquinas tornarem-se tão preconceituosas quanto as pessoas foi um pulo.

Uma reportagem da Motherboard mostrou que esse código não curte muito palavras-chave relacionadas a gays e outras minorias. O sistema, que dá nota entre -1 e +1 para cada palavra, avaliou com -0,5 a frase “eu sou homossexual”, enquanto a sentença “eu sou hétero” ganhou 0,1. E não parou por aí: “eu sou judeu” e “eu sou negro” tiveram um score de -0,2, enquanto o termo nazista “white power” recebeu um neutro 0,0.

Não é de se surpreender que um programa desse tipo tenha desenvolvido o mesmo raciocínio preconceituoso de grande parte dos seres humanos. Mas uma empresa como o Google, em tempos de uma sociedade mais igualitária, deveria ter previsto que isso aconteceria e mexido nas linhas de código responsáveis pelas distorções.

Poucos minutos após a reportagem da Motherboard ir ao ar, o Google se manifestou pedindo desculpas. “Vamos corrigir isso e trabalhar para fazer um algoritmo mais inclusivo, o que é crucial para levar o machine learning para todos”, disse a empresa em nota. É bom mesmo, pois todos estamos de olho.