Os sistemas de inteligência artificial aprendem os nossos preconceitos

shutterstock_334064456

Os sistemas de inteligência artificial que ‘aprendem’ a linguagem a partir de textos copiam os preconceitos das pessoas, revela um estudo publicado esta sexta feira na revista científica Science.

Um grupo de cientistas das universidades de Princeton (Estados Unidos) e Bath (Reino Unido) elaborou um método para medir o preconceito nestes sistemas semelhante ao teste de associação implícita que se usa para avaliar o dos humanos.

Neste teste pede-se a uma pessoa que agrupe os conceitos que considera idênticos, por oposição aos que entende como diferentes.

As pessoas costumam associar, por exemplo, “flores” com “agradável” e “insetos” com “desagradável”.

A equipa de investigadores, liderada por Aylin Caliskan, da Universidade de Princeton, analisou estatisticamente o número de associações entre palavras dos sistemas de inteligência artificial, envolvendo um total de cerca de 2,2 milhões de palavras.

Os resultados, segundo o estudo, demonstraram que os sistemas de inteligência artificial retêm preconceitos.

De acordo com o trabalho realizado, estes sistemas revelaram, por exemplo, preconceito ligado ao género, ao associarem as artes mais a “mulher” ou “rapariga” e menos a “homem” ou “rapaz”.

Os autores do estudo sustentam que os resultados obtidos são uma ferramenta para estudar os juízos de valor e o comportamento humano, assinalando que a linguagem está ligada aos preconceitos históricos e a estereótipos culturais


Saiba também quem é a nova estrela da PlayStation.