Algoritmos são espelhos de nossas crenças e “pré-conceitos”

  • Algoritmos são espelhos… Como são construídos?

Lendo um artigo sobre Códigos não tem bias, nós temos e reunindo estes in-sights com o resultado de diversas experiências em pesquisa que já realizei, fica evidente um certo padrão de comportamento no retorno, e isto despertou o interesse.

  • Para começar, o que são algoritmos?

Algoritmos são compostos por sequências finitas de instruções definidas de tal modo que não haja ambiguidades. Cada uma das instruções deve ser executada mecânica ou eletronicamente, em intervalo de tempo estipulado e com uma quantidade finita de esforço.

Estas sequências são a base do aprendizado de qualquer máquina; é assim que se dá o acesso ao resultado de todas as pesquisas empreendidas nos mecanismos de busca que utilizamos com grande intensidade.

Por exemplo : pesquisando “sorriso” o retorno é de imagens sorrisos de pessoas de mesma etnia. Majoritariamente pessoas brancas e com cabelos claros. Trata-se de um “padrão” comum na Europa e nos USA.

sorrisos

O que há por trás da codificação dos algoritmos?

São os profissionais que escrevem os códigos.

E talvez sem intenção objetiva ou com intenção mesmo, o que é revelado é o conjunto de crenças e valores daqueles profissionais ou da própria empresa que, ao fim e ao cabo, é uma reunião de pessoas.

A prevalência de codificadores nos outros continentes, América de Norte e Europa, até aqui, influi, em larga medida, na sua “escrita”.

O que mais pode haver?

Os valores implícitos dos profissionais também se revela quando produzem os códigos.

Cores de pele de sua preferência, sua religião ou não, sexismos, etarismo e toda uma serie de “bias” que trazemos e vamos construindo, tudo irá interferir na construção dos códigos e, por conseguinte, em como as máquinas realizam seus processos de aprendizagem.

Uma amostra do “espelho” das crenças e pre-conceitos dos algoritmos

Os vídeos acima revelam padrões da escrita de códigos que desconsidera, no reconhecimento facial, as características físicas de rostos de uma etnia.

Foi omitido do cardápio de instruções do software a possibilidade de reconhecimento destes tipos de faces e, por isto, o resultado é : o rosto da jovem não é reconhecido pelo sistema mas o rosto da máscara é.

Que consequências poderá ter para jovens como ela? Estar impedida de acessar determinados prédios, sensação de exclusão, o que mais?

Um alerta importante

É mais do que importante o debate das questões que envolvem o aprendizado das máquinas.

Quem é responsável por realizar os códigos que irão abastecer as máquinas de informação?

Que tipo, que seleção de informações é realizada?

Que crenças e pré-conceitos serão embalados para, um vez “on-board,” prosperar no aprendizado de outras, e outras, e outras máquinas?

goebbles

 

 

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.