Imagem interpretada

A imagem interpretada, gerada pelas inteligências artificiais é de natureza maquínica, constituída a partir de interpretações algorítmicas, e formada por releituras matemáticas sobre informações visuais, os pixels das imagens que a máquina leu e interpretou. As informações visuais lidas pelos rotuladores de imagens (robôs treinados pelo processo de aprendizagem de máquina) dependem da amostragem usada para o treinamento da máquina para classificar essas imagens em tags (categorias) previamente definidas pelo treinador, um humano, normalmente um cientista de dados. A interpretação dessas imagens diz respeito ao repertório cultural e ao contexto sociocultural dos responsáveis pela sua seleção, categorização e uso dessas diretrizes no processo de treinamento dos classificadores. Algumas imagens podem ser interpretadas de maneiras muito distintas e sua classificação em uma determinada categoria em um banco de imagens depende do significado atribuído a determinadas características da imagem usada no modelo de treinamento maquínico. Observa-se que a subjetividade está presente no processo de leitura dos modelos de visualização maquínicos, como o MMD Critic (KIM, 2016), que atribui o substantivo de “crítica” à imagem que não pode ser interpretada dentro da acuidade e padrões visuais pré-estabelecidos.

A imagem interpretada é o reflexo das subjetividades humanas, responsáveis pelos tagueamentos e pré-classificação para a aprendizagem e ação não-humana.

Os desvios desta imagem interpretada, aparentemente neutra, são também de ordem política, racial e sexista, e representam a grande crítica à visão computacional de pesquisadores e artistas como Trevor Paglen (2019), Gabriel Menotti (2019) e Bruno Moreschi (2018), para citar alguns autores que investigam esta questão.

Ver Aprendizagem de máquina e subjetividade.