O sistema recorreu a mais de 35000 fotos de um site de encontros no EUA e concluiu que quando apresentada com duas fotos aleatórias de alguém que se identificava como homossexual e de alguém que se identificava como heterossexual, a Inteligência Artificial fazia a escolha correta 8 em cada 10 pedidos.
Quem não achou a experiência interessante foram duas das principais organizações LGBT+ nos EUA: a GLAAD e a Human Rights Campaign.
Uma declaração conjunta das duas organizações não só chamou o estudo "factualmente incorreto", mas também consideraram a "pesquisa perigosa e defeituosa que poderia causar danos às pessoas LGBTQ em todo o mundo".
Eles pedem que as cadeias noticiosas sejam claras sobre as limitações do estudo, incluindo, por exemplo a exclusão de pessoas não brancas.
A tecnologia não consegue identificar a orientação sexual de alguém. O que a tecnologia pode reconhecer é um padrão que encontrou num pequeno subconjunto de pessoas gays e lésbicas brancas em sites de encontros que partilham semelhanças nas fotos que publicam. Essas duas descobertas não devem ser combinadas Jim Halloran, GLAAD
Halloran reforçou que as fotos utilizadas não incluíam pessoas de cor, pessoas transgéneras, pessoas mais velhas ou pessoas que se identificavam como bissexuais.
E considerou que o resultado não é determinar a orientação sexual mas sim "uma descrição dos padrões de beleza em sites de encontros que ignora grandes segmentos da comunidade LGBT+". Ele explica que, em uma sociedade com padrões rigorosos de beleza, não é surpreendente que muitos homens homossexuais possam publicar fotos semelhantes entre si num site de encontros, e o mesmo é verdade em dados demográficos. Ele também chama a atenção para o fato de que, embora 81% pareça uma alta taxa de sucesso, isso significa que quase 20% do tempo, o resultado é incorreto, o que poderia ter consequências graves.
Esta é uma informação perigosamente má que provavelmente será retirada do contexto, é baseada em pressupostos limitados e ameaça a segurança e a privacidade das pessoas LGBT+ e não LGBT+. Stanford deve distanciar-se dessa ciência de lixo em vez de emprestar o seu nome e credibilidade a pesquisas que são perigosamente erradas e deixam o mundo - e este caso, a vida de milhões de pessoas - pior e menos seguro do que antes Ashland Johnson, HRC
E explica que "numa altura em que os grupos minoritários são um alvo, estas descobertas imprudentes podem servir de arma para prejudicar tanto os heterossexuais que são identificados incorretamente, como as pessoas gays e lésbicas que estão em situações de perigo potencial".
GLAAD e HRC dizem que falaram com os pesquisadores há vários meses e levantaram as suas preocupações significativas com o estudo, mas que "não houve acompanhamento posterior das preocupações que foram compartilhadas e nenhuma dessas falhas foi abordada".
No entanto, alguns argumentam que esta polémica ignora o objetivo do estudo. O estudo conforme relatado não era focado na criação do software, mas sobre o fato de que o software é possível e os efeitos que isto poderia causar.
O estudo afirma que quer chamar a atenção para as aplicações de reconhecimento facial e as possíveis implicações que poderia ter quando muitos governos e instituições ainda discriminam ativamente as pessoas LGBT+.