¿Puede AI detectar la orientación sexual de las fotos?

Wikimedia Commons
Fuente: Wikimedia Commons

Un nuevo estudio de Stanford afirma ser capaz de identificar si eres gay o heterosexual simplemente analizando una fotografía de tu rostro. No solo eso: afirma determinar la orientación sexual con más precisión que las personas.

Por un lado, esto está en línea con el progreso de la Inteligencia Artificial (o IA, para abreviar) que es capaz de detectar atributos personales a partir de datos en línea. Por otro lado, tiene incómodas implicaciones de privacidad y retrocesos a la frenología.

Primero, observemos el estudio. Analizó fotos de un sitio de citas. Miró a hombres y mujeres blancos que se identificaron como homosexuales o heterosexuales. Esto excluyó a personas de color, bisexuales, personas transgénero y cualquier persona que no esté en el sitio. El algoritmo examinó las características faciales y las características de la foto:

La investigación encontró que los hombres y mujeres homosexuales tendían a tener características, expresiones y "estilos de aseo" atípicos de género, esencialmente significando que los hombres homosexuales parecían más femeninos y viceversa. Los datos también identificaron ciertas tendencias, incluyendo que los hombres homosexuales tenían mandíbulas más estrechas, narices más largas y frentes más grandes que los hombres heterosexuales, y que las mujeres homosexuales tenían mandíbulas más grandes y frentes más pequeñas en comparación con las mujeres heterosexuales. (resumen de The Guardian)

Entonces, ¿hay algún vínculo genético que haga que las personas gay parezcan físicamente diferentes de las personas heterosexuales? Algunos investigadores de inteligencia artificial pueden querer pensarlo porque el algoritmo lo sugiere, pero no hay forma de que este estudio se acerque a esa conclusión. Tantas personas fueron excluidas de este estudio. Lo que realmente captura son los estándares de belleza para este sitio de citas en línea en particular.

Sin embargo, si las personas creen que el algoritmo puede detectar la orientación sexual, abre la puerta para la vigilancia y las suposiciones incorrectas. ¿Empezaremos a ejecutar personas a través del algoritmo y a sacar conclusiones sobre ellas? ¿Qué pasa si eso se hace en lugares como Chechenia, donde los homosexuales están siendo ejecutados o encarcelados activamente?

Lo que este proyecto destaca es el terreno ético inestable en que los investigadores de IA están pisando. Soy un científico informático que crea AI que descubre cosas sobre las personas. Sin embargo, personalmente no dirigiría un estudio como este. Realmente habla del conjunto de datos que tienen los investigadores, más que del rasgo que estudiaron, pero tiene amplias implicaciones sociales si la gente cree en los resultados. La verdadera preocupación acerca de la IA no debería ser que sea tan bueno que enfrentemos una toma de poder estilo Skynet. Más bien, es que las personas con poder harán suposiciones incorrectas sobre lo que AI puede hacer y lo usarán para tomar decisiones que cambien la vida de las personas que no tienen ningún recurso y nunca accedieron a su uso.