IA y redes neuronales: Lo que me han enseñado sobre mis propios prejuicios

Nelly experimentó con un modelo de IA que utiliza redes neuronales para el reconocimiento de emociones en tiempo real y nos lo cuenta.
IA-Redes Neuronales CryptoConexion

Tener prejuicios es perfectamente normal; ¡todos los tenemos! La clave está en ser cautos y no dejar que influyan en nuestras interacciones con la sociedad. Es nuestra responsabilidad comprender en profundidad la tecnología que desarrollamos, sobre todo cuando esa tecnología puede repercutir en la vida de miles o incluso millones de personas.



El primer paso es hacer que el modelo de red neuronal reconozca las caras y luego las emociones.

En segundo lugar, hacer que los voluntarios vean la pantalla que muestra sus emociones.


Índice de contenido

Decidí escribir este artículo después de experimentar con un modelo de IA que utiliza redes neuronales para el reconocimiento de emociones en tiempo real. Me sorprendió tanto lo que descubrí sobre mis propios sesgos que pensé que sería una buena idea compartir mi experiencia con los demás. Durante uno de los programas de tutoría Tech2Impact celebrados en Austria, tuve la oportunidad de tutelar a Renoon, que estaba desarrollando una herramienta de investigación para "comprar moda sostenible". El objetivo era comparar las respuestas que recibían utilizando una encuesta en línea tradicional en su página de inicio con una encuesta que utilizaba el reconocimiento de emociones. Recuerdo que quería probar el reconocimiento de emociones desde el momento en que vi un video de lanzamiento de un producto en YouTube en el que se hacían preguntas sobre el yogur. El contraste entre las respuestas de las personas que probaban el producto y las emociones captadas por la cámara era fascinante. Algunas personas decían que les gustaba el sabor, pero mostraban emociones de estrés o ansiedad, quizá por sentirse presionadas por las preguntas... ¿quién sabe? Me impresionó la capacidad de descifrar las emociones de alguien y pensé: "¡Vaya, TENGO que aprender a hacer eso!".

El primer paso fue hacer que el modelo de red neuronal reconociera las caras y luego identificara sus emociones. Encontré un conjunto de datos con miles de caras que mostraban seis emociones diferentes: felicidad, miedo, ira, tristeza, neutralidad, asco y sorpresa. El objetivo de este modelo (programa) era detectar primero las caras para luego poder detectar sus emociones en tiempo real.  Sabía que cuanto más se entrena un modelo y más datos se aportan, mejores son los resultados (aunque nadie me dijo que pudiera ser tan divertido). Me intrigaba lo fascinante que era observar cada "fase" durante el entrenamiento del modelo, una fase es una pasada completa del conjunto de datos de entrenamiento. El nivel de precisión fluctuaba hacia arriba y hacia abajo con cada iteración, era cautivador, parecía una montaña rusa. Esto continuó durante días; dejar que un modelo se entrenara toda la noche y despertarse al día siguiente para evaluar su precisión era algo que nunca había imaginado tan emocionante. Era como despertarse y descubrir regalos debajo del árbol de Navidad. Cada mañana, no podía evitar pensar: "¿Cómo puedo mejorarlo?". Después de trabajar en 17 versiones diferentes y estudiar más tutoriales de los que puedo contar, por fin conseguí un nivel de precisión aceptable. Ahora era el momento de probarlo con alguien que no fuera yo.

Como vivo en los Países Bajos, mis tres primeros voluntarios eran caucásicos. Los resultados me encantaron. La mayoría de las emociones coincidían con sus expresiones faciales. Era intrigante observar cómo cada pregunta desencadenaba distintos grados de emoción. Durante esta fase inicial, me di cuenta de dos cosas: en primer lugar, la importancia de la iluminación. A veces, una lámpara de pared muy brillante era detectada como una cara. Para obtener mejores resultados, necesitaba estar en una habitación que no fuera ni excesivamente luminosa ni demasiado oscura. En segundo lugar, como estaba utilizando mi ordenador portátil, los voluntarios también podían ver la pantalla que mostraba sus emociones, lo que influía en el resultado. Para las pruebas posteriores, decidí cubrir la pantalla. También me sorprendió el alcance de la detección de emociones, que llegó hasta 2,30 metros para el reconocimiento de emociones y 5,30 metros para la detección de rostros. Para continuar con la fase de pruebas, pedí ayuda a mi vecina. Durante la prueba estaba sentada en el lado opuesto de la mesa, tomando el té como cualquier otro día, relajándose en casa. Inmediatamente percibí que algo no iba bien porque había un número desproporcionadamente mayor de emociones tristes y neutras en comparación con las otras personas con las que hice las pruebas.

¿Qué podría haber salido mal? Lo primero que se me pasó por la cabeza fueron mis propios prejuicios. Inmediatamente especulé con la posibilidad de que el modelo no funcionara con ella debido a los datos sesgados del conjunto de datos, ya que era asiática. Recordé el comprobador de fotos de pasaportes y las numerosas historias sobre software sesgado. El incidente de los pasaportes fue muy controvertido; el software estaba diseñado para reconocer a las personas que cerraban los ojos mientras se hacían la foto. Sin embargo, a los asiáticos, el software les pedía repetidamente que volvieran a hacerse la foto. Es fácil imaginar lo angustioso que debió de ser. Esto también me recordó al software policial predictivo, que es más propenso a identificar o alertar en función de etnias o códigos postales específicos, así como el caso de los vehículos automatizados, que son menos propensos a identificar a mujeres o personas de color como obstáculos. En esta tesitura, estaba convencida de que el problema se debía a un conjunto de datos sesgados. Era una situación increíblemente frustrante. No podía dejar de darle vueltas a todos esos artículos sobre el sesgo. No sabía qué hacer. ¿Revisaba las fotos? ¿Probaba con otro conjunto de datos? Esas ideas me parecían absurdas... No iba a examinar manualmente cada imagen. Habría sido una locura. Continué contemplando esto mientras reproducía las grabaciones repetidamente en un intento de identificar lo que no funcionaba. Al cabo de unos días, comparé a todos los participantes y me di cuenta de que la única diferencia entre ella y los demás era su posición sentada. Esta constatación me impulsó a considerar todo lo relacionado con la posición y me llevó a descubrir dos factores cruciales.

¡Eureka!

En primer lugar, consideré la biblioteca que estaba empleando, denominada "reconocimiento facial frontal", que permitía al modelo detectar caras. Al revisar el video, me di cuenta de que mi vecina no estaba sentada directamente delante de la cámara. Estaba ligeramente girada hacia la derecha, lo que provocaba una detección mejorable. En segundo lugar, tuve en cuenta la posición de la pantalla de mi computadora portátil. Durante la prueba, la pantalla no estaba colocada en un ángulo de 90 grados, sino ligeramente inclinada hacia atrás. Y en ese momento de claridad, até cabos: una cámara inclinada hacia atrás podía transformar una expresión neutra en sombría, ¡lo que explicaba mis intrigantes resultados!

Conclusión

Tener prejuicios es perfectamente normal; ¡todos los tenemos! La clave está en ser cautos y no dejar que influyan en nuestras interacciones con la sociedad. Es nuestra responsabilidad comprender en profundidad la tecnología que desarrollamos, sobre todo cuando esa tecnología puede repercutir en la vida de miles o incluso millones de personas. Esta experiencia me enseñó una valiosa lección sobre mis propios prejuicios y lo fácil que es sacar conclusiones precipitadas o emitir juicios sin disponer de información completa. Este viaje también ha puesto de relieve la complejidad y la responsabilidad que tenemos a la hora de crear tecnología. La buena noticia es que ahora tenemos herramientas a nuestra disposición para ayudarnos. Si te dedicas a un servicio o producto que requiere el uso de tecnología y te preocupan los prejuicios o cómo cumplir mejor tus responsabilidades con los clientes, los empleados y la sociedad en general, te recomiendo que explores la Evaluación de Tecnología Responsable (RTA). Esta evaluación fue desarrollada por Tech2Impact y Henry Dobson, del Instituto de Ética Tecnológica de Australia. Abarca seis ámbitos: ética empresarial, comprensión sociocultural, ética técnica, riesgos para la salud, riesgos democráticos y riesgos sociales. Al completar la evaluación, recibirás puntuaciones para cada área clave y orientación para alinear tus prácticas empresariales con las necesidades de las partes interesadas.

SOBRE EL AUTOR
Nelly Cornejo Red Neuronal

Nelly Cornejo es experta en innovación e inclusión le ha permitido ayudar a las empresas a ofrecer software de alta calidad de forma más rápida y segura, impulsando al mismo tiempo la adopción. La tecnología no es solo lo que hace para ganarse la vida, también es parte de lo que es. En su tiempo libre, le encanta ayudar al público en general a entender tecnologías complejas. Como comunicadora nata, una de las cosas que más disfruta es ser ponente, jurado y mentora de concursos de tecnología de impacto en Europa.

Comparte nuestro artículo:
LinkedIn
Facebook
Twitter
Reddit
Telegram
WhatsApp
Email
Más sobre: