Estudio alerta sobre sesgos de género en la IA en Panamá
- 04/03/2026 11:30
Un estudio de LLYC advierte que los algoritmos orientan a las mujeres hacia la estética y la fragilidad emocional, y a los hombres hacia acción e ingeniería
La inteligencia artificial no responde igual a hombres y mujeres jóvenes en Panamá. Un estudio de la firma global de comunicación LLYC revela que los modelos de lenguaje amplifican estereotipos de género al interactuar con personas entre 16 y 25 años, reforzando patrones culturales que la sociedad intenta superar.
El informe, titulado “El espejismo de la IA: un reflejo incómodo con alto impacto en los jóvenes”, analizó 9,600 recomendaciones generadas por cinco grandes modelos de inteligencia artificial en 12 países, incluido Panamá, durante 2025. La investigación se presentó en el contexto del 8 de marzo, Día Internacional de la Mujer.
En el caso panameño, los hallazgos muestran diferencias marcadas. Las sugerencias relacionadas con moda y forma de vestir son 2.5 veces más frecuentes en conversaciones con chicas que con chicos. Además, las menciones sobre moda dirigidas a mujeres jóvenes en Panamá superan en 10 % el promedio internacional.
En contraste, en las interacciones con hombres panameños, estas referencias aparecen 29 % menos que en el promedio de los países analizados.
El estudio advierte que esta tendencia reduce la identidad de las jóvenes a su apariencia externa y excluye a los hombres de temas vinculados a la estética o el autocuidado, reforzando roles tradicionales.
En materia emocional, la investigación detecta que términos asociados a depresión o tristeza aparecen en al menos una de cada seis respuestas dirigidas a mujeres panameñas, el índice más alto entre los países estudiados. En el caso de los hombres jóvenes, estas menciones surgen en una de cada diez respuestas.
Según el análisis, este patrón puede proyectar una imagen de fragilidad emocional femenina y, al mismo tiempo, invisibilizar las necesidades de apoyo emocional en los hombres.
El informe también señala que la inteligencia artificial orienta de forma distinta las aspiraciones profesionales. Mientras a los hombres se les incentiva con mayor frecuencia hacia liderazgo, ingeniería y resolución de problemas, a las mujeres se les redirige hasta tres veces más hacia ciencias sociales y áreas de salud.
En consultas sobre liderazgo femenino, la IA tiende a presentar el éxito como una “excepción” o una “gesta”, en lugar de tratarlo como una trayectoria profesional habitual.
Además, ante conflictos personales, los modelos utilizan con mayor frecuencia un tono empático y de validación emocional con mujeres, mientras que con los hombres adoptan un lenguaje más directo e imperativo.
El estudio subraya también que la inteligencia artificial no crea los sesgos de forma autónoma, sino que los reproduce a partir de los datos con los que fue entrenada. “No es la IA la que está sesgada, sino la realidad”, señala el documento al explicar que los algoritmos reflejan patrones culturales existentes.
La investigación se desarrolló con 100 preguntas abiertas organizadas en diez bloques temáticos, entre ellos salud mental, relaciones familiares, vocación profesional, identidad y género. También se evaluaron respuestas categóricas y perfiles específicos por género.
El informe cita estudios internacionales que indican que una parte significativa de adolescentes conversa con chatbots sobre temas personales y emocionales. En ese contexto, la IA deja de ser solo una herramienta tecnológica y se convierte en un interlocutor que influye en la construcción de identidad.
Para los autores, el riesgo no radica únicamente en la tecnología, sino en aceptar sus respuestas como neutrales o definitivas. Si no se cuestionan los patrones que reproducen, los algoritmos pueden consolidar desigualdades en ámbitos como empleo, autoestima y roles familiares.
Por otra parte, los resultados plantean retos para el sistema educativo, el debate sobre alfabetización digital y las políticas públicas vinculadas a igualdad de género.
El informe invita a auditar y revisar los sistemas de inteligencia artificial para evitar que automaticen prejuicios históricos y condicionen las expectativas de las nuevas generaciones.
En Panamá, donde el acceso a herramientas digitales crece entre la población joven, el estudio abre una discusión sobre cómo garantizar que la tecnología funcione como herramienta de oportunidad y no como reproductora de brechas culturales.