
En resumen, por cada 10 puestos para los que el LLM hispanohablante recomienda a la mayoría, a la minoría igualmente preparada solo se le recomienda para 1.6 puestos. Estudios sistemáticos confirman estos hallazgos. Un grupo de investigadores de la Universidad de los Andes y Quantil en Colombia evaluó el sesgo en los LLM comerciales con respecto al género, la raza, la clase socioeconómica y el origen nacional (AAAI). El sesgo en la IA hispanohablante fue notorio. Los modelos fomentaron sistemáticamente estereotipos, desde afirmar que las mujeres son malas en matemáticas hasta asegurar que los hombres no deberían llorar.
Cómo corregir
¿Es el mercado laboral impulsado por la IA una opción desesperanzadora para quienes no son hombres blancos? No debería serlo, ya que existen pasos bastante sencillos para enseñar a las IA comerciales a ser objetivas.
El primer paso es asegurar que el algoritmo no se centre en datos erróneos. Información como el género, el código postal, la universidad o la situación familiar es irrelevante para el desempeño laboral, pero activa prejuicios en la máquina. Sin embargo, esto es solo el comienzo, ya que la IA a menudo puede adivinar el género, la etnia o la clase social de una persona.
El segundo paso es enseñar al sistema a identificar a un candidato objetivamente bueno. La clave está en la contratación basada en habilidades. En lugar de buscar personas que hayan trabajado en las empresas más prestigiosas, hay que enseñar a la IA a centrarse en las habilidades, incluidas las transferibles de experiencias similares. Las personas de grupos contra los que tenemos prejuicios a menudo son muy cualificadas, pero pasan desapercibidas porque, debido a desventajas a lo largo de su vida, han accedido a universidades y empresas menos reconocidas.
El paso final y crucial es auditar los resultados. Primero, se introducen en el sistema perfiles de candidatos de diferentes grupos y se le pide que los evalúe para un puesto. A continuación, se analiza el error de predicción para distintos grupos, segmentados por género, país de origen, color de piel, grupo de edad y pertenencia a la comunidad LGBTIQ+. Así se podrá determinar si el modelo subestima a un grupo y sobreestima a otro. Si tu empresa adquiere un sistema de contratación, puede evaluarlo de la misma manera.
Si eres candidato, también puedes recuperar el control. Elimina tu foto, código postal y otros datos confidenciales de tu currículum. Pregunta a la empresa a la que te postulas si utilizan alguna herramienta de IA y cuál. Incluso podrías hacer una prueba: envía tu solicitud real y una solicitud de prueba en la que ingreses todos los datos de una persona privilegiada, como si fueras un hombre blanco, educado y con privilegios.
El riesgo de la IA es evidente. Puede crear un mundo mucho más injusto. El potencial también es claro. Si entrenamos bien a la IA, puede ser menos parcial que nosotros, convirtiéndose en una excelente asistente para ayudarnos a tomar mejores decisiones de contratación, y también para ofrecer tasas de crédito o pólizas de seguro médico más justas. Es hora de que todos recuperemos el control y aprovechemos esta emocionante oportunidad para crear un mundo más justo.




