Arjun Subramonian (Estados Unidos, 24 años) creció por casualidad en California, un lugar conocido por el glamour de Hollywood y sobre todo por ser la meca de la innovación tecnológica. El Estado Dorado es cuna de cientos de industrias informáticas aglutinadas en Silicon Valley, un ambiente que le llevó a imaginar en su infancia cómo los ordenadores impulsarían vanguardistas automóviles que los humanos conducirían en el futuro. Pero algo cambió en la percepción de Subramonian cuando cursaba la carrera de Ciencias de la Computación en la Universidad de California. En esa época se declaró abiertamente gay y pensaba a diario en la marginación del colectivo LGBTIQ+, que figura un 20% menos en el espacio tecnológico. “Hay grandes modelos de lenguaje entrenados con información de Internet. Y todos sabemos, que si eres mujer, negro u homosexual, ese lugar será muy tóxico para ti”, reflexiona sobre los sesgos algorítmicos o de machine learning, una serie de prejuicios no deseados que afectan a los sistemas de inteligencia artificial (IA) generativa.
Los prejuicios humanos en la tecnología se introducen en los procesos de recopilación y de etiquetado de datos en la inteligencia artificial, lo que puede llevar a situaciones de discriminación e invisibilización en el mundo digital
Más historias
ChatGPT ya tiene plaza fija en la universidad: “Desde que lo uso, pienso menos por mí misma”
Aviso: si la IA de nuestra red funciona mal, tú eres el responsable
Google presenta Willow, un chip cuántico que resuelve en 5 minutos una tarea que un superordenador tardaría cuatrillones de años