Sewell Setzer, de 14 años, se suicidó el pasado febrero tras enamorarse de un personaje creado por inteligencia artificial en la plataforma Character.AI, según la demanda de la familia del adolescente contra la compañía. El fallecido Paul Mohney nunca entró en combate ni Olena Zelenska, esposa del presidente de Ucrania, se ha comprado un Bugatti Turbillon. Pero la información falsa, creada con ayuda de la inteligencia artificial (IA), se ha difundido con la intención de ganar dinero fácil con la publicidad en páginas de obituarios o para generar propaganda rusa. Una limpiadora de colegios Edimburgo, con una familia monoparental de dos hijos, se quedó sin sus prestaciones como muchas otras mujeres en sus circunstancias, por un sesgo de la inteligencia artificial del sistema. A un cliente de una plataforma de pago, el algoritmo le advirtió de una transacción que nunca existió, una demanda cuestiona la seguridad de un vehículo por un supuesto error de programación y miles de usuarios ven utilizados sus datos sin consentimiento. Al final de la cadena de inteligencia artificial hay personas, pero la responsabilidad sobre los daños que puede causar en ellas no está del todo definida. “Aquí encontramos un vacío legislativo alarmante”, advierte Cecilia Danesi, codirectora del máster en Gobernanza ética de la IA (UPSA)y autora de Derechos del consumidor en la encrucijada de la inteligencia artificial (Dykinson, 2024).
Más historias
Supercomputación e IA se unen para simular todo, desde la Tierra al corazón y hasta modelos
Entre la física cuántica y el ‘blockchain’: un generador cuántico de números aleatorios a prueba de trampas
Matthias Steffen, físico de IBM: “Casi puedes sentir que estamos llegando a la ventaja cuántica”