Como ya hemos informado anteriormente sobre (aquí y aquí), 2024 ha sido un año histórico en los Estados Unidos para la legislación estatal destinada a proteger a los empleados de los daños derivados del uso de sistemas de inteligencia artificial (“IA”). En mayo, Colorado aprobó la primera ley estadounidense que aborda la discriminación algorítmica en el uso de sistemas de IA en el sector privado, imponiendo obligaciones a los empleadores de Colorado, como revelar el uso de IA a los empleados y solicitantes. La semana pasada, Illinois se unió a las filas, imponiendo nuevas obligaciones a los empleadores de Illinois que utilizan sistemas de IA para tomar, o que se utilizan para ayudar a tomar, decisiones laborales.
Proyecto de ley HB 3773 de Illinois: Lo que los empleadores deben saber
El 9 de agosto, el gobernador de Illinois, JB Pritzker, promulgó varias leyes relacionadas con la IA, entre ellas: Ley de la Cámara de Representantes 3773 (“HB 3773” o la “Ley”), que modifica la Ley de Derechos Humanos de Illinois para proteger a los empleados contra la discriminación y exigir transparencia sobre el uso de IA en decisiones relacionadas con el empleo. (Los otros proyectos de ley abordan cuestiones no relacionadas con el empleo que surgen del uso de IA).
Según la HB 3773, un empleador no puede utilizar IA que tenga el efecto de someter a los empleados a discriminación basada en una clase protegida con respecto a, p.ejreclutamiento, contratación, promoción, despido, disciplina o los términos, privilegios o condiciones de empleo. Además, la Ley prohíbe a los empleadores utilizar códigos postales como sustitutos de las clases protegidas. Los empleadores de Illinois deben notificar a los empleados sobre el uso de IA para tomar o ayudar a tomar decisiones relacionadas con el empleo. La HB 3773 se aplica a cualquier persona que emplee a uno o más empleados dentro de Illinois.
La Ley define la “inteligencia artificial” como un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar resultados como predicciones, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. La “inteligencia artificial” también se define para incluir la “inteligencia artificial generativa”, es decir, un sistema informático automatizado que, cuando se le solicita información humana, puede producir resultados que simulan contenido producido por humanos, como ensayos, imágenes o videos.
Al igual que con otras denuncias de violaciones de los derechos civiles relacionados con el empleo, un empleado que alegue una violación de las disposiciones de AI en HB 3773 primero debe presentar una queja ante el Departamento de Derechos Humanos de Illinois (el “IDHR”). Dentro de los 100 días posteriores a la presentación de la acusación, el IDHR determinará si hay evidencia sustancial para respaldar que ocurrió la supuesta violación de los derechos civiles. Si no, se desestimará la acusación, pero la parte agraviada puede solicitar la revisión de la desestimación ante la Comisión de Derechos Humanos de Illinois (la “Comisión”). El IDHR debe presentar una queja ante la Comisión cuando determina que hay evidencia sustancial de que ocurrió la supuesta violación. Cuando se presenta una queja ante la Comisión, cualquiera de las partes puede optar por que la reclamación se resuelva en un tribunal de circuito de Illinois dentro de los 20 días posteriores a la recepción de la notificación de la queja. Remedios disponibles incluye daños reales, sanciones civiles que van desde $16,000 a $70,000, honorarios de abogados, obligaciones de informes de cumplimiento y cualquier otra acción que pueda ser necesaria para compensar al demandante.
¿En qué se diferencia la HB 3773 de la Ley de Inteligencia Artificial de Colorado?
La Ley de Inteligencia Artificial de Colorado (“CAIA”), estructurada más como una ley de protección al consumidor, impone un deber de cuidado a los creadores e implementadores de sistemas de IA de alto riesgo para proteger a los consumidores de cualquier riesgo conocido o razonablemente previsible de discriminación algorítmica. La CAIA no regula exclusivamente a los empleadores. Más bien, los sistemas de IA de alto riesgo incluyen sistemas de IA que toman, o ayudan a tomar, decisiones relacionadas con el empleo. Según la CAIA, los empleadores de Colorado también deben completar evaluaciones de impacto anuales, proporcionar varios avisos a los empleados e implementar una política y un programa de gestión de riesgos. Sustancialmente similar a la CAIA es Ley de la Cámara de Representantes 5322un proyecto de ley pendiente en Illinois que incluye obligaciones de informes afirmativos y evaluaciones anuales para los “implementadores” de sistemas de IA, que incluyen, entre otros, a los empleadores.
Por el contrario, la HB 3773 modifica la Ley de Derechos Humanos de Illinois para convertir la discriminación algorítmica en una violación de los derechos civiles que puede ser objeto de acciones judiciales. En otras palabras, la HB 3773 permite a los empleados de Illinois solicitar una compensación en virtud de la Ley de Derechos Humanos del estado por discriminación derivada del uso de un sistema de inteligencia artificial por parte de su empleador. A diferencia de la CAIA de Colorado, la Ley no exige una acción afirmativa por parte de un empleador para evaluar, informar o mitigar los riesgos derivados del uso de sistemas de inteligencia artificial.
Como informamos anteriormente, en varios estados hay leyes pendientes para abordar la discriminación algorítmica y hay indicios de que las cuestiones que surgen del uso de sistemas de IA también se están considerando a nivel federal.
Colorado e Illinois son actualmente las únicas jurisdicciones de EE. UU. que regulan el uso de sistemas de IA por parte de los empleadores. Sin embargo, todos los empleadores de EE. UU. deben tener en cuenta cómo la regulación a nivel federal y estatal podría afectar el uso de un sistema de IA.
Nuestro equipo seguirá de cerca estos y otros avances en materia de leyes laborales estatales. Si tiene preguntas o necesita orientación sobre el uso de un sistema de inteligencia artificial, comuníquese con su abogado de Squire Patton Boggs.