Por qué las organizaciones necesitan una política de inteligencia artificial (Parte 1)


Imagen gráfica que muestra una sala de juntas empresarial en la que se desarrolla una política de inteligencia artificial.

Tiempo estimado de lectura: 8 minutos

Considerando algunos de los desafíos que enfrenta actualmente la inteligencia artificial (IA), podría resultar tentador decir que la IA no es la panacea que todos esperaban que fuera. Personalmente, creo que todavía estamos en una etapa muy temprana de la curva de adopción de la IA, por lo que las organizaciones deben seguir prestando atención a lo que se está desarrollando yRealizar experimentos para ver cómo funciona.

En el pasado, hemos hablado sobre la necesidad de que las organizaciones desarrollen una IAestrategiaHoy quiero hablar sobre el desarrollo de una IA interna.políticaTuve la oportunidad de escuchar a nuestra amiga Carrie Cherveny hablar en la Conferencia Anual 2024 de SHRM sobre “Cómo ser más inteligente en materia de IA”, lo que resultó muy informativo. Entonces, le pregunté a Carrie si podíamos hablar sobre el desarrollo de políticas de IA y, afortunadamente, dijo que sí.

Tener una política de IA es un paso fundamental para estar “preparado” para la IA en su lugar de trabajo. Una política de IA es ahora tan esencial como, por ejemplo, sus políticas contra el acoso o las de la Ley de Licencia Familiar y Médica (FMLA).

Carrie Cherveny es directora de cumplimiento y vicepresidenta sénior de soluciones estratégicas en HUB International. En su función, Carrie trabaja con los clientes para desarrollar estrategias que garanticen el cumplimiento y la mitigación de riesgos en lo que respecta a los beneficios y las prácticas laborales. Como siempre, recuerde que sus comentarios no deben interpretarse como asesoramiento legal ni como pertinentes a ninguna situación fáctica específica. Si tiene preguntas detalladas, debe dirigirlas directamente a su amable abogado laboral local.

Carrie, gracias por estar aquí. ¿Por qué las organizaciones deben considerar tener una política interna de IA (además de una estrategia de IA)?

Carrie Cherveny, Carrie B Cherveny, abogada, HUB International Southeast, carreras de RR.HH., profesional legal, compensación, FLSA, COVID-19, IA, política de inteligencia artificial

(Cherveny) Hoy en día, la IA está en todas partes. ¿Viste alguno de los Juegos Olímpicos? Parecía que más de la mitad de los anuncios eran de plataformas de IA. De hecho, el 10 de junio de 2024, Apple anunció el próximo lanzamiento de Apple Intelligence, su nueva tecnología de inteligencia artificial que se integrará en el lanzamiento de iOS18. Según el sitio web de la compañía,Nota de prensa de Apple“Aprovecha el poder del silicio de Apple para comprender y crear lenguaje e imágenes, tomar medidas en todas las aplicaciones y aprovechar el contexto personal para simplificar y acelerar las tareas cotidianas”. Esté preparado o no, la IA ya está aquí. Tener una política de IA es un paso fundamental para estar “preparado” para la IA en su lugar de trabajo. Una política de IA ahora es tan esencial como, por ejemplo, su política contra el acoso oPolíticas de la Ley de Licencia Médica y Familiar (FMLA).

Los empleadores deben tomar algunas decisiones. Deben decidir si permitirán el uso de IA en el lugar de trabajo y si la IA se limitará a una plataforma específica. Asimismo, deberán identificar los departamentos y funciones a los que se les permite o prohíbe el uso de IA. Las políticas bien diseñadas están diseñadas para abordar específicamente estas cuestiones y otras más.

A la hora de elaborar políticas, a menudo los departamentos de recursos humanos toman la iniciativa. ¿Quién debería participar en la elaboración de una política de IA?

(Cherveny) La IA tiene el potencial de impactar cada rincón de su organización. Esto significa que la política de IA de su organización debe ser multifacética e incluir varias disciplinas temáticas. Las organizaciones deben establecer un comité de IA e incluir, como mínimo:

  • Asesoría legal/interna
  • Recursos humanos
  • Finanzas/Contabilidad
  • Operaciones

Otros miembros del comité de expertos en la materia (SME) dependerán de la naturaleza del negocio. Por ejemplo, una organización de atención médica probablemente incluiría a susLey de Portabilidad y Responsabilidad del Seguro Médico (HIPAA)Responsable de privacidad. Una empresa de servicios financieros puede incluir su departamento de cumplimiento junto con un responsable de privacidad de datos. Los empleadores con empleados sindicalizados pueden querer incluir un representante sindical.

Una vez que determinamos quiénes deben participar en el desarrollo de una política de IA, ¿existe un marco que puedan seguir para identificar áreas clave a considerar?

(Cherveny) El comité de IA no solo debería trabajar en conjunto para desarrollar una política integral, sino que también debería encargarse de examinar las herramientas de IA. Por ejemplo, un comité debería desarrollar un proceso de descubrimiento sólido para comprender mejor la reputación del proveedor, cómo maneja la información ingresada en su sistema y sus medidas de seguridad de datos y ciberseguridad.

La organización debe elaborar unas “reglas de juego” completas, claras e inequívocas para el uso de la IA en el lugar de trabajo que incluyan, por ejemplo:

  • Usos prohibidos de la IA.Considere los tipos de datos que los empleados nunca podrían ingresar en una plataforma de IA, como información de identificación personal (PII), información de salud protegida (PHI), información confidencial de la empresa (finanzas, metodologías, secretos comerciales, información privilegiada entre abogado y cliente, etc.).
  • Usos permitidos de la IA¿Cuándo puede un empleado utilizar IA en el desempeño de su trabajo? Por ejemplo, la IA puede generar eficiencias para la investigación general, la creación o identificación de documentos de muestra, la redacción de un documento escrito o ayudas laborales (como el desarrollo de habilidades, el aprendizaje de un nuevo sistema o una herramienta en un sistema como las tablas dinámicas de Excel).
  • Medidas de seguridad necesarias.¿Se exigirá a los empleados que “verifiquen los hechos” de los datos o hallazgos obtenidos mediante IA? Todos hemos leído sobre los abogados que presentaron informes a los tribunales llenos de casos y citaciones ficticias. Se debería exigir a los empleados que verifiquen fuentes confiables para garantizar que los hallazgos de la IA sean precisos y creíbles. Hay algunas plataformas de IA que también proporcionarán las citas y las fuentes de sus hallazgos. Por ejemplo, Microsoft CoPilot proporciona las citas y las fuentes de sus hallazgos. Sin embargo, incluso cuando la IA proporciona sus fuentes, el usuario final también debe verificar las fuentes fuera de las referencias de la IA para garantizar un trabajo completo, minucioso y preciso.
  • Avisos y divulgaciones obligatorias.¿Exigirá a sus empleados que revelen cuándo utilizan IA? Por ejemplo, según una nueva ley del estado de Nueva York, los usuarios deben revelar cuándo utilizan IA. La notificación y la divulgación se están convirtiendo rápidamente en una práctica recomendada en los requisitos de las políticas de IA. Los empleadores pueden considerar exigir a los empleados que revelen el propósito o la razón para usar la IA, identifiquen las plataformas utilizadas y un resumen de los resultados que se incluyeron en el producto del trabajo.
  • Atribución y citas obligatorias.¿Exigirá a los empleados que identifiquen las herramientas de IA específicas en las que confiaron al desarrollar su producto de trabajo? Esto es un poco como una política de notificación o divulgación, pero requiere que el empleado identifique específicamente la herramienta o plataforma de IA, no simplemente el uso de IA.

Como estamos hablando de IA, le pedí a Microsoft CoPilot un “ejemplo de política de uso de IA para empleadores en el lugar de trabajo”. Esto es lo que obtuvo:

Política de uso de herramientas de inteligencia artificial (plantilla creada por Microsoft CoPilot)

Resumen de la política y propósito:La política de uso de herramientas de inteligencia artificial de nuestra empresa tiene como objetivo describir el uso responsable y seguro de las herramientas de inteligencia artificial (IA) en el lugar de trabajo. Esto es especialmente importante cuando se manejan datos confidenciales e información confidencial de la empresa y de los clientes.

Alcance:Las herramientas de inteligencia artificial están revolucionando nuestro trabajo al automatizar tareas, mejorar la toma de decisiones y brindar información. Sin embargo, también plantean desafíos en materia de seguridad de la información y protección de datos.

Objetivo:El propósito de esta política es garantizar que todos los empleados utilicen las herramientas de IA de manera segura, responsable y confidencial, cumpliendo con los requisitos para evaluar los riesgos de seguridad y proteger los datos confidenciales.

Declaración de política:Reconocemos los riesgos potenciales que las herramientas de inteligencia artificial representan para nuestras operaciones y clientes. Nos comprometemos a mantener la confidencialidad, integridad y disponibilidad de todos los datos de la empresa y de los clientes.

Mejores prácticas de seguridad:Se espera que los empleados sigan estas prácticas recomendadas al utilizar herramientas de IA:

  • Evaluación de herramientas de IA:Antes de utilizar cualquier herramienta de IA, evalúe sus características de seguridad, términos de servicio y política de privacidad. Verifique la reputación del desarrollador de la herramienta y los servicios de terceros involucrados.
  • Protección de Datos Confidenciales:No cargue ni comparta datos confidenciales, de propiedad exclusiva o regulados sin la aprobación previa del departamento correspondiente.
  • Control de acceso:No otorgue acceso a herramientas de IA fuera de la empresa sin la debida aprobación y el cumplimiento de los requisitos de seguridad.
  • Uso de herramientas de IA de confianza:Utilice únicamente herramientas de inteligencia artificial que tengan buena reputación y cumplan con nuestros estándares de seguridad y protección de datos.

Cumplimiento:Todos los empleados deben cumplir con esta política como parte de sus condiciones de empleo. Cualquier incumplimiento puede dar lugar a medidas disciplinarias que pueden incluir el despido.

Considere esta plantilla como un punto de partida y modifíquela en función de sus necesidades específicas y requisitos legales. También es recomendable consultar con un asesor legal para garantizar el cumplimiento de todas las leyes y regulaciones aplicables. Recuerde que una política eficaz es aquella que es clara, integral y aplicable.

Logotipo de HUB International Insurance

Quiero agradecer a Carrie por compartir su conocimiento con nosotros. ¡Y me encanta que haya incluido la plantilla de política de IA de muestra para que comencemos a pensar! Si desea obtener más información, consulte este seminario web archivado de HUB International sobre “Humanizar los RRHH en la era de la IA: abrazar la revolución tecnológica“.

Una vez que las organizaciones deciden que necesitan crear una política de IA, comienza el desafío de determinar qué incluir en la política. Carrie mencionó algunas consideraciones iniciales aquí, pero en nuestro próximo artículo, analizaremos en profundidad los componentes de una política de inteligencia artificial. ¡Estén atentos!

Imagen creada por DALL-E que demuestra la importancia de la supervisión humana en la IA

El poste Por qué las organizaciones necesitan una política de inteligencia artificial (Parte 1) apareció por primera vez en camarero de recursos humanos.

Leave a Reply

Your email address will not be published. Required fields are marked *