29 de septiembre de 2023: Se ha hablado mucho sobre el uso de programas de inteligencia artificial generativa («IA») para preparar de manera rápida y eficiente documentos relacionados con el trabajo. Los programas de IA pueden analizar cantidades masivas de datos para identificar patrones y tendencias que afectan el lugar de trabajo. Si bien la IA tiene el potencial de brindar a los empleadores soluciones rápidas para tareas que a los empleados humanos les llevaría demasiado tiempo completar, los empleadores deben tener cuidado al compartir datos con aplicaciones de IA por varias razones, incluidas las preocupaciones por la privacidad. Los empleadores no deben asumir que cualquier herramienta tecnológica nueva es más segura que cualquier otra plataforma digital, o que el cumplimiento está garantizado al utilizar estas herramientas por ningún motivo.
Aunque Estados Unidos no cuenta con protecciones de privacidad integrales y de amplia aplicación, como las que se otorgan a las personas en virtud del Reglamento General de Protección de Datos («GDPR») de la Unión Europea y sus equivalentes en el Reino Unido y Suiza, un mosaico de leyes federales y estatales aborda privacidad en casa aquí.
Algunas leyes estatales de privacidad, como la Ley de Protección de Datos del Consumidor de Virginia («VCDPA»), que solo rigen la recopilación y el uso de información personal del consumidor, eximen los datos de los empleados de los requisitos reglamentarios. Sin embargo, otras leyes, como la Ley de Derechos de Privacidad de California («CPRA»), si corresponde, exigen que los empleados reciban un aviso sobre las prácticas de manejo de datos personales de una empresa antes o durante la recopilación inicial de datos. Casi todos los estados están considerando, y muchos ya han promulgado, sus propias versiones de la VCDPA o CPRA, y aunque muchos eximen los datos de los empleados de esas nuevas leyes, esa tendencia no continuará. Además, Illinois y otros estados tienen leyes de privacidad biométrica que exigen que se entreguen avisos a los empleados antes de cualquier recopilación de sus datos biométricos (por ejemplo, huellas dactilares, escaneos de retina) y que la entidad involucrada debe obtener el consentimiento del empleado antes de la recopilación o el procesamiento. . Esos datos.
Además, existen leyes a nivel federal que protegen ciertos tipos de información de los empleados contra la divulgación, como la Ley de No Discriminación de Información Genética («GINA»), que requiere que los empleadores mantengan la información genética confidencial excepto en circunstancias muy limitadas. Todas estas leyes imponen a la empresa aplicable la obligación de proteger la información personal que procesa y capacitar a los empleados sobre el manejo adecuado de los datos involucrados.
En medio de estas leyes de privacidad complejas y en constante cambio, así como las organizaciones toman medidas para proteger los datos de los clientes, los empleadores deben estar atentos a la protección de los datos de los empleados para garantizar el cumplimiento de las leyes de privacidad federales y estatales. Si las políticas y la capacitación corporativas en materia de ciberseguridad abordan solo los usos aceptables de la IA para las operaciones comerciales y la protección de los datos de los clientes, es posible que no protejan adecuadamente la información confidencial de los empleados o consideren programas de privacidad que la empresa necesita para limitar el intercambio. Cree información de los empleados u otros protocolos de cumplimiento, como exigir la provisión de divulgaciones requeridas u obtener el consentimiento antes de la recopilación de datos confidenciales.
Por este motivo, las políticas de IA aplicadas por las empresas deben abordar el uso de estas tecnologías por parte de recursos humanos («RRHH») y otros empleados que habitualmente tienen acceso a los datos de los empleados, incluidas las condiciones médicas de los empleados, sus historiales de salud y la información potencialmente confidencial relacionada. Información biométrica. Sin la capacitación y las políticas adecuadas con respecto al uso de sistemas de inteligencia artificial, los empleadores pueden verse expuestos a violar las leyes de privacidad estatales y/o federales.
No todos los sistemas de IA son iguales. Los sistemas de IA «abiertos» (aquellos que no limitan la forma en que el sistema utiliza las entradas), como ChatGPT, Bard y otros «chatbots» de IA, están disponibles gratuitamente para todos los usuarios, tanto dentro como fuera del lugar de trabajo. . La información ingresada en un sistema de IA «abierto» puede compartirse con otro usuario involuntario y retenerse en la red neuronal de la IA, potencialmente de forma permanente, para usarse en un entrenamiento posterior del sistema.
Del mismo modo, los empleadores no deberían compartir ninguna información con estos sistemas de IA «abiertos» que no quieran publicar a un tercero, porque una vez que esa información ingresa al sistema, los empleadores no pueden controlar cómo se usa y difunde. el futuro
Por el momento, estos sistemas son una «caja negra» en lo que respecta a la privacidad, ya que las empresas de inteligencia artificial que los operan no han puesto a disposición de los usuarios toda la información necesaria para proporcionar a los empleadores toda la información necesaria ni obtener su consentimiento. , según lo exigen sus empleados para cumplir con diversas leyes de privacidad. Los empleadores deben considerar cómo los sistemas de inteligencia artificial usan o comparten información para poder abordar dicho uso y compartir en sus programas de cumplimiento de privacidad. Compartir datos de los empleados con un sistema de inteligencia artificial «abierto» puede violar las leyes de privacidad estatales y federales, especialmente si la información contiene información confidencial de identificación, de salud o genética.
Sin una formación adecuada sobre el uso adecuado de la tecnología de IA, los empleadores pueden, sin saberlo, compartir datos confidenciales de los empleados con sistemas de IA «abiertos». Por ejemplo, se le puede pedir a un profesional de recursos humanos que informe a un empleado que se le ha concedido una solicitud de una silla ergonómica para ayudar con el dolor de espalda relacionado con el embarazo. Si un profesional de recursos humanos le pide a ChatGPT que «escriba una carta solicitando una adaptación razonable para Jane Smith debido a su embarazo», esa información puede usarse para entrenar una herramienta de inteligencia artificial o revelarse a otro usuario de chatbot (potencialmente un tercero no autorizado que sepa que Jane Smith está embarazada). Por lo tanto, es imperativo que los empleadores expliquen a los empleados que la preocupación con ChatGPT no es el esfuerzo de lograr que los empleados produzcan un producto de trabajo original, sino más bien la protección de los derechos de privacidad de los compañeros de trabajo.
Como mejor práctica, y para garantizar el cumplimiento de las leyes de privacidad de datos, los empleadores deben capacitar a todos los empleados, especialmente aquellos con acceso a los archivos personales de los empleados y otra información personal, para que no «compartan abiertamente» información de los empleados, como información de salud, con «sistemas de inteligencia artificial». Los empleados que manejan estos datos deben comprender los requisitos de privacidad aplicables a la empresa y deben estar adecuadamente capacitados para comprender sus responsabilidades individuales con respecto al cumplimiento de las leyes de privacidad.
A diferencia de los sistemas de IA «abiertos», los sistemas de IA «cerrados» suelen ser propietarios y pueden limitar o prevenir situaciones en las que las indicaciones de los usuarios se comparten con usuarios externos. Al igual que con cualquier software o plataforma tecnológica, los empleadores deben revisar todos los programas de IA utilizados por los empleados, incluidos los sistemas «cerrados», y leer la proverbial letra pequeña que explica bajo qué circunstancias los datos ingresados en el sistema pueden compartirse con usuarios fuera del trabajo para garantizar el cumplimiento. . con las leyes de privacidad aplicables.
De hecho, muchas leyes de privacidad y seguridad de datos exigen que se lleve a cabo esta evaluación antes de confiar cualquier información personal a terceros, sin excepciones para los sistemas de inteligencia artificial. En consecuencia, los empleadores deben asegurarse de preguntar a los posibles proveedores de IA sobre sus protocolos de retención y seguridad de datos y asegurarse de que sean adecuados para proteger los datos de los empleados y permitir que la empresa cumpla con las leyes de privacidad y seguridad de datos aplicables.
El hecho de que el sistema esté «cerrado» no impide que un sistema de IA productivo proporcione información falsa o poco fiable, conocida como «ilusiones». Volviendo al ejemplo de un profesional de recursos humanos que desea utilizar herramientas de inteligencia artificial para formular una respuesta a la solicitud de adaptación médica de un empleado, incluso si a una empresa se le permite usar un sistema de inteligencia artificial «cerrado», ese profesional de recursos humanos aún debe revisar el resultado del sistema. Garantizar la precisión de la comunicación.
Las tecnologías de IA todavía están evolucionando, por lo que se deben monitorear de cerca y revisar cuidadosamente el producto del trabajo. Si bien los sistemas de inteligencia artificial pueden ser herramientas útiles y efectivas para algunos propósitos, no deberían reemplazar a los profesionales de recursos humanos y a los asesores legales responsables de gestionar los datos de los empleados y abordar las comunicaciones importantes en el lugar de trabajo.
Como ocurre con cualquier tecnología, los empleadores deben tomar las medidas adecuadas para evitar la exposición de los datos de los empleados cuando utilizan sistemas de inteligencia artificial. Evitar sistemas de IA «abiertos» cuando sea posible (o usarlos solo para procesar información que no esté sujeta a ningún control), tener especial cuidado al tratar con información personal y altamente sensible, capacitar a los empleados, garantizar que las herramientas de IA sean seguras y prestar atención a responsabilidad potencial al utilizar herramientas de inteligencia artificial para ayudar con tareas relacionadas con el trabajo. Varias leyes de privacidad son algunas de las mejores prácticas que los empleadores deben evitar. Los empleadores deberían considerar implementar programas integrales de cumplimiento de la privacidad, incluidas políticas y procedimientos escritos que aborden todas las obligaciones de privacidad impuestas a los empleadores para salvaguardar y proteger los datos de los empleados y clientes.
Las opiniones expresadas son las de los autores. No reflejan las opiniones de Reuters News, que, según los principios del Trust, está comprometida con la integridad, la independencia y la ausencia de prejuicios. Westlaw Today es propiedad de Thomson Reuters y opera independientemente de Reuters News.