A medida que las empresas pasan de las pruebas de IA a la implementación, el cumplimiento se vuelve central

Si 2025 se caracterizó por el debate y los pasos legislativos hacia las reglas de gobernanza de la IA, 2026 se caracterizará por acciones concretas de aplicación de la ley y plazos de cumplimiento. Esto muestra un análisis del panorama legal por Dos abogados de Baker Donelson publicados en la revista CPO..

Mientras los reguladores de la UE y EE. UU. imponen nuevos estándares de gobernanza y los tribunales abordan decisiones importantes en casos de propiedad intelectual relacionados con la IA, los equipos de cumplimiento tendrán mucho trabajo por delante para mantenerse al tanto de las nuevas líneas rojas y plazos, escriben los autores.

Desde agosto de 2025, los proveedores de determinados sistemas generales de IA (GPAI) en la UE deben crear y mantener documentación técnica detallada y ponerla a disposición de la Oficina de IA; proporcionar resúmenes detallados del contenido utilizado en los modelos de formación; y garantizar que existan políticas para el cumplimiento de los derechos de autor de la UE y otras leyes de propiedad intelectual.

Sin embargo, la investigación y aplicación de algunas de estas disposiciones, así como las sanciones por incumplimiento, no entrarán en vigor hasta agosto de 2026.

Si bien Estados Unidos ha observado la comparabilidad con la ley integral de IA de la UE, varios estados de EE. UU. han promulgado importantes regulaciones sobre IA, incluidos Colorado, California, Texas, Nueva York y Utah, muchas de las cuales entrarán en vigor en 2026 o el 1 de enero de 2027.

A partir de 2025, las regulaciones del Tesoro de Estados Unidos han prohibido a los estadounidenses invertir en entidades extranjeras, particularmente en China, que estén desarrollando inteligencia artificial con posibles aplicaciones militares o de vigilancia. Baker Donelson aconseja Los capitalistas de riesgo y los clientes de capital privado deben «examinar rigurosamente las empresas de cartera para determinar su exposición al desarrollo limitado de la IA en el extranjero».

Otra área de riesgo creciente es la responsabilidad de la IA agente. Se han planteado dudas sobre si un usuario está obligado por un administrador de contrato adverso de un agente de IA. Los tribunales también han comenzado a examinar si los usuarios o los desarrolladores son responsables de los errores autónomos. Baker Donelson aconseja a los clientes que revisen los contratos de proveedores de agentes de IA para garantizar que las cláusulas de indemnización aborden específicamente acciones autónomas y alucinaciones que resulten en pérdidas financieras.

Los autores también señalan que la Comisión Federal de Comercio de EE. UU. y el Departamento de Justicia, así como la Autoridad de Mercados y Competencia del Reino Unido, han comenzado a investigar ciertas «pseudofusiones» en las que empresas tecnológicas establecidas contratan la administración de una nueva empresa y otorgan licencias sobre su propiedad intelectual para evadir las revisiones de fusiones Hart-Scott-Rodino. Si se determina que tales acciones perjudican la competencia o monopolizan los recursos informáticos, estos acuerdos pueden rescindirse y la empresa adquirente puede ser sancionada.

El uso de inteligencia artificial y herramientas algorítmicas para la contratación y otras prácticas también está preparado para ser objeto de un mayor escrutinio por parte de los reguladores en 2026, según Baker Donelson. El uso de algoritmos de selección de currículums que no hayan sido sometidos a auditorías de sesgo podría dar lugar a la exposición a demandas colectivas en virtud del Título VII y la Ley de Discriminación por Edad en el Empleo de 1967 (ADEA), advierten los autores. Se recomienda a las organizaciones que exijan auditorías de parcialidad de terceros, cuando lo exija la ley, para todas las herramientas automatizadas de decisión laboral utilizadas en sus departamentos de recursos humanos.

A la luz de las nuevas reglas y riesgos, Baker Donelson Consulting recomienda los siguientes pasos para los abogados generales y los funcionarios de cumplimiento:

  • Inventario de activos de IA en toda su organización, incluido todo el uso de IA en la sombra, para garantizar una gobernanza y cumplimiento integrales;
  • Revisar todos los acuerdos con los proveedores y actualizarlos si es necesario para transferir la responsabilidad por la infracción de propiedad intelectual y los errores autónomos a los proveedores de IA;
  • Adoptar la norma de la regulación estatal más estricta en el diseño de programas de cumplimiento y monitorear continuamente el desarrollo del estado;
  • Establecer protocolos internos de respuesta a incidentes para casos de errores o alucinaciones relacionados con la IA y para consultas regulatorias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *