Connecticut aprueba una ley de regulación de IA integral SB5

La SB5 de Connecticut aprobada por ambas cámaras el 1 de mayo y pasa al gobernador, convirtiéndola en una de las leyes estatales de IA más completas en EE. UU.

Resumen

  • La SB5 de Connecticut fue aprobada por 131-17 en la Cámara y 32-4 en el Senado el 1 de mayo, con el gobernador Lamont confirmando que firmará el proyecto de ley.
  • La ley cubre compañeros de IA, transparencia en medios sintéticos, herramientas automatizadas de decisión laboral y desarrolladores de modelos fronterizos, con fechas de entrada en vigor escalonadas desde octubre de 2026.
  • La ley entra en vigor a pesar de la orden ejecutiva de la administración Trump instando a los estados a evitar regulaciones onerosas de IA, haciendo de Connecticut el último estado en desafiar la presión federal.

La SB5 de Connecticut aprobada el 1 de mayo, convirtiéndose en una de las leyes estatales de IA más amplias en EE. UU. La Cámara votó 131-17 a favor y el Senado la aprobó 32-4, con apoyo bipartidista en ambas cámaras. El gobernador Ned Lamont confirmó que firmará el proyecto de ley, que ahora lleva el título formal de Ley de Responsabilidad y Transparencia en Inteligencia Artificial de Connecticut.

La ley cubre compañeros de IA, herramientas automatizadas de decisión laboral, procedencia de medios sintéticos y desarrolladores de modelos fronterizos por encima de los umbrales definidos.

La primera fecha de entrada en vigor es el 1 de octubre de 2026. La mayoría de las disposiciones se hacen exigibles exclusivamente por el Fiscal General del estado como prácticas comerciales injustas o engañosas, sin derecho privado de acción.

Lo que requiere la ley

Para los empleadores, la SB5 exige divulgación cuando se utilizan herramientas automatizadas en decisiones de reclutamiento o contratación y prohíbe a las empresas usar dichas herramientas como defensa contra reclamaciones de discriminación. Las disposiciones laborales entran en vigor el 1 de octubre de 2026.

Las reglas para compañeros de IA, que cubren chatbots que fomentan el apego emocional, entran en vigor en enero de 2027. Los sistemas de IA generativa con más de un millón de usuarios deben adoptar estándares de datos de procedencia alineados con C2PA.

Los desarrolladores de frontera deben establecer programas internos de seguridad en IA y proteger a los empleados que reporten preocupaciones de seguridad. Como informó crypto.news, la regulación de IA para compañeros se ha acelerado en los estados de EE. UU. en 2026 tras demandas en Pensilvania y Kentucky por daños causados por chatbots.

Curso de colisión federal

Connecticut se une a California, Colorado y otros en la aprobación de leyes específicas de IA a pesar de la orden ejecutiva de Trump, que la Casa Blanca dice que está destinada a preemptar las reglas estatales consideradas onerosas.

La SB5 incluye un sandbox regulatorio y un grupo de trabajo, con la primera reunión requerida antes del 31 de agosto de 2026, para definir la implementación. Como rastreó crypto.news, las agencias federales están desplegando simultáneamente herramientas de IA para llenar vacíos regulatorios, creando un entorno de aplicación en capas para las empresas que operan en diferentes estados.

El Fiscal General William Tong dijo que su asesoramiento de febrero de 2026 a las empresas ya señalaba que su oficina consideraba la IA dentro de su competencia. La SB5 le otorga a su oficina herramientas significativamente ampliadas y diseñadas específicamente para actuar en esa dirección.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado