Los avances permanentes de la inteligencia artificial (IA) en todos los ámbitos ha llevado a varios estados de EEUU a establecer legislaciones que brinden mayor transparencia sobre los modelos utilizados para crear algoritmos o avisen a los usuarios que están viendo un aviso generado con esta tecnología.
Un caso concreto es el de California, donde rige la Ley de Transparencia en la Inteligencia Artificial Fronteriza, que impone regulaciones específicas sobre las empresas dedicadas a desarrollar modelos y herramientas de IA.
Según la ley, estas empresas deberán informar cómo siguen las mejores prácticas para crear sistemas seguros. Además, crea un mecanismo para que reporten incidentes graves relacionados con la IA y refuerza la protección de los clientes que plantean inquietudes sobre riesgos para la salud y la seguridad.
Algo similar ocurrirá en el estado de Nueva York, donde la gobernadora Kathy Hochul firmó una ley para establecer marcos regulatorios de la IA.
La ley Hochul firmada por Hochul, denominada Responsible AI Safety and Education (RAISE), surge en un momento de rápida expansión de sistemas de IA altamente sofisticados, capaces de impactar desde la economía hasta la seguridad pública. Por ello, establece pautas de transparencia, reporte de incidentes y crea una unidad para supervisar el cumplimento de estas obligaciones.
La firma de la ley RAISE representa un desafío innovador en el terreno de la regulación tecnológica. A diferencia de normativas tradicionales enfocadas en telecomunicaciones o servicios financieros, directamente a uno de los sectores más dinámicos y con menos marcos regulatorios: la IA de alta capacidad.
Cabe aclarar que los llamados “modelos de IA de frontera o de alta capacidad” son sistemas cuya escala computacional y complejidad técnica supera umbrales definidos, y que por su naturaleza pueden influir en decisiones automatizadas de gran impacto o generar contenidos sin supervisión humana directa.
Puntos clave de la ley RAISE:
Obligación de transparencia. Los desarrolladores de modelos de IA deben crear y publicar información detallada sobre sus protocolos de seguridad.
Reporte rápido de incidentes. Cualquier hecho debe ser reportado dentro de las 72 horas de ser identificado.
Multas por violación. El fiscal general del estado puede iniciar acciones civiles con multas de hasta un millón de dólares por la primera violación y hasta tres millones por violaciones posteriores.
La aprobación de esta legislación fue un proceso arduo. Tras el paso del proyecto por la Asamblea y el Senado estatal en junio de 2025, la versión final que llegó a la mesa de Hochul incluyó enmiendas acordadas entre el Ejecutivo y legisladores para precisar obligaciones de reporte y crear estructuras de supervisión más fuertes, en parte inspiradas por iniciativas similares como las de California.
La gobernadora Kathy Hochul destacó que, aunque la IA trae avances impresionantes en medicina, educación y productividad, también plantea “riesgos serios” que requieren mecanismos de precaución y transparencia. En su comunicación oficial, afirmó que la ley establece “un estándar fuerte y sensato para la seguridad de la IA”, y que “posiciona a Nueva York a la vanguardia de los estados que exigen responsabilidad a los grandes desarrolladores de tecnología”.
Más…fuente: https://www.clarin.com/estados-unidos/buenas-noticias-nueva-york-kathy-hochul-firmo-ley-pionera-regula-ia-modelos-avanzados_0_dtaEPjTSJS.html