Inicio » Política & Regulación » La Ley para prevenir «desastres de IA» de California acepta sugerencias de Anthropic

La Ley para prevenir «desastres de IA» de California acepta sugerencias de Anthropic

El proyecto de ley SB 1047, diseñado para evitar catástrofes causadas por la inteligencia artificial, se suaviza tras la presión de Silicon Valley, aunque aún mantiene la responsabilidad de los desarrolladores.

En un movimiento que ha generado controversia, California ha decidido debilitar el proyecto de ley SB 1047, que busca prevenir desastres provocados por la inteligencia artificial (IA), justo antes de su votación final.

Este cambio se da tras considerar las sugerencias de la firma de IA Anthropic y otros opositores del sector tecnológico.

El jueves, el proyecto de ley pasó por el Comité de Apropiaciones de California, un paso crucial hacia su aprobación, pero con modificaciones significativas. Según el senador Wiener, «aceptamos una serie de enmiendas muy razonables propuestas, y creo que hemos abordado las preocupaciones centrales expresadas por Anthropic y muchos otros en la industria».

Estas enmiendas se suman a cambios previos realizados para acomodar las necesidades de la comunidad de código abierto, una fuente importante de innovación.

A pesar de las modificaciones, el objetivo principal del SB 1047 sigue siendo el mismo: evitar que grandes sistemas de IA causen muertes masivas o eventos de ciberseguridad que superen los U$S 500 millones en pérdidas, responsabilizando a los desarrolladores. Sin embargo, el proyecto de ley ahora otorga menos poder al gobierno de California para responsabilizar a los laboratorios de IA.

Cambios Clave en el Proyecto de Ley

Uno de los cambios más notables es que el fiscal general de California ya no puede demandar a las empresas de IA por prácticas de seguridad negligentes antes de que ocurra un evento catastrófico. En su lugar, puede solicitar medidas cautelares para detener operaciones peligrosas y aún puede demandar si un modelo de IA causa un evento catastrófico.

Además, el SB 1047 ya no contempla la creación de una nueva agencia gubernamental, la División de Modelos Fronterizos (FMD), aunque sí establece la Junta de Modelos Fronterizos dentro de la Agencia de Operaciones Gubernamentales existente.

Esta junta, que ahora cuenta con nueve miembros en lugar de cinco, establecerá umbrales de cómputo, emitirá guías de seguridad y regulaciones para auditores.

Otra enmienda importante es que los laboratorios de IA ya no necesitan presentar certificaciones de resultados de pruebas de seguridad «bajo pena de perjurio». Ahora, sólo deben ofrecer «declaraciones» públicas sobre sus prácticas de seguridad, sin imponer responsabilidad penal.

Reacciones y Próximos Pasos

Estas modificaciones han sido bien recibidas por los opositores del proyecto de ley, lo que podría facilitar su aprobación sin perder el apoyo de la industria de IA. Nathan Calvin, del Centro de Seguridad de la IA, afirmó que «el objetivo del SB 1047 es avanzar en la seguridad de la IA, permitiendo la innovación».

Sin embargo, algunos críticos consideran que los cambios son meramente superficiales.

Ocho congresistas de EE.UU. han solicitado al gobernador Newsom vetar el proyecto, argumentando que «no sería bueno para nuestro estado, la comunidad de startups ni el desarrollo científico».

El SB 1047 se dirige ahora al pleno de la Asamblea de California para una votación final. Si se aprueba, regresará al Senado debido a las enmiendas recientes antes de llegar al escritorio del gobernador Newsom para su firma o veto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com