El autoridad de California Gavin Newsom firma una elaboración de relato creando medidas de seguridad de IA

SACRAMENTO, California (AP) – El autoridad de California Gavin Newsom firmó el lunes una ley que tiene como objetivo evitar que las personas usen poderosos modelos de inteligencia fabricado para actividades potencialmente catastróficas como construir una biowapon o cerrar un sistema bancario.

La medida se produce cuando Newsom promocionó a California como líder en la regulación de la IA y criticó la inacción a nivel federal en una conversación nuevo con el ex presidente Bill Clinton. La nueva ley establecerá algunas de las primeras regulaciones en la nación sobre modelos de IA a gran escalera sin dañar a la industria circunscrito del estado, dijo Newsom. Muchas de las principales compañías de IA del mundo se encuentran en California y tendrán que seguir los requisitos.

“California ha demostrado que podemos establecer regulaciones para proteger a nuestras comunidades y al mismo tiempo avalar que la creciente industria de IA continúe prosperando. Esta código entienda ese nivelación”, dijo Newsom en un comunicado.

La código requiere que las compañías de IA implementen y revelen protocolos de seguridad públicos para evitar que sus modelos más avanzados se utilicen para causar daños importantes. Las reglas están diseñadas para cubrir los sistemas AI si cumplen con un principio de “frontera” que indica que ejecutan en una gran cantidad de potencia informática.

Dichos umbrales se basan en cuántos cálculos están funcionando las computadoras. Aquellos que elaboraron las regulaciones han agradecido los umbrales numéricos son un punto de partida imperfecto para distinguir los sistemas de IA generativos de maduro rendimiento de la próxima concepción que podría ser aún más poderoso. Los sistemas existentes son fabricados en gran medida por compañías con sede en California como Anthrope, Google, Meta Platforms y OpenAI.

La código define un aventura catastrófico como poco que causaría al menos $ 1 mil millones en daños o más de 50 lesiones o muertes. Está diseñado para guarecerse contra la IA que se utiliza para actividades que podrían causar una interrupción masiva, como piratear una red eléctrica.

Las empresas igualmente tienen que informar al estado cualquier incidente de seguridad crítico internamente de los 15 días. La ley crea protecciones de denunciantes para los trabajadores de IA y establece una abundancia pública para los investigadores. Incluye una multa de $ 1 millón por violación.

Dibujó la concurso de algunas compañías tecnológicas, lo que argumentó que la código de IA debería hacerse a nivel federal. Pero Anthrope dijo que las regulaciones son “salvaguardas prácticas” que hacen oficial las prácticas de seguridad que muchas compañías ya están haciendo voluntariamente.

“Si admisiblemente los estándares federales siguen siendo esenciales para evitar un alicatado de regulaciones estatales, California ha creado un situación musculoso que equilibra la seguridad pública con innovación continua”, dijo Jack Clark, cofundador y director de política de Anthrope, en un comunicado.

La firma se produce posteriormente de que Newsom el año pasado vetó una traducción más amplia de la código, del flanco de las compañías tecnológicas que dijeron que los requisitos eran demasiado rígidos y habría obstaculizado la innovación. En cambio, Newsom le pidió a un clan de varios expertos de la industria, incluido el pionero de IA Fei-Fei Li, que desarrollara recomendaciones sobre barandillas en torno a poderosos modelos de IA.

La nueva ley incorpora recomendaciones y comentarios del clan de expertos de IA de Newsom y la industria, dijeron los partidarios. La código siquiera pone el mismo nivel de requisitos de informes en las nuevas empresas para evitar dañar la innovación, dijo el senador estatal Scott Wiener de San Francisco, el autor del esquema de ley.

“Con esta ley, California está intensificando, una vez más, como líder mundial tanto en innovación y seguridad de la tecnología”, dijo Wiener en un comunicado.

La valentía de Newsom se produce cuando el presidente Donald Trump en julio anunció un plan para eliminar lo que su empresa considera regulaciones “onerosas” para acelerar la innovación de IA y consolidar la posición de los Estados Unidos como el líder mundial de IA. Los republicanos en el Congreso a principios de este año intentaron prohibir sin éxito a los estados y las localidades de la regulación de la IA durante una división.

Sin regulaciones federales más fuertes, los estados de todo el país han pasado los últimos abriles tratando de controlar la tecnología, abordando todo, desde profundos en las elecciones hasta la “terapia” de IA. En California, la vigencia aprobó este año una serie de proyectos de ley para encarar las preocupaciones de seguridad en torno a los chatbots de IA para los niños y el uso de IA en el superficie de trabajo.

California igualmente ha sido uno de los primeros en adoptar tecnologías de IA. El estado ha implementado herramientas generativas de IA para detectar incendios forestales y encarar la congestión de las carreteras y la seguridad viario, entre otras cosas.

___

El reportero de Associated Press Matt O’Brien contribuyó al documentación.

Leave a Comment