Durante poco más de dos años, los líderes de tecnología a la vanguardia del desarrollo de inteligencia artificial habían hecho una solicitud inusual a los legisladores. Querían que Washington los regulara.

Los ejecutivos de tecnología advirtieron a los legisladores que la IA generativa, que puede producir texto e imágenes que imitan las creaciones humanas, tenían el potencial de interrumpir la seguridad nacional y las elecciones, y eventualmente podría eliminar millones de empleos.

La IA podría ir “bastante equivocada”, Sam Altman, director ejecutivo de OpenAI, testificó en el Congreso en mayo de 2023. “Queremos trabajar con el gobierno para evitar que eso suceda”.

Pero desde las elecciones del presidente Trump, los líderes tecnológicos y sus compañías han cambiado su tono, y en algunos casos revertieron el curso, con las audaces solicitudes de gobierno para mantenerse fuera de su camino, en lo que se ha convertido en el impulso más contundente para avanzar en sus productos.

En las últimas semanas, Meta, Google, Openai y otros han pedido a la administración Trump que bloquee las leyes estatales de IA y que declare que es legal que usen material con derechos de autor para capacitar a sus modelos de IA. También están presionando para usar datos federales para desarrollar la tecnología, así como para un fácil acceso a fuentes de energía para sus demandas informáticas. Y han pedido exenciones de impuestos, subvenciones y otros incentivos.

El cambio ha sido habilitado por Trump, quien ha declarado que AI es el arma más valiosa de la nación para superar a China en tecnologías avanzadas.

En su primer día en el cargo, el Sr. Trump firmó una orden ejecutiva para revertir las reglas de pruebas de seguridad para la IA utilizada por el gobierno. Dos días después, firmó otra orden, solicitando sugerencias de la industria para crear políticas para “mantener y mejorar el dominio global de IA de Estados Unidos”.

Las empresas tecnológicas “están realmente envalentonadas por la administración Trump, e incluso problemas como la seguridad y la IA responsable han desaparecido por completo de sus preocupaciones”, dijo Laura Caroli, miembro principal del Centro de AI Wadhwani en el Centro de Estudios Estratégicos e Internacionales, un Tank Tank sin fines de lucro. “Lo único que cuenta es establecer el liderazgo en la IA”

A muchos expertos en políticas de IA se preocupan de que dicho crecimiento desenfrenado pueda ir acompañado de, entre otros problemas potenciales, la rápida propagación de la desinformación política y de salud; discriminación por selecciones de aplicaciones financieras, laborales y de vivienda automatizadas; y ataques cibernéticos.

La reversión de los líderes tecnológicos es marcada. En septiembre de 2023, más de una docena de ellos respaldaron la regulación de la IA en una cumbre en Capitol Hill organizada por el senador Chuck Schumer, demócrata de Nueva York y el líder de la mayoría en ese momento. En la reunión, Elon Musk advirtió sobre “riesgos civilizacionales” planteados por AI

Después, la administración Biden comenzó a trabajar con las compañías de IA más grandes para probar voluntariamente sus sistemas por debilidades de seguridad y estándares obligatorios para el gobierno. Estados como California introdujeron una legislación para regular la tecnología con los estándares de seguridad. Y editores, autores y actores demandaron a compañías tecnológicas por su uso de material con derechos de autor para capacitar a sus modelos de IA.

(El New York Times ha demandado a Openai y a su socio, Microsoft, acusándolos de infracción de derechos de autor con respecto al contenido de noticias relacionados con los sistemas de IA. Openai y Microsoft han negado esas afirmaciones).

Pero después de que Trump ganó las elecciones en noviembre, las compañías tecnológicas y sus líderes inmediatamente aumentaron su cabildeo. Google, Meta y Microsoft donaron $ 1 millón a la inauguración del Sr. Trump, al igual que el Sr. Altman y Tim Cook. Mark Zuckerberg de Meta lanzó una fiesta de inauguración y se ha reunido con Trump en numerosas ocasiones. El Sr. Musk, que tiene su propia compañía de IA, Xai, ha pasado casi todos los días al lado del presidente.

A su vez, el Sr. Trump ha aclamado anuncios de IA, incluido un plan de OpenAi, Oracle y SoftBank para invertir $ 100 mil millones en centros de datos de IA, que son edificios enormes llenos de servidores que proporcionan potencia informática.

“Tenemos que apoyarnos en el futuro de la IA con optimismo y esperanza”, dijo el vicepresidente JD Vance a funcionarios gubernamentales y líderes tecnológicos la semana pasada.

En una cumbre de IA en París el mes pasado, el Sr. Vance también pidió políticas de IA “a favor del crecimiento”, y advirtió a los líderes mundiales contra la “regulación excesiva” que podría “matar una industria transformadora tal como está despegando”.

Ahora las compañías tecnológicas y otras afectadas por la IA están ofreciendo respuestas a la segunda orden ejecutiva de IA del presidente, “eliminando las barreras al liderazgo estadounidense en la inteligencia artificial”, lo que exigió el desarrollo de una política de IA a favor del crecimiento dentro de los 180 días. Cientos de ellos han presentado comentarios ante la Fundación Nacional de Ciencias y la Oficina de Política de Ciencia y Tecnología para influir en esa política.

Operai presentó 15 páginas de comentarios, pidiendo que el gobierno federal se adelantara a la creación de leyes de IA. La compañía con sede en San Francisco también invocó a Deepseek, un chatbot chino creado para una pequeña fracción del costo de los chatbots desarrollados por los Estados Unidos, diciendo que era un importante “medidor del estado de esta competencia” con China.

Si los desarrolladores chinos “tienen acceso sin restricciones a los datos y las empresas estadounidenses se quedan sin acceso de uso justo, la carrera por la IA ha terminado de manera efectiva”, dijo Openai, solicitando que el gobierno de los Estados Unidos entrega los datos para alimentar sus sistemas.

Muchas compañías tecnológicas también argumentaron que su uso de trabajos con derechos de autor para capacitar a los modelos de IA era legal y que la administración debería tomar su lado. Operai, Google y Meta dijeron que creían que tenían acceso legal a obras con derechos de autor como libros, películas y arte para capacitación.

Meta, que tiene su propio modelo de IA, llamado Llama, empujó a la Casa Blanca a emitir una orden ejecutiva u otra acción para “aclarar que el uso de datos disponibles para entrenar modelos es de uso inequívocamente justo”.

Google, Meta, Openai y Microsoft dijeron que su uso de datos con derechos de autor era legal porque la información se transformó en el proceso de capacitar a sus modelos y no se estaba utilizando para replicar la propiedad intelectual de los titulares de derechos. Los actores, autores, músicos y editores han argumentado que las compañías tecnológicas deberían compensarlos por obtener y usar sus obras.

Algunas compañías tecnológicas también han presionado a la administración Trump para respaldar la IA “código abierto”, lo que esencialmente hace que el código de computadora esté disponible gratuitamente para ser copiado, modificado y reutilizado.

Meta, propietaria de Facebook, Instagram y WhatsApp, ha presionado más fuerte para una recomendación de política sobre el abastecimiento abierto, que otras compañías de IA, como Anthrope, han descrito que aumentan la vulnerabilidad a los riesgos de seguridad. Meta ha dicho que la tecnología de código abierto acelera el desarrollo de IA y puede ayudar a las nuevas empresas a ponerse al día con empresas más establecidas.

Andreessen Horowitz, una firma de capital de riesgo de Silicon Valley con apuestas en docenas de nuevas empresas de IA, también solicitó el apoyo de modelos de código abierto, en los que muchas de sus compañías confían para crear productos de IA.

Y Andreessen Horowitz dio los argumentos más marcados contra las nuevas regulaciones para las leyes existentes de IA sobre seguridad, protección del consumidor y derechos civiles son suficientes, dijo la firma.

“Prohibir los daños y castigar a los malos actores, pero no requieren que los desarrolladores salten a través de onerosos aros regulatorios basados ​​en el miedo especulativo”, dijo Andreessen Horowitz en sus comentarios.

Otros continuaron advirtiendo que la IA necesitaba ser regulada. Los grupos de derechos civiles pidieron auditorías de sistemas para garantizar que no discriminen a las poblaciones vulnerables en las decisiones de vivienda y empleo.

Los artistas y editores dijeron que las compañías de IA necesitaban revelar su uso de material de derechos de autor y le pidieron a la Casa Blanca que rechazara los argumentos de la industria tecnológica de que su uso no autorizado de la propiedad intelectual para capacitar a sus modelos estaba dentro de los límites de la ley de derechos de autor. El Centro de Política de AI, un grupo de expertos y grupo de cabildeo, pidió auditorías de sistemas de terceros para vulnerabilidades de seguridad nacional.

“En cualquier otra industria, si un producto daña o perjudica negativamente a los consumidores, ese proyecto es defectuoso y los mismos estándares deben aplicarse para la IA”, dijo KJ Bagchi, vicepresidente del Centro de Derechos Civiles y Tecnología, que presentó una de las solicitudes.

Compartir
Exit mobile version