Bloomberg — Las compañías tecnológicas como OpenAI, Meta Platforms Inc. (META) y Google, de Alphabet Inc. (GOOGL), se están movilizando para impedir que los estados de Estados Unidos regulen sus negocios de IA, tan lucrativos y en rápida evolución.
Las grandes empresas tecnológicas están ejerciendo presión tanto sobre la Casa Blanca, favorable a la inteligencia artificial, como sobre el Congreso, controlado por los republicanos, a raíz de la aprobación de importantes leyes relacionadas con la IA en cinco estados, entre ellos Texas y California.
Ver más: Meta sella acuerdo de US$10.000 millones con Google Cloud para reforzar su apuesta por la IA

“Los legisladores deberían fomentar la innovación, no ahuyentarla del estado”, afirmó Kouri Marshall, director de relaciones gubernamentales estatales del grupo comercial tecnológico Chamber of Progress (Cámara de Progreso), que entre sus miembros cuenta con Andreessen Horowitz, Google, Apple Inc. (AAPL) y Amazon.com Inc. (AMZN).
Aunque pocas de las normas estatales de mayor alcance han entrado plenamente en vigor, los defensores de la industria desean reorientar la regulación hacia las formas en que se usa la IA y alejarla del desarrollo de nueva IA. Las primeras empresas que logren avances en IA podrían ganar billones de dólares en capitalización bursátil.
“Mi esperanza es que el enfoque se aleje de intentar regular el desarrollo para regular el uso” por parte de los clientes individuales, dijo Matt Perault, responsable de política de inteligencia artificial en la firma de capital riesgo Andreessen Horowitz.
Los republicanos en el Congreso intentaron y fracasaron en junio adjuntar a la legislación fiscal del presidente Donald Trump una prohibición de 10 años para aplicar regulaciones estatales.
Sin inmutarse, las empresas presionaron con éxito a los asesores de la Casa Blanca para que incluyeran una versión de la moratoria federal sobre la regulación estatal en el plan de inteligencia artificial de Trump en julio.
El plan ofrece orientación no vinculante a las agencias federales, incluida una directiva según la cual la financiación federal relacionada con la IA no debería ir a los estados con una regulación de la IA “indebidamente restrictiva”.
Los representantes de las empresas tecnológicas también están intentando de nuevo adjuntar la prohibición de 10 años a la futura legislación, dijeron grupos de presión de la industria que hablaron bajo condición de anonimato.
A medida que crece el uso de la IA, asumiendo funciones como la evaluación de solicitudes de empleo, la identificación de sospechosos de delitos, la gestión de reclamaciones médicas y la creación de imágenes casi imposibles de distinguir de fotos o vídeos auténticos, los legisladores estatales están ansiosos por imponer algunas normas de circulación.
La legislación federal se ha estancado en gran medida debido a los desacuerdos partidistas y al rechazo de los legisladores favorables a la tecnología.
Algunos estados están considerando una legislación que obligaría a las empresas a realizar auditorías para garantizar que sus sistemas no perjudican a los consumidores, revelar cuándo las personas interactúan con la IA y prohibir a las empresas copiar el trabajo creativo de los artistas.
Pero las empresas tecnológicas y las firmas de capital riesgo que respaldan a las startups de IA temen que cualquier regulación pueda frenar su crecimiento en un sector nuevo. Y si tienen que ser reguladas, preferirían evitar navegar por 50 normas estatales diferentes.
Ver más: Manus, la nueva IA que reta a OpenAI, impulsa ventas anuales de US$90 millones
Hope Anderson, abogada especializada en privacidad e IA de White & Case, dijo que la velocidad del cambio tecnológico hace que sea “complicado” que la ley se mantenga al día, y más aún si los estados promulgan un “mosaico” de normativas diferentes.
Leyes estatales sobre IA
Se están estudiando unas 500 leyes en todo EE.UU. que afectarían a las empresas privadas que desarrollan y despliegan la IA, según Goli Mahdavi, abogado especializado en IA de Bryan Cave Leighton Paisner LLP en San Francisco.

Sin embargo, únicamente cinco estados tienen leyes en sus libros que afectan significativamente a la forma en que las empresas tecnológicas hacen negocios.
Otros estados han aprobado una legislación más limitada que regula cómo las empresas pueden utilizar la IA para fines específicos, como los empleadores en la selección de solicitudes de empleo o los proveedores de salud en la realización de diagnósticos médicos.
La ley sobre IA de Colorado es la que va más lejos, ya que exige a los desarrolladores y a las empresas que proporcionen una amplia documentación y realicen pruebas para garantizar que sus sistemas no discriminan a los usuarios en función de características protegidas como la raza o el sexo.
Sin embargo, los grupos de presión de la industria tecnológica persuadieron al gobernador Jared Polis y a los legisladores estatales para que reabrieran la ley a enmiendas durante una sesión especial cuyo inicio está previsto para este jueves.
Polis dijo en un comunicado que le preocupa el impacto de la ley en “avances tecnológicos críticos”. Los legisladores están considerando una derogación total de la ley o reducir el número de sistemas de IA a los que se aplica.
La ley de California, más restrictiva, exige a los desarrolladores de IA que publiquen información sobre los datos utilizados para entrenar los sistemas de IA y que notifiquen a los usuarios cuando las publicaciones, imágenes o vídeos estén generados por IA.
La ley de Texas restringe el desarrollo y despliegue de sistemas de IA para la manipulación del comportamiento, la discriminación o la creación y distribución de pornografía infantil.
La “Ley Elvis” de Tennessee prohíbe el uso de IA para imitar la voz de una persona sin su permiso, mientras que Utah exige a los desarrolladores de sistemas de IA de “alto riesgo” que revelen que las personas están interactuando con IA generativa, no con un humano.
“La mayor parte de la preocupación se debe a la posibilidad de que haya más leyes” y no a las ya existentes, dijo Cobun Zweifel-Keegan, directora gerente de la Asociación Internacional de Profesionales de la Privacidad.
Ver más: Meta divide su equipo de IA en cuatro para acelerar la carrera por la superinteligencia
Estados a tener en cuenta
La legislatura de Nueva York aprobó este verano un proyecto de ley de seguridad pública que obligaría a las mayores empresas tecnológicas a reducir el riesgo de que sus productos causen “daños críticos”. Ahora está en manos de la gobernadora Kathy Hochul, que no ha dicho si piensa firmar la legislación para convertirla en ley.

El gobernador de California, Gavin Newsom, vetó en 2024 el esfuerzo más exhaustivo hasta la fecha para regular la IA, que habría obligado a las empresas a probar si sus modelos de IA provocarían muertes masivas, pondrían en peligro las infraestructuras públicas o permitirían ciberataques.
Los legisladores californianos están estudiando medidas más estrictas, como la obligación de que las empresas notifiquen a las personas cuando los sistemas automatizados tomen decisiones sobre ellas y una mayor supervisión de los sistemas automatizados de “alto riesgo”.
Llenar el vacío
Los estados están actuando para llenar el vacío dejado por el gobierno federal. “Existe el deseo de que los estados regulen en este espacio, ya que cada vez está más claro que no habrá una ley federal ómnibus sobre la IA”, dijo Mahdavi.
Y en algunos casos, el impulso de la industria de utilizar al Congreso para anular las leyes estatales está incitando a los legisladores locales a actuar con mayor rapidez.
“Ni en borma va el gobierno federal a impedirme que proteja a los ciudadanos de mi estado”, dijo el representante de Carolina del Sur Brandon Guffey, que preside un subcomité de la Cámara de Representantes estatal sobre IA. “La gente tiene miedo de que pongan esta moratoria, así que están intentando que se aprueben proyectos de ley antes de que lo hagan”.
Lea más en Bloomberg.com