EEUU podría frenar leyes autonómicas sobre IA durante 5 años: ¿Qué implicaciones tiene?

¡Menudo lío se está montando en Estados Unidos con la regulación de la inteligencia artificial (IA)! Resulta que una propuesta federal, impulsada por el senador Ted Cruz (sí, el mismo), podría prohibir a los estados y gobiernos locales regular la IA durante cinco años. Y ojo, que esto está a punto de convertirse en ley, ya que están intentando meterlo con calzador en un megaproyecto de ley republicano que el Senado vota esta semana. ¡A ver quién gana!
Los defensores de esta moratoria, entre los que se encuentran pesos pesados como Sam Altman (el jefazo de OpenAI), Palmer Luckey (el fundador de Anduril) y Marc Andreessen (el gurú de a16z), argumentan que un «patchwork» de regulaciones de IA entre los estados ahogaría la innovación estadounidense justo ahora que la competencia con China está que arde. Vamos, que si cada estado pone sus propias normas, las empresas no sabrían a qué atenerse y perderíamos la carrera tecnológica.
Pero la cosa no es tan sencilla, porque los críticos no se quedan callados. Aquí entran en juego la mayoría de los demócratas, muchos republicanos (ojo al dato), el CEO de Anthropic (Dario Amodei), sindicatos, organizaciones sin ánimo de lucro centradas en la seguridad de la IA y defensores de los derechos del consumidor. Todos ellos avisan de que esta medida impediría a los estados aprobar leyes para proteger a los consumidores de los posibles daños causados por la IA. En pocas palabras: dejaría a las todopoderosas empresas de IA operar casi sin supervisión ni rendición de cuentas. ¡Menuda papeleta!
Para echar más leña al fuego, un grupo de 17 gobernadores republicanos (sí, ¡republicanos!) ha escrito al líder de la mayoría en el Senado, John Thune, y al presidente de la Cámara de Representantes, Mike Johnson, pidiendo que se retire esta «moratoria de la IA» del proyecto de ley de conciliación presupuestaria. Al parecer, ni siquiera dentro del partido republicano hay consenso sobre este tema.
¿Y cómo ha llegado esta propuesta hasta aquí? Pues, como quien no quiere la cosa, se coló en el proyecto de ley, apodado «Big Beautiful Bill» (¡qué nombres más originales!), en mayo. Originalmente, la idea era prohibir a los estados «aplicar cualquier ley o regulación que regule modelos de IA, sistemas de IA o sistemas de decisión automatizados» durante diez años. ¡Diez años!
Pero la cosa ha cambiado un poco. Tras negociaciones, Cruz y la senadora Marsha Blackburn han acordado reducir la pausa en la regulación estatal de la IA a cinco años. Además, han intentado excluir de la moratoria las leyes que abordan materiales de abuso sexual infantil, la seguridad online de los niños y los derechos de una persona a su nombre, imagen, voz e identidad. Eso sí, con una coletilla: las leyes no deben imponer una «carga indebida o desproporcionada» a los sistemas de IA. Y aquí viene el lío, porque los expertos legales no tienen ni idea de cómo afectaría esto a las leyes estatales sobre IA. ¡Adivínalo!
Esta medida podría anular leyes estatales sobre IA que ya están en vigor, como la AB 2013 de California, que obliga a las empresas a revelar los datos utilizados para entrenar sistemas de IA, y la ELVIS Act de Tennessee, que protege a músicos y creadores de imitaciones generadas por IA. ¡Menudo jaleo!
Pero el alcance de la moratoria va mucho más allá de estos ejemplos. La organización Public Citizen ha recopilado una base de datos de leyes relacionadas con la IA que podrían verse afectadas. Y resulta que muchas de estas leyes se solapan entre sí, lo que en realidad podría facilitar a las empresas de IA navegar por este supuesto «patchwork». Por ejemplo, estados como Alabama, Arizona, California, Delaware, Hawái, Indiana, Montana y Texas han criminalizado o creado responsabilidad civil por la distribución de medios engañosos generados por IA con el objetivo de influir en las elecciones. ¡Ojo con los deepfakes!
La moratoria de la IA también pone en peligro varios proyectos de ley importantes sobre seguridad de la IA que están pendientes de firma, como la RAISE Act de Nueva York, que exigiría a los grandes laboratorios de IA publicar informes de seguridad exhaustivos.
Meter la moratoria en un proyecto de ley presupuestaria ha requerido una maniobra un tanto peculiar. Como las disposiciones de un proyecto de ley de este tipo deben tener un impacto fiscal directo, Cruz modificó la propuesta en junio para que el cumplimiento de la moratoria de la IA sea una condición para que los estados reciban fondos del programa Broadband Equity Access and Deployment (BEAD), dotado con 42.000 millones de dólares. ¡Toma ya!
Cruz lanzó otra revisión la semana pasada, en la que afirma que el requisito solo se aplica a los nuevos 500 millones de dólares en fondos BEAD incluidos en el proyecto de ley. Sin embargo, tras examinar detenidamente el texto revisado, se descubre que la redacción también amenaza con retirar fondos de banda ancha ya comprometidos a los estados que no cumplan. ¡Vaya jugada!
La senadora Maria Cantwell ya criticó la redacción de Cruz, afirmando que la disposición «obliga a los estados que reciben fondos BEAD a elegir entre ampliar la banda ancha o proteger a los consumidores de los daños de la IA durante diez años». ¡Menuda disyuntiva!
¿Y ahora qué?
A partir del lunes, el Senado está inmerso en un «vote-a-rama», una serie de votaciones rápidas sobre todas las enmiendas al proyecto de ley presupuestaria. La nueva redacción acordada por Cruz y Blackburn se incluirá en una enmienda más amplia que se espera que los republicanos aprueben siguiendo las líneas del partido. Es probable que los senadores también voten una enmienda respaldada por los demócratas para eliminar toda la sección. ¡A ver qué pasa!
Chris Lehane, director de asuntos globales de OpenAI, ha declarado que el «actual enfoque fragmentado de la regulación de la IA no está funcionando y seguirá empeorando si seguimos por este camino». Según él, esto tendría «graves implicaciones» para Estados Unidos en su carrera por establecer el dominio de la IA sobre China.
«Aunque no es alguien a quien citaría normalmente, Vladimir Putin ha dicho que quien prevalezca determinará la dirección del mundo en el futuro», escribió Lehane. ¡Ahí es nada!
El CEO de OpenAI, Sam Altman, compartió sentimientos similares la semana pasada durante una grabación en directo del podcast tecnológico Hard Fork. Dijo que, aunque cree que sería bueno contar con alguna regulación adaptativa que aborde los mayores riesgos existenciales de la IA, «un patchwork entre los estados probablemente sería un verdadero desastre y muy difícil de ofrecer servicios». ¡Demasiado complicado para su gusto!
Altman también cuestionó si los responsables políticos están preparados para regular la IA cuando la tecnología avanza tan rápido.
«Me preocupa que si… iniciamos un proceso de tres años para escribir algo muy detallado y que cubra muchos casos, la tecnología simplemente avanzará muy rápido», dijo. ¡Y no le falta razón!
Pero un análisis más detallado de las leyes estatales existentes cuenta una historia diferente. La mayoría de las leyes estatales sobre IA que existen hoy en día no son de gran alcance; se centran en proteger a los consumidores y a las personas de daños específicos, como los deepfakes, el fraude, la discriminación y las violaciones de la privacidad. Se dirigen al uso de la IA en contextos como la contratación, la vivienda, el crédito, la atención sanitaria y las elecciones, e incluyen requisitos de divulgación y salvaguardias contra el sesgo algorítmico. ¡Cosas lógicas!
TechCrunch ha preguntado a Lehane y a otros miembros del equipo de OpenAI si podrían nombrar alguna ley estatal actual que haya obstaculizado la capacidad del gigante tecnológico para avanzar en su tecnología y lanzar nuevos modelos. También hemos preguntado por qué navegar por las diferentes leyes estatales se consideraría demasiado complejo, dado el progreso de OpenAI en tecnologías que pueden automatizar una amplia gama de trabajos de oficina en los próximos años. ¡A ver si nos responden!
TechCrunch hizo preguntas similares a Meta, Google, Amazon y Apple, pero no ha recibido ninguna respuesta. ¡Qué raro!
El argumento en contra de la preferencia
«El argumento del patchwork es algo que hemos escuchado desde el principio de la defensa del consumidor», dijo Emily Peterson-Cassin, directora de poder corporativo del grupo activista de Internet Demand Progress. «Pero el hecho es que las empresas cumplen con diferentes regulaciones estatales todo el tiempo. ¿Las empresas más poderosas del mundo? Sí. Sí, pueden». ¡Ahí le has dado!
Opositores y cínicos por igual dicen que la moratoria de la IA no se trata de innovación, sino de eludir la supervisión. Mientras que muchos estados han aprobado regulaciones en torno a la IA, el Congreso, que se mueve notoriamente lento, no ha aprobado ninguna ley que regule la IA. ¡Para que luego digan!
«Si el gobierno federal quiere aprobar una legislación sólida sobre seguridad de la IA, y luego anticiparse a la capacidad de los estados para hacerlo, yo sería el primero en estar muy emocionado por ello», dijo Nathan Calvin, vicepresidente de asuntos estatales de la organización sin ánimo de lucro Encode, que ha patrocinado varios proyectos de ley estatales sobre seguridad de la IA. «En cambio, [la moratoria de la IA] elimina toda la influencia, y cualquier capacidad, para obligar a las empresas de IA a sentarse a la mesa de negociaciones». ¡Qué razón tiene!
Uno de los críticos más ruidosos de la propuesta es el CEO de Anthropic, Dario Amodei. En un artículo de opinión para The New York Times, Amodei dijo que «una moratoria de 10 años es un instrumento demasiado contundente». ¡Totalmente de acuerdo!
«La IA está avanzando a una velocidad vertiginosa», escribió. «Creo que estos sistemas podrían cambiar el mundo, fundamentalmente, en dos años; en 10 años, todo está en juego. Sin un plan claro para una respuesta federal, una moratoria nos daría lo peor de ambos mundos: ninguna capacidad para que los estados actúen, y ninguna política nacional como respaldo». ¡Un desastre!
Argumentó que, en lugar de prescribir cómo deben las empresas lanzar sus productos, el gobierno debería trabajar con las empresas de IA para crear un estándar de transparencia sobre cómo las empresas comparten información sobre sus prácticas y las capacidades de sus modelos. ¡Transparencia ante todo!
La oposición no se limita a los demócratas. Ha habido una notable oposición a la moratoria de la IA por parte de republicanos que argumentan que la disposición pisotea el apoyo tradicional del Partido Republicano a los derechos de los estados, a pesar de que fue elaborada por republicanos prominentes como Cruz y el representante Jay Obernolte. ¡La coherencia brilla por su ausencia!
Entre estos críticos republicanos se encuentra el senador Josh Hawley, que está preocupado por los derechos de los estados y está trabajando con los demócratas para eliminarla del proyecto de ley. Blackburn también criticó la disposición, argumentando que los estados necesitan proteger a sus ciudadanos y a las industrias creativas de los daños de la IA. La representante Marjorie Taylor Greene incluso llegó a decir que se opondría a todo el presupuesto si se mantiene la moratoria. ¡La que se va a liar!
¿Qué quieren los estadounidenses?
Republicanos como Cruz y el líder de la mayoría en el Senado, John Thune, dicen que quieren un enfoque de «tacto ligero» para la gobernanza de la IA. Cruz también dijo en una declaración que «cada estadounidense merece tener voz en la configuración» del futuro. ¡Palabras bonitas!
Sin embargo, una reciente encuesta de Pew Research encontró que la mayoría de los estadounidenses parecen querer más regulación en torno a la IA. La encuesta encontró que alrededor del 60% de los adultos estadounidenses y el 56% de los expertos en IA dicen que están más preocupados de que el gobierno de Estados Unidos no llegue lo suficientemente lejos en la regulación de la IA que de que el gobierno vaya demasiado lejos. Los estadounidenses tampoco confían en que el gobierno regule la IA de manera efectiva, y son escépticos de los esfuerzos de la industria en torno a la IA responsable. ¡Más vale prevenir que curar!
Así que ya veis, la cosa está que arde. ¿Se aprobará la moratoria? ¿Se retirará? ¿Qué opinan los ciudadanos? Lo que está claro es que la regulación de la IA es un tema complejo y controvertido que va a dar mucho que hablar en los próximos meses. ¡Estaremos atentos!
Comparte este artículo
Artículos Relacionados

De 5€ al éxito financiero: Brandon Krieg (Stash) en TechCrunch All Stage 2025
¿Te sientes como si estuvieras intentando resolver un cubo de Rubik con los ojos vendados? La vida de una startup es un...

Meta reestructura IA: Nace ‘Superintelligence Labs’ para IA avanzada
Meta Apuesta Fuerte por la «Superinteligencia» Artificial: ¿Qué Está Tramando Zuckerberg? ¡Madre mía, la que se viene! P...

Proton demanda a Apple por prácticas anticompetitivas y tarifas abusivas: ¿Abuso de poder?
La Batalla por la App Store se Recrudece: Proton Demanda a Apple por Prácticas Anticompetitivas ¡Madre mía, la que se ha...