Qué han recomendado Google, OpenAI y Anthropic al gobierno EEUU para su plan de acción en inteligencia artificial
La administración Trump no esconde su enfoque en el Plan de Acción de Inteligencia Artificial: nace tras la firma del decreto "Eliminando barreras al liderazgo estadounidense en IA"
La nueva administración Trump no esconde su enfoque en el Plan de Acción de Inteligencia Artificial de Estados Unidos, actualmente en desarrollo: nace tras la firma de un decreto ejecutivo al que llamaron "Eliminando barreras al liderazgo estadounidense en Inteligencia Artificial".
Este plan tiene como objetivo principal, por tanto, conservar y ampliar el dominio global de EE.UU. en IA para, según su texto, “promover el florecimiento humano, la competitividad económica y la seguridad nacional”.
Estamos en el plazo de 180 días desde la firma del decreto para que asesores en ciencia, tecnología, IA, criptomonedas, seguridad nacional, política económica y política interna creen y presenten el plan al presidente. Las grandes empresas de inteligencia artificial así lo han hecho y aquí vamos a resumir sus posiciones.
Promo
Atención a nuestra selección de vinos en Decántalo, la tienda online que lleva 15 años ofreciendo el catálogo más amplio de los mejores vinos y espumosos de un montón de regiones vinícolas y variedades de uva. Con el cupón MONOS tenéis un 10% de descuento + envío gratis en el pack. Y estaréis apoyando el podcast.
OpenAI
Desde el primer párrafo, OpenAI adopta un tono fuertemente nacionalista, enmarcando el desarrollo de la IA como una carrera que Estados Unidos debe ganar frente a China.
La parte central de la propuesta de OpenAI es solicitar que el gobierno federal no añada nuevos requisitos legales a la IA, sino que también impida que los estados que forman parte del país lo hagan. Buscan explícitamente "alivio" de las regulaciones existentes y propuestas, incluyendo una exención total de responsabilidad, especialmente para los modelos de IA más avanzados ("frontier models"). Mencionan específicamente la fallida ley SB 1047 de California como ejemplo de la legislación de la que desean inmunidad. Todo esto se justifica con el principio de "Libertad para innovar", advirtiendo que regular podría socavar la posición de liderazgo de Estados Unidos.
OpenAI no solo pide inmunidad para sí misma, sino que también insta al gobierno de EEUU a prohibir la "infraestructura de IA" china, mencionando específicamente a DeepSeek R1 (ver informe específico), al que califican de "controlado por el estado". Proponen coordinar esta prohibición con otros países y debilitar las restricciones de acceso a la computación para aquellos países que cooperen contra China.
En cuanto a los derechos de autor, OpenAI proclama la necesidad de "libertad para aprender" y afirma que el entrenamiento de IA es completamente “fair use”.
Nota: cabe aclarar que el “fair use” es un elemento del derecho anglosajón no presente en la legislación española. Permite utilizar obras protegidas sin necesidad de permiso del titular en ciertos casos limitados, como crítica, comentario, parodia, enseñanza, investigación o información periodística.
Es decir, la empresa pide que quede muy atado que utilizar contenidos con copyright para entrenar modelos de IA quede dentro de los usos legítimos. OpenAI llega a declarar que si no se aplica el uso justo de forma irrestricta, los autoritarios (China) ganarán la carrera de la IA y "la carrera habrá terminado efectivamente"
Hay bastantes más elementos en su propuesta: añadir trazabilidad a los contenidos generados por IA, creación de un Instituto Nacional de Seguridad en IA encargado de investigar, evaluar y mitigar riesgos de sistemas avanzados de IA, subvenciones e inversión estatal en infraestructura (chips, centros de datos, energía, talento) y fomentar el uso de la IA por el gobierno.
Break: nuestro último episodio
Anthropic
Anthropic por su parte se centra en hacer propuestas sobre seguridad nacional y realizar inversiones clave. Sus principales recomendaciones son:
Capacidad estatal para evaluar modelos de IA: Desarrollar la habilidad del gobierno para analizar modelos de IA, tanto nacionales como extranjeros, en busca de riesgos y usos indebidos para la seguridad nacional. Esto incluye fortalecer el Instituto de Seguridad de IA (AISI) y que el NIST desarrolle evaluaciones exhaustivas.
Fortalecer los controles de exportación de chips: Endurecer las restricciones a la exportación de chips avanzados de IA, aumentar la financiación para su cumplimiento y ampliar su alcance.
Mejorar protocolos de seguridad en laboratorios de IA: Reforzar la seguridad física y cibernética en las empresas que desarrollan IA de vanguardia ("frontier labs"), fomentando la colaboración con la comunidad de inteligencia.
Construir 50 gigavatios de energía para IA para 2027: Acelerar la construcción de infraestructura energética dedicada a la industria de la IA.
Acelerar la adopción de IA por el gobierno federal: Eliminar barreras para que las agencias gubernamentales adopten rápidamente la IA, tanto en aplicaciones civiles como de seguridad nacional.
Supervisar el impacto económico de la IA: Vigilar cómo la IA afecta a la economía.
El discurso de Anthropic es consistente con su filosofía de empresa y producto: mucho más énfasis en la seguridad y en la ética de la IA que otras empresas. A ello suman un punto coincidente con OpenAI, el abogar por una inversión extraordinaria en infraestructura.
Quizás lo que más se puede reprochar a Anthropic es el contraste entre las declaraciones de su CEO, Dario Amodei, que lleva meses afirmando que quedan pocos años para la inteligencia artificial general de nivel humano. Y que el impacto de la misma será extraordinario. Las recomendaciones presentadas al congreso tienen poco en cuenta un escenario siquiera similar a ese.
Break: este episodio nos quedó guay,
Google
Google adopta un enfoque "pro-innovación" y sus peticiones clave son:
Controles de exportación 'equilibrados': Reducir ligeramente las restricciones (especialmente sobre la computación en la nube) y ejecutarlas correctamente.
Financiación continua para I+D en IA: Mantener la inversión, las asociaciones público-privadas, liberar conjuntos de datos gubernamentales, financiar startups e investigar riesgos NBQR (Nuclear, Biológico, Químico, Radiológico).
Marco federal 'pro-innovación': Que las leyes federales prevalezcan sobre las estatales, especialmente aquellas que afecten a los modelos de IA más avanzados ("frontier models"). En esto coincide que OpenAI.
Ley de copyright permisiva. Sugieren que se codifique su derecho y el de sus rivales a entrenarse con datos disponibles públicamente, incluidos los protegidos por derechos de autor, en gran medida sin restricciones.
Leyes de privacidad menos exigentes con la IA: Exenciones para información disponible públicamente para evitar conflictos con la IA.
Revisión acelerada de patentes de IA: Agilizar la validación de patentes relacionadas con IA si se solicita.
Adopción de IA por el gobierno federal: Incluyendo seguridad y ciberseguridad.
Estándares técnicos y protocolos de seguridad: Impulsar estándares técnicos voluntarios y protocolos de seguridad para modelos avanzados, basados en el trabajo del Departamento de Comercio y la ISO. Desarrollar protocolos específicos para riesgos de seguridad nacional (mencionan NBQR). Quieren claridad en responsabilidades y estándares.
Piden “articular obligaciones claras y diferenciadas —cuando sea necesario— para los respectivos actores del ecosistema de la IA”. Según el caso, el usuario puede ser el responsable y no el creador del modelo, argumentan. Esto se puede leer como una petición de cierto grado de inmunidad.
Texto completo aquí.
Break: artículo de Antonio sobre inteligencia artificial y programación,
Aún nos falta saber qué piden otros como xAI de Elon Musk, Apple o Microsoft. Es probable que estén en línea con las propuestas analizadas anteriormente.
Si el gobierno estadounidense adopta la mayoría de lo expuesto tenemos un escenario en el que como potencia consideraría la IA como la tecnología clave del siglo XXI, blindaría legalmente a sus empresas punteras (copyright, responsabilidades y limitaciones menores), invertiría masivamente en infraestructura y seguiría con sanciones y guerra comercial con China.