El Plan de Acción de Inteligencia Artificial de EE. UU. se presentará en cualquier momento, y hay muchísimo en juego. A principios de este año, la administración Trump solicitó al público su colaboración para elaborar el plan. Se recibieron más de 10 000 respuestas de gigantes tecnológicos, startups, inversores de capital riesgo, académicos, líderes de organizaciones sin fines de lucro y ciudadanos comunes. Lo que surgió de esta consulta sin precedentes no es solo una recopilación de comentarios. Es un retrato revelador de las tensiones que configuran el debate sobre la IA en Estados Unidos.
El país está dividido, no solo entre la industria y la sociedad civil, sino también dentro del propio sector tecnológico. Si Estados Unidos quiere liderar responsablemente la IA, los responsables políticos federales deben mirar más allá de los argumentos de la industria y abordar los conflictos de valores más profundos que estas respuestas ponen de manifiesto.
Nuestro equipo analizó el conjunto completo de comentarios públicos mediante una combinación de aprendizaje automático y revisión cualitativa. Agrupamos las respuestas en seis visiones del mundo de la IA distintas, desde los aceleracionistas que abogan por un despliegue rápido y desregulado hasta los defensores del interés público que priorizan la equidad y las garantías democráticas. También clasificamos a los participantes por sector: grandes tecnológicas, pequeñas tecnológicas (incluyendo capital riesgo) y sociedad civil. El resultado ofrece una visión más estructurada del discurso estadounidense sobre la IA y una comprensión más clara de dónde termina el consenso y dónde empieza el conflicto.
La industria y la sociedad civil son polos opuestos: el 78% de los actores de la industria son aceleracionistas o halcones de la seguridad nacional, mientras que cerca del 75% de los encuestados de la sociedad civil se centran en el interés público y la defensa responsable de la IA.
Innovación vs. Gobernanza: Una línea divisoria
Las empresas tecnológicas apoyan abrumadoramente el liderazgo global de EE. UU. en IA y advierten contra un panorama regulatorio fragmentado. OpenAI solicitó al gobierno federal que se adelantara al «mosaico de regulaciones» que corre el riesgo de «socavar la posición de liderazgo de Estados Unidos». Meta advirtió que las reglas divergentes «podrían impedir la innovación y la inversión». Los principales VC, incluidos Andreessen Horowitz y True Ventures , se hicieron eco de estas preocupaciones, advirtiendo contra «sobrecargar preventivamente a los desarrolladores con requisitos onerosos» e impulsando un marco federal «ligero» para proteger a las startups en etapa inicial de las cargas de cumplimiento. La Cámara incluyó una disposición controvertida en el proyecto de ley de presupuesto de Trump que habría impuesto una prohibición de 10 años en la regulación de la IA a nivel estatal, pero el Senado la revocó el martes, lo que provocó un renovado debate.
Sin embargo, estas voces distan mucho de estar unidas. Empresas tradicionales como Microsoft e IBM adoptan una postura más mesurada, combinando los llamados a la innovación con propuestas de estándares voluntarios, documentación y colaboraciones público-privadas. En cambio, los laboratorios de vanguardia y las empresas de capital riesgo se resisten a establecer normas vinculantes a menos que ya se hayan materializado perjuicios evidentes.
Mientras tanto, grupos de la sociedad civil, desde la Electronic Frontier Foundation hasta la Conferencia de Liderazgo sobre Derechos Civiles y Humanos , argumentan que estos daños no son hipotéticos, sino que ya existen. Los algoritmos de contratación sesgados , la proliferación de la vigilancia policial y los sistemas de decisión opacos en la atención médica y la vivienda ya han causado daños reales. Estas organizaciones apoyan auditorías ejecutables, la protección de los derechos de autor, la supervisión comunitaria y los mecanismos de reparación. Su visión de la «seguridad de la IA» no se basa en la competitividad nacional, sino en los derechos civiles y la rendición de cuentas sistémica.
Prioridades compartidas, principios divergentes
A pesar de las divisiones filosóficas, existen puntos en común. Casi todos los actores de la industria coinciden en la necesidad de inversión federal en infraestructura de IA, energía, clústeres de computación y desarrollo de la fuerza laboral. Microsoft ha comprometido 50 000 millones de dólares para la infraestructura de IA en EE. UU.; Anthropic advirtió que impulsar un solo modelo podría requerir pronto 5 gigavatios de electricidad. La industria busca el apoyo del gobierno para escalar los sistemas de IA y hacerlo con rapidez.
Pero cuando se trata de rendición de cuentas, el consenso se derrumba. La industria prefiere las pruebas internas y las directrices voluntarias. La sociedad civil exige escrutinio externo y supervisión vinculante. Incluso la propia definición de «seguridad» difiere. Para las empresas tecnológicas, es un desafío técnico; para la sociedad civil, es una cuestión de poder, derechos y confianza.
Por qué esto es importante para el plan de acción
Los responsables políticos se enfrentan a una disyuntiva estratégica. Pueden apoyar la agenda de innovación a toda costa defendida por los aceleracionistas. O pueden tomar en serio las preocupaciones sobre la erosión democrática, la dislocación laboral y los perjuicios sociales planteadas por la sociedad civil.
Pero no se trata de una decisión binaria. Nuestros hallazgos sugieren un camino a seguir: un modelo de gobernanza que promueva la innovación y, al mismo tiempo, integre la rendición de cuentas. Esto requerirá más que compromisos voluntarios. Exige liderazgo federal para armonizar las normas, incentivar las mejores prácticas y proteger el interés público.
El Congreso tiene un papel central que desempeñar. Los litigios y las demandas antimonopolio pueden ofrecer soluciones a los perjuicios del pasado, pero no están bien equipados para prevenir nuevos. Se necesitan herramientas proactivas, como la regulación sectorial, marcos de gobernanza dinámicos y la participación ciudadana, para establecer barreras de protección antes de que se produzca un desastre.
Es crucial que el gobierno también resista la tentación de tratar al sector tecnológico como un monolito. Nuestro análisis muestra que las grandes tecnológicas incluyen tanto actores institucionales conscientes del riesgo como laboratorios pioneros y agresivos. Las pequeñas tecnológicas abarcan a los defensores del código abierto, los defensores de la privacidad y los minimalistas del cumplimiento normativo. La sociedad civil abarca no solo a los activistas, sino también a grandes corporaciones no tecnológicas como JPMorgan Chase y Johnson & Johnson , cuyas prioridades en IA a menudo se entrelazan con los valores comerciales y de interés público.
Superando la brecha
No existe una fórmula perfecta para equilibrar velocidad y seguridad. Pero no superar la brecha de valor entre la industria y la sociedad civil corre el riesgo de erosionar por completo la confianza pública en la IA. El público se muestra escéptico, y con razón. En cientos de comentarios, se expresó la preocupación por la pérdida de empleos, el robo de derechos de autor, la desinformación y la vigilancia. No ofrecieron planes de acción; en cambio, exigieron algo más esencial: rendición de cuentas.
Si EE. UU. quiere liderar en IA, debe hacerlo no solo en rendimiento de modelos, sino también en gobernanza de modelos. Esto implica diseñar un sistema donde todas las partes interesadas, no solo las grandes empresas, tengan cabida. El Plan de Acción debe reflejar la complejidad del momento y no limitarse a reflejar las prioridades de los poderosos.
El pueblo ha hablado. El reto ahora es si Washington escuchará, no solo a quienes construyen el futuro, sino a quienes deben vivir en él.
