Por qué el Reino Unido corteja a Anthropic tras su negativa a armar la IA
La negativa de Anthropic a permitir que Claude se use para armas autónomas o vigilancia masiva llevó a sanciones de Washington. Londres, en cambio, ofrece incentivos que valoran las salvaguardias éticas como ventaja competitiva.
Resumen del conflicto
A fines de febrero, el secretario de Defensa de EE. UU., Pete Hegseth, planteó a Dario Amodei, CEO de Anthropic, una exigencia tajante: eliminar las barreras que impiden que el modelo Claude se utilice para armas totalmente autónomas y para vigilancia masiva dentro del país, o enfrentar consecuencias. Amodei se negó y argumentó que Anthropic no podía, “de buena conciencia”, acceder a esa petición, porque ciertos usos de la IA pueden “socavar, en vez de defender, los valores democráticos”.
La respuesta de la administración estadounidense fue rápida y contundente. El entonces presidente Donald Trump ordenó a todas las agencias federales que dejaran de usar la tecnología de Anthropic, el Pentágono clasificó a la compañía como un riesgo en la cadena de suministro —una etiqueta que normalmente se reserva a actores extranjeros como Huawei— y un contrato de 200 millones de dólares con el Pentágono fue cancelado. Varias empresas de defensa instruyeron a su personal a dejar de usar Claude y a pasarse a alternativas.
Sin embargo, mientras esto ocurría en Washington, en Londres se veía la situación de otro modo: la negativa de Anthropic a flexibilizar sus salvaguardias se convirtió en un argumento a favor, no en contra.
La oferta británica: atraer una postura ética como activo
Funcionarios del Departamento de Ciencia, Innovación y Tecnología del Reino Unido (DSIT) han preparado propuestas para Anthropic que incluyen desde una cotización dual en la Bolsa de Londres hasta la expansión de oficinas en la ciudad, según varias fuentes con conocimiento de los planes. La oficina del primer ministro Keir Starmer respalda la iniciativa, que será planteada a Amodei en su visita prevista para fines de mayo.
Anthropic ya tiene alrededor de 200 empleados en Reino Unido y nombró al ex primer ministro Rishi Sunak como asesor sénior. Esa presencia local facilita una expansión mayor, y el gobierno británico está comunicando explícitamente algo poco habitual: que las restricciones éticas y las salvaguardias incorporadas al desarrollo del modelo son una ventaja competitiva y no un obstáculo.
Una posible cotización dual en Londres ofrecería a Anthropic acceso a inversionistas institucionales europeos en un momento en que su situación regulatoria en EE. UU. sigue envuelta en litigio. La apelación del gobierno estadounidense contra la orden judicial preliminar que bloqueó la designación de riesgo en la cadena de suministro sigue ante el Noveno Circuito y su resultado es incierto.
Ética como estrategia de gobernanza y competitividad
Aunque el choque se presenta en términos legales y políticos, su impacto en la gobernanza global de la IA es más profundo. En documentos judiciales, los abogados de Anthropic defendieron que Claude no fue pensado para operar como arma letal autónoma sin supervisión humana ni para espiar a ciudadanos, y que emplearlo con esos fines sería un abuso de la tecnología. La jueza de distrito Rita Lin concedió una orden preliminar en marzo contra la lista negra, calificando las acciones del gobierno como “preocupantes” y estimando que probablemente infringían la ley.
Ese fallo adquiere relevancia en el contexto británico. Reino Unido quiere situarse entre la postura de Washington —que en este episodio pareció exigir acceso sin restricciones para usos militares— y la regulación europea, donde el Acta de IA de la UE ya impone límites y obligaciones estrictas. La propuesta británica ofrece un entorno regulatorio intermedio que, según Londres, resulta atractivo para laboratorios de IA que buscan flexibilidad pero también reconocimiento por aplicar salvaguardias.
Paralelamente, el gobierno británico anunció planes para fortalecer la capacidad doméstica en IA, incluyendo un laboratorio financiado con 40 millones de libras, tras admitir que no existe en el país un competidor local de las principales empresas estadounidenses. Estas iniciativas forman parte del paquete para posicionar a Reino Unido como un hub global de investigación y desarrollo en IA.
Competencia por talento e inversión en Londres
El movimiento para atraer a Anthropic no ocurre en un vacío competitivo. OpenAI ya declaró que hará de Londres su mayor centro de investigación fuera de EE. UU. y Google se estableció en King’s Cross desde la adquisición de DeepMind en 2014. La pelea por albergar a laboratorios de frontera en la capital británica es real, y Anthropic, dada su actual polémica y perfil, se ha vuelto un objetivo privilegiado.
Anthropic ha seguido una estrategia de expansión internacional pese a sus problemas en EE. UU., incluyendo la apertura de una oficina en Sídney como su cuarto local en Asia-Pacífico. La pregunta ahora es cuánto de esa expansión podrá beneficiarse del paraguas político y financiero que Londres ofrece.
Qué significa esto para América Latina
Para gobiernos y empresas de América Latina, el caso ofrece lecciones prácticas y oportunidades estratégicas:
- Reguladores y responsables de contratación pública deben tomar nota de que las decisiones sobre inversión y asociación en IA no solo dependen de la capacidad técnica, sino también de la postura ética y la narrativa que acompañe a cada actor.
- Las empresas locales que buscan socios o proveedores de modelos avanzados de IA verán que la geopolítica y el entorno regulatorio influyen en la disponibilidad y reputación de esos proveedores. Un proveedor vetado por su país de origen puede ser activamente buscado por otro, con implicaciones para acuerdos comerciales y garantías de cumplimiento.
- Los ecosistemas de innovación en la región pueden aprovechar una mayor diversificación de hubs globales: si Londres consolida laboratorios que priorizan salvaguardias éticas, podría abrir canales de cooperación, talento y financiación que beneficien proyectos latinoamericanos centrados en IA responsable.
No obstante, también hay riesgos. La fragmentación regulatoria entre jurisdicciones puede complicar la interoperabilidad de modelos, los requisitos de cumplimiento y la evaluación de riesgos en contratos internacionales.
Escenarios a seguir y conclusiones
El encuentro previsto entre Amodei y representantes británicos a fines de mayo será revelador: mostrará cuánto capital político y financiero está dispuesto a invertir Reino Unido para atraer a un actor que ha sido sancionado por su propio gobierno por mantener límites éticos. Las posibles victorias para Anthropic incluyen mayor acceso a financiamiento europeo y una base operativa robusta fuera de EE. UU.; para Reino Unido, la incorporación de un laboratorio que defiende salvaguardias sería una carta de posicionamiento global.
Más allá del resultado inmediato, el episodio subraya una tendencia relevante: la ética en IA deja de ser solo una exigencia normativa o una responsabilidad corporativa y pasa a ser un factor de ventaja competitiva y de geopolitica tecnológica. Para países y empresas de América Latina, entender esas dinámicas será clave para elegir socios, definir políticas públicas y competir en un mercado global donde la confianza y la gobernanza pesan tanto como la capacidad técnica.
Fuente original: AI News