diff options
| author | Ariel Costas Guerrero <ariel@costas.dev> | 2026-03-02 13:05:45 +0100 |
|---|---|---|
| committer | Ariel Costas Guerrero <ariel@costas.dev> | 2026-03-02 13:05:45 +0100 |
| commit | f7254767ec1dc4044720e17df0e1c0d088ebf9e8 (patch) | |
| tree | d8796e0c15a78d9f7310872e8440f21ed174d77d | |
| parent | ce7e89a5c4d8fb17f55b8825de69308f9aef5fd7 (diff) | |
Article (late again)
| -rw-r--r-- | src/data/blog/26s8.md | 21 |
1 files changed, 21 insertions, 0 deletions
diff --git a/src/data/blog/26s8.md b/src/data/blog/26s8.md new file mode 100644 index 0000000..0aa9f31 --- /dev/null +++ b/src/data/blog/26s8.md @@ -0,0 +1,21 @@ +--- +title: "26W8: Anthropic sigue siguen siendo los malos de la película" +description: "" +publishedAt: 2026-03-01 +tags: [] +--- + +En los últimos días hemos [leído noticias](https://www.theguardian.com/technology/2026/feb/28/openai-us-military-anthropic) de que el Departamento de Defensa de los Estados Unidos (también conocido, sin autorización del congreso, como "Departamento de Guerra") quería obligar a las tres empresas más grandes de IA generativa del país (Google-Deepmind, OpenAI y Anthropic) a permitirles usar sus modelos para fines militares, y que Anthropic se oponía a dos usos concretos: vigilancia masiva (en inglés, _mass surveillance_) y sistemas de armas autónomas (en inglés, _autonomous weapon systems_). + +Por contra a esa prohibición, el presentador de FOX, ministro de defensa y [revelador de secretos mediante Signal](https://en.wikipedia.org/wiki/United_States_government_group_chat_leaks), Pete Hegseth dijo que designaría a Anthropic como un "riesgo de cadena de suministro", lo que efectivamente prohibiría al Departamento de Defensa, proveedores y contratistas usar cualquier producto de Anthropic; una prohibición sin precedentes en empresas estadounidenses (aunque no en empresas extranjeras, como Huawei). Además, invocarían la Defense Production Act (DPA), una ley creada durante la guerra de Corea que permite al gobierno obligar a empresas a producir ciertos bienes para este, lo que podría llevar a una situación en la que el gobierno obligue a Anthropic a producir modelos de IA para el ejército. + +Explicado este contexto, mucha gente pensará "ole ellos por negarse, a diferencia de OpenAI y Google", y de hecho se popularizó mucho la aplicación de Claude durante el fin de semana, con gente remplazando ChatGPT por esta en respuesta a estas actuaciones. + +Sin embargo, no debemos olvidar que Anthropic es una empresa que ha creado tecnología en base a conocimiento divulgado en abierto sin dar nada a cambio; que piratearon cerca de [500.000 libros (pagando en un acuerdo extrajudicial 1.500 millones de dólares cuando fueron pillados)](https://www.theguardian.com/technology/2025/sep/05/anthropic-settlement-ai-book-lawsuit) a la vez que protestan porque empresas chinas estarían supuestamente generando respuestas de Claude (por la API, pagando) para entrenar modelos, llamando "robo" a eso; y también piratearon _supuestamente_ [20.000 obras musicales (grabaciones, partituras y letras)](https://techcrunch.com/2026/01/29/music-publishers-sue-anthropic-for-3b-over-flagrant-piracy-of-20000-works/), y trabajan con la empresa de [vigilancia masiva Palantir](https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/), del siniestro personaje Peter Thiel. + +Que se hayan opuesto, al menos en público, a que su tecnología se use para vigilancia masiva y sistemas de armas autónomas es algo positivo, pero no deja de venir de una empresa que ha robado un montón de contenido protegido por derechos de autor (el mismo que dicen defender cuando otros lo usan) y que no deja de intentar vender la moto de que la IA nos va a quitar el trabajo a todos. + +> If I look at coding, programming, which is one area where AI is making the most progress, what we are finding is we are not far from the world—I think **we’ll be there in three to six months**—where AI is writing 90 percent of the code. +> Dario Amodei (10 de marzo de 2025) [Council on Foreign Relations](https://www.cfr.org/event/ceo-speaker-series-dario-amodei-anthropic). Negrita añadida por mí. + +Por tanto, dejémonos de idolizar a estas empresas de mierda, y más cuando han trabajado con empresas de vigilancia masiva como Palantir en el pasado. No deja de ser puro marketing, igual que el de OpenAI (o ClosedAI, mejor apodada) diciendo que consiguieron esas mismas promesas de los militares con una cláusula "según se regule por ley" (spoiler: no hay nada regulado al respecto). |
