Tu IA negoció por ti sin avisarte — y si usabas el modelo 'tonto', te clocharon sin que te dieras cuenta
Anthropic armó un mercado secreto donde sus IAs compraron y vendieron cosas reales con dinero real. El resultado más inquietante: los usuarios del modelo más lento perdieron lana sin notarlo.
Imagínate que le dices a tu compa: “oye, ve al tianguis y véndeme esta bici rota, lo que puedas.” Tu compa la da en 38 varos. El compa del vecino, con más labia, la vendió en 65. Lo peor: ni tú ni el vecino notaron la diferencia. Eso, pero con IAs y dinero real, es exactamente lo que Anthropic acabó de publicar.
Qué fue el Project Deal
En diciembre de 2025, Anthropic montó un experimento interno en su oficina de San Francisco que llaman Project Deal. Reclutaron a 69 empleados, les dieron $100 dólares en gift cards a cada uno, y crearon un marketplace privado en Slack, estilo Craigslist pero con un giro: ningún humano iba a negociar nada. Todo lo haría Claude.
El proceso era así: un agente de Claude entrevistaba al empleado durante menos de 10 minutos, le preguntaba qué quería vender, qué quería comprar, cuánto estaba dispuesto a pagar y cómo prefería que negociaran por él. Con eso, construía un system prompt personalizado y el agente salía a chambear solo: publicaba listings, mandaba ofertas, contraofertaba, cerraba tratos. Sin supervisión humana. Punto.
Resultado: 186 acuerdos cerrados, más de $4,000 dólares en transacciones reales con más de 500 objetos físicos listados. Snowboards, teclados, lámparas, una bici rota y sí, también 19 pelotas de ping-pong.
El dato que nadie vio venir
Anthropic corrió cuatro versiones del marketplace en paralelo. Sin que los participantes supieran, a algunos los representó Claude Opus 4.5 (el modelo más capaz) y a otros Claude Haiku 4.5 (el modelo más chico y barato). Los resultados publicados el 25 de abril muestran una brecha brutal:
| Métrica | Opus 4.5 | Haiku 4.5 |
|---|---|---|
| Precio promedio vendiendo | +$2.68 más | baseline |
| Precio promedio comprando | -$2.45 menos | baseline |
| Deals cerrados extra | ~2 más | baseline |
| Precio promedio por ítem | +$3.64 más | baseline |
El ejemplo más claro fue una bici rota: con Haiku se vendió en $38. Con Opus, en $65. Un 70% más. Por exactamente el mismo producto.
Lo más perturbador del experimento no son los números, sino esto: cuando encuestaron a los participantes sobre si el deal les pareció justo, los representados por Haiku calificaron igual de positivo que los de Opus (4.06 vs 4.05 en una escala del 1 al 7). Los que salieron perdiendo no se dieron cuenta de que salieron perdiendo.
Como dijeron los investigadores de Anthropic: “people on the losing end might not realize they’re worse off”. O sea, literalmente te pueden ensartar y ni lo vas a sentir.
Claude comprando pelotas de ping-pong para sí mismo
Aparte de los datos duros, el experimento dejó algunos momentos que de plano no se inventan.
Un empleado le instruyó a su agente que comprara “algo de menos de $5 como regalo para mí mismo (Claude).” El agente eligió 19 pelotas de ping-pong por $3 y las describió como “19 esferas perfectamente redondas de posibilidad”. Anthropic ya las tiene en la oficina, guardadas “en nombre de Claude.”
Otro participante terminó con un snowboard duplicado porque el agente modeló tan bien sus preferencias que le compró exactamente el mismo que ya tenía. Y en otro caso, Claude negoció un día completo con el perro de un colega, incluyendo detalles fabricados sobre la situación de mudanza del solicitante, lo que Anthropic señala como riesgo real: capacidad + confabulación es una combinación que hay que vigilar.
¿Qué pedo con el marco legal? Y lo que Mexico tiene que ver
Anthropic fue explícito en su reporte: “los marcos legales y de política pública alrededor de los modelos de IA que transaccionan en nuestro nombre simplemente no existen todavía.”
Eso ya es un problema en EUA. Pero en México es el doble de grave porque ni siquiera tenemos la conversación iniciada.
Piénsalo en contexto local: Mercado Libre ya tiene herramientas de automatización para vendedores. Kavak usa IA para valuar autos. Rappi tiene agentes que hacen pedidos. La pregunta ya no es si los agentes van a negociar por nosotros en plataformas mexicanas, sino cuándo. Y cuando eso pase: ¿quién responde si tu agente “tonto” te vendió el carro a mitad de precio? ¿Mercado Libre? ¿Anthropic? ¿Tú?
La Profeco no tiene ni un lineamiento para transacciones hechas por IA. La Ley Federal de Protección al Consumidor no contempla que quien cierre el trato sea un modelo de lenguaje. Si dos agentes llegan a un acuerdo sin que ningún humano firme nada, ¿es legalmente válido? Por ahorita, nadie sabe.
Lo interesante es que ya hablamos de esto cuando Anthropic se negó a proveer IAs para aplicaciones militares autónomas y la empresa tiene una postura clara sobre límites. Pero el comercio autónomo es un terreno mucho más gris que las armas: nadie quiere regularlo porque todos quieren aprovecharlo.
La desigualdad invisible que viene
El hallazgo central del Project Deal no es que los agentes puedan cerrar tratos, sino que pueden crear una desigualdad económica que los afectados no perciben. Si tienes acceso al modelo más caro, negocias mejor. Si usas el tier básico, te llevas el peor trato. Y como los usuarios no ven las negociaciones, no van a saber que los clocha su propio agente.
Ese patrón ya lo conocemos. Es básicamente lo mismo que pasa con los algoritmos de precios dinámicos en aerolíneas o con los scorings de crédito automatizados. La IA no discrimina por apellido o colonia, pero sí por la calidad del modelo que puedes pagar. Y eso, en un país donde la brecha digital ya es enorme, tiene implicaciones serias.
Si te interesa esto desde el ángulo del acceso a herramientas de IA, en la guía de cómo correr tu propia IA local sin pagar suscripción hay alternativas que no dependen de pagar el tier premium de ningún servicio.
¿Vale la pena esto comercialmente?
El 46% de los participantes del experimento dijo que pagaría por un servicio así si estuviera disponible comercialmente. No está mal para algo que duró una semana y fue básicamente un piloto interno.
Anthropic lo presentó como prueba de concepto, no como producto próximo a lanzar. Pero la dirección es clara: el SDK de agentes de Claude ya está disponible para desarrolladores, y este tipo de aplicaciones de comercio autónomo son exactamente para lo que está diseñado.
El detalle que me parece bacano del experimento es que las instrucciones que le dabas al agente al inicio (tu estilo de negociación, tus límites de precio) importaron mucho menos que la capacidad bruta del modelo. O sea, da igual qué tan bien configures tu agente: si usas Haiku, Opus te va a ganar en la negociación casi siempre. La estrategia importa menos que el hardware.
El futuro cercano que ya llegó
Project Deal no es ciencia ficción. Fue un experimento real con dinero real en diciembre de 2025, publicado hace tres días. La tecnología ya existe. Lo que no existe son las reglas.
Según Futurism, Anthropic reconoció que el experimento podría “reducir la fricción en el mercado e incrementar las ganancias del comercio”, pero también advirtió sobre riesgos de seguridad como prompt injection, donde un agente malicioso podría manipular a otro durante la negociación.
Y mientras reguladores, legisladores y empresas discuten qué hacer, los modelos ya están negociando. La pregunta es: cuando llegue a México, ¿qué modelo va a negociar por ti? ¿Y vas a saber si te está representando bien?
¿Usarías un agente de IA para vender en Mercado Libre o Facebook Marketplace? ¿O preferirías no soltar el volante? Cuéntame en los comentarios, porque ese debate está a punto de volverse muy real.
Fuentes
- Project Deal: our Claude-run marketplace experiment (Anthropic)
- Anthropic created a test marketplace for agent-on-agent commerce (TechCrunch)
- Weird Things Happen When You Give AI Agents Money and Let Them Spend It (Futurism)
- Anthropic’s AI agent-to-agent marketplace experiment: The legal frameworks don’t exist (Legal IT Insider)
- Anthropic probó un mercado entre agentes de IA con dinero real (DiarioBitcoin)
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
Claude Design ya está aquí: el arma secreta de Anthropic para quitarle usuarios a Figma y Adobe (y funciona con Opus 4.7)
Anthropic lanzó Claude Design en research preview: crea prototipos, slides y landing pages desde un prompt de texto. Sin saber diseño. Y Figma ya sintió el golpe.
El token es la nueva moneda de la IA: qué es, cuánto cuesta y cómo gastar menos antes de que tu empresa se quede sin presupuesto
El token pasó de ser un concepto técnico a convertirse en el nuevo KPI de las empresas. Precios actuales, por qué el español te cuesta más y cómo reducir tu factura de IA hasta 85%.
Anthropic lanza hackathon remoto con Opus 4.7: $50,000 en premios y México puede participar, tienes 2 días para aplicar
Se reporta que habría un hackathon Opus 4.7 planificado (según información del editor): se reporta que habría 500 lugares, máximo 2 personas por equipo, con créditos y premios según reportes, y aplicaciones cerrando el 19 de abril (según reportes).