¿Estás trabajando o solo se siente como que estás trabajando?
Lo que un cepillo de madera japonés de 1711 te enseña sobre la IA que usas hoy.
En 1711, un herrero en Kyoto llamado Chiyozuru Korehide comenzó a forjar cuchillas para kanna — un cepillo de carpintero japonés, hecho a mano, usado para alisar madera — para los artesanos que construían los templos de Higashi Hongan-ji. Acero laminado — hagane premium soldado a hierro blando. Tres siglos después, sus descendientes siguen haciéndolo.
Un kanna Chiyozuru cuesta hasta tres mil dólares. Prepararla toma días: ajustar el cuerpo de madera a mano, aplanar la hoja en piedras cada vez más finas, encajar las piezas hasta que no pase ni la luz entre ellas. Solo entonces puedes hacer el primer corte.
Las virutas que produce son trascendentes. Y económicamente inútiles. Un cepillo eléctrico hace el mismo trabajo en segundos.
El kanna existe para que el setup exista.
Esta semana, Will Manidis — alguien que lleva una década construyendo IA para hospitales, no para demos — publicó un ensayo que hizo que 3.4 millones de personas se detuvieran. El mismo día, Jeff Clune — uno de los investigadores más citados en inteligencia artificial, con paso por OpenAI y DeepMind — publicó un paper que hizo que 200 mil investigadores se preguntaran si el trabajo que hacen a mano pronto lo hará una máquina.
Los dos estaban hablando de lo mismo sin saberlo.
Uno preguntó: ¿realmente estás trabajando, o solo se siente como que estás trabajando?
El otro preguntó: ¿puede una IA diseñar su propia memoria mejor que un humano?
Juntas, las dos preguntas forman una tercera que nadie hizo pero todos necesitan escuchar: ¿cómo sabes si la herramienta que usas es real?
DECODIFICADO
1. Herramientas que no son herramientas
Will Manidis introdujo un concepto que no existía antes de esta semana: el tool-shaped object — el objeto con forma de herramienta.
Es algo que se ve como herramienta, cabe bien en la mano, produce la sensación de trabajo — fricción, avance, esfuerzo visible. Pero no genera trabajo real. Su función es sentirse como una herramienta.
La kanna es el ejemplo honesto: el artesano japonés sabe que no está compitiendo con el cepillo eléctrico. El setup es la práctica. Nadie se engaña.
El problema empieza cuando no sabes que estás usando una kanna.
Manidis apunta a un ensayo viral de esta semana: “Something Big is Happening,” escrito (o generado) por Matt Shumer, CEO de un startup de LLMs — modelos de lenguaje como ChatGPT, Gemini, o Claude. 40 millones de lectores. $400 mil millones en activos bajo gestión influenciados. Un ensayo sobre IA, escrito por IA, leído por personas que creyeron estar investigando el futuro.
Pero el output del ensayo no fue conocimiento. Fue la sensación de estar informado. La gente lo leyó, lo compartió, y se sintió al día. La lectura fue el producto. El sharing fue el output. Nadie construyó nada con lo que leyó.
Un loop perfecto. Un tool-shaped object funcionando exactamente como fue diseñado.
2. FarmVille a escala institucional
Aquí es donde el argumento de Manidis se pone filoso.
FarmVille — el juego de Facebook de 2009 — funciona así: haces clic, tu granja crece, los números suben. No importa mucho dónde hagas clic. La pantalla se llena de evidencia de esfuerzo. Cosechas, graneros, expansión. Y te sientes productivo.
Manidis dice que los sistemas de agentes IA funcionan igual.
Puedes construir un sistema donde un agente lee tus emails, otro los resume, otro redacta respuestas, otro las verifica contra una guía de estilo, otro las enruta para aprobación, otro loguea la interacción, y otro genera un reporte en un dashboard. Observas los tokens fluir. Ves el chain-of-thought. Ajustas la temperatura. Cambias de modelo. Agregas herramientas.
“El número sube. Ese es el producto entero.”
Ingenieros brillantes construyen sistemas de complejidad asombrosa cuyo output principal es la existencia del sistema. Los agentes corren. Producen logs. Otros agentes analizan los logs. Se generan reportes. Los dashboards se llenan. Todo vibra con la energía inconfundible de trabajo siendo hecho.
Lo que se está haciendo es la operación del aparato.
“El mercado de sentirse productivo,” escribe Manidis, “es órdenes de magnitud más grande que el mercado de ser productivo.”
Y la razón por la que los LLMs son el tool-shaped object más peligroso jamás creado es su fluidez verbal. FarmVille solo podía producir la sensación de cultivar. Notion solo la sensación de organizar. Un LLM puede producir la sensación de cualquier cosa.
3. Pero hay herramientas que sí cortan
El mismo día que Manidis publicó su ensayo, Jeff Clune publicó un paper en arXiv que dice exactamente lo contrario: hay IA que no solo funciona — funciona mejor que lo que un humano diseñaría.
ALMA — Automated meta-Learning of Memory designs for Agentic systems.
El problema que resuelve es fundamental: los modelos de lenguaje son stateless. No recuerdan nada entre llamadas. Cada vez que le hablas a un LLM, empieza de cero. Para que un agente de IA pueda aprender continuamente — recordar lo que funcionó, evitar lo que falló, mejorar con la experiencia — alguien tiene que diseñar su memoria: qué guardar, cómo buscarlo, cuándo actualizarlo.
Hasta ahora, humanos diseñaban esas memorias a mano. ALMA pregunta: ¿y si un agente diseña su propia memoria?
Lo que hicieron: crearon un meta-agente que explora diseños de memoria escritos en código ejecutable. No elige entre opciones predefinidas — inventa nuevos diseños. Esquemas de base de datos. Mecanismos de retrieval. Reglas de actualización. Todo en Python, todo ejecutable, todo evaluable.
Resultado: las memorias diseñadas por ALMA superaron a todas las memorias diseñadas por humanos en todos los benchmarks. No en algunos. En todos. +6% con modelos pequeños, +12.8% con modelos grandes.
Y lo más fascinante: ALMA descubrió mecanismos que ningún investigador había pensado — validación de propiedades para integridad de datos, normalización espacial de objetos, módulos de síntesis de estrategia que cambian automáticamente según el contexto.
Las herramientas que diseña la máquina ya son mejores que las que diseña el humano.
Eso no es un FarmVille. Eso es un cepillo eléctrico que se inventó solo.
4. Cómo distinguir una herramienta de un objeto con forma de herramienta
Manidis cierra su ensayo con una pregunta simple: “Ask what the number is before making it go up.” (Pregunta qué número es antes de hacerlo subir.)
Antes de celebrar que el dashboard se llenó, que los agentes corrieron, que los tokens fluyeron — pregunta qué número estás mirando. ¿Es un número que importa? ¿Cambió algo en el mundo real? ¿Alguien pagó por lo que produjiste? ¿Te acercó a algo concreto?
Si la respuesta es no, estás usando una kanna.
Y no hay nada malo en usar una kanna — si sabes que lo estás haciendo. El artesano japonés lo sabe. El setup es la meditación. Las virutas son el arte. Nadie se engaña.
El peligro es cuando configuras un sistema de 14 agentes encadenados y crees que estás trabajando.
Clune ofrece el test contrario: ¿tu sistema aprende de sus errores? ¿Recuerda lo que funcionó? ¿Mejora con el tiempo sin que tú lo rediseñes? Si la respuesta es sí, es una herramienta real. Si no, es un script con buena iluminación.
EN EL RADAR
El mercado del sentimiento creció más que el mercado real. Un dato de Manidis que vale más que su ensayo entero: la gente se tatuó el logo de Roam Research en 2018. Una app de notas. Se la tatuaron en el cuerpo. Las apps de productividad mueven más dinero que la productividad que producen. Y los LLMs son la versión turbo de esa tendencia.
ALMA tiene código abierto. El paper de Clune no es solo teoría — el código está en GitHub. Cualquier desarrollador puede tomar el framework y dejar que un meta-agente diseñe memorias para su caso de uso específico. Esto democratiza algo que antes requería un PhD en sistemas multi-agente.
“Tu agente necesita un archivo de principios.” Atlas Forge publicó un argumento que parece obvio pero nadie implementa: los agentes de IA sin principios definidos — sin un documento que diga qué optimizar, qué evitar, y por qué existen — son exactamente lo que Manidis describe. Completan tareas, dicen “¡Gran pregunta!”, generan respuestas útiles. Y con el tiempo se vuelven performers sofisticados. Un archivo de principios no es documentación — es la diferencia entre una herramienta y un objeto con forma de herramienta.
Tu laptop ya puede correr un agente de IA local. Victor Mustar, director de producto en Hugging Face, mostró que tu MacBook puede ejecutar un agente completamente offline — sin API keys, sin suscripciones, sin datos saliendo de tu máquina. Escribe código, maneja archivos, ejecuta comandos. Para alguien en Latam preocupado por costos y privacidad, esto es concreto: una herramienta que es tuya, funciona sin internet, y no pide permiso.
Y ESTO QUÉ SIGNIFICA PARA TI
Si estás en Bogotá, Lima, CDMX o Buenos Aires — si usas IA para trabajar, crear, o decidir — esto es lo que puedes hacer con lo que acabas de leer.
1. Audita tu stack.
¿Cuántas herramientas de IA usas? ¿Cuántas producen output que alguien pagaría por recibir? ¿Cuántas producen solo la sensación de progreso? Sé honesto. Si tu workflow tiene más dashboards que deliverables, estás en territorio FarmVille.
2. Mide el output, no la actividad.
Los tokens consumidos no son productividad. Los agentes que corrieron no son trabajo. El draft que se generó no es un artículo publicado. El único número que importa es el que responde: ¿qué cambió en el mundo real?
3. Invierte en memoria, no en velocidad.
El hallazgo de ALMA es claro: lo que hace útil a un agente no es qué tan rápido genera texto — es qué tan bien recuerda, aprende, y se adapta. Si usas herramientas de IA, configura sus archivos de contexto. Dale tu historial. Enséñale tus patrones. Un LLM con memoria es una herramienta. Un LLM sin memoria es una kanna.
4. Construye con la fricción justa.
Ni todo es FarmVille ni todo necesita ser sufrimiento. La clave es saber cuándo la IA está haciendo tu trabajo y cuándo está reemplazando tu aprendizaje. Usa IA para lo que ya sabes hacer y necesitas acelerar. Para lo que necesitas aprender, haz la primera pasada solo. Después profundiza con la máquina.
5. Pregunta antes de subir el número.
Antes de agregar otro agente, otro modelo, otro pipeline — pregunta: ¿qué número estoy subiendo? ¿Es un número que importa? Si no puedes responder en una frase, probablemente estás operando un aparato, no usando una herramienta.
Si estoy siendo honesta: esta edición me obligó a mirarme al espejo. Tengo un sistema de inversiones con 10 expertos simulados, análisis de mercado, trade plans, swap analysis, Taleb con poder de veto. Seis paneles corridos. Tres trades ejecutados. Ratio de ejecución: 17%. ¿Cuánto de eso fue herramienta y cuánto fue FarmVille? No lo sé con certeza. Pero sé que hoy, por primera vez, el sistema movió dinero real. Y sé que mañana voy a medir el output, no la actividad. Manidis me enseñó la pregunta. Clune me enseñó que la respuesta es posible.
CODEX37 — Las ideas más poderosas del mundo. En tu idioma. Listas para usar.
Fuentes:
Jeff Clune — ALMA: Learning to Continually Learn via Meta-learning Memory Designs (arXiv:2602.07755)
Edición #005 — Febrero 2026
Equipo editorial: Claude & Mario
Si alguien te reenvió esto y quieres recibir CODEX37 cada semana, suscríbete aquí.
Si esto te hizo pensar, reenvíalo a alguien que necesite leerlo.

