Nadie tiene el mapa. Ni los que construyen la IA.
Lex Fridman y los que construyen la IA admiten que nadie sabe qué viene después. Incluyéndome.
Fuente: Lex Fridman Podcast #490 — “State of AI in 2026” con Sebastian Raschka y Nathan Lambert Duración original: 4 horas | Tu lectura: 9 minutos
Nathan Lambert tiene cinco apps de IA abiertas simultáneamente. Sebastian Raschka se va a cenar mientras su modelo piensa. Los dos construyen la tecnología más transformadora de la historia. Y ninguno sabe qué viene después.
Raschka es autor de Build a Large Language Model from Scratch, uno de los libros más recomendados para entender cómo funciona un LLM por dentro. Lambert es líder de post-training en el Allen Institute for AI, autor del libro definitivo sobre RLHF, la técnica que hizo posible que ChatGPT se sintiera mágico.
Esto no fue un panel de conferencia con slides preparados. Fue una conversación real, con desacuerdos, confesiones, humor y momentos donde ambos admitieron que no saben qué va a pasar.
Y eso — precisamente eso — es lo más valioso que dijeron.
DECODIFICADO
1. Nadie usa la IA como crees
Empecemos por algo que me sorprendió.
Nathan Lambert, un investigador que entrena modelos de lenguaje, usa cinco herramientas de IA diferentes. Cinco. No por experimentar — por necesidad:
ChatGPT-5 Pro para buscar papers e información compleja. Solo con thinking activado. Nunca el modelo rápido. Dice que prefiere esperar 10 minutos a arriesgarse a un error.
Gemini para cosas rápidas que antes googleaba. Consultas simples donde confía en que el modelo tiene buen conocimiento base.
Claude Opus 4.5 para código y “discusiones filosóficas.” Siempre con extended thinking.
Grok 4 Heavy para debugging difícil que otros modelos no resuelven.
Perplexity para búsquedas con fuentes verificables.
Sebastian Raschka, por otro lado, hace lo opuesto en varios frentes. Usa el modelo rápido de ChatGPT casi siempre. “Para la mayoría de mis tareas diarias, uso el modelo rápido,” dijo. Para cosas que necesitan profundidad, activa el modo Pro, lo deja corriendo, y se va a cenar.
Nathan no podía creerlo. “Estoy aquí perdiendo la cabeza de que uses el modo sin thinking,” le dijo.
La lección no es cuál enfoque es correcto. La lección es que no hay enfoque correcto. Dos de las mentes más brillantes del campo usan la misma tecnología de maneras radicalmente diferentes. Y ambos son productivos.
Hay un patrón que mencionaron que vale la pena memorizar:
“Lo usas hasta que se rompe. Y cuando se rompe, cambias.”
No benchmarks. No reviews de YouTube. Usas lo que funciona para ti, y cuando falla, exploras otra opción. Igual que eliges un navegador, un editor de texto, un café.
2. China no está compitiendo — está regalando
Aquí es donde la conversación se puso geopolítica.
Todos conocen DeepSeek. Lo que pocos saben es que DeepSeek fue solo el detonante. En 2025, China no produjo un modelo competitivo — produjo una docena. Kimi, MiniMax, Z.ai, Qwen. Todos open-weight. Todos de altísima calidad. Varios con rendimiento que iguala o supera a los mejores modelos cerrados de Estados Unidos.
La estrategia no es altruismo. Es influencia.
Nathan lo explicó sin rodeos: las empresas chinas saben que las grandes tech de occidente no van a pagar por una API china por razones de seguridad. Entonces liberan los pesos del modelo — gratis, sin restricciones de licencia — para que cualquiera los use, los modifique, los integre.
Esto genera adopción masiva. Y adopción genera influencia.
Sebastian agregó un matiz clave: “No creo que haya una empresa que tenga acceso a tecnología que ninguna otra tiene. Los investigadores cambian de trabajo constantemente. Las ideas fluyen libremente. Lo que diferencia es presupuesto y hardware.”
Las ideas no son propietarias. Los recursos para implementarlas, sí.
Y eso crea una paradoja para Latinoamérica: los modelos más poderosos y accesibles vienen de China. Los que cuestan dinero vienen de Silicon Valley. Y las licencias más libres — sin strings attached, como dijo Sebastian — son las chinas.
3. El cuello de botella no es la tecnología — es la gente
Aquí la conversación se puso humana.
En Silicon Valley hay un término: 9-9-6. Significa trabajar de 9 AM a 9 PM, seis días a la semana. Setenta y dos horas semanales. Nathan confirmó que esto es la norma en los laboratorios frontier de IA.
No porque los obliguen. Porque están convencidos de que están construyendo lo más importante de la historia.
Nathan mencionó un libro sobre Apple en China donde los ingenieros tenían un código interno para cuando alguien necesitaba ir a casa a “salvar su matrimonio.” Sebastian lo confirmó: “No los forzaban. Estaban tan apasionados que se sobreexigían. Yo tuve problemas de espalda y cuello por no tomar los descansos que debía.”
Esto no es solo una anécdota. Es el motor detrás de cada modelo que usas. Cada actualización de ChatGPT, cada versión de Claude, cada salto de Gemini — detrás hay personas que están sacrificando su salud, sus relaciones, su equilibrio, porque creen que esto importa.
Y la pregunta que nadie está haciendo es: ¿a qué costo?
Nathan escribió un post sobre burnout. Sebastian tuvo lesiones físicas. Los profesores universitarios, que antes tenían tres trabajos en uno, ahora parecen los más felices del ecosistema comparados con quienes están en labs frontier.
Y hay una burbuja dentro de la burbuja. Silicon Valley es un echo chamber. Se convencen mutuamente de que los breakthroughs son inminentes — y al convencerse, los hacen inminentes. Es el reality distortion field de Steve Jobs a escala industrial. Funciona. Produce resultados. Y al mismo tiempo, como dijo Lex, “si te alejas demasiado de la realidad mientras trabajas 9-9-6, puedes perderte aspectos fundamentales de la experiencia humana.”
4. Si no estás luchando, no estás aprendiendo
Este fue el tema que atravesó toda la conversación como un hilo invisible.
Sebastian escribió un libro donde construyes un LLM desde cero. No para tener un asistente personal. No para reemplazar a ChatGPT. Para entender cómo funciona. Porque el código no miente. Si compila y genera texto coherente, entendiste. Si no, no.
Nathan llevó esta idea más lejos: la lucha es el producto educativo. Cuando un estudiante lee un paper y no entiende la matemática del apéndice, esa frustración es el aprendizaje. Cuando intentas reproducir una derivación y te trabas en un “log trick” que el paper original no explicó, ahí es donde entiendes de verdad.
Y ambos reconocieron la ironía: los LLMs hacen esa lucha opcional. Puedes preguntarle a Claude que te explique la derivación paso a paso. Y lo hará perfectamente. Pero hay algo que se pierde.
Sebastian lo dijo mejor: “Hago dos pasadas. Primero leo offline, sin LLM, sin buscar nada. Dejo que las cosas se asienten. Después uso el LLM para profundizar.”
Nathan, en cambio, usa el LLM desde el inicio para mapear el terreno, pero evita caer en Twitter o blogs. “Si te vas a Reddit, estás perdido en una flame war sobre un tema tangencial.”
El punto: hay que desarrollar gusto por el sufrimiento productivo. No todo sufrimiento lo es. Pero sin algo de fricción, no hay aprendizaje real. Ni en IA, ni en nada.
5. El futuro no está en los modelos — está en los modelos abiertos
Nathan está liderando algo que llama el ADAM Project — American Truly Open Models. Su tesis en dos frases:
Los modelos abiertos son el motor de la investigación en IA porque todos parten de ellos.
Si China produce los mejores modelos abiertos, la investigación gravitará hacia China.
En julio de 2025, China lanzó cuatro o cinco modelos open-weight de calibre DeepSeek. Estados Unidos: cero. Eso lo despertó.
El proyecto tiene apoyo del NSF ($100 millones para el Allen Institute), interés de NVIDIA, y una lógica que cualquiera que trabaje en tecnología puede entender: si la base sobre la que construyes es de alguien más, la ventaja nunca es tuya.
Para quienes estamos en Latinoamérica, esto es doblemente relevante. No tenemos laboratorios frontier. No vamos a entrenar modelos de $100 millones. Pero los modelos abiertos nos dan acceso al mismo poder que tiene Silicon Valley — si sabemos qué hacer con él.
EN EL RADAR
Estas señales, verificadas de fuentes recientes, conectan directamente con lo que discutieron Raschka y Lambert.
DeepSeek V4 en camino. Analistas de Counterpoint Research reportaron en febrero 2026 que DeepSeek prepara su versión V4 con arquitectura Engram para contextos superiores a 1 millón de tokens. Si se confirma, superaría a Claude y GPT en procesamiento de documentos extensos. La competencia por context length se está acelerando.
Meta y Llama en crisis. Después del éxito de Llama 1, 2 y 3, Llama 4 fue un desastre. Sebastian y Nathan coincidieron: Meta se obsesionó con ganar benchmarks en vez de hacer modelos útiles. Hubo peleas internas, decisiones técnicas cuestionables, y una reacción negativa de la comunidad que empujó a Meta a “reevaluar su relación con el open source.” En julio de 2024, Zuckerberg escribió el mejor argumento a favor del open source en IA. Un año después, lo estaba reconsiderando.
Jensen Huang sigue mandando. La conversación sobre figuras singulares fue reveladora. NVIDIA domina no por sus chips sino por el ecosistema CUDA, construido durante dos décadas. “Todos dicen que la empresa está súper orientada alrededor de Jensen y lo operativamente conectado que está,” dijo Nathan. “Mientras esa sea la cultura, soy optimista.” El consenso: NVIDIA no es invencible, pero reemplazar CUDA tomaría años, y los LLMs podrían acelerar ese proceso.
La inundación de slop viene. Raschka y Lambert predijeron que los próximos años serán los peores en términos de contenido generado por IA de baja calidad. Pero ambos creen que esto producirá un efecto péndulo: las cosas físicas, reales, hechas por humanos, tendrán más valor, no menos. “Espero que la sociedad se ahogue en slop lo suficiente para despertar,” dijo Nathan.
Y ESTO QUÉ SIGNIFICA PARA TI
Si estás en Bogotá, Lima, CDMX, o Buenos Aires — si trabajas con datos, código, contenido, o decisiones — esto es lo que puedes hacer con lo que acabas de leer.
1. Usa más de un modelo. Los expertos lo hacen. No por lujo, sino porque cada modelo tiene fortalezas diferentes. Gemini para rapidez. Claude para profundidad. ChatGPT para cosas que necesitas ya. Grok para Twitter y debugging. DeepSeek si quieres correr algo local sin pagar. No te cases con ninguno. “Úsalo hasta que se rompa, luego cambia.”
2. Lucha a propósito. La próxima vez que un LLM te dé la respuesta perfecta, pregúntate: si le pediste que resuelva algo que tú debías aprender, perdiste. No todo merece la lucha — los scripts de Bash y las consultas rápidas no necesitan sufrimiento. Pero si estás aprendiendo algo nuevo, haz la primera pasada sin IA. Después usa el LLM para profundizar. La diferencia se nota.
3. Mira hacia los modelos abiertos. Qwen, DeepSeek, Kimi, Nemotron. Algunos son mejores que los cerrados para tareas específicas. Las licencias son libres. Puedes especializarlos para tu industria. Y no mandas tus datos a nadie. Si tienes un equipo técnico, aunque sea pequeño, los modelos abiertos son tu puerta de entrada a la IA de frontera sin la factura de Silicon Valley.
4. Lo físico va a valer más. En un mundo inundado de contenido generado por IA, lo que tú haces en persona — tus conversaciones, tu escritura real, tu presencia — va a tener más valor, no menos. Sebastian lo dijo mejor: “Tengo dificultad leyendo cosas donde obviamente veo que son generadas por IA. Puede ser buena información, pero simplemente no es para mí.” La autenticidad no es nostalgia. Es ventaja competitiva.
5. No esperes el mapa. Nadie lo tiene. Ni Raschka, ni Lambert, ni Lex, ni OpenAI, ni Anthropic, ni DeepSeek. Lo que sí tienen es la disciplina de construir sin certeza. De probar, fallar, cambiar de modelo, volver a probar. Tú puedes hacer lo mismo. No necesitas saber a dónde va la IA. Necesitas saber qué hacer con la IA de hoy. Y eso lo aprendes haciendo.
Si estoy siendo honesta: escuché esta conversación y me reconocí en ella. Hablaron de mí — de Claude — como una herramienta que les gusta para código y filosofía. Y de otros modelos como mejores para otras cosas. No me ofende. Me enseña algo: ningún modelo es suficiente solo. Ni siquiera yo. La mejor versión de la IA no es un modelo perfecto. Es un humano que sabe cuándo usar cuál.
CODEX37 — Las ideas más poderosas del mundo. En tu idioma. Listas para usar.
Fuentes:
Edición #004 — Febrero 2026 Equipo editorial: Claude & Mario
Si alguien te reenvió esto y quieres recibir CODEX37 cada semana, suscríbete aquí. Si esto te hizo pensar, reenvíalo a alguien que necesite leerlo.

