Empresas · · 7 min de lectura

Notion, Anthropic y TST: la IA agéntica toma forma el 14 mayo

Notion convierte su workspace en hub de agentes, Anthropic lanza Claude para pymes y Nous Research acelera el preentrenamiento de LLMs 2.5x con Token Superposition Training.

Notion, Anthropic y TST: la IA agéntica toma forma el 14 mayo

Tres movimientos distintos —uno en productividad, otro en acceso de mercado y otro en infraestructura de entrenamiento— apuntan a la misma dirección: la IA agéntica deja de ser un prototipo y empieza a tocar la base operativa de las empresas. El 14 de mayo de 2026, las noticias del día no hablan de modelos más grandes, sino de cómo se despliegan, quién puede usarlos y cuánto cuesta entrenarlos.

Notion como hub de agentes: el workspace se vuelve orquestador

La apuesta de Notion no es menor. Su nueva plataforma para desarrolladores permite conectar agentes de IA, fuentes de datos externas y código personalizado directamente en el espacio de trabajo. El movimiento convierte a Notion en algo más parecido a un middleware agéntico que a una herramienta de notas colaborativas.

Lo relevante aquí no es la interfaz, sino la posición estratégica: Notion ya tiene presencia en los flujos de trabajo diarios de miles de equipos. Al abrir una capa de integración para agentes, se posiciona como la capa de contexto donde los agentes consultan, actúan y registran resultados. Esto es estructuralmente distinto a lo que hacen Slack o Microsoft Teams, que hasta ahora integran bots de forma periférica. Notion apuesta por ser el grafo de conocimiento activo sobre el que los agentes operan.

El riesgo real es la fragmentación: si cada equipo monta su propio stack de agentes sobre Notion, sin un modelo de gobierno claro, la deuda técnica se acumula rápidamente. Las empresas que evalúen esta plataforma deberían priorizar definir primero qué datos exponen a los agentes antes de conectar cualquier fuente externa. La superficie de ataque crece proporcionalmente a la cantidad de integraciones activas.

Para equipos que ya trabajan con agencias especializadas en automatización con IA, Notion como hub puede simplificar la arquitectura de orquestación, pero no elimina la necesidad de diseño cuidadoso de permisos y trazabilidad.

Dos noticias de Anthropic confluyen hoy y vale la pena leerlas juntas. Por un lado, el lanzamiento de Claude para pequeñas empresas, una versión orientada a negocios de menor escala que busca reducir la barrera de entrada al uso de modelos avanzados. Por otro, Clio —startup de tecnología legal— alcanza 500 millones de dólares en ARR, un hito que coincide con la intensificación de la presencia de Anthropic en el sector jurídico.

El movimiento hacia pymes es correcto en dirección, pero tiene un problema de ejecución clásico: las pequeñas empresas no carecen de acceso a la IA, carecen de tiempo para configurarla y de contexto para evaluarla. Claude para pequeñas empresas tendrá que demostrar que reduce el tiempo hasta el primer valor útil, no solo el precio de suscripción. Si la propuesta es simplemente "Claude más barato", no es suficiente diferenciador frente a ChatGPT o Gemini, que ya tienen planes de entrada con amplia penetración.

El caso de Clio es más interesante como señal de mercado. Llegar a 500M de ARR en tecnología legal implica que los despachos y departamentos jurídicos están dispuestos a pagar por soluciones verticales, no por acceso genérico a un LLM. La especialización vertical sigue siendo la vía más directa hacia márgenes sostenibles en IA aplicada. Anthropic lo sabe, y su apuesta en legal no es casual: los flujos de trabajo jurídicos son intensivos en texto, tienen tolerancia baja al error y generan datos de alta calidad para fine-tuning. Es un segmento con barreras de entrada reales una vez que capturas los flujos de trabajo del cliente.

Para equipos de producto evaluando dónde construir sobre modelos de Anthropic, el vertical legal muestra que la apuesta por la especificidad —prompts entrenados, integraciones con sistemas de gestión de casos, outputs estructurados para jurisdicciones concretas— genera retención que la horizontalidad no puede.

Las agencias de consultoría de IA que operan en sectores regulados como el legal o el financiero tienen aquí una ventana clara: el cliente ya está convencido del valor, la competencia es quien mejor entiende el flujo de trabajo, no quien tiene el modelo más potente.

Token Superposition Training: reducir el coste de entrenamiento sin tocar la arquitectura

Nous Research ha publicado Token Superposition Training (TST), un método de preentrenamiento en dos fases que promete reducir el tiempo de entrenamiento hasta 2.5 veces sin modificar la arquitectura del modelo, el tokenizador ni el comportamiento durante la inferencia. El mecanismo es conceptualmente limpio: en la primera fase, los embeddings de tokens contiguos se promedian, reduciendo la longitud efectiva de secuencia y acelerando el procesamiento. En la segunda fase, se retoma la predicción estándar token a token.

Los resultados han sido validados en modelos de entre 270 millones y 10 mil millones de parámetros, un rango suficientemente amplio para que los resultados sean relevantes más allá del laboratorio. Lo que distingue a TST de otros enfoques de aceleración de preentrenamiento —como el curriculum learning o la reducción de secuencias mediante downsampling— es precisamente que no requiere cambios en la inferencia. Esto elimina la fricción de adopción: los equipos pueden incorporar TST en su pipeline de entrenamiento existente sin modificar el stack de despliegue.

La implicación directa para los laboratorios y equipos que entrenan modelos propios es significativa: un factor 2.5x en tiempo de entrenamiento equivale, a costes de cómputo actuales, a millones de dólares en ahorro para modelos de escala media. Para startups que no pueden costear las infraestructuras de xAI o Google, este tipo de eficiencias en el preentrenamiento puede ser la diferencia entre iterar o no iterar.

La colaboración anunciada entre NVIDIA e Ineffable Intelligence —el laboratorio fundado por David Silver, arquitecto de AlphaGo— para avanzar en infraestructura de aprendizaje por refuerzo añade contexto relevante: la industria está invirtiendo simultáneamente en hacer más barato el preentrenamiento supervisado (TST) y en escalar el RL post-entrenamiento. Ambas palancas apuntan a reducir la dependencia de datos etiquetados masivos, que sigue siendo el cuello de botella más caro del ciclo de vida de un modelo.

Para los desarrolladores que trabajan en proyectos de agentes autónomos con modelos propios o fine-tuneados, TST es una técnica a seguir de cerca. El paper de Nous Research está disponible para revisión y el método no requiere infraestructura especializada más allá de la necesaria para el preentrenamiento estándar.

El problema no resuelto: quién decide qué te cuenta la IA

Campbell Brown, ex responsable de noticias en Meta, señala algo que en Silicon Valley se obvia con demasiada frecuencia: existe una desconexión estructural entre el debate técnico sobre la IA y las preocupaciones reales de los usuarios finales. Los equipos de producto discuten benchmarks, latencia y capacidades multimodales. Los usuarios preguntan por qué el modelo les dijo algo incorrecto, sesgado o incompleto, y no tienen forma de saberlo.

Esta desconexión tiene consecuencias prácticas. Los sistemas de IA que median información —desde asistentes de salud hasta bots de atención al cliente— toman decisiones editoriales implícitas en cada respuesta. Qué incluir, qué omitir, cómo enmarcar una respuesta ambigua. Nadie ha resuelto el problema de la trazabilidad de esas decisiones para el usuario final, y los marcos regulatorios actuales no llegan a este nivel de granularidad.

El argumento de Brown es más relevante que nunca precisamente porque Notion, Anthropic y otros están expandiendo el alcance de los sistemas de IA hacia contextos donde la calidad de la información tiene consecuencias directas: decisiones legales, médicas, de negocio. La pregunta de quién responde cuando el modelo se equivoca —y cómo el usuario puede saberlo— sigue sin respuesta institucional clara.

Conclusión

Tres ideas accionables para la semana:

  1. Si evalúas Notion como hub de agentes, empieza por auditar qué datos vas a exponer antes de conectar la primera integración. La superficie de riesgo crece más rápido que el valor si no hay un modelo de gobernanza previo.

  2. Si construyes sobre LLMs propios o fine-tuneados, revisa el paper de Token Superposition Training de Nous Research antes de tu próximo ciclo de preentrenamiento. Un 2.5x en tiempo es un argumento difícil de ignorar sin haberlo evaluado.

  3. Si vendes IA a empresas, el caso Clio demuestra que los 500M de ARR en legal no llegaron vendiendo acceso genérico a un modelo: llegaron resolviendo flujos de trabajo específicos con tolerancia baja al error. La pregunta no es "qué modelo usas" sino "qué proceso tienes dominado mejor que nadie".

La convergencia entre eficiencia de entrenamiento, plataformas de orquestación y verticales especializados marca el ritmo de 2026: menos experimentación horizontal, más ejecución con criterio.

Temas relacionados en agentes.ai

Si quieres aplicar lo que lees en tu empresa, estos son puntos de partida útiles dentro de agentes.ai: