Durante años hemos trabajado con datos que se generaban automáticamente en los sistemas digitales.
Ahora empieza una nueva economía:
la de los datos que solo existen si alguien los captura en el mundo real.

Durante más de una década, la economía digital ha funcionado sobre una lógica muy concreta: los datos se generaban solos. Cada interacción en un sistema dejaba un rastro que podía ser capturado, almacenado y analizado. Las empresas no necesitaban observar la realidad directamente; bastaba con mirar sus propios sistemas.

Ese modelo ha sido extraordinariamente productivo, pero también tiene un límite. No porque falten datos, sino porque los datos que tenemos ya no son suficientes para el siguiente paso. La inteligencia artificial ha aprendido a operar con ese universo digital: entiende el lenguaje, detecta patrones y toma decisiones dentro de contextos estructurados. Sin embargo, cuando se enfrenta al mundo físico, aparece una carencia fundamental.

No sabe qué está ocurriendo.

No sabe qué hay ahora mismo en una estantería concreta, cómo se comporta la gente en un espacio o qué sucede en una calle en un momento determinado. Puede inferirlo o estimarlo, pero no lo conoce. Y esa diferencia, que hasta ahora era tolerable, empieza a ser crítica.

El cambio tiene que ver con la transición de modelos a agentes. Mientras la inteligencia artificial se limitaba a responder preguntas o generar contenido, podía apoyarse en conocimiento general. Pero un agente que actúa, que toma decisiones en entornos reales y que ejecuta tareas, necesita algo distinto: necesita contexto. No un contexto abstracto, sino un contexto situado, actualizado y conectado con la realidad.

Ese contexto no está en los sistemas. Está fuera de ellos.

Por eso empiezan a aparecer soluciones que, en apariencia, resuelven problemas muy concretos — como el experimento Tokerland que hemos lanzado organizar tickets, escanear productos, registrar información— pero que en realidad están haciendo algo más profundo. Están construyendo una capa de información sobre el mundo físico.

El experimento Tokerland es un buen ejemplo de esta lógica. Puede interpretarse como una aplicación para gestionar compras, o buscar productos en tiendas físicas del entorno, pero lo relevante no está en esa funcionalidad.

En Tokerland cada ticket escaneado no es solo un documento; es el registro de una transacción real. Cada estantería fotografiada no es una imagen; es un inventario en un momento concreto. Cada producto asociado a un comercio no es un dato aislado; es contexto sobre lo que ocurre en ese lugar. Este contexto es el que recoge Tokerland y a cambio da al usuario información sobre su entorno; precios, dónde encontrar determinados productos, recomendaciones de compras según compras pasadas y pautas de consumo. Y todo a través de un agente que le responde.

Lo interesante no es tanto la aplicación en sí como la intuición que hay detrás: los datos que empiezan a ser valiosos no existen previamente en los sistemas. Solo aparecen cuando alguien los captura en el mundo real

Este mismo patrón empieza a verse en ámbitos muy distintos. En movilidad urbana, por ejemplo, el problema ya no es construir mejores mapas, sino entender cómo se mueve realmente la gente: qué rutas utiliza, dónde se generan fricciones o cómo cambian los flujos a lo largo del día. Buena parte de esa información no se deduce; se recoge directamente desde dispositivos, sensores o incluso personas que registran trayectorias reales.

Algo parecido ocurre en el retail físico. Durante años, las empresas han operado con sistemas que describen el estado teórico de sus tiendas, pero cada vez es más evidente la distancia entre ese modelo y lo que sucede en la práctica. Por eso se multiplican las iniciativas para capturar el estado real: fotografías de estanterías, auditorías distribuidas, validaciones in situ. El dato relevante ya no está en el ERP, sino en la tienda.

En logística, la necesidad es aún más evidente. Saber si una entrega es viable, cómo es el acceso a un punto concreto o qué condiciones hay en el destino no puede resolverse únicamente con direcciones o bases de datos. La información relevante está en el terreno: en una puerta, en una rampa, en un horario real. Y esa información solo aparece cuando alguien la observa y la registra.

Y, quizá de forma más silenciosa, esta misma lógica está entrando en el entrenamiento de sistemas de inteligencia artificial. Los modelos han aprendido del lenguaje, pero no del mundo físico. No saben cómo se manipulan objetos, cómo se ejecutan tareas manuales o cómo se interactúa con un entorno real. Ese conocimiento no está estructurado en internet y, por tanto, tiene que generarse mediante observación directa: grabaciones, demostraciones, registros de comportamiento.

Todo esto apunta a un cambio más profundo de lo que parece.

No estamos simplemente ampliando el volumen de datos disponibles, sino modificando su naturaleza.

Durante años, el dato era un subproducto de la actividad digital. Ahora empieza a convertirse en una producción en sí misma. Hay que salir a capturarlo, validarlo y estructurarlo.

Pero, en realidad, lo que estamos produciendo no es solo dato. Es contexto.

Y ese matiz es clave. Porque mientras los modelos pueden funcionar con conocimiento general, los agentes necesitan contexto específico para operar. Necesitan saber dónde están, qué está ocurriendo y cuál es el estado actual de las cosas. Sin ese contexto, su capacidad de decisión es necesariamente limitada.

Esto introduce también una nueva fuente de ventaja competitiva. Durante mucho tiempo se ha pensado que el valor residía en los algoritmos o en los modelos. Sin embargo, a medida que estos se estandarizan, el diferencial se desplaza hacia la capacidad de acceder a la realidad: observarla, registrarla y convertirla en información utilizable.

En ese sentido, empieza a emerger una nueva industria, todavía poco visible, centrada en la captura de contexto del mundo físico. Una industria que no se apoya tanto en el software como en la capacidad de conectar ese software con la realidad.

Como suele ocurrir, este proceso también tiene su propia paradoja. Los humanos que hoy capturan ese contexto —mediante pequeñas acciones distribuidas— están contribuyendo a entrenar sistemas que, en parte, automatizarán tareas similares en el futuro. Son acciones discretas, fragmentadas y, en muchos casos, invisibles, pero fundamentales para el funcionamiento de esos sistemas.

Durante años, digitalizar significaba trasladar el mundo al software. Ahora ocurre algo distinto: el software necesita volver al mundo para poder avanzar.

Porque la inteligencia artificial ya sabe muchas cosas.

Pero todavía necesita entender dónde está.