Opinión Eugenio Mallol

Apps para el cerebro: la ‘body based tech’ entra en otra dimensión

Soluciones capaces de leer el cerebro en tiempo real y de ‘escribir’ sobre él, ‘medicina electrónica’ que produce efectos similares a los de un fármaco, la presencia de la IA en nuestras vidas entra en una nueva escala e impulsa el ‘marketing de momentos’.

“¿Quieres hacer una siesta en plena calle de Nueva York? ¿Y en un vagón del metro?” La mujer que interpelaba hace unas semanas a los transeúntes en Central Park y Times Square es Meredith Perry, CEO de Elemind, una spin off del Massachusetts Institute of Technology (MIT). Les ofrece una cama portátil, una manta, por supuesto, antifaz y les asegura que la diadema que lleva en su mano hará la magia. Una tras otra, personas de todas las edades aceptan echar una cabezadita. “Has dormido cuatro minutos”, les dice cuando despiertan una colaboradora de Perry mostrándoles los gráficos en una pantalla.

Estaba claro que esta edición el CES de Las Vegas de 2026, la mayor feria de electrónica de consumo del mundo, iba a ser de transición. Inteligencia artificial (IA) omnipresente, ya no como una simple herramienta, sino como el sistema operativo completo de la nueva economía. Pero argumentario muy similar al de hace un año, con apenas alguna chispa robótica a la espera de recorrido y entre propuestas inclasificables como el internet de las cosas del fondo marino.

La explosión se producirá en 2027, venimos diciendo. Hay que dar al menos dos años a la IA física. El mundo real está todavía muy lejos de ella. «Los mayores cuellos de botella en la tecnología hoy en día no están en el software, en realidad, están en el mundo físico», ha afirmado Joe Creed, CEO de Caterpillar

Entre tanto celofán, la mesa sobre ‘tecnología basada en el cuerpo’ (“Body based tech”) consigue levantar al público de sus asientos. Han abundado las propuestas de salud digital (digital health) en el CES Las Vegas, pero lo que nos proponen compañías como Elemind, cuya tecnología wearable, presente en el mercado desde 2024, “no sólo lee el cerebro, sino que escribe al cerebro”. La producción de nuevos modelos de negocio y servicios tecnológicos a partir de la capacidad de la IA de interpretarnos a nosotros mismos ya existía, pero estamos entrando en otra dimensión.

“Los wearables nos dan información sobre lo que hacemos, por ejemplo, sobre cuánto dormimos, pero la gente no sabe muy bien qué hacer con ello”, dice Meredith Perry. El dispositivo de Elemind imita con su actividad los efectos de algunos medicamentos, sin química ni efectos negativos. Lo llama “medicina electrónica”. Sabe si su dosis tiene efecto, en tiempo real, porque sus sensores observan continuamente al cerebro. “Si no funciona la terapia, podemos cambiarla… en tiempo real”.

La novedad es que, con la ayuda de la IA, Elemind está construyendo una tienda de “apps para el cerebro”. Ha probado clínicamente las que ayudan a dormir a demanda, a controlar temblores, a mejorar de la anestesia y a lograr mejoras cognitivas como el impulso de la memoria motora, interesante para actividades físicas como tocar el piano.

En la misma mesa, Ramses Alcaide, CEO de Neurable AI, proyecta una lista de 50 indicadores cerebrales que se pueden monitorizar, desde el estrés hasta los trastornos de atención. “¿Por qué no se hace? Porque los aparatos para ello son enormes”, asegura. Presenta unos auriculares, descritos ya como ‘el Fitbit del cerebro’, con versión gaming de la mano de HyperX. “Si puedes ver el cerebro en tiempo real puedes observar condiciones que antes no eran visibles”, como la evolución del déficit de atención e hiperactividad (TDAH). En su caso, la ‘medicina electrónica’ puede ser subir o bajar el volumen.

Steven Lebouf, CEO y cofundador de Quellios, sostiene que la “información nutricional personalizada” exigirá saber cómo responde nuestro cuerpo a lo que comemos. Para utilizar su tecnología Snap and Sense hay que sacar una foto al delicioso almuerzo que vamos a consumir y dejar que la IA lo analice. A continuación, nos pide que tapemos con el dedo la cámara del móvil. Unos segundos son suficientes para que el sistema averigüe qué está sucediendo en el cuerpo, extraiga biomarcadores e indique qué efectos tendrá el ágape en nosotros.

En el ámbito de las grandes corporaciones también son evidentes los movimientos que podrían relacionarse con esta cultura body based tech. No le hacen falta wearables a Disney para incidir sobre el rincón de nuestra mente en el que se conservan los sueños infantiles. Adam Monaco, vicepresidente de ventas, habla del «marketing de momentos», como el cambio fundamental que se avecina en la estrategia de segmentación de las audiencias. Pasaremos de la personalización “a realmente… los momentos», sostiene.

Para entender mejor esta transición tecnológica, se puede pensar en Disney como un anfitrión experto en una fiesta: no solo sabe tu nombre (que es lo que haría la personalización), sino que ahora utiliza la tecnología para saber exactamente en qué momento de la conversación ofrecerte un producto o presentarte un nuevo personaje basándose en el ambiente de la sala. Es el marketing de momentos.

Siempre hay que asomar el oído a la sesión del gigante de la distribución Walmart. De nuevo, esencias de body based tech en el aire. Khurrum Malik, vicepresidente de negocio y marketing de producto, invita a imaginar su plataforma Walmart Connect como un ecosistema de navegación avanzada para que las marcas lleguen a los consumidores.

No solo les proporciona el «mapa», con datos de los 150 millones de clientes omnicanal que llegan cada semana a través de sus tiendas, sino también el «vehículo» (“81% de los consumidores usan Sparky”, una herramienta de agentes de IA, “para descubrir productos”) y el «piloto automático» (Marty, es un asistente publicitario agéntico) para asegurar que el mensaje llegue al destino correcto en el momento exacto de la compra.

A juicio de Don McGuire, de Qualcomm, “las gafas serán una plataforma de computación distintiva para la IA personal”. Pero, volviendo a Joe Creed, de Caterpillar, podría pensarse que esa visión empieza a estar obsoleta. «La autonomía da un paso más: de la inteligencia que asiste al operador a la inteligencia que se convierte en el operador, basándose en sus instrucciones. Estos no son solo camiones y excavadoras. Son compañeros de equipo inteligentes que trabajan juntos, aprendiendo y adaptándose cada día”.

Esa es la filosofía del mundo que viene, hasta de la “planta industrial adaptativa” que anunciaron al alimón los CEO de Siemens y NVIDIA, Roland Busch y Jensen Huang. Debemos ser conscientes de la nueva relación con la tecnología que eso implica a nivel de persona individual, ese es el gran desafío. Es obvio que robots con capacidad para entender el entorno mejorarán la productividad de cualquier compañía, pero los queremos también pegados a nuestra piel y a nuestro cerebro. Y eso es otra cosa.

Artículos relacionados