Imagine que una ciudad se funde 12 millones de euros en carriles bici que nadie usa. Alguien, en algún despacho, creyó que era buena idea sin molestarse en preguntarle a los datos. Ahora imagine la ciudad de al lado que, en lugar de levantar asfalto y mover aceras, utiliza solares abandonados en pleno casco urbano, los llena de árboles con el nombre de "bosque romano", y consigue lo que los políticos más ambiciosos raramente logran: que todo los vecinos queden contentos. La diferencia entre una historia y la otra no es el presupuesto ni la ideología. Es si alguien pulsó antes el botón de simular.
O piense en lo siguiente: hay un billón de euros del Pacto Verde Europeo literalmente parados, congelados, sin ejecutar. No porque falte voluntad política ni dinero en las arcas. Sino porque nadie sabe cómo demostrar a los bancos y a los fondos de inversión que el retorno llegará. Las ciudades quieren modernizarse, descarbonizarse, hacerse inteligentes. Pero la incertidumbre paraliza mientras el dinero duerme.
O considere la imagen más desconcertante de todas: robots humanoides de Tesla entrenando millones de horas en ciudades que no existen, en calles que aún no se han construido, aprendiendo a caminar, a doblar esquinas, a reaccionar ante el caos antes de que el caos sea real. Hablamos de gemelos digitales. Y no, no se trata de otro gadget más, sino de un campo de entrenamiento para la inteligencia artificial del siglo XXI.
Quien cuenta estas historias no es un futurista de conferencia TED. Se llama Antonio Jara, y conversamos con él en el marco de la reciente cumbre AI Everything de El Cairo sobre gemelos digitales, inteligencia artificial y el peligro de que las ciudades del futuro sean diseñadas por algoritmos que nadie entiende. Es un ingeniero informático de Murcia que acabó el doctorado con 25 años, montó una startup (HOPU) para que su investigación "valiera para algo", terminó monitorizando Madrid Central y midiendo la contaminación de las obras de Neom en Arabia Saudí, y hace unos años pasó a formar parte como director técnico de Libelium, uno de los grandes nombres españoles en tecnología de sensores y gestión de datos que tiene sus sedes en Zaragoza y Murcia y que acaba de celebrar esta semana en Granada su 20 aniversario. No por casualidad, en la ciudad andaluza han llevado uno de sus grandes proyectos a punto de ser presentado: un fascinante gemelo digital de la Alhambra.
La historia de Antonio Jara es la de alguien que se aburrió demasiado pronto de tener razón. Compaginó ya desde segundo curso la ingeniería con la investigación y el desarrollo, y cerró el ciclo académico con una velocidad que desconcierta: "Con 25 años era doctor en Informática, máster en Dirección de Empresas, tenía la técnica, la superior y el grado en Informática y en todo fui el primero de mi promoción". El problema, explica, no era la falta de conocimiento. Era la sensación de que ese conocimiento no aterrizaba en ningún sitio real.
"Tuve una crisis y decidí que quería que lo que hiciese tuviese un impacto real en el mundo, porque sentía que la I+D no se transfería a la sociedad". Así nació HOPU, su empresa. Los primeros tres años los describe con una palabra que pocas veces aparece en el currículum de nadie: desintoxicación. "Al principio todo me gustaba y me valía, hasta que empecé a pensar en negocio". En paralelo, dirigió un laboratorio de movilidad en Suiza donde trabajó con coches autónomos cuando eso aún era ciencia ficción para la mayoría. Mantuvo la empresa española, dice, "como un vínculo para poder visitar a mis padres".
"Tuve una crisis y decidí que quería que lo que hiciese tuviese un impacto real en el mundo, sentía que la I+D no se transfería a la sociedad"
El punto de inflexión llegó en 2017, cuando encontraron el nicho: monitorizar la calidad del aire. Ganaron el contrato de Madrid Central —"un proyecto polémico, pero interesante"—, escalaron, y cuando llegó el covid y el aire que respiramos se convirtió de pronto en tema de portada, HOPU ya estaba donde tenía que estar. En 2022, Libelium los compró. Antonio Jara pasó de fundador a director técnico, socio y miembro del consejo de administración.
La pregunta inicial sobre los carriles bici de Murcia frente al éxito de Cartagena abre la conversación de fondo: ¿llegará un día en que simular con gemelos digitales sea un requisito legal antes de gastar un euro de dinero público en infraestructura urbana? La respuesta de Jara no es una predicción, es un diagnóstico del presente: ya está pasando.
"Tanto a nivel europeo con el Investment Fund como a nivel nacional con la Smart Economy, ya es una exigencia. Todo el desarrollo urbano impulsado por la Secretaría General de Administración Digital (SEDIA) a través de Red.es, tiene un instrumento llamado Smart Economy. Este programa te exige oficialmente en la convocatoria que utilices gemelos digitales, simulaciones y espacios de datos. Te obliga a garantizar la sostenibilidad, el retorno de inversión y la generación de empleo. Los fondos del Innovation Fund en Europa o los de transformación en España exigen el uso de estas herramientas. Simular hoy en día con inteligencia artificial es tan obligatorio como no tener faltas de ortografía en un documento oficial".
El billón parado del Green Deal no es un problema de voluntad política sino de credibilidad técnica. Para resolverlo, la Comisión Europea ha creado el European Union Local Digital Twin Toolbox, una caja de herramientas con principios comunes, información energética y de costes. "Uno de sus primeros casos de uso es calcular el coste de reconstrucción de Ucrania, por ejemplo. También han creado una base de datos satelital con todos los edificios europeos. Hacer uso de gemelos digitales reduce el riesgo financiero".
Pero Jara no charla solo de dinero y regulación. Viene a hablar de algo que le preocupa genuinamente: la diferencia entre los modelos de inteligencia artificial que "entienden" el mundo y los que simplemente "hablan" de él. El debate entre la Physical AI (modelos causales que comprenden la física, la fricción, la lluvia, el comportamiento humano en el espacio) y los grandes modelos de lenguaje como ChatGPT o Gemini, que son, en el fondo, máquinas estadísticas de predicción de texto.
El ejemplo que pone es el proyecto Cerebro del alcalde José Luis Martínez-Almeida en Madrid: una herramienta que responda en tiempo real a cualquier situación urbana, desde una concentración masiva hasta la aparición inesperada de Rosalía en la Gran Vía. "Lo que la ciudad necesita es conciencia situacional y contextual, integrando el análisis de todas las fuentes de datos". Y ahí está la trampa de los LLM para la gestión urbana: "La ventaja clave que te da un modelo causal, y que no tiene un LLM, es aterrizar la información en un espacio físico concreto. Buscamos saber exactamente qué ha pasado en las últimas horas en la ciudad real. Muchos ayuntamientos están creando este tipo de herramientas para que sus equipos de gobierno puedan informarse con precisión y contexto físico".
Pero, si cada ciudad construye su propio modelo pequeño, entrenado localmente, protegido de los gigantes tecnológicos americanos, ¿no estamos construyendo una Europa de silos cognitivos? ¿No perdemos la inteligencia colectiva por miedo a perder la privacidad?
Jara distingue dos cuestiones que solemos confundir: la capacidad de razonar y el conocimiento en sí. "En un Small Language Model lo que buscamos es desagregar la capacidad de redactar, razonar o pensar, del conocimiento integrado. En un modelo pequeño (por ejemplo, de 9 billones de parámetros) no buscas que contenga todas las respuestas del mundo, sino que tenga la capacidad de procesarlas. Tú le aportas el conocimiento específico de tu dominio en un entorno controlado".
La ciudad no pierde acceso al mundo. Solo controla por qué puerta entra. "No pierdes inteligencia colectiva porque le sigues dando acceso a internet y a fuentes generales, pero limitas y controlas qué fuentes utiliza. Le das tu conocimiento privado, la capacidad de redacción del modelo y acceso a internet solo si lo requiere. El último modelo de Gemini con DeepResearch, por ejemplo, ya incorpora esta capacidad de razonar limitándose estrictamente a las fuentes que tú le proporcionas, lo cual es muy útil para la investigación y evita alucinaciones." Porque las alucinaciones en un artículo pueden molestar, pero en una infraestructura conducen a la catástrofe.
"Un gemelo digital no intenta organizar ni ordenar. Su objetivo es representar un comportamiento real, sea caótico o no"
La soberanía del dato es uno de los grandes caballos de batalla de Libelium. Pero, si el software soberano corre sobre servidores de Amazon o Microsoft, ¿de qué soberanía estamos hablando exactamente? "La clave de la soberanía es apostar por infraestructuras propias. Europa está fomentando las AI Factories, como el Barcelona Supercomputing Center, y el uso de infraestructuras cloud europeas. Un ejemplo muy importante es OpenNebula, que es española. Europa ha invertido 150 millones de euros para que OpenNebula funcione sobre proveedores soberanos como OVHcloud, el mayor proveedor europeo, fundado por polacos y franceses, o Ionos en Alemania, dueños de Arsys en España".
Y añade, con la tranquilidad de quien puede hablar desde la práctica y no desde la teoría: "Nosotros hemos migrado. Antes estábamos en AWS y ahora nuestros clientes están en proveedores soberanos europeos como OVHcloud o Arsys. Hay una fuerte apuesta real por la soberanía europea en la nube y existen alternativas potentes".
La conversación se celebra en El Cairo, y la ciudad que nos rodea es en sí misma un argumento filosófico. El centro de El Cairo es caos en estado puro: bocinas, motocicletas, peatones que cruzan sin mirar, rotondas donde el tráfico se rige por reglas que solo sus participantes entienden. ¿No es un oxímoron intentar parametrizar todo eso?
Jara sonríe: "Un gemelo digital no intenta organizar ni ordenar. Su objetivo es representar un comportamiento real, sea caótico o no. El caos simplemente se representa como un sistema con mucha entropía. Albert-László Barabási, de Harvard, uno de los grandes científicos de nuestro tiempo, ya demostró que las dinámicas humanas funcionan por ráfagas que pueden parecer caóticas, como cuando alguien sufre un luto, piensa que no va a poder vivir con la pena por la muerte de un familiar hasta que, de pronto, cambia radicalmente su foco de atención. Las dinámicas complejas humanas son procesos naturales"-
El gemelo digital, por tanto, no es una utopía del orden. Es una herramienta para entender el desorden sin tener que reproducirlo a escala real con dinero real. Y el ejemplo que cierra el argumento es tan elegante que vale la pena reproducirlo entero: "Pasa lo mismo en robótica: empresas como Tesla con robots como Optimus o Nvidia no serían viables si no existieran los gemelos digitales. Primero entrenan a sus robots en el mundo físico, los entrenan en simuladores durante millones de horas (gemelos digitales) y cuando ya saben bailar en la simulación, los llevan a la realidad. Los gemelos digitales están diseñados para asimilar y predecir lo humano y lo caótico del mundo real".
Pero, ¿qué pasa cuando el algoritmo y los vecinos no están de acuerdo? ¿Quién gana, la eficiencia matemática o la voluntad democrática?
La datocracia (el término que Jara usa para describir su modelo de gobernanza) no es la dictadura del dato. Es su contrario: la obligación de justificar cada decisión con datos y, si esos datos señalan un perjuicio social mayor que el beneficio técnico, buscar otra solución. "Si haces una calle peatonal y alguien no puede entrar a su garaje, tienes que entender el impacto positivo versus el negativo y balancear. Lo que hizo Cartagena en muchas acciones fue buscar alternativas: en vez de imponer cosas que generan rechazo, cogió solares abandonados en zonas urbanas y los renaturalizó, creando un bosque romano. ¿Quién se va a oponer a que un solar se convierta en una zona verde? Tienes que generar esa capacidad de demostrar y justificar las acciones. Y si tus argumentos no son suficientes, tendrás que empatizar y buscar una alternativa o compensarlo de alguna manera. Lo que nunca vas a poder defender en la datocracia es tomar decisiones a nivel objetivo sin datos".
Neom, la futurista metrópoli del desierto en Arabia Saudí, es el caso extremo. Si los gemelos digitales normalmente representan ciudades que ya existen, aquí están ayudando a decidir si una ciudad que no existe tiene sentido que exista. El software decide la viabilidad antes de que haya un solo ladrillo. Y si el modelo tiene un sesgo, ese sesgo se convierte en hormigón.
Jara es directo sobre lo que Libelium hace allí y sobre cómo gestiona esa responsabilidad ética. "La simulación implica que las decisiones que se toman tienen que estar monitorizadas y supervisadas. Siempre tomo la mejor decisión basándome en los datos, pero me comprometo a hacer un seguimiento para cambiar lo que sea necesario". Y sobre el estado actual de Neom, zanja el ruido mediático: "Lo que ha pasado es que van a hacer los primeros tres módulos piloto, es decir, 2,4 kilómetros. Si eso genera viabilidad e interés, irán construyendo los siguientes".
Lo que Libelium garantiza en ese entorno no es la viabilidad política del proyecto —eso es otro debate— sino algo más mensurable: que la construcción no envenene. "A nivel ético, lo que nosotros hacemos allí es monitorizar toda la contaminación de todo el movimiento de tierras. Lo importante es identificar si esa contaminación es transitoria por la obra o si es un problema estructural persistente. Si hay un pico por una tormenta de arena, a esa hora no se trabaja. Si se levanta mucho polvo por los movimientos de tierra, se echa agua para que no se respire ese polvo". Y la clave epistemológica del método: "El compromiso ético definitivo es no confiar en una sola fuente de la verdad: cruzamos datos del satélite, con estaciones de referencia y con sensores hiperlocales para tener el máximo de fundamentos antes de tomar decisiones".
Si nos acostumbramos a pulsar el botón de simular y a aceptar lo que dice la máquina, ¿quedará algún humano capaz de detectar el error sutil que cometa la IA cuando nadie esté mirando? La respuesta de Jara arranca con un cumplido que es, en realidad, una advertencia: "La diferencia entre un periodista, con gran experiencia, trayectoria y legado, y una persona recién graduada, es que la IA generativa le da un artículo y el primero lo lee y sabe que le falta alma, que le falta enganche, que no va a impactar. Sin embargo, a una persona recién graduada, que no sabe cómo comunicar o transmitir, todo le vale."
La experiencia genera expectativas. Y la expectativa, ese instinto calibrado por años de equivocarse y acertar, es lo único que permite juzgar si algo no solo es correcto sino bueno. La distinción importa. "Pasa lo mismo cuando vas a una IA generativa, te pones con Suno a hacer música. Lo he hecho: 30 canciones y tú sabes cuál está guay, pero él no lo sabe; para él todas están correctas. Alguien que no haya escuchado mucha música o no tenga gusto musical, le sonará que todas tienen ritmo, que la letra no tiene errores... pero el que sea un hit o pegue, requiere el criterio de un humano".
De ahí surge una imagen que ya merece su lugar en el imaginario de la era de la inteligencia artificial: el gimnasio del saber. "Yo creo que mis hijos van a tener que ir al gimnasio del saber o al gimnasio de la experiencia. Igual que mi abuelo, que era un murciano terrateniente y agricultor, nunca fue a un gimnasio en su vida ni se le habría ocurrido, porque trabajaba en el campo con trabajos forzosos. Nuestros antepasados no iban a un gimnasio a ejercitarse físicamente. Pues nuestras futuras generaciones tendrán que ir a gimnasios para ganar experiencia, para ganar expectativas. Porque si no hacen ese entrenamiento, no sabrán diferenciar lo que es bueno de lo que simplemente es correcto. La diferencia entre lo correcto y lo bueno es el arte, y el arte lo hacen las personas".
"El gran reto del futuro es saber si estamos dispuestos a que la IA se haga mayor de edad"
La última pregunta es la más radical, la que va al hueso: si en pruebas ciegas la gente prefiere los textos y diseños de IA sin saber que son de IA, ¿qué argumento real queda para defender el trabajo humano?
Jara no se refugia en el romanticismo. No dice que el arte humano es sagrado ni que la creatividad es irreemplazable por definición. Lo que dice es más inquietante y más honesto: que el problema no es si la IA puede crear, sino quién supervisa lo que crea. "Hay una visión de que habrá un momento en el que se genere contenido personalizado de forma autónoma. De repente, Netflix te hará películas solo para ti, libros de ciencia ficción o aventuras personalizados o Suno te generará canciones en el estilo que a ti te gusta. Pero en el momento en que eso se hace de forma autónoma, sin ese filtro del feedback, si no hay un autor o un director detrás que ha supervisado, no poseerá marca, huella o esencia".
La IA como empoderamiento, no como sustitución: "Admito que hay muchas ideas para las que antes no tenía las herramientas y necesitaba intermediarios para ejecutarlas. Ahora la IA me empodera: ideas de dibujos, diagramas, presentaciones o textos para los que no tenía la capacidad de diseño o de arte, la IA me da las herramientas. Es un empoderamiento, te sientes superpoderoso y te dan ganas de fijarte ambiciones mayores".
Pero el verdadero miedo, el que Jara identifica con precisión, no está en si la IA crea mejor que los humanos. Está en el momento en que dejemos de supervisarla. "El gran reto, y de donde realmente viene el miedo, la parte agéntica, es: ¿en qué momento dejo que mi hijo artificial empiece a actuar sin mi supervisión? Ese es el reto. ¿Cuándo dejo que el robot actúe solo? Es el miedo de dejar a una herramienta contestar correos o hacer acciones cuando le dejas a la gente que se auto-promptee. Que te la puede liar, como cualquier niño".
El coche autónomo, otra vez, como metáfora definitiva. Elon Musk prometiendo fechas que nunca llegan. El entorno humano, caótico y asimoviano. Y la pregunta que Jara deja flotando sobre El Cairo, sobre Neom, sobre Madrid, sobre cualquier ciudad que sueñe con un cerebro digital: "El nivel de autonomía y autodeterminación que le das a la IA es el problema. A un niño pequeño no le das libertad, lo supervisas y lo vigilas; él hace cosas, pero tú estás ahí. El reto al que nos enfrentaremos como sociedad a medio plazo es aceptar que la IA actúe sin supervisión. Ese es el gran dilema: ¿estamos realmente preparados para que un robot o una IA sea autodeterminista, tome sus propias decisiones y se redefina? ¿Estamos dispuestos a que la IA se haga mayor de edad?".


