30 de agosto de 2017

COSTE MARGINAL CERO

¿Nos acercamos a una economía de coste marginal cero? Esta es la tesis que anticipaba Jeremy Rifkin hace unos años en su libro “The Zero Marginal Cost Society”. ¿El avance de la tecnología nos lleva a un modelo económico donde bienes y servicios se produzcan a coste cero? Parece que es así. La economía digital tiene naturaleza de coste marginal cero. Desarrollar un nuevo programa de software (por ejemplo, un nuevo sistema operativo) es una inversión significativa. Pero la segunda unidad es una copia digital de la primera, cuyo coste de producción es nulo. Esta característica se extiende a medida que la economía se digitaliza: realizar una superproducción cinematográfica, un nuevo single musical, o un best-seller significa una inversión en tiempo y dinero. Pero los canales digitales las distribuyen a coste cero. El coste marginal de un usuario más en Facebook es cero. El coste de formar un alumno más en un curso on-line, o a través de un MOOC es nulo. Una vez programado un sistema automático de inteligencia artificial (un “bot” -robot de voz-) para atender al alumno en una universidad, para recibir quejas del cliente en un call center, o para asesorar clientes on-line en una entidad bancaria, el coste de un servicio adicional (una nueva consulta) es cero. Y, el sistema puede atender miles, o cientos de miles de consultas simultáneas. Cuando tengamos sistemas de asesoramiento personalizado basados en inteligencia artificial (en medicina o derecho, por ejemplo) dispondremos de médicos o abogados a coste cero. Cuando se popularicen los avatares digitales interactivos, el coste de un profesor digital, o de un responsable de ventas digital con capacidad cognitiva casi humana será cero. El coste de un transportista será cero cuando se extiendan los algoritmos de conducción automática: el primer algoritmo de, por ejemplo, un nuevo modelo de Tesla tendrá un coste de desarrollo muy elevado. Pero el mismo algoritmo podrá ser distribuido digitalmente, a coste cero, a todos los vehículos de Tesla. Y, a medida que dichos algoritmos aprendan de su experiencia (machine learning), transmitirán sus conocimientos (se actualizarán las versiones de software) a coste cero al conjunto de vehículos Tesla, haciéndolos más y más eficientes

La presión hacia el coste cero no sólo se debe a la naturaleza de los sistemas digitales. Los propios sistemas digitales hacen más eficiente la competencia económica y la disponibilidad de información en otros sectores. Por ejemplo, mediante sistemas de economía colaborativa. La presión hacia el coste cero se ejerce también mediante agresiva innovación de procesos o mediante operaciones corporativas y brutales economías de escala (es interesante ver cómo Whole Foods, cadena de supermercados orgánica, posicionada en el segmento premium está bajando precios por debajo de la cadena de descuento Walmart, tras la compra de la primera por Amazon). Y la propia revolución tecnológica genera una potente deflación en los productos. La tecnología, con ciclos de desarrollo cada vez más cortos, es una increíble fuerza deflactora (reductora de precios): un producto tecnológico de nueva gama pierde buena parte de su valor inmediatamente después de su compra, obsoletado inmediatamente por nuevas generaciones de producto.

El fenómeno se extiende más allá de los sectores de naturaleza nativa digital. No sólo el procesado de bits tiende al coste marginal cero: también el procesado de átomos o de células. La impresión 3D permite, en manufacturing, avanzar hacia un modelo de producción doméstica, en el cual, a partir del plano digital, y disponiendo del material, la fabricación de una nueva pieza tenga coste marginal cero. Laboratorios biológicos son capaces de tratar información genética (con principios y soportes digitales), para desarrollar alimentos artificiales (genéticamente idénticos a los originales) a partir de células madre, virtualmente de la nada. La materia y la energía se tratarán de forma creciente y cada vez más eficiente, a partir de información digitalizada, transfiriendo los principios de la digitalización a productos físicos y sistemas biológicos.

Todo ello genera una gran paradoja en el capitalismo: para la economía ortodoxa, en un sistema perfectamente competitivo, el ingreso marginal iguala el coste marginal. Pero si el coste marginal es cero, ¿cómo generar ingresos marginales? Y, aún más, ¿cómo mantener márgenes empresariales?. En términos de estrategia competitiva: ¿cómo competir con alguien que es capaz de generar productos y servicios a coste cero? En términos socioeconómicos: ¿cómo mantener una economía de bienes y servicios gratuitos, cuya producción no genera costes (tampoco costes salariales)? Se abren escenarios tan utópicos como escalofriantes.



21 de agosto de 2017

LA ECONOMÍA DE LA ABUNDANCIA

India ha decidido substituir el despliegue de 14 GWatts de energía térmica por energía solar. Renuncia a seguir quemando carbón, ante el exponencial incremento de eficiencia de la tecnología solar y la caída en picado de su precio, a niveles hasta hace poco considerados imposibles. En Alemania, los récords de obtención de energía limpia se suceden: durante tres días de mayo, el 85% de la electricidad consumida provino de fuentes renovables. En 2016 ya había conseguido que la totalidad de su energía, por un día, fuera renovable, algo que podría ser habitual en 2030. Son hitos limitados, pero que apuntan a un futuro esperanzador. El progreso de la energía solar sigue la llamada “ley de Swanson”: su precio cae un 20% cada vez que la producción mundial se duplica. Incluso en la América de Trump, las renovables han superado en suministro eléctrico a la energía nuclear, y los estados más innovadores, como California y Massachusetts plantean alimentarse íntegramente de energías renovables en 2045 y 2050, respectivamente.

Sorprendentemente, avanzamos hacia un escenario de abundancia energética. Un mundo de energía casi infinita, a coste casi cero, es factible. El acelerado progreso tecnológico rompe las barreras de lo imaginable hasta hace muy poco. Y es que la tecnología es una increíble fuerza liberadora de recursos. En 1870, sólo el inmensamente rico rey de Siam disponía de cubiertos de aluminio, un recurso más escaso (y más caro) entonces que el oro. Hasta que dos químicos, Halt y Heroult, descubrieron el proceso de síntesis de aluminio a partir de la bauxita (uno de los minerales más abundantes de la tierra), haciendo su uso asequible a todo el mundo. La ciencia y la tecnología hacen posible lo imposible.

Hoy se suceden avances insólitos, que hace sólo 25 años hubieran parecido ciencia-ficción. Disponemos de información infinita e instantánea a coste cero (internet). Posibilidades gratuitas de localización avanzada por satélite (vía GPS) y mapas detallados de cualquier parte del mundo (Google Earth). Comunicaciones móviles ubicuas. Almacenamiento de memoria y proceso de datos casi ilimitado. Ocio digital inacabable (vídeos, música, juegos, libros, fotografía). Interacción social digital gratuita sin límites (Facebook). Tenemos en nuestras manos una inimaginable abundancia de datos para procesar, progresar, aprender, e interactuar, a coste cero. Y la revolución tecnológica extiende la abundancia a otros campos. La síntesis artificial de alimentos avanza decididamente hacia la generación de comida infinita, creada en laboratorio, a partir de células madre, a coste exponencialmente decreciente. ¿Chocante? El propio Winston Churchill ya predijo en 1931 que la humanidad “se liberaría de la absurdidad de hacer crecer pollos enteros para alimentarse”. La primera hamburguesa artificial, generada a partir de células de vaca vio la luz en 2013. Costó 325.000 $. Hoy se producen ya por 11 $ la unidad. En pocos años su precio se reducirá significativamente por debajo de las hamburguesas convencionales y entrarán masivamente en el mercado. La carne sintética es genéticamente idéntica a la original, pero creada sin animales. Sin granjas. Sin coste medioambiental. Sin deforestación y sin consumo masivo de agua como requiere la producción tradicional. La carne artificial no contiene antibióticos, ni bacterias. Se utiliza un 99% menos de espacio, un 96% menos de agua, y se eliminan las emisiones de CO2 animal (una de las principales causas de contaminación mundial). Se prepara una disrupción a gran escala en el sector de la alimentación: en pocos años, miles de silenciosos laboratorios alimentados por energía solar fabricarán filetes de cerdo, pollo o vaca, de la nada, a coste marginal cero.

Quizá Malthus estaba equivocado: en lugar de superpoblación y escasez de recursos, el futuro puede ser de equilibrio demográfico y abundancia. Las sociedades, a medida que se incorporan a economías avanzadas y acceden a sanidad y educación, frenan sus tasas de fertilidad. Pronto, sólo crecerá África, el gran problema latente. Japón, de hecho, es un país muy viejo. Europa y EEUU envejecen. Incluso las poblaciones de China y Latinoamérica dejan de crecer demográficamente. Con todo ello, podemos ser optimistas. Pese a nuestra adicción a las malas noticias, vivimos en el mejor de los tiempos posible. Según The Guardian, la proporción de población mundial en extrema pobreza ha caído por debajo del 10% por primera vez. La mortalidad infantil es la mitad que la de 1990, y 300.000 nuevas personas acceden a electricidad cada día. La alfabetización ya alcanza el 85% de la población mundial. Y hemos creado más conocimiento científico en las dos últimas generaciones que en las 10.000 que las precedieron. Si dejamos que la fuerza de la tecnología siga actuando, podemos aspirar a un futuro esperanzador, en el que la riqueza de los países no dependa de pozos de petróleo, sino de su talento y de la fuerza del sol; y en el que alimentación, información, energía, educación, y sanidad se produzcan a coste marginal cero, y su acceso sea, por tanto, universal.

Quizá las turbulencias económicas y políticas que sufrimos sean los síntomas de la convergencia global hacia un nuevo modelo económico, la paradójica transición a una economía de   abundancia y coste marginal cero, que no comprendemos y que deberemos aprender a gestionar. De hecho, los principios económicos a los que estamos acostumbrados se sustentan en hipótesis de escasez y competencia por recursos limitados. El principal reto de los años venideros es acelerar el ritmo de tránsito hacia esta economía de la abundancia, incrementando las inversiones en I+D, y generando los mecanismos distributivos para extender la riqueza tecnológica a todo el planeta.

(Artículo publicado originalmente en La Vanguardia, el 20/08/2017)


17 de agosto de 2017

LA PARADOJA DE POLANYI

Sabemos mucho más de lo que podemos explicar. Esta es la famosa “paradoja” de Polanyi, economista austríaco que se dio cuenta de la existencia de conocimiento humano imposible de explicitar. Podemos hacer infinidad de cosas, pero no somos capaces de explicar con claridad cómo las hacemos. Por ejemplo, ¿cómo diferenciar un perrito de una magdalena en la foto adjunta (“muffins or puffins”)? ¿Podríamos explicitar en una serie de reglas codificables cuándo nos encontramos ante una magdalena o ante una adorable mascota? O, por ejemplo, ¿qué mecanismos nos llevan a identificar una silla? ¿Podría un ordenador identificar una silla? Si le diéramos instrucciones precisas de qué es una silla (mediante conocimiento codificado: “instrumento de cuatro patas, tabla plana y respaldo”), inevitablemente se equivocaría en múltiples casos: hay sillas sin respaldos, sillas de tres patas, e infinidad de objetos que parecen sillas pero no lo son. Si aceptamos que las sillas pueden no tener respaldo, ¿cómo diferencia un ordenador una silla de una mesa? La única manera: haber visto muchas sillas. El conocimiento tácito se basa en la experiencia

K.Zak, de
https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence
Cuando reconocemos la especie de un grupo de pájaros en vuelo por la forma de moverse, cuando realizamos los movimientos precisos para romper un huevo en el canto de una taza para hacer una tortilla, o cuando identificamos la cara de un conocido, después de años sin verlo, pese a sus cambios evidentes, estamos utilizando conocimiento tácito. Lo tenemos, pero no sabemos cómo expresarlo. Ni mucho menos, cómo codificarlo en instrucciones precisas. Un conocimiento que, bajo los métodos clásicos de programación, no ha podido transmitirse a un sistema informático, y que ha sido una gran reserva de trabajo cognitivo humano.

La inteligencia artificial está cambiando el paradigma de funcionamiento de las máquinas en la medida que está rompiendo la frontera del conocimiento tácito. Hasta hace poco, un programa informático sólo era la expresión ordenada de conocimiento codificable (explícito). Sus programadores identificaban una secuencia de rutinas, las codificaban en un software, y el procesador ejecutaba exactamente aquello que estaba explicitado en las líneas de programación. El ordenador reproducía aquello que sabían (y habían escrito en líneas de código) sus programadores. Eso sí, con una potencia de cálculo y velocidad de ejecución infinitamente superiores a las humanas. Pero muchas tareas habituales, tanto cotidianas como complejas, no podían ser informatizadas porque no conocíamos las instrucciones explícitas. Se sustentaban en conocimiento tácito.

Hoy, la estrategia de desarrollo de programas informáticos ha cambiado de forma revolucionaria bajo el prisma de la inteligencia artificial. Las máquinas no son programadas de forma “lineal”, como antiguamente, sino que son capaces de aprender de la experiencia, desde cero, y reprogramarse a sí mismas para ser cada vez más eficientes en la consecución de un logro. Es lo que ha venido a llamarse “machine learning”, tecnología sustentada en redes neuronales artificiales que simulan el cerebro humano. AlphaGo, el algoritmo de inteligencia artificial que ha derrotado ya por dos veces a los sucesivos campeones mundiales de Go (en 2016 y 2017) aprendió por sí mismo, desde la nada. Se le marcaron las restricciones (reglas de juego: qué movimientos podía realizar y cuáles no), el objetivo (condiciones en que se gana la partida), y se le entrenó observando miles de partidas reales, y jugando otras tantas contra sí mismo. Hasta que desarrolló autónomamente, mediante prueba y error, un nivel de conocimiento tácito, dotado de una cierta intuición lógica, que lo hizo invencible.

Las máquinas ya desarrollan conocimiento tácito propio en base a la experiencia. A partir de este momento, lo que puede suceder es absolutamente apasionante. Las aplicaciones en negocios, en medicina, en derecho, o en educación, son inimaginables. Quizá su coche, o la puerta de su casa, le reconocerán mediante visión artificial abrirán en cuanto se aproxime. Quizá las técnicas de venta se modulen en función de la expresión facial del cliente (detectando su predisposición a comprar). Pronto podrá hacer una foto con su móvil de una mancha inquietante en la piel, para detectar inmediatamente si puede ser un cáncer o no. O de un insecto que encuentre en el bosque, para conectar con Wikipedia y explicarle qué es a su hijo.

Se espera una gran aceleración del progreso humano guiada por las aplicaciones de la inteligencia artificial en ciencia. Según uno de los fundadores de Deep Mind, la empresa comprada por Google que desarrolló AlphaGo, el último hombre capaz de acumular todo el conocimiento de su época fue Leonardo da Vinci. Hoy, la solución a problemas científicos difícilmente pueda concretarse con la simplicidad y brillantez de unas pocas ecuaciones, como pudo hacer Newton. En la era del Big Data, la conexión global y los sistemas complejos, el avance de la ciencia requiere de instrumentos mucho más potentes. Y la inteligencia artificial nos los ofrece: las máquinas son capaces de intuir patrones y de formular hipótesis ante la observación de fenómenos complejos. Pueden hacer visible lo invisible a ojos humanos. Robots investigando, sistemáticamente, 24 horas al día, haciendo avanzar de forma desbordante la frontera del conocimiento. Las implicaciones para el avance de la ciencia pueden ser inconmensurables.

Sin embargo, se nos presentan algunas inquietudes: en primer lugar, una duda casi filosófica ¿cómo codificar el conocimiento tácito ganado por las máquinas? En la medida en que los sistemas aprenden de sí mismos y se auto-programan, el programador humano pierde el control de lo que ocurre y no es capaz de comprender los outputs de la máquina. No sabemos cómo razonan. Tampoco podemos llegar a comprender, en caso de errores, por qué se producen (ni corregirlos). Las máquinas generan conocimiento tácito, pero éste sigue siendo tácito: no pueden explicitarlo ni transmitirlo a los humanos. Dispondremos de sistemas capaces de resolver problemas complejos, pero quizá no lleguemos a saber cómo los resuelven. La paradoja de Polanyi seguirá siendo válida: en este caso, las máquinas sabrán más de lo que nos explicarán.


En segundo lugar, si realmente estamos en la frontera de una nueva (y quizás definitiva) revolución de conocimiento, la explotación sistemática del conocimiento tácito, ¿quién puede ser el ganador en términos económicos de este juego? Con toda seguridad, aquellas compañías que ya se sitúen en la frontera digital, y que ya esté apostando decididamente por la inteligencia artificial: los gigantes digitales americanos (Facebook, Google, Apple, Microsoft, IBM…). Pero también las grandes corporaciones chinas (Alibabá, Baidu, Tencent…). Las implicaciones geoestratégicas en el liderazgo mundial serán críticas.

(Para más información, ver el excelente artículo de HBR: The Business of Artificial Intelligence https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence)

13 de agosto de 2017

LOS FUNDAMENTOS DE LA ESTRATEGIA

Hoy en día, en el mundo corporativo, tenemos una sobredosis de "estrategia" (como también de "innovación"). La estrategia se ha vulgarizado, de una forma incluso más ostentosa y evidente que la innovación. Un concepto que debería considerarse sacrosanto en toda organización, la estrategia (el máximo exponente de la práctica directiva) es un término que aparece en cualquier parte: planes estratégicos, políticas estratégicas (lo que es un oxímoron -las políticas no pueden ser estratégicas porque, precisamente, derivan de la estrategia: o son políticas o son estrategia-), acciones estratégicas, estrategia de calidad, estrategia financiera, márketing estratégico, operaciones estratégicas… Cuando queremos incidir en la importancia de cualquier acción corporativa, sólo basta calificarla de "estratégica".

La estrategia es la esencia de la competición, la propuesta de valor maestra que genera ventajas competitivas que nos permiten superar a los rivales. La estrategia se basa en una idea original seguida de una secuencia de actuaciones explicitadas o no, coherentes y consecuentes entre ellas. La estrategia se concreta en movimientos focalizados, que concentran fuerzas en una maniobra o serie de maniobras (de desarrollo de producto, de despliegue logístico, de generación de marca, de captura de nuevos mercados geográficos, de dominio de una tecnología avanzada...) que permite a la organización diferenciarse y superar  de forma sostenida los resultados de los competidores (en crecimiento de mercados, en productividad, en retorno de la inversión…). Diseñar la estrategia supone tomar decisiones. Concentrar recursos (humanos y financieros) en algunos ámbitos (y retirarlos, por tanto, de otros) para enfocar la energía organizativa en ese conjunto de actuaciones que nos diferenciarán. Una buena estrategia pasa por detectar la oportunidad del entorno, y movilizar decididamente el grueso de los recursos disponibles en desarrollar dicha oportunidad. Una buena estrategia confronta fortalezas con oportunidades, aprovecha las competencias y capacidades existentes, concentra recursos en el momento, segmento de mercado y punto de la cadena de valor oportunos, y genera con ello un efecto palanca en la competitividad de la empresa.

¿Qué NO es estrategia? Desde luego, no es estrategia un simple listado de intenciones (“ser el líder global en distribución de productos de consumo”) ni un glosario de objetivos ambiciosos (“nuestra estrategia es conseguir un crecimiento sostenido anual mínimo del 10%, manteniendo rentabilidades sobre activos superiores a la media del sector”). Tampoco es estrategia un petulante y superficial ejercicio de idealismo (“crear un mundo sostenible mediante la introducción de biocombustibles de última generación tecnológica”), de definición de misión (“generar valor al accionista a través de experiencias superiores de consumidor”), ni de concreción de valores (“nuestra estrategia es la innovación –¡esta palabra no puede faltar! y el comportamiento ético y responsable" -¡pues claro!). No es un brindis al sol, ni tampoco es un simple plan operativo o plan de negocio que nos describa cuáles van a ser nuestras ventas y qué recursos operativos y financieros vamos a destinar a conseguirlas ¿Qué justifica, en última instancia, esos números?  ¿Cuál es la naturaleza de nuestro enfoque competitivo para conseguir esos objetivos? ¿Se van a quedar quietos, nuestros competidores, mientras nos hacemos con el mercado?. La estrategia no es un Power Point de bonitos gráficos inspiradores, ni un Word de grandilocuentes visiones y misiones, ni un Excel de detallados objetivos de microgestión.

La estrategia en negocios, como subscribiría Clausewitz en la guerra, es un concepto sutil, fluido y energético a la vez. Es el diseño nuclear del planteamiento competitivo, que, como en un campo de batalla, se desplaza y cambia dinámicamente allá donde existan oportunidades de concentrar fuerzas y flanquear o desbancar las líneas enemigas (en business, oportunidades de diferenciarnos). La estrategia consta de un análisis certero de la realidad (diagnosis), de una propuesta diferencial de valor (ahí es donde entra la innovación), y de un plan de actuaciones flexible, consecuente y coherente. Y, como en la guerra, a menudo, sólo está en la mente del general. De hecho, la estrategia competitiva, si realmente es estrategia, jamás se debería explicar en memorias corporativas ni hacerse evidente al rival…

(Si se hace, entonces, como dice Richard Rummelt en su libro Good Strategy, Bad Strategy, es que no es estrategia… En sus palabras, es un “fluff” ;-)

3 de agosto de 2017

LA NUEVA REVOLUCIÓN INDUSTRIAL

Según Klaus Schwab, director ejecutivo del World Economic Forum, estamos inmersos en la cuarta revolución industrial. La primera, en el siglo XVIII, utilizó vapor y energía hídrica. La segunda, a finales del siglo XIX, fue impulsada por la electricidad y el ferrocarril. La tercera, a caballo de la Guerra Fría, alumbró el ordenador y la era del silicio. Y ahora nos encontramos en la transición hacia un nuevo paradigma de conectividad total. La cuarta revolución industrial llega 10 veces más rápido que la primera, y afecta a una base de población 300 veces superior. El impacto estimado es, según McKinsey, 3000 veces mayor. La nueva revolución está guiada por la transformación digital. Si, hasta el momento, la realidad física y la realidad digital eran mundos asíncronos, hoy ambos están convergiendo hacia una única realidad. Cincuenta billones de dispositivos se conectarán a internet hasta 2020. Lo que veremos a través de la pantalla de nuestro ordenador será una imagen en tiempo real de lo que está ocurriendo: sabremos cómo está y dónde está todo. Desde nuestro móvil tendremos control de lo que está pasando en nuestra empresa, en nuestra cadena logística, o en nuestro hogar. Cuando nos compremos un producto, sabremos dónde y cuándo ha sido fabricado (¿en países con explotación infantil?), bajo qué estándares de calidad y medio ambiente, y en qué condiciones de peso, temperatura e iluminación ha sido transportado. Los automóviles serán potentísimos centros de datos: 250 millones de coches conectados circularán por las carreteras en 2020, cada uno de los cuales generará 4.000 gigabytes por día. Pronto, la información que proporcionarán nuestros coches valdrá más que el propio vehículo (se calcula que el volumen de negocio alcanzará los 750 billones de dólares en 2030). Campo abonado para el emprendimiento: aparecen nuevas oportunidades en la digitalización y mapeo del entorno mediante la integración de la información recibida, en la detección de párkings, en el análisis de defectos en la infraestructura urbana, en el control medioambiental, en la predicción de atascos o en la prevención de averías.  Pero también conoceremos la percepción de nuestros clientes sobre nuestras marcas a través del análisis de sus comentarios en las redes sociales. Incluso, podremos monitorizar su estado de ánimo. O visualizaremos nuestras variables físicas para determinar si sufriremos hipertensión o estrés. El mundo que viene es un mundo dirigido por datos, y con increíble potencia anticipativa. La extensión de la inteligencia artificial nos permitirá predecir un pedido de cliente antes de que éste se produzca, advertir de una potencial depresión en un adolescente (a través de sus comentarios en Facebook), o prevenir un posible infarto días antes de que ocurra. Hoy, la combinación de inteligencia artificial y visión por computador puede incluso anticipar la fecha probable de muerte en algunos tipos de enfermedades.

En este entorno, parece que son las plataformas digitales, las que están saliendo victoriosas. Se consolida el imperio GAFA (Google, Amazon, Facebook, Apple) en la Champions League de las superpotencias tecnológicas. La cuarta revolución industrial será el escenario de un choque entre empresas nativas digitales, que avanzan agresivamente hacia el mundo físico (la compra de los supermercados Whole Foods por Amazon, o las iniciativas de Google, Apple o Uber por desarrollar sus propios vehículos son ejemplos de ello); y empresas provenientes del mundo físico que intentarán adquirir ventajas competitivas del mundo digital, mediante procesos de transformación (o reinvención). En la definición de este nuevo paradigma, parece más rápido que una gran plataforma digital ocupe más y más espacios de negocio físicos, que a la inversa. La llamada “transformación digital”, proceso en el que están inmersas miles de empresas, no es tan sencilla: significa integrar una docena de tecnologías disruptivas de base digital al conjunto de procesos físicos de negocio. ¿Por dónde empezamos? Los expertos coinciden en situar los datos en el centro de la estrategia, crear un “lago de datos”, para después analizar cómo extraer valor de los mismos. Las empresas que han triunfado en su conversión en empresas digitalizadas y dirigidas por datos, se han sumado al colectivo llamado “Industria 4.0”, paradigma resultante de la convergencia e integración de un conjunto de tecnologías de base digital (impresión 3D, internet de las cosas, vehículos autoconducidos, realidad aumentada, robótica avanzada, e inteligencia artificial, entre otras). Un modelo de industria que es capaz, sorprendentemente, de competir a la vez en rapidez, flexibilidad y coste (hasta el momento lo que era rápido o personalizado no era competitivo en coste), con creciente independencia de las economías de escala (es eficiente producir en series cortas) y de la producción en países emergentes (la producción digitalizada tiene el mismo coste aquí que en China). Una increíble oportunidad para Europa, que asiste a un nuevo e incipiente renacimiento industrial

Y, en medio de esta revolución tecnológica, la innovación española sigue dando inquietantes muestras de debilidad. Según el reciente informe COTEC, el conjunto de la UE se tecnifica e invierte un 25% más en I+D que antes de la crisis. Mientras, la economía española invierte un 10% menos. El retroceso nos devuelve a niveles de 2004, con recortes acumulados del 50% en el gasto público en ciencia y tecnología. El número de empresas que declara realizar actividades de I+D es un 35% inferior a hace una década. Sorprende el destacable esfuerzo de las PYME’s, que se revelan como las más eficientes de la UE en atracción de recursos europeos de I+D. Quizá porque en el entorno cercano no encuentran toda la financiación que sería necesaria.

Artículo publicado originalmente en La Vanguardia, el 16/07/2017