17 de agosto de 2017

LA PARADOJA DE POLANYI

Sabemos mucho más de lo que podemos explicar. Esta es la famosa “paradoja” de Polanyi, economista austríaco que se dio cuenta de la existencia de conocimiento humano imposible de explicitar. Podemos hacer infinidad de cosas, pero no somos capaces de explicar con claridad cómo las hacemos. Por ejemplo, ¿cómo diferenciar un perrito de una magdalena en la foto adjunta (“muffins or puffins”)? ¿Podríamos explicitar en una serie de reglas codificables cuándo nos encontramos ante una magdalena o ante una adorable mascota? O, por ejemplo, ¿qué mecanismos nos llevan a identificar una silla? ¿Podría un ordenador identificar una silla? Si le diéramos instrucciones precisas de qué es una silla (mediante conocimiento codificado: “instrumento de cuatro patas, tabla plana y respaldo”), inevitablemente se equivocaría en múltiples casos: hay sillas sin respaldos, sillas de tres patas, e infinidad de objetos que parecen sillas pero no lo son. Si aceptamos que las sillas pueden no tener respaldo, ¿cómo diferencia un ordenador una silla de una mesa? La única manera: haber visto muchas sillas. El conocimiento tácito se basa en la experiencia

K.Zak, de
https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence
Cuando reconocemos la especie de un grupo de pájaros en vuelo por la forma de moverse, cuando realizamos los movimientos precisos para romper un huevo en el canto de una taza para hacer una tortilla, o cuando identificamos la cara de un conocido, después de años sin verlo, pese a sus cambios evidentes, estamos utilizando conocimiento tácito. Lo tenemos, pero no sabemos cómo expresarlo. Ni mucho menos, cómo codificarlo en instrucciones precisas. Un conocimiento que, bajo los métodos clásicos de programación, no ha podido transmitirse a un sistema informático, y que ha sido una gran reserva de trabajo cognitivo humano.

La inteligencia artificial está cambiando el paradigma de funcionamiento de las máquinas en la medida que está rompiendo la frontera del conocimiento tácito. Hasta hace poco, un programa informático sólo era la expresión ordenada de conocimiento codificable (explícito). Sus programadores identificaban una secuencia de rutinas, las codificaban en un software, y el procesador ejecutaba exactamente aquello que estaba explicitado en las líneas de programación. El ordenador reproducía aquello que sabían (y habían escrito en líneas de código) sus programadores. Eso sí, con una potencia de cálculo y velocidad de ejecución infinitamente superiores a las humanas. Pero muchas tareas habituales, tanto cotidianas como complejas, no podían ser informatizadas porque no conocíamos las instrucciones explícitas. Se sustentaban en conocimiento tácito.

Hoy, la estrategia de desarrollo de programas informáticos ha cambiado de forma revolucionaria bajo el prisma de la inteligencia artificial. Las máquinas no son programadas de forma “lineal”, como antiguamente, sino que son capaces de aprender de la experiencia, desde cero, y reprogramarse a sí mismas para ser cada vez más eficientes en la consecución de un logro. Es lo que ha venido a llamarse “machine learning”, tecnología sustentada en redes neuronales artificiales que simulan el cerebro humano. AlphaGo, el algoritmo de inteligencia artificial que ha derrotado ya por dos veces a los sucesivos campeones mundiales de Go (en 2016 y 2017) aprendió por sí mismo, desde la nada. Se le marcaron las restricciones (reglas de juego: qué movimientos podía realizar y cuáles no), el objetivo (condiciones en que se gana la partida), y se le entrenó observando miles de partidas reales, y jugando otras tantas contra sí mismo. Hasta que desarrolló autónomamente, mediante prueba y error, un nivel de conocimiento tácito, dotado de una cierta intuición lógica, que lo hizo invencible.

Las máquinas ya desarrollan conocimiento tácito propio en base a la experiencia. A partir de este momento, lo que puede suceder es absolutamente apasionante. Las aplicaciones en negocios, en medicina, en derecho, o en educación, son inimaginables. Quizá su coche, o la puerta de su casa, le reconocerán mediante visión artificial abrirán en cuanto se aproxime. Quizá las técnicas de venta se modulen en función de la expresión facial del cliente (detectando su predisposición a comprar). Pronto podrá hacer una foto con su móvil de una mancha inquietante en la piel, para detectar inmediatamente si puede ser un cáncer o no. O de un insecto que encuentre en el bosque, para conectar con Wikipedia y explicarle qué es a su hijo.

Se espera una gran aceleración del progreso humano guiada por las aplicaciones de la inteligencia artificial en ciencia. Según uno de los fundadores de Deep Mind, la empresa comprada por Google que desarrolló AlphaGo, el último hombre capaz de acumular todo el conocimiento de su época fue Leonardo da Vinci. Hoy, la solución a problemas científicos difícilmente pueda concretarse con la simplicidad y brillantez de unas pocas ecuaciones, como pudo hacer Newton. En la era del Big Data, la conexión global y los sistemas complejos, el avance de la ciencia requiere de instrumentos mucho más potentes. Y la inteligencia artificial nos los ofrece: las máquinas son capaces de intuir patrones y de formular hipótesis ante la observación de fenómenos complejos. Pueden hacer visible lo invisible a ojos humanos. Robots investigando, sistemáticamente, 24 horas al día, haciendo avanzar de forma desbordante la frontera del conocimiento. Las implicaciones para el avance de la ciencia pueden ser inconmensurables.

Sin embargo, se nos presentan algunas inquietudes: en primer lugar, una duda casi filosófica ¿cómo codificar el conocimiento tácito ganado por las máquinas? En la medida en que los sistemas aprenden de sí mismos y se auto-programan, el programador humano pierde el control de lo que ocurre y no es capaz de comprender los outputs de la máquina. No sabemos cómo razonan. Tampoco podemos llegar a comprender, en caso de errores, por qué se producen (ni corregirlos). Las máquinas generan conocimiento tácito, pero éste sigue siendo tácito: no pueden explicitarlo ni transmitirlo a los humanos. Dispondremos de sistemas capaces de resolver problemas complejos, pero quizá no lleguemos a saber cómo los resuelven. La paradoja de Polanyi seguirá siendo válida: en este caso, las máquinas sabrán más de lo que nos explicarán.


En segundo lugar, si realmente estamos en la frontera de una nueva (y quizás definitiva) revolución de conocimiento, la explotación sistemática del conocimiento tácito, ¿quién puede ser el ganador en términos económicos de este juego? Con toda seguridad, aquellas compañías que ya se sitúen en la frontera digital, y que ya esté apostando decididamente por la inteligencia artificial: los gigantes digitales americanos (Facebook, Google, Apple, Microsoft, IBM…). Pero también las grandes corporaciones chinas (Alibabá, Baidu, Tencent…). Las implicaciones geoestratégicas en el liderazgo mundial serán críticas.

(Para más información, ver el excelente artículo de HBR: The Business of Artificial Intelligence https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence)

13 de agosto de 2017

LOS FUNDAMENTOS DE LA ESTRATEGIA

Hoy en día, en el mundo corporativo, tenemos una sobredosis de "estrategia" (como también de "innovación"). La estrategia se ha vulgarizado, de una forma incluso más ostentosa y evidente que la innovación. Un concepto que debería considerarse sacrosanto en toda organización, la estrategia (el máximo exponente de la práctica directiva) es un término que aparece en cualquier parte: planes estratégicos, políticas estratégicas (lo que es un oxímoron -las políticas no pueden ser estratégicas porque, precisamente, derivan de la estrategia: o son políticas o son estrategia-), acciones estratégicas, estrategia de calidad, estrategia financiera, márketing estratégico, operaciones estratégicas… Cuando queremos incidir en la importancia de cualquier acción corporativa, sólo basta calificarla de "estratégica".

La estrategia es la esencia de la competición, la propuesta de valor maestra que genera ventajas competitivas que nos permiten superar a los rivales. La estrategia se basa en una idea original seguida de una secuencia de actuaciones explicitadas o no, coherentes y consecuentes entre ellas. La estrategia se concreta en movimientos focalizados, que concentran fuerzas en una maniobra o serie de maniobras (de desarrollo de producto, de despliegue logístico, de generación de marca, de captura de nuevos mercados geográficos, de dominio de una tecnología avanzada...) que permite a la organización diferenciarse y superar  de forma sostenida los resultados de los competidores (en crecimiento de mercados, en productividad, en retorno de la inversión…). Diseñar la estrategia supone tomar decisiones. Concentrar recursos (humanos y financieros) en algunos ámbitos (y retirarlos, por tanto, de otros) para enfocar la energía organizativa en ese conjunto de actuaciones que nos diferenciarán. Una buena estrategia pasa por detectar la oportunidad del entorno, y movilizar decididamente el grueso de los recursos disponibles en desarrollar dicha oportunidad. Una buena estrategia confronta fortalezas con oportunidades, aprovecha las competencias y capacidades existentes, concentra recursos en el momento, segmento de mercado y punto de la cadena de valor oportunos, y genera con ello un efecto palanca en la competitividad de la empresa.

¿Qué NO es estrategia? Desde luego, no es estrategia un simple listado de intenciones (“ser el líder global en distribución de productos de consumo”) ni un glosario de objetivos ambiciosos (“nuestra estrategia es conseguir un crecimiento sostenido anual mínimo del 10%, manteniendo rentabilidades sobre activos superiores a la media del sector”). Tampoco es estrategia un petulante y superficial ejercicio de idealismo (“crear un mundo sostenible mediante la introducción de biocombustibles de última generación tecnológica”), de definición de misión (“generar valor al accionista a través de experiencias superiores de consumidor”), ni de concreción de valores (“nuestra estrategia es la innovación –¡esta palabra no puede faltar! y el comportamiento ético y responsable" -¡pues claro!). No es un brindis al sol, ni tampoco es un simple plan operativo o plan de negocio que nos describa cuáles van a ser nuestras ventas y qué recursos operativos y financieros vamos a destinar a conseguirlas ¿Qué justifica, en última instancia, esos números?  ¿Cuál es la naturaleza de nuestro enfoque competitivo para conseguir esos objetivos? ¿Se van a quedar quietos, nuestros competidores, mientras nos hacemos con el mercado?. La estrategia no es un Power Point de bonitos gráficos inspiradores, ni un Word de grandilocuentes visiones y misiones, ni un Excel de detallados objetivos de microgestión.

La estrategia en negocios, como subscribiría Clausewitz en la guerra, es un concepto sutil, fluido y energético a la vez. Es el diseño nuclear del planteamiento competitivo, que, como en un campo de batalla, se desplaza y cambia dinámicamente allá donde existan oportunidades de concentrar fuerzas y flanquear o desbancar las líneas enemigas (en business, oportunidades de diferenciarnos). La estrategia consta de un análisis certero de la realidad (diagnosis), de una propuesta diferencial de valor (ahí es donde entra la innovación), y de un plan de actuaciones flexible, consecuente y coherente. Y, como en la guerra, a menudo, sólo está en la mente del general. De hecho, la estrategia competitiva, si realmente es estrategia, jamás se debería explicar en memorias corporativas ni hacerse evidente al rival…

(Si se hace, entonces, como dice Richard Rummelt en su libro Good Strategy, Bad Strategy, es que no es estrategia… En sus palabras, es un “fluff” ;-)

3 de agosto de 2017

LA NUEVA REVOLUCIÓN INDUSTRIAL

Según Klaus Schwab, director ejecutivo del World Economic Forum, estamos inmersos en la cuarta revolución industrial. La primera, en el siglo XVIII, utilizó vapor y energía hídrica. La segunda, a finales del siglo XIX, fue impulsada por la electricidad y el ferrocarril. La tercera, a caballo de la Guerra Fría, alumbró el ordenador y la era del silicio. Y ahora nos encontramos en la transición hacia un nuevo paradigma de conectividad total. La cuarta revolución industrial llega 10 veces más rápido que la primera, y afecta a una base de población 300 veces superior. El impacto estimado es, según McKinsey, 3000 veces mayor. La nueva revolución está guiada por la transformación digital. Si, hasta el momento, la realidad física y la realidad digital eran mundos asíncronos, hoy ambos están convergiendo hacia una única realidad. Cincuenta billones de dispositivos se conectarán a internet hasta 2020. Lo que veremos a través de la pantalla de nuestro ordenador será una imagen en tiempo real de lo que está ocurriendo: sabremos cómo está y dónde está todo. Desde nuestro móvil tendremos control de lo que está pasando en nuestra empresa, en nuestra cadena logística, o en nuestro hogar. Cuando nos compremos un producto, sabremos dónde y cuándo ha sido fabricado (¿en países con explotación infantil?), bajo qué estándares de calidad y medio ambiente, y en qué condiciones de peso, temperatura e iluminación ha sido transportado. Los automóviles serán potentísimos centros de datos: 250 millones de coches conectados circularán por las carreteras en 2020, cada uno de los cuales generará 4.000 gigabytes por día. Pronto, la información que proporcionarán nuestros coches valdrá más que el propio vehículo (se calcula que el volumen de negocio alcanzará los 750 billones de dólares en 2030). Campo abonado para el emprendimiento: aparecen nuevas oportunidades en la digitalización y mapeo del entorno mediante la integración de la información recibida, en la detección de párkings, en el análisis de defectos en la infraestructura urbana, en el control medioambiental, en la predicción de atascos o en la prevención de averías.  Pero también conoceremos la percepción de nuestros clientes sobre nuestras marcas a través del análisis de sus comentarios en las redes sociales. Incluso, podremos monitorizar su estado de ánimo. O visualizaremos nuestras variables físicas para determinar si sufriremos hipertensión o estrés. El mundo que viene es un mundo dirigido por datos, y con increíble potencia anticipativa. La extensión de la inteligencia artificial nos permitirá predecir un pedido de cliente antes de que éste se produzca, advertir de una potencial depresión en un adolescente (a través de sus comentarios en Facebook), o prevenir un posible infarto días antes de que ocurra. Hoy, la combinación de inteligencia artificial y visión por computador puede incluso anticipar la fecha probable de muerte en algunos tipos de enfermedades.

En este entorno, parece que son las plataformas digitales, las que están saliendo victoriosas. Se consolida el imperio GAFA (Google, Amazon, Facebook, Apple) en la Champions League de las superpotencias tecnológicas. La cuarta revolución industrial será el escenario de un choque entre empresas nativas digitales, que avanzan agresivamente hacia el mundo físico (la compra de los supermercados Whole Foods por Amazon, o las iniciativas de Google, Apple o Uber por desarrollar sus propios vehículos son ejemplos de ello); y empresas provenientes del mundo físico que intentarán adquirir ventajas competitivas del mundo digital, mediante procesos de transformación (o reinvención). En la definición de este nuevo paradigma, parece más rápido que una gran plataforma digital ocupe más y más espacios de negocio físicos, que a la inversa. La llamada “transformación digital”, proceso en el que están inmersas miles de empresas, no es tan sencilla: significa integrar una docena de tecnologías disruptivas de base digital al conjunto de procesos físicos de negocio. ¿Por dónde empezamos? Los expertos coinciden en situar los datos en el centro de la estrategia, crear un “lago de datos”, para después analizar cómo extraer valor de los mismos. Las empresas que han triunfado en su conversión en empresas digitalizadas y dirigidas por datos, se han sumado al colectivo llamado “Industria 4.0”, paradigma resultante de la convergencia e integración de un conjunto de tecnologías de base digital (impresión 3D, internet de las cosas, vehículos autoconducidos, realidad aumentada, robótica avanzada, e inteligencia artificial, entre otras). Un modelo de industria que es capaz, sorprendentemente, de competir a la vez en rapidez, flexibilidad y coste (hasta el momento lo que era rápido o personalizado no era competitivo en coste), con creciente independencia de las economías de escala (es eficiente producir en series cortas) y de la producción en países emergentes (la producción digitalizada tiene el mismo coste aquí que en China). Una increíble oportunidad para Europa, que asiste a un nuevo e incipiente renacimiento industrial

Y, en medio de esta revolución tecnológica, la innovación española sigue dando inquietantes muestras de debilidad. Según el reciente informe COTEC, el conjunto de la UE se tecnifica e invierte un 25% más en I+D que antes de la crisis. Mientras, la economía española invierte un 10% menos. El retroceso nos devuelve a niveles de 2004, con recortes acumulados del 50% en el gasto público en ciencia y tecnología. El número de empresas que declara realizar actividades de I+D es un 35% inferior a hace una década. Sorprende el destacable esfuerzo de las PYME’s, que se revelan como las más eficientes de la UE en atracción de recursos europeos de I+D. Quizá porque en el entorno cercano no encuentran toda la financiación que sería necesaria.

Artículo publicado originalmente en La Vanguardia, el 16/07/2017