"La tendencia actual es que las máquinas vayan teniendo mayor peso en la toma de decisiones"

Especialista en Inteligencia Artificial y Sistemas Cognitivos

Raúl Arrabales lleva trabajando en el sector de las nuevas tecnologías casi 20 años. En todo este tiempo nunca ha dejado de estudiar. Su corazón siempre ha estado dividido entre la investigación básica, la docencia y la aplicación práctica de las nuevas tecnologías.

Leopoldo Abadía
¿En qué ámbitos se ha especializado a lo largo de su carrera profesional?

Tras haber estudiado ingeniería informática pasé una temporada trabajando en el ámbito del comercio electrónico y la televisión digital, para después volver a la universidad a hacer el doctorado en Inteligencia Artificial. Después de 6 años como docente e investigador en la universidad pública, pasé un par de años por la universidad privada, impulsando algunos de los primeros programas formativos de Big Data y Data Science que se realizaban en España y desde entonces colaboro con diversas escuelas de negocio en la formación de profesionales de diferentes sectores.

Superada esa época centrada en la investigación y la docencia, decidí volver a la primera línea de la transformación digital, posicionándome en el ámbito de la consultoría tecnológica, trabajando en Altran, como responsable de las soluciones Big Data, y posteriormente en Accenture, como miembro del equipo ejecutivo de la unidad de analítica avanzada.

En paralelo a mi época de consultoría, estudié psicología, en mi afán de ampliar mi comprensión sobre los procesos mentales y conductuales, así como las numerosas intersecciones entre la Inteligencia Artificial, la Neurociencia y la Psicología. Y en la actualidad trato de combinar todas estas disciplinas desde la agilidad que otorga una compañía startup de base tecnológica como es Serendeepia Research, de la que soy socio cofundador.

¿Cómo definiría el Big Data?

El primer punto interesante sobre las definiciones existentes del fenómeno Big Data es que se ha convertido en un “concepto paraguas”. Es decir, que se usa para hacer referencia a multitud de cosas diferentes, aunque relacionadas. Hemos llegado a tal punto de abuso de la expresión “Big Data” que cuando alguien te dice que está trabajando en un proyecto Big Data, lo único que a mí me queda claro es que está intentando obtener valor a partir de datos, pero poco más.

Para explicar con más claridad lo que es una iniciativa Big Data suelo usar dos definiciones distintas: la oficial y la extraoficial. La definición oficial de Big Data se basa en las famosas uves: volumen, velocidad, variedad, valor, veracidad, etc. Se dice que un proyecto se convierte en una iniciativa Big Data cuando involucra varias de las mencionadas uves.

Por otro lado, mi definición extraoficial de Big Data se basa en el concepto de “servicio de inteligencia”. Las iniciativas Big Data no son otra cosa que proyectos que se basan en los mismos principios que los servicios de inteligencia que vemos en las películas de espías. La diferencia es que, en el entorno empresarial, en vez de tener procesos de inteligencia para la defensa (como la CIA) o investigación de la escena del crimen (como el CSI), nosotros realizamos procesos de inteligencia de cliente (customer intelligence). En otras palabras, el Big Data trata de recabar múltiples fuentes de datos, para obtener información sobre determinadas entidades, que pueden ser clientes, máquinas, empleados, procesos, pacientes, empresas, etc., y posteriormente convertir esa información en conocimiento accionable.

En definitiva, se trata de tomar las mejores decisiones gracias a que se tiene un buen conocimiento del entorno.

Por último, es importante resaltar que el objetivo de contar con un buen conocimiento es poder tomar decisiones más inteligentes y más adaptadas a la realidad. Estas decisiones las puede tomar un humano que recibe la información o puede ser directamente una máquina la que cierre el ciclo de obtención de información, transformación en conocimiento, toma de decisiones y ejecución de la acción. De esta forma llegamos a la famosa automatización, en la que se prescinde de la intervención humana.

¿A qué se dedica el científico de datos? ¿Cuál es su misión?

La misión principal del científico de datos es dar respuesta a preguntas que plantean las unidades de negocio. En este sentido, es importante recordar que responder a preguntas y obtener conocimiento no es exactamente lo mismo. El científico de datos, a diferencia de un profesional de la investigación básica, ha de obtener conocimiento que es directamente relevante y accionable para el negocio en cuestión.

Debido a la necesaria interrelación entre los objetivos de negocio y el análisis de datos se busca que el científico de datos tenga también un buen conocimiento del dominio de problema. No se trata simplemente de aplicar el método científico para obtener respuestas de forma rigurosa, sino que habitualmente también es necesario que el científico de datos ayude a los expertos de negocio a plantear las preguntas adecuadas.

El tipo de preguntas que puede resolver un científico de datos es muy variado, no obstante, se puede reducir, en primera instancia, a algo tan simple como preguntar sobre qué ha pasado (análisis descriptivo), por qué ha pasado lo que ha pasado (análisis diagnóstico), qué pasará en el futuro (análisis predictivo) y qué se debería hacer (análisis prescriptivo).

En general, el perfil de analista tradicional se asocia con las formas más simples de análisis, el descriptivo y el diagnóstico, mientras que los científicos de datos son codiciados en muchas compañías porque son capaces de realizar con éxito análisis predictivos y análisis prescriptivos a partir de diversas fuentes de datos de diversa naturaleza (datos estructurado, como las tablas de Excel y datos desestructurados, como los mensajes que publican los usuarios en una red social).

¿Cuándo nace el interés de las compañías por la inteligencia artificial aplicada al Big Data y qué aplicaciones tiene en el mundo empresarial?

Hace ya una década que comenzó “la fiebre del Big Data”, principalmente de la mano de las compañías de Internet, cuyo negocio se basa principalmente en el valor potencial de los datos que consiguen. Inicialmente, el foco se puso en la capacidad de almacenar y procesar grandes volúmenes de datos, pero en cuanto este problema se empezó a resolver gracias a las nuevas arquitecturas Big Data (los sistemas distribuidos y escalables de almacenamiento y procesamiento como Apache Hadoop y Apache Spark), el interés se centró en los algoritmos.

Hablando de algoritmos, es preciso puntualizar que la aplicación de la Inteligencia Artificial en la empresa no es algo nuevo. La mayoría de los algoritmos que se usan hoy en día tienen bastantes años de historia. Eliza, uno de los primeros chatbots, y PROSPECTOR, que se usaba para detectar yacimientos de minerales, fueron creados en los años 60 y 70 del siglo pasado. Sin embargo, en esa época no se contaba con las condiciones que disfrutamos hoy en día, donde confluyen la disponibilidad de gran cantidad de datos, la democratización de las redes, el abaratamiento del almacenamiento y la gran capacidad de cómputo.

Existen muchos problemas de negocio (preguntas) que se pueden resolver con algoritmos analíticos tradicionales, como los de la estadística descriptiva. Por lo que para hacer un análisis descriptivo no es habitual tener que recurrir a técnicas avanzadas de Inteligencia Artificial. Sin embargo, en el momento que queremos dar respuestas a preguntas sobre el futuro (análisis predictivo) los algoritmos de Inteligencia Artificial toman mayor protagonismo.

Otro factor de gran importancia en el auge de la Inteligencia Artificial en el ámbito empresarial es que desde la explosión
de las redes sociales y otras tecnologías digitales contamos con nuevas fuentes de datos que no son fácilmente procesables usando algoritmos tradicionales. Por ejemplo, las imágenes y el lenguaje natural (el lenguaje que usamos los humanos) es tremendamente complejo de manejar a nivel computacional. Las técnicas clásicas de procesamiento de datos están diseñadas para lidiar con números y símbolos simples, pero no son capaces de comprender imágenes o voces. Por lo tanto, el interés de las compañías en la Inteligencia Artificial viene de la mano del auge de este tipo de datos: el imparable crecimiento del vídeo en Internet, las nuevas plataformas digitales de comercio electrónico, el Internet de las Cosas (IoT), los nuevos contadores digitales (smart meters), etc.
Las aplicaciones de la Inteligencia Artificial en la empresa abarcan todos los sectores y todas las funciones. Cualquier proceso susceptible de ser automatizado supone un posible caso de uso para la Inteligencia Artificial. Desde la revolución industrial asumimos que hay máquinas que pueden sustituir a los humanos en tareas físicas rutinarias. Sin embargo, al contar con algoritmos con capacidades cognitivas (comprensión del lenguaje, percepción visual, razonamiento lógico, etc.) empezamos a ver como muchas tareas con un componente intelectual básico también pueden ser automatizadas. Un ejemplo paradigmático de automatización que incluye componentes físicos (robóticos) y componentes intelectuales (percepción y toma de decisiones) es el vehículo autónomo.

“La misión principal del científico de datos es dar respuesta a preguntas que plantean las unidades de negocio”

¿Existe margen de desarrollo para que las empresas sigan apostando por los modelos predictivos a partir de los datos que generamos?

Definitivamente sí, queda muchísimo por avanzar en el ámbito del análisis predictivo. Pese a que mucha gente piensa que el mayor desarrollo ha de venir por parte de los algoritmos, la realidad es que el mayor reto se encuentra hoy en día en la obtención de conjuntos de datos de calidad. Los modelos predictivos más avanzados se basan en técnicas de aprendizaje automático (machine learning) y estos algoritmos requieren datos de buena calidad para poder ofrecer buenos resultados. Esta necesidad de datos de buena calidad se resume muy bien en el concepto GIGO (Garbage In Garbage Out). Por muy bueno que sea un algoritmo de aprendizaje, si los datos de entrada son basura, no podremos obtener más que basura como salida. Por lo tanto, el futuro de los modelos predictivos pasa por mejoras sustanciales en las políticas de gobierno del dato. Hoy en día, el principal reto de muchas compañías es lograr recopilar todos los datos disponibles de forma óptima, para así poder “alimentar” adecuadamente a los algoritmos.

Con las técnicas de aprendizaje automático pasa lo mismo que con los humanos, los recién nacidos tienen todo el potencial del mundo, pero si no se les facilita el acceso a los estímulos adecuados durante su desarrollo no serán capaces de aprender adecuadamente ni de alcanzar todo su potencial.

¿Las pymes también pueden beneficiarse del Big Data?

Rotundamente sí. Aunque esto no ha sido así desde el principio. Por un lado, este entorno se basa casi en su totalidad en soluciones de código abierto (open source), por lo que no existe una barrera de entrada grande debido al coste de licencias de software. No obstante, sí que es cierto que existía una barrera de entrada clara debido a la curva de aprendizaje tan pronunciada que se requiere para manejar y hacer productivas este tipo de plataformas. Por otro lado, el mercado de soluciones Big Data ha ido girando hacia la democratización, automatización y pago por uso de los servicios. En definitiva, las soluciones Big Data y de Inteligencia Artificial han adoptado el modelo nube. Esto quiere decir, que hoy en día no es necesaria ninguna inversión en capital (Capex) para inicial un proyecto de Big Data, prácticamente todos los servicios necesarios se pueden obtener a través de un modelo de pago por uso bajo demanda (100% Opex).

Los grandes proveedores de servicios tecnológicos en nube, como Amazon AWS, Google Cloud, Microsoft Azure e IBM Cloud, proporcionan servicios de Big Data, de Análisis de Datos y de Inteligencia Artificial listos para usar y sin necesidad de inversión previa.

El factor más relevante que debe tener en cuenta una pyme con respecto al uso de estos servicios es que en principio no le confieren una ventaja competitiva clara, ya que son servicios a los que puede accedes cualquier usuario. Por lo tanto, la estrategia de las pymes en este sentido debe orientarse en dos líneas: la primera, no caer en una desventaja competitiva por no conocer estas capacidades disponibles en la nube, y la segunda, aportar una capa de valor extra sobre estos servicios, que a menudo estará relacionada con el acceso exclusivo a ciertos conjuntos de datos.

¿Podríamos decir que las máquinas son más inteligentes que los hombres? ¿Llegará un momento en que puedan tomar decisiones sin que medie el elemento humano?

Claro que las máquinas son más inteligentes que los humanos, para algunas cosas. La calculadora de Windows es mucho mejor que yo haciendo multiplicaciones y divisiones. IBM Deep Blue demostró en 1997 que era mejor que cualquier humano jugando el ajedrez. En 2016 Alpha Go de Google demostró que una máquina es mejor que los humanos jugando al Go. En general, hay tareas que las máquinas resuelven mejor, de forma más inteligente, que los humanos. Por supuesto, para otras tareas esto no se cumple. El problema es hablar de la inteligencia como si fuera un fenómeno dicotómico. No tiene mucho sentido decir si un ente es inteligente o no, hay que especificar el dominio y la tarea. Una gran diferencia que existe actualmente en la Inteligencia Artificial y los humanos es que la primera solo consigue funcionar bien para resolución de tareas de propósito específico (es lo que se denomina “IA estrecha” o narrow IA), mientras que los humanos somos buenos resolviendo diferentes tareas. Dicho de otra forma, los humanos suelen tener una inteligencia de propósito general. Por este motivo, un reto actual de la investigación básica es desarrollar nuevos algoritmos de Inteligencia Artificial General (AGI).

Hace mucho que las máquinas ya toman decisiones sin que medie intervención humana. Cada vez que visitamos un comercio electrónico un algoritmo decide en tiempo real los productos que se nos van a mostrar, lo hace en milisegundos, sin mediación humana y con el objetivo de maximizar la probabilidad de compra. Es más, muchas decisiones humanas son las que están mediadas por máquinas. Por ejemplo, la ruta que yo tomo cuando voy conduciendo la decido en función de lo que me dice una máquina.

La tendencia actual es que cada vez más la toma de decisiones vaya teniendo mayor peso en el lado de las máquinas, con lo que los humanos deban tomar menos decisiones (esperemos que sean las más importantes).

“Nuestra posición está siendo la de aportar una capa de valor añadido sobre las tecnologías que desarrollan los gigantes como Google o IBM.”

¿En qué punto se encuentra España a nivel mundial en cuanto promoción e implementación de la inteligencia artificial y Big Data?

Desde el punto de vista del mercado laboral, tenemos un claro déficit de profesionales adecuadamente formados como científicos de datos, ingenieros de datos, ingenieros de inteligencia artificial, etc. (mención aparte merece la gran desigualdad de género existente en algunos perfiles, donde la gran mayoría son hombres, como es el caso de los arquitectos Big Data). Que haya más ofertas de empleo que profesionales preparados es normal debido al gran auge de la disciplina y lo reciente de su aparición.

Esta brecha se va solventando poco a poco con la aparición de multitud de nuevos programas formativos en el ámbito público y privado. Debido a que estos profesionales requieren una curva de aprendizaje muy considerable, es posible que la brecha aún tarde en cerrarse, de forma que se equilibre el mercado laboral.

Esta situación no es específica de España, es algo que está sucediendo a nivel global, incluso en EEUU las universidades más prestigiosas están teniendo problemas muy serios para retener el talento en sus grupos de investigación dedicados a Inteligencia Artificial, ya que las compañías privadas están fichando constantemente a los científicos más brillantes.

Desde el punto de vista del desarrollo tecnológico en las áreas de Big Data e Inteligencia Artificial, aunque no contamos en España con ninguna gran compañía que realmente lidere el sector (como sí que lo hacen los gigantes de Sillicon Valley), sí que contamos con grandes profesionales y un tejido considerable de startups y pymes que están a la vanguardia. Nuestra posición está siendo la de aportar una capa de valor añadido sobre las tecnologías que desarrollan los gigantes como Google o IBM. En general, no hay en toda Europa ninguna compañía que realmente plante cara al liderazgo tecnológico que nos viene impuesto de fuera. Otro enfoque diferente es el de China, que sí se ha planteado competir realmente cara a cara con la hegemonía digital de EEUU.

¿Qué sectores son los más avanzados en este campo?

Sin duda, el sector más avanzado en este campo es el sector Internet, simplemente porque ha sido el originario de esta revolución y no ha tenido que iniciar procesos de transformación digital (ya que se trata de compañías nativas digitales). En este ecosistema digital han surgido con mucha fuerza las plataformas, que se basan en el poder que les confiere tener masa crítica (y por lo tanto muchos datos), y que están apareciendo en todos los sectores. Ejemplos ilustrativos de plataformas en diferentes sectores son Booking, TripAdvisor, BlaBlaCar, Uber, AirBnB, Wallapop, Fintonic, Amazon, etc. Son las compañías que entienden bien la economía del dato las que se están colocando como líderes de los diferentes sectores. Las compañías tradicionales, como los bancos, que vienen del mundo analógico, están teniendo muchos problemas para competir con las plataformas, hasta tal punto que algunos se plantean convertirse ellos mismos en plataformas porque no le ven futuro a su modelo de negocio tradicional.

La normativa suele ir un paso por detrás de la tecnología. ¿En este caso también es así o existe un buen marco regulativo?

Definitivamente no existe un buen marco regulativo. La GDPR no cubre ni mucho menos las necesidades regulatorias en el contexto del Big Data y la Inteligencia Artificial. El uso de algoritmos de aprendizaje automático y la automatización de los procesos hace que aparezcan multitud de nuevos casos de uso para los cuales no tenemos una adecuada regulación. Por ejemplo, ¿quién es el responsable de una discriminación cometida por un algoritmo de aprendizaje automático encargado de seleccionar candidatos para un puesto de trabajo? ¿El proveedor de los datos de entrenamiento del algoritmo? ¿El programador del algoritmo? ¿El integrador de la solución?

Para lidiar con todas estas preguntas la Unión Europea creó en junio del año pasado el Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial, que ha publicado unas directrices éticas para el uso fiable de la Inteligencia Artificial. Pero claro, un código ético no es un marco regulatorio, con lo que aún nos queda mucho por hacer en este terreno.