Llevo ya unos cuantos años trabajando en el ámbito de la ciencia de datos, siendo testigo de su continuo crecimiento, a nivel tecnológico, y del interés que genera en las empresas, donde todos, sin excepción, tenemos puesto el foco para sacar el máximo partido a los datos que tenemos disponibles, ya sea para mejorar nuestros procesos operativos y la experiencia de nuestros clientes y consumidores o para crear nuevas oportunidades y modelos de negocio.
Y tras todos estos años de
experiencia en este ámbito, una máxima que he
visto repetirse en varias ocasiones es la descripción de disciplinas como Machine Learning,
Data Science o Inteligencia Artificial, palabras que aparecen en cualquier documento
estratégico o conversación de negocio, casi siempre, como entes poco maduros, con horizontes
no accionables en el corto plazo. Es decir, como adolescentes en proceso de desarrollo que
todavía no se valen por sí mismos.
Al oír esto, mi respuesta es siempre la misma: el análisis avanzado de datos no solamente es una ciencia madura con multitud de casos de éxito, cuyo impacto aparece reflejado en las cuentas de resultado de multitud de compañías, sino que deben convertirse en una commodity, un básico en la toma de decisiones de cualquier empresa tanto desde un punto de vista táctico como estratégico.
Para comprender el porqué de mi
respuesta, quizá, sería bueno echar la
vista atrás. Viajar a principios de la década de los cincuenta y ver al matemático Alan
Turing crear el test que llevaba su nombre y que era capaz de evaluar si una máquina es
inteligente; irnos a 1952, cuando un pionero como Arthur Samuel escribió el primer programa
informático que podía aprender por sí mismo; o, por ejemplo, desplazarnos hasta 1958, cuando
Frank Rosenbatt diseñó la primera red neuronal (Perceptrón). Y tras unos cuantos avances
clave más, llegamos a 1997, año en que se acuña por primera vez el término Big Data por los
investigadores de la NASA Michael Cox y David Ellsworth. Estas son algunas de las señales
que marcan el camino, el pistoletazo de salida para este cambio de paradigma, que muestra
que procesar grandes cantidades de información de manera rápida ya es una realidad.
Y, entonces, si el aprendizaje de máquinas (o Machine Learning en su forma anglosajona) es una ciencia con tanto recorrido, ¿por qué sigue habiendo esta percepción de inmadurez en algunos ámbitos de negocio? Según mi experiencia, esto se debe a la visión de "caja negra" que se le ha dado en ciertos momentos, mostrando los procesos de Machine Learning como procesos un poco opacos, que simplemente generan resultados a partir de datos de entrada y no como una ciencia, cuyo suelo está cimentado en dos solventes materiales: la matemática y la estadística.
En definitiva, el aprendizaje de
máquinas
o la inteligencia artificial ya
no se pueden considerar tendencias o tecnologías emergentes, sino que son disciplinas
totalmente maduras. Nos ofrecen resultados tangibles y accionables en multitud de áreas de
negocio. Ahí tenemos, por ejemplo, la computación cuántica o a la Web 3.0, donde la
inteligencia artificial, sumada al blockchain, no solo va a tener un impacto enorme a nivel
económico, a través de la creación de una nueva economía digital, sino que viene a cambiar
nuestra manera de relacionarnos, un punto que puede ser interesante para otro artículo.
Por eso, dejemos de tratar al Machine Learning cómo un eterno adolescente y pensar que todavía está en casa porque ya se ha emancipado y su potencial está disponible para todos. A lo mejor, debemos ser nosotros los que salgamos de casa para verlo.