Autor: José Luis Mateos – Director de Transformación Digital en Honne Services
Como comentamos en el Insight “El camio de la Inteligencia Artificial”, las redes neuronales artificiales surgen como una analogía, a nivel matemático y computacional, de las redes de neuronas biológicas que tenemos los humanos en nuestro cerebro. Dichas neuronas son células especializadas en el cerebro, que emiten y propagan pulsos eléctricos que codifican información, y forman una red de neuronas interconectadas. El desarrollo vertiginoso que hemos presenciado a inicio de este siglo obedece a tres factores que finalmente se conjuntaron: el desarrollo de algoritmos matemáticos avanzados en optimización, algoritmos de machine learning y el desarrollo de redes neuronales profundas (deep learning). El desarrollo de hardware mucho más potente y rápido, como las unidades de procesamiento gráfico GPU, y la enorme cantidad de datos a los que podemos tener acceso. Esta terna virtuosa – algoritmos, hardware y datos – finalmente ha permitido el desarrollo que estamos viviendo y que nos ha llevado a la IA generativa como el chatGPT.
Veamos cada uno de estos tres factores con un poco más de detalle.
Deep learning
Las redes neuronales iniciaron con una arquitectura que incluía una capa de neuronas iniciales (input), una capa intermedia, y una capa de salida (output). En la capa inicial se introducía la entrada de datos (input). Este input consistía en un arreglo de números, típicamente en binario, que se obtenía a partir de imágenes previamente digitalizadas, videos, textos o series de tiempo. Este input pasaba después a la capa intermedia de neuronas. Cada una de estas neuronas tenía una conexión con las neuronas de entrada. En analogía con las neuronas del cerebro humano, se consideraba una dinámica de umbral en la cual se sumaban los pesos o valores de cada conexión entre neuronas, y si la suma de estos pesos era mayor al umbral, la neurona disparaba una conexión como salida a la última capa de neuronas, que era la capa del output. Si la suma era menor al umbral simplemente no disparaba y la conexión era nula. Este tipo de redes neuronales con una sola capa intermedia resulto ser muy limitado, sin embargo, un tiempo después, se introdujeron redes neuronales con muchas capas intermedias. A estas redes se les conoce como redes neuronales profundas, y resultaron ser mucho más fáciles de entrenar para que aprendieran muchos tipos de tares diferentes. A este aprendizaje se le conoce como aprendizaje profundo, o deep learning.
El hardware
La otra pieza importante, que ha permitido el desarrollo exponencial que estamos viviendo, es el avance en el hardware de las computadoras y la capacidad de cómputo, tanto en la velocidad de procesamiento de datos, como en la capacidad de memoria. Estos avances han permitido tener métodos más eficientes para entrenar redes neuronales profundas que contienen miles de millones, o incluso billones de parámetros o conexiones. Desde hace algunos años, las unidades gráficas de procesamiento (GPUs), han desplazado a las unidades centrales de procesamiento (CPU), adaptándose al cómputo masivo en paralelo que se requiere para el deep learning. Actualmente, el desarrollo reciente de la inteligencia artificial generativa (generative AI) y los modelos grandes del lenguaje (Large Language Models, LLMs), como el chatGPT y otros, usan principalmente GPUs para entrenar redes neuronales profundas con billones de parámetros (conexiones); y la tendencia es a seguir escalando.
La era de los grandes datos
Finalmente, el tercer elemento central de esta terna esta ligado a los grandes datos. Actualmente, generamos una cantidad gigantesca de datos simplemente por el hecho de vivir en grandes ciudades y usar continuamente diversas tecnologías de la información. En nuestras actividades diarias dejamos una huella digital al transportarnos con nuestros teléfonos móviles, que tienen integrado típicamente un dispositivo GPS. Al usar nuestras tarjetas de crédito o débito, mandar mensajes o correos desde nuestros móviles, usar las apps, o navegar en redes sociales, estamos generando diariamente una cantidad enorme de datos. Toda esta información está en forma de textos, audio, imágenes o videos. Esta información se utiliza como input en redes neuronales profundas para muchos propósitos; es decir, aún sin darnos cuenta estamos usando ya la inteligencia artificial de muchas maneras en nuestra vida cotidiana. De alguna manera la IA ha estado ya haciendo nuestra vida más fácil.
La sinergia entre algoritmos, hardware y datos ha impulsado el auge de la inteligencia artificial. Esta combinación no es una tendencia fugaz, sino el comienzo de una auténtica revolución tecnológica.
Dr. José Luis Mateos Trigos, físico mexicano, doctorado en Ciencias (Física) de la UNAM, posdoctorado en la Universidad de Northeastern. Investigador, coordinador de investigación, premiado autor y divulgador científico. Director de Transformación Digital en Honne Services.