En el año de 1998, Deep Blue, una inteligencia artificial desarrollada por IBM, logró vencer al ruso Garry Kaspárov, quien ostentaba el título de campeón mundial de ajedrez desde 1993. Esta victoria motivó a los investigadores a pensar que la inteligencia artificial estaba muy cerca de superar a los seres humanos en muchas otras actividades. Sin embargo, se dieron con la sorpresa que estaban muy lejos de la realidad; tareas que aparentemente son simples para los humanos, como clasificar objetos por su forma, agrupar piezas de lego de acuerdo a su color, o reconocer rostros con la misma velocidad y eficiencia como lo hace un niño pequeño, era prácticamente imposible en aquella época.
Redes Neuronales Artificiales
A finales de los años 50 e inicios de los 60, aparecieron los primeros conceptos de redes neuronales artificiales. Algunos algoritmos basados en estas ideas, como el Multilayer Perceptron, fueron desarrollados y dieron resultados alentadores en algunas tareas de clasificación y agrupamiento. Sin embargo, aún no se contaba con la potencia de hardware, ni la cantidad de datos necesarios para entrenar una red neuronal artificial lo suficientemente potente como para realizar tareas complejas similares a un humano.
La internet y el avance del hardware
La aparición de la internet permitió un crecimiento exponencial de datos tales como imágenes, sonidos, documentos de texto, modelos tridimensionales y muchas otras cosas; generando una fuente muy rica de información y medios más eficientes para compartir el conocimiento. Literalmente, proporcionó una fuente extraordinaria de todo tipo de datos para que los investigadores pudieran crear modelos de inteligencia artificial cada vez más complejos.
Estos modelos requirieron un mayor poder computacional, y debido al avance tecnológico (como la aparición de la GPU, y los súper ordenadores; la creación lenguajes de programación de alto nivel como Python o R, librerías matemáticas más eficientes desarrolladas para realizar cálculos en paralelo) ha sido posible la creación de modelos de redes neuronales conformadas por varios cientos de capas de neuronas artificiales con millones de parámetros, llevando, así, a la inteligencia artificial a una nueva era: la era del Deep Learning
Deep Learning
A inicio del año 2000, se desarrollaron nuevos tipos de arquitecturas de redes neuronales, inspiradas en el avance de la neurociencia. A estas nuevas arquitecturas se les denominó Deep Learning, pues a diferencia de las redes neuronales clásicas, las cuales contaban con pocas capas de neuronas, éstas podían tener varios cientos de capas, con miles de neuronas en cada capa y millones de parámetros.
Surgieron modelos conocidos como Convolutional Neural Networks (CNN), los cuales se convirtieron en los métodos más potentes para tareas de clasificación y agrupamiento de imágenes y formas tridimensionales, y que fueron rápidamente usados para desarrollar aplicaciones que superaron a los seres humanos en varias tareas, que van desde la clasificación de modelos tridimensionales, reconstrucción y reparación de imágenes, hasta la generación automática de pinturas tan espectaculares que hacen, por ejemplo, que los expertos en Rembrandt piensen que se trata de una obra creada por el mismo Rembrandt, cuando sólo son pinturas creadas por una inteligencia artificial.
Por otro lado, tareas basadas en datos que varían en el tiempo, a las cuales se les denomina series temporales, como las señales electroencefalográficas, o los datos procedentes por electrocardiogramas, información sobre ventas de una empresa e incluso texto, dieron lugar al desarrollo de arquitecturas de Deep Learning especializadas en la detección de patrones en este tipo de datos. A estas arquitecturas se les llamó Recurrent Neural Network y las aplicaciones a las que dieron lugar fueron realmente espectaculares en el sentido que permitieron desarrollar, por ejemplo, chatbots con capacidad para dialogar con los clientes, sistemas capaces de resumir documentos de manera automática, sistemas capaces de crear textos completos con sólo algunos comentarios humanos e, incluso, generar programas en casi cualquier lenguaje de programación, entre muchas más tareas que en el pasado sólo sería posible en la ciencia ficción.
No cabe duda de que la inteligencia artificial ha llegado para quedarse y para cambiar todo, desde el modo cómo tomamos decisiones, la forma en la que realizamos ciencia, hasta la manera en cómo manejamos los procesos de negocio. Sin lugar a dudas, estamos ante una nueva revolución para la humanidad, la revolución de la Inteligencia Artificial.
Lidera la revolución tecnológica
La Escuela de Posgrado UTEC presenta la segunda versión de su Maestría de Especialización en Computer Science, programa que busca formar profesionales especializados en inteligencia artificial, capaces de liderar equipos que diseñen e implementen estrategias de adopción de estas tecnologías en las organizaciones.
Diseña y ejecuta las soluciones tecnológicas que transformen las empresas. Conoce más de nuestra maestría AQUÍ.