¿Qué nos ofrecerá la IA en un futuro próximo?

Yván Túpac Valdivia
Docente del Departamento de Ciencia de la Computación de la Universidad Católica San Pablo

En estos últimos tiempos, la inteligencia artificial (IA) ha crecido muchísimo, logrando cada vez más, dar soporte a diversas actividades de la humanidad, generándose un incremento diario en la cantidad de usuarios de IA.

Desde hace varias décadas, los modelos de IA se concebían y ajustaban para resolver una tarea muy específica, usualmente potenciando las capacidades del área denominada Pattern Recognition (reconocimiento de patrones). Pero este paradigma se ha dejado atrás, debido a que hoy es más común tener modelos que puedan tratar más de una tarea, aun aplicando aprendizaje supervisado. Este es uno de los fundamentos del Machine Learning (aprendizaje computacional).

En su origen, las IA se desarrollaron valiéndose de métodos estadísticos, redes neuronales clásicas y profundas, algoritmos de aprendizaje; incluso heurísticas, siempre apuntando a ajustarse a conjuntos de datos etiquetados por personas, a fin de que luego puedan realizar clasificaciones relacionadas a las tareas específicas para las que fueron ajustadas a través de los datos.

Pero, con el transcurrir del tiempo, la investigación en esta materia fue identificando la especificidad como una limitación, por lo que se fueron impulsando modelos preajustados para varios tipos de datos, lo cual marca la transición de los modelos de aprendizaje de monotarea a multitarea, siempre orientados al reconocimiento de patrones.

En la actualidad, estos modelos son los que se encuentran más desarrollados, tales como los clasificadores de imágenes de visión computacional, modelos generadores de resúmenes de textos, de análisis de sentimientos, incluso modelos de traducción entre lenguajes, que aún mantienen una gran dependencia de los datos etiquetados existentes para hacer el ajuste.

Esta transición hacia modelos multitarea pasa por la necesidad de reducir la dependencia de los datos etiquetados, así se fue gestando la idea del aprendizaje autosupervisado, el cual reduce la necesidad del etiquetado humano y permite que los modelos puedan alimentarse de información abundante, aunque menos estructurada, existente en la red de redes.

Es así como nace la idea de poder generar datos sintéticos, a fin de ser utilizados para entrenar modelos más potentes, y así el aprendizaje puede darse desde múltiples fuentes de datos (reales o sintéticos) como imágenes, textos, videos, audios, mediciones de sensores, etc. alcanzando una visión más integral y coherente del mundo.

Por otro lado, también se tiene un renacimiento de la línea de Aprendizaje por Refuerzo, que permite que un modelo realice exploración sin datos previos conocidos, pudiendo llegar a descubrir formas de solucionar un problema que escapen a los paradigmas actuales del mismo. La unión de esta técnica a los aprendizajes previamente explicados, está tomando fuerza en algunos grupos de investigación, como ha sido el caso del ChatGPT.

Esta generación de datos a partir de modelos IA con características realistas como imágenes, textos, videos, códigos, etc., es lo que se viene desarrollando en estos últimos tiempos y es conocida como inteligencia artificial generativa. Se especula que estos datos generados puedan ser utilizados para entrenar otros modelos de IA con resultados aún impredecibles.

La tendencia actual es el desarrollo de modelos que conlleven a la obtención de una inteligencia artificial general que, en hipótesis, sería un agente capaz de aprender a hacer cualquier tarea intelectual que un ser humano o un animal puedan realizar.

Salir de la versión móvil