Edward Cayllahua Cahuina
Profesor del Departamento de Ciencia de la Computación de la Universidad Católica San Pablo
Hubo un tiempo en que las imágenes eran solo registros visuales, fotografías que uno podía guardar en el escritorio de una computadora. Actualmente ya no es así. Vivimos en una época en la que cada cámara instalada en una calle, cada fotografía subida a una red social y cada video grabado por un teléfono móvil se convierte en una fuente constante de información. Estas fuentes alimentan de forma permanente a los algoritmos de inteligencia artificial.
En particular, una de las áreas encargadas de procesar y comprender esta información visual se conoce como visión computacional. Su desarrollo ha avanzado hasta permitir la identificación de rostros, el reconocimiento de comportamientos y el seguimiento de patrones con tal precisión que, en tareas específicas, superan las capacidades humanas.
Esta tecnología ofrece beneficios evidentes, desde la mejora de la seguridad mediante la detección de violencia, la identificación de rostros o el conteo automático de personas, hasta la optimización de procesos industriales y médicos. Sin embargo, junto con estos avances surge un conjunto de interrogantes cruciales. ¿Somos conscientes de las repercusiones de vivir en un mundo donde nuestras imágenes son interpretadas automáticamente? ¿Estamos preparados para enfrentar las implicaciones éticas y sociales de esta moderna forma de observación?
Esto nos lleva a una pregunta central: ¿por qué una imagen importa tanto ahora?
La visión computacional interpreta patrones en imágenes o videos para extraer información útil. Lo que antes era invisible, o requería un análisis técnico complejo, hoy puede ser procesado por un algoritmo en segundos. Estos sistemas comparan miles de rostros, miden movimientos, detectan objetos e incluso infieren comportamientos. Aunque pueden dar eficiencia y seguridad, también nos llevan a un escenario de observación constante que ya no depende de un observador humano.
A diferencia de un humano, los algoritmos no olvidan, no pasan por alto detalles y no aplican juicios contextuales. Generan datos persistentes, clasifican, etiquetan y predicen construyendo perfiles muchas veces sin intervención ni consentimiento explícito de las personas observadas.
La pregunta entonces no es solo cómo funcionan estas tecnologías, sino qué significa que operen sin que podamos percibir plenamente su presencia y alcance. ¿Qué ocurre cuando la mirada de las máquinas se vuelve ubicua?
La expansión del uso de visión computacional tiene consecuencias que van más allá de lo técnico. La capacidad de identificar personas en espacios públicos puede derivar en sistemas de vigilancia extensivos y poco transparentes, capaces de seguir individuos sin supervisión legal clara. La evaluación automática del comportamiento, ya implementada en algunos entornos, puede generar etiquetas que afectan libertades sin mecanismos eficaces para cuestionarlas. Algo similar ocurre con la interpretación automática de imágenes médicas o urbanas, que puede mejorar diagnósticos y planificación, pero también introducir sesgos si los datos utilizados son incompletos o desbalanceados.
A esto se suma el auge de la manipulación de información visual mediante técnicas avanzadas como los deepfakes o la generación sintética de imágenes y videos, lo cual dificulta distinguir lo real de lo fabricado y debilita la confianza del público en lo que ve. Es probable que muchos ya hayan dudado sobre la autenticidad de alguna imagen o video visto recientemente en redes sociales.
Frente a este panorama, la reacción social no puede limitarse a la aceptación pasiva. Como sociedad necesitamos comprender las implicancias de dar nuestra información visual a algoritmos. No basta con aceptar la eficiencia o la comodidad que nos brinda la tecnología actual. Es esencial preguntarse ¿bajo qué criterios estas tecnologías están observando y decidiendo?
Esta responsabilidad no recae únicamente en las instituciones que implementan estas tecnologías, sino también en quienes somos observados por ellas. La visión computacional tiene un enorme potencial para contribuir al desarrollo social, pero su impacto –beneficioso o perjudicial– depende de cómo se utilice.
Aceptar esta tecnología sin reflexión sería renunciar a nuestra capacidad de proteger espacios de privacidad y autonomía. Es indispensable promover una cultura ciudadana que comprenda qué ven las máquinas, qué no pueden ver y qué no deberían ver. Debemos analizar críticamente sus límites y rechazar usos invasivos o injustos.
Construir un futuro en el que la visión computacional esté al servicio del bien común requiere una sociedad informada, capaz de evaluar con rigor tanto los beneficios como los riesgos, y de exigir que la tecnología respete los valores fundamentales que sostienen nuestra vida colectiva.











Discusión sobre el post