-Anuncio-
sábado, abril 18, 2026

¿Cómo pueden “ver” e interpretar imágenes las máquinas?

Noticias México

Denuncia MC a senadora y exalcaldesa de Tecámac ante OIC, tras admitir sacrificar 10 mil perros durante su administración

El coordinador nacional de Movimiento Ciudadano, Jorge Álvarez Máynez, presentó una denuncia formal contra la senadora Mariela Gutiérrez ante el Órgano Interno de Control del municipio de Tecámac, tras la controversia generada por el sacrificio de aproximadamente 10 mil perros durante su administración como alcaldesa.

Caso Edith Guadalupe: cae presunto feminicida y sancionan a policías por irregularidades en CDMX

La Fiscalía General de Justicia de la Ciudad de México informó la detención del presunto responsable del feminicidio de Edith Guadalupe, una joven de 21 años que fue localizada sin vida en un inmueble de la alcaldía Benito Juárez.

Desde prisión “El Chapo” Guzmán envía carta a juez de EEUU; pide trato justo y acusa malas condiciones

Joaquín “El Chapo” Guzmán envió una carta al juez Brian Cogan para solicitarle un trato justo por parte de las autoridades estadounidenses durante su reclusión.
-Anuncio-
- Advertisement -

Por Manuel Jesús Marín Jiménez

Profesor de Ciencia de la Computación e Inteligencia Artificial, Universidad de Córdoba

Madrid, 21 de mayo (The Conversation).- Es una realidad que casi todos llevamos en nuestro bolsillo al menos una cámara con la que capturar y compartir imágenes y videos. En 2017, se compartían diariamente a través de Whatsapp 4 mil 500 millones de fotos y mil millones de videos. Y en mayo de 2019, se subieron 500 horas de video a YouTube cada minuto. Esto equivale a 720 mil horas de nuevo contenido al día.

Estas cantidades nos hacen darnos cuenta de la omnipresencia de las imágenes y videos en nuestros días. Pero, ¿sólo están las cámaras en nuestros bolsillos? Pensemos en un hospital (y las pruebas médicas de imagen), en un coche (y el lector de señales de tráfico y detector de líneas de la calzada), en un partido de futbol (y los cambios de punto de vista de las jugadas clave) y en el rover Perseverance de la NASA (intentando aterrizar y moverse por Marte): todos ellos incorporan, al menos, una cámara.

Los efectos de TikTok y los filtros de Instagram, el juego Pokémon GO, las aplicaciones Google Fotos y Lens, los videos deepfake, el ojo de halcón en tenis, un lector de matrículas de coche, etc. Todas estas tecnologías tienen algo en común: necesitan entender el contenido visual de las imágenes para ofrecer diferentes funcionalidades en ámbitos cotidianos tan diversos como el ocio, el deporte o el control de tráfico.

¿QUÉ ES LA VISIÓN ARTIFICIAL?

Si le pidiese al lector nombrar alguno de los objetos que aparecen en la imagen que sigue a este párrafo, estoy seguro que sin ningún esfuerzo podría enumerar una lista de palabras como “personas”, “niños”, “comida”, “vasos”, “sillas”, “ventanas”, etc. Y probablemente podría llegar a la conclusión de que es una familia que va a almorzar. Sin duda, esto es una tarea sencilla incluso para un niño.

Nos planteamos entonces la siguiente pregunta: si mostramos esta imagen a un ordenador, ¿podría éste llegar a la misma conclusión a la que llegamos las personas sin esfuerzo aparente?

La cuestión es que una imagen no es más que una matriz (números organizados en filas y columnas) de valores numéricos que están representando diferentes colores. Y pretendemos que, a partir de únicamente esa representación, un ordenador sea capaz de dar sentido (humano) a ese contenido. Para lograr este objetivo (nada sencillo) entra en juego la visión artificial o visión por ordenador.

La visión artificial es un campo de la inteligencia artificial que tiene como objetivo entrenar a los ordenadores para que sean capaces de interpretar y entender el mundo visual. En cierto modo, se pretende replicar el complejo sistema visual humano usando máquinas.

EL APRENDIZAJE PROFUNDO AL RESCATE

Multitud de aplicaciones que usamos hoy en día sobre imágenes o videos funcionan gracias a un elemento común llamado aprendizaje profundo (o deep learning, en inglés). El aprendizaje profundo es un subcampo de la inteligencia artificial íntimamente relacionado con el aprendizaje máquina (o machine learning, en inglés). En concreto, se intenta simular el comportamiento del sistema nervioso humano para hacer cálculos computacionales, es decir, se definen neuronas artificiales que están interconectadas entre ellas para procesar información.

A diferencia de otros subcampos de la inteligencia artificial, en el aprendizaje profundo se pretende que el ordenador aprenda a realizar diversas tareas de forma automática a partir de grandes conjuntos de datos, esto es, sin proporcionarle reglas explícitas para realizar la tarea deseada. El ordenador aprende patrones comunes que encuentra en los datos proporcionados para su entrenamiento.

Por ejemplo, como aplicación de visión artificial imaginemos que queremos que un coche sea capaz de identificar automáticamente peatones cruzando la calzada. Para ello, le proporcionaremos miles de imágenes que contengan peatones cruzando y el ordenador tiene que ser capaz de generalizar sobre qué es un peatón cruzando, y así poder usarlo en un coche autónomo (como el de Tesla). De esta forma, el vehículo respondería adecuadamente a la situación, reduciendo su velocidad, cambiando la dirección y activando el freno si es necesario.

LA VISIÓN ARTIFICAL AL ALCANCE DE TODOS

Una máquina con capacidad de visión es nuestra aliada, ya que es capaz de realizar tareas repetitivas sin cansarse.

– Puede ayudar al médico especialista a centrarse en detalles de la imagen que podrían pasar inadvertidos.

– Permitir a una persona con baja visión a entender mejor el mundo que le rodea.

– Alertar al transportista que pasa horas y horas al volante ante una distracción u obstáculo inesperado.

– Colaborar con el trabajador de una cadena de fabricación de piezas para detectar las defectuosas.

– Contribuir al modelado automático de la biomecánica de un deportista.

– Ayudar a identificar una especie de planta o animal al estudiante de secundaria.

En resumen, aunque la visión artificial es un campo de investigación activo, donde aún hay mucho por hacer, ha llegado para quedarse, ayudarnos y hacer más fácil nuestras vidas.

¿No está convencido aún? Puede abrir Google Lens en su móvil y hacerle una foto a esa planta de su patio o balcón cuyo nombre nunca recuerda. Los algoritmos de la aplicación podrán ver y reconocer la especie.

- Advertisement -
-Anuncio-
-Anuncio-

Lo más visto

Menor de 11 años sufre lesiones leves tras hacer contacto con instalación eléctrica que presentó cortocircuito en secundaria de Hermosillo

Menor de 11 años sufre descarga eléctrica en secundaria de Hermosillo; autoridades clausuran el aula tras detectar malas condiciones en las instalaciones eléctricas.

Rescatan a estudiante que intentó arrojarse desde edificio de preparatoria en San Pedro El Saucito

Un estudiante del Cecytes en San Pedro El Saucito fue rescatado por Departamento de Bomberos tras amenazar con arrojarse; Cruz Roja lo trasladó para atención médica especializada.

Videógrafo hermosillense Sergio Heredia lucha por su vida tras paro cardiorrespiratorio; familiares piden ayuda a la comunidad

El videógrafo hermosillense Sergio Heredia Medina permanece en estado grave tras un paro cardiorrespiratorio; familiares y amigos realizan una colecta para cubrir gastos médicos que superan el millón de pesos.

“Borrón y Cuenta Nueva” en Sonora: eliminan multas y recargos vehiculares anteriores a 2021

El Gobierno de Sonora, a través de la Secretaría de Hacienda, presentó este martes el programa “Borrón y Cuenta Nueva”, el cual contempla el 100 por ciento de descuento en multas y recargos de adeudos vehiculares correspondientes a años anteriores a 2021.

Encuentran sin vida a Edith Guadalupe tras subir a moto por aplicación

Edith Guadalupe, joven de 21 años desaparecida en Iztapalapa, fue hallada sin vida en Benito Juárez tras abordar una moto por aplicación; Fiscalía investiga feminicidio.
-Anuncio-