En la era de las cámaras de los teléfonos inteligentes y el software de edición con tecnología de inteligencia artificial, ¿quién tiene realmente el control de la composición, el algoritmo o el fotógrafo? Nuestra tercera columna 'Imagen más inteligente' tiene respuestas.
Por Jeff Carlson | Actualizado el 27 de enero de 2022 a las 2:56 a. m. EST

Un tema recurrente en la fotografía computacional es la tensión sobre las elecciones creativas. Las funciones de “IA” de las cámaras y aplicaciones de edición de fotografías pueden controlar muchos aspectos técnicos, como cómo exponer una escena o enfocar las uñas. ¿Eso les quita demasiado control creativo a los fotógrafos? (Consulta mi última columna, "Ya estás utilizando la fotografía computacional, pero eso no significa que no seas fotógrafo").
La composición de la imagen parece estar fuera de esa tensión. Cuando alineas una toma, la cámara no tira físicamente de tus brazos para apuntar la lente a una mejor disposición. (Si te está tirando de los brazos, ¡es hora de considerar una cámara más liviana o un trípode resistente!) Pero el software puede afectar la composición en muchas circunstancias, principalmente durante la edición, pero en algunos casos también durante la filmación.
Considere la composición
A primera vista, la composición parece ser la parte más simple de la fotografía. Apunte la cámara hacia un sujeto y presione o toque el botón del obturador. Los fotógrafos experimentados saben, sin embargo, que elegir dónde aparece el sujeto, cómo está compuesto en el visor/pantalla e incluso qué elemento es el tema, implica más trabajo y consideración. De hecho, la composición suele ser la parte más difícil de capturar una escena.
Entonces, ¿dónde encaja la fotografía computacional en este marco?
En cierto modo, las funciones de IA más avanzadas, como HDR, son más fáciles de implementar. La cámara, casi exclusivamente en un teléfono inteligente, captura una docena de tomas con diferentes exposiciones en unos pocos milisegundos y luego las combina para crear una foto bien iluminada. Está recopilando una amplia gama de datos y fusionándolos todos.
Para aplicar la inteligencia artificial a la composición, la cámara debe comprender tan bien como usted lo que hay en el visor. Algo de eso sucede:los teléfonos inteligentes pueden identificar cuándo una persona está en el encuadre y algunos pueden reconocer elementos comunes como el cielo, los árboles, las montañas y similares. Pero eso no ayuda a la hora de determinar qué objeto del primer plano debe destacarse y dónde debe colocarse en relación con otros objetos de la escena.
Además, al disparar, el fotógrafo sigue siendo quien controla hacia dónde apunta la lente. ¿O no? Bromeo acerca de que la cámara arrastra tus brazos hasta su posición, pero eso no está lejos de describir lo que hacen muchos dispositivos de cámara con cardán. Además de minimizar el movimiento de la cámara para lograr un movimiento fluido, un cardán puede identificar a una persona y mantenerla centrada en el encuadre.
Pero volvamos a la cámara en sí. Si tenemos control sobre el cuerpo y hacia dónde apunta, cualquier asistencia computacional tendría que provenir de lo que la lente puede ver. Una forma de hacerlo es seleccionando una composición dentro de los píxeles que registra el sensor. Lo hacemos todo el tiempo durante la edición recortando, y llegaré a eso en un momento. Pero digamos que queremos un algoritmo que nos ayude a determinar la mejor composición que tenemos delante. Idealmente, la cámara vería más de lo que se presenta en el visor y elegiría una parte de esos píxeles.
Bueno, eso también está sucediendo, de forma limitada. El año pasado, Apple introdujo una función llamada Center Stage en los modelos iPad, iPad mini y iPad Pro 2021. La cámara frontal tiene un campo de visión ultra amplio de 120 grados, y el software Center Stage revela solo una parte de eso, haciéndolo parecer cualquier cuadro de video normal. Pero el software también reconoce cuándo hay una persona en la toma y ajusta esa área visible para mantenerla centrada. Si otra persona ingresa al espacio, la cámara parece alejarse para incluirla también. (Otro ejemplo es Logitech StreamCam, que puede seguir a una sola persona de izquierda a derecha). El efecto se siente un poco resbaladizo, pero el movimiento es bastante suave y sin duda mejorará.
Composición en edición
Apple Photos en el iPhone 13 Pro muestra un botón Automático cuando detecta personas en la imagen (izquierda). El recorte automático se aplica a la imagen de la derecha. Jeff Carlson Encontrarás más opciones de encuadre automático en el software de edición, pero los resultados son más impredecibles.
En la aplicación Fotos en macOS, al hacer clic en el botón Auto en la interfaz Recortar solo se aplica el enderezamiento, que en este caso giró la imagen demasiado hacia la derecha. Jeff Carlson El concepto refleja lo que hacemos cuando nos sentamos a editar una foto:la aplicación analiza la imagen y detecta objetos y tipos de escenas, y luego usa esa información para elegir composiciones alternativas recortando. Muchas de las aplicaciones que he elegido como ejemplos utilizan caras como base para la recomposición; La aplicación Fotos de Apple solo presenta un botón Automático en la interfaz de recorte cuando hay una persona presente o cuando una línea obvia del horizonte sugiere que es necesario enderezar la imagen.
Luminar AI hizo un buen trabajo recortando el cartel de la derecha. Jeff Carlson Esperaba mejores resultados en Luminar AI usando su herramienta Composición AI, porque la característica principal de Luminar AI es el hecho de que analiza cada imagen cuando comienzas a editarla para determinar el contenido. Hizo un buen trabajo con mi foto de prueba del paisaje, manteniendo el auto y el conductor en el marco junto con las rocas en la parte superior izquierda y quitando la señal en la parte inferior derecha. Sin embargo, en el retrato (abajo), hizo lo contrario de lo que esperaba:mantuvo los dedos de la mujer a la vista a la derecha y le cortó el cabello a la izquierda.
Luminar AI parece enfatizar cada cara a lo largo de las guías de la regla de los tercios, pero mantiene los dedos que distraen a la derecha. Jeff Carlson También lancé las dos imágenes de prueba en Pixelmator Pro en macOS, ya que Pixelmator (la compañía) ha sido agresiva a la hora de incorporar herramientas basadas en lenguaje de máquina en su editor. Enmarcó bien a las dos mujeres en el retrato (abajo), aunque preferiría no recortar tan estrechamente como lo hizo. En la foto del paisaje, se recortó ligeramente, lo que mejoró ligeramente la foto.
El reencuadre de Pixelmator Pro enfatiza los rostros de las mujeres, aunque yo cambiaría los límites del recorte hacia la izquierda para lograr un mejor equilibrio. Jeff Carlson Adobe Lightroom y Photoshop no incluyen ninguna función de recorte automático, pero Photoshop Elements ofrece cuatro composiciones sugeridas en la barra de Opciones de herramienta cuando se selecciona la herramienta Recortar. Sin embargo, no está claro qué utiliza la aplicación para generar esas sugerencias, ya que pueden ser bastante aleatorias.
Adobe Elements también incluye recorte automático, pero los resultados pueden ser impredecibles. Jeff Carlson ¿Com-u-sición? (No, ese es un término terrible)
Es esencial señalar aquí que todos estos son puntos de partida. En todos los casos, se te presenta una sugerencia que luego puedes manipular manualmente arrastrando los controladores de recorte.
Quizás esa sea la lección que debemos aprender hoy:la fotografía computacional no se trata solo de dejar que la cámara o el software hagan todo el trabajo por usted. Puede brindarle opciones o ahorrarle algo de tiempo, pero en última instancia, las decisiones que tome seguirán siendo suyas. A veces, ver una mala sugerencia de reencuadre puede ayudarte a darte cuenta de qué elementos de la fotografía funcionan y cuáles deben eliminarse. O bien, puede aplicar un ajuste automático, no estar de acuerdo (posiblemente con vehemencia) y hacer su propia creatividad.