Algunas consideraciones:
- No probé el Galaxy S23 Ultra lo suficiente. Solamente un par de fotos, unos videos. La cámara es brutal.
- Pude sacar poquitas fotos de la luna (aunque no era el día ni la hora ideal) y el resultado final me sorprendió.
- Soy usuario de Galaxy’s S hace años, y bastante fanboy de la marca (aunque ahora me toque hablar «mal», quizás).
- Me encanta la fotografía en general (DSLR principalemente) y desde hace años que investigo y pruebo cámaras y lentes.
Buenas tardes. Obviamente no soy un experto en teléfonos celulares, mejor conocidos cómo Smartphones, como podrían ser los reviewers actuales que generan contenido en Youtube y se la pasan investigando y hablando de estas pequeñas maravillas. Tampoco soy un experto en fotografía, pero a la vez, he probado un montón de cámaras Réflex, Superzoom, ahora las nuevas Mirrorles y también muchos lentes.
Respecto a la temática de hoy que sería hablar de «teleobjetivos» puedo decir que por mis manos han pasado desde los Tamrom más baratos (sin DC que sería algo así como un sistema de estabilización) hasta algunos lentes sensacionales cómo el Nikon «pata negra» 200-500m o algún que otro lente Canon «de los blancos» que valen cómo un auto, literal.
Sabiendo que no soy un experto en ninguna de las 2 áreas pero a la vez algo de conocimientos tengo (o lo que es lo mismo, no como tanto vidrio) me gustaría tratar de dar mi opinión sobre las fotos de la luna que sacan los Galaxy S23 Ultra y por qué tengo ciertas dudas respecto a la fidelidad de las mismas. El tema es así: el Galaxy S23 Ultra tiene una cámara tan impresionante por tratarse de un teléfono, que rompe varios paradigmas respecto a la calidad de imagen que puede lograr un dispositivo que tiene los lentes literalmente pegados y no sobresalen, es decir, los «zooms» son zooms pero no respetan las mismas físicas que los lentes de vidrio que conocemos en fotografía. Pero… funcionan y lo hacen muy bien.
De todas maneras, no es lo mismo sacar una foto de, por ejemplo, un pájaro en un árbol con un Galaxy S23 Ultra que con una cámara Reflex moderna y uno de los lentes que anteriormente mencioné. Si bien puede salir bastante nítida, ahí es donde todavía la física gana, ya que el efecto de enfoque y desenfoque (y más si se utilizan valores a apertura f bajos) suele ser superior en una cámara. Uno podría decir que «nadie puede vencer a la física de las ópticas» pero de la manera que veo avanzar a la fotografía en dispositivos móviles realmente no me atrevo.
Y es que cuando uno usa el zoom óptico al máximo en un Galaxy S23 Ultra realmente no puede entender lo que estabiliza y la calidad de imagen que tiene el dispositivo. Parece magia negra ya que por más que uno tenga el pulso de un cirujano (no es mi caso) es algo inconcebible poder filmar o sacar alguna captura tan «quieto» cosas a lo lejos sin percibir ni la menor de las vibraciones, por lo que ahí es donde entra la duda que es… ¿si saca tan bien un cartel a 200 metros o una casita sobre la montaña, por qué no va a sacar bien a la luna?
La luna es una mierda para fotografiar
Podría haber puesto «Fotografiar a la luna: un desafío», pero no sería Tecnovortex y además, es literal. La luna es una mierda.
Hace un par de años vivía en un zona muy linda de Concepción del Uruguay, más precisamente frente al puerto. Ahí siempre caía gente a pasear porque la vista al río es muy bonita y los días de luna llena era muy clásico ver gente queriendo fotografiar a nuestro satélite. Me daba mucha ternura ver gente mayor queriendo fotografiar la luna y ver que algunos tenían el flash activo. En fin, cualquiera que alguna vez se animó a sacar una foto a la luna se ha dado cuenta que sale un «coso blanco con corona» y no mucho más. Esto es así en casi cualquier smartphone actual (incluso un S23 o un iPhone 14) salvo, justamente, los que tienen zooms de varios aumentos.
Según mi experiencia (y vaya si he roto las bolas sacando fotos) sacar una «buena foto a la luna» requería tener:
- Un buen zoom óptico.
- Una forma de estabilización (trípode en lo posible).
- Poca contaminación lumínica.
- Algunos conocimientos de técnica fotográfica (tiempo de exposición, apertura, ISO).
Supongamos que un Smartphone moderno con un buen zoom y buenos sensores tiene la capacidad de evitar que sepamos lo mínimo de técnica fotográfica, así que eliminamos el último punto. También la estabilización puede ser un problema superado ya que está recontra probado que es impresionante, pero…
Un Galaxy S23 Ultra sigue siendo un teléfono
Acá es donde entra un poco la parte gris donde nadie tiene la última palabra. Los avances de la cámara de este dispositivo son tan impresionantes que hasta hacen dudar de que pueda sacar una foto digna de la luna y a la vez mi poca pero existente experiencia sacando fotos me dice que no, que es imposible… ¿Por qué?
Porque para sacar una foto a la luna es necesario un «lente largo» (zoom) que tenga la capacidad de:
a) Enfocar correctamente a la luna, ocupando gran parte del cuadro (un 70% por ejemplo).
b) Poder medir la luz y exponer correctamente.
c) Todo esto a una roca brillante que no tiene luz propia pero que está totalmente sobreexpuesta.
Ahí es donde se pone interesante probar la cámara que saca buenas fotos a la luna. Porque basta con levantar el Smartphone, apuntar a la luna, hacer zoom para ver:
Algo blanco, brillante y con cierto halo > entoco y saco la foto > Una trancisión con una sorprendente imagen de la luna.
Distinto es sacarle una foto a la luna con un buena DSLR, trípode y teleobjetivo o, de no tener presupuesto, una cámara superzoom del tipo Nikon P600. Cuando enfocás y le vas dando zoom vas viendo en tiempo real a la luna, no es que «aparece de un momento a otro» casi como por arte de magia.
Hasta ahí era mi teoría: Samsung hacía algo raro con su cámara para mostrar tan bien a la luna.
Pero a la vez tenía muchas dudas respecto a mi creencia que suponían darle la derecha a Samsung, por ejemplo:
- Si sacás la luna gris, sale bien, colorada, también sale bien.
- Si sacás la luna en cuarto menguante, sale bien, creciente, sale bien.
- Si sacás a la luna atrás de, por ejemplo, un árbol, sale bien.
La única «gran duda» era que esto de las fotos buenas de la luna solamente salían con la «cámara de Samsung» y no con otras (!).
La Inteligencia Artifical al servicio de la fotografía: lo que ves no es lo que se ve
Una pregunta: ¿Por qué quién escribe hace un escándalo por la luna cuando hay un montón de cámaras que tienen filtros para sacarle granos o arrugas a la gente? ¿No debería ser más criticado ese afán por verse lindo que una foto de una piedra? Yo estaba seguro que al fin y al cabo Samsung había inventado una especie de magia negra que hacía más felices a los usuarios.
Porque sacarle una foto a la luna con el celular es una feature que vende.
En fin, yo hice mi descargo en Twitter (pueden seguirme) y en algunos grupos de amigos nerds. En Twitter me dieron algo de pelota pero entre los grupos de nerds si bien no me bardearon mal siento que en el fondo pensaron que era un pelotudo a cuerda y en el fondo nos los culpo ya que este tipo de «acusaciones» son difíciles de hacer y más cuando algo funciona tan bien y hasta el día de hoy no se le ha encontrado ningún glitch, o casi…
Hace unos días, el usuario de Reddit u/ibreakphotos hizo una prueba con éxito que varios ya habían intentado hacer pero sin tanto éxito. Esta persona generó una imagen intencionalmente borrosa de la Luna, la puso en la pantalla de una computadora y luegole sacó una foto a la misma con el – ya famoso – Samsung S23 Ultra.
Luego grabó un video del proceso de captura de la imagen y lo que se ve es asombroso.
Como se puede ver, la primera imagen en la pantalla no mostró ningún detalle, pero la imagen resultante mostró una «fotografía» nítida y clara de la Luna. En algún momento – y en algún lugar – el S23 Ultra agrega detalles que simplemente no estaban presentes antes. No hubo aumento de escala de píxeles borrosos ni recuperación de datos aparentemente perdidos. Solo había una Luna nueva, una falsa.
La IA es la culpable, y es genial
Esto de «fakear» a la luna no es un tema nuevo. Ya se ha bardeado a Huawei anteriormente (aunque se lo merecen) por lo mismo aunque sin dudas Samsung ha sido muchísimo más elegante para resolver esto. De hecho, la misma compañía coreana dice que su metodo de «enhacing» para la luna es muy complicado. De hecho según The Verge, en 2021, Input Mag publicó un largo artículo sobre las «fotos falsas de la luna detalladas» tomadas por el Galaxy S21 Ultra. Samsung le dijo a la publicación que «no se aplican superposiciones de imágenes ni efectos de textura al tomar una foto», pero que la compañía usa IA para detectar la presencia de la Luna y «luego ofrece una función de mejora de detalles al reducir los desenfoques y los ruidos».
Lo que se sabe es que para lograr esto (que la luna salga bien teniendo tantas variantes en color, tamaño y hasta objetos tapándola) Samsung acudió a la Inteligencia Artificial y lo hizo muy bien. Básicamente creó un software que «detecta» cuando uno le sacó una foto a la luna y hace un trabajo al mejor estilo Photoshop: le baja el brillo, le ajusta mejor el contorno, le agrega grises y lo mejor de todo: les pone los cráteres donde van.
No es algo tan difícil si nos ponemos a pensar. Con lo avanzado de la IA, el software y las capacidades técnicas de los smartphones aplicarle esto a una foto diría que es hasta sencillo. Básicamente lo que hace la App de cámara de Samsung es «che sacaste esta foto borrosa, esperame un cachito y te la armo tal cómo debería ser».
Obviamente no te va a devolver una foto tomada con un telescopio, pero hay algo bastante sombrío en todo esto y es que la App de Samsung conoce una luna, es decir la que vemos, y muchos usuarios dicen «odio que la luna que vea es la que se aprendió la IA de Samsung… ¿qué pasaría si mañana cae un meteorito y aparece un nuevo crater?»
Yo a esos usuarios les diría: para eso solamente hará falta una actualización de la aplicación de la cámara.
Palabras finales: ni bueno, ni malo, pero excelente
Creo que no quedan dudas de que «la cámara de Samsung no puede sacar fotos nítidas a la luna». Eso es cierto.
Pero a la vez me pongo a pensar un poco fuera de la casa, o trato de no mirar el árbol y ver el bosque y me pregunto…
¿Está realmente mal que Samsung «mejore» a la luna en las fotos que saquen sus dispositivos? ¿No es algo parecido – e incluso mas «sano mentalmente – a lo que hacen otras empresas al embellecer la piel de las personas?
Una vez que pasa el primer desencanto, creo que el trabajo que ha hecho Samsung para mejorar las fotos de la luna es sensacional. Es meter inteligencia a las fotos para una causa noble: de alegrar a las señoras – que puedan pagar por un Ultra – que van a los puertos de las ciudades a sacarle fotos a la luna para compartirlas en el grupo de WhatsApp de la familia. Bien por ellos.
Desconfío de absolutamente todo lo descripto en el artículo.
Empezando por lo primero: hay una diferencia remarcable entre lo que es el «live view» que tenemos en la pantalla de nuestro teléfono y lo que sea que se guarde como JPG final. El «live view» hace un esfuerzo descomunal para intentar dar una idea de cómo va a salir la foto, pero rara vez es fiel al 100%, menos cuando uno está queriendo fotografiar una escena con un rango dinámico muy grande. El ejemplo mostrado en video es bastante pobre, partiendo de la base de que la foto desenfocada tiene un montón de información fácilmente recuperable sin inventar nada.
Sobre el Samsung Galaxy Ultra Coso, quien quiera sacarse la duda sobre algún eventual perreo, alcanza con hacer lo siguiente: sacar una foto a una moneda de $2 a 2,75 metros de distancia. El tamaño angular de la moneda a esa distancia es aproximadamente el mismo que el de la luna: medio grado. Con mi Motorola sin zoom óptico, no se llega ni a leer el «2» pero sí se adivina que es una moneda con borde dorado y centro plateado. Con más megapíxeles y un poco de zoom óptico no tengo dudas de que se pueden pescar detalles lunares.
Por otro lado, no es necesario tener trípode ni gran estabilización para hacer tomas de la luna. Es muy brillante, lo que permite usar tiempos de exposición muy cortos en los que un zoom largo no llega a ser mayor inconveniente.
Me encantaría tener un coso de esos a mano y hacer la prueba, o que alguien haga la prueba con la moneda argenta. Si después de eso dicen que la AI también sabe reconocer y reconstruír monedas sudacas, renuncio
Gracias por tu opinión, la valoro.
Pero no es tan fácil sacarle a la luna, la comparación con situaciones ideales de luz como decís de la moneda no es similar.
En realidad la luna es más fácil que la moneda ya que es muy brillante. Si exponés manualmente, tenés luz de sobra para hacer una buena exposición. También se puede setear el foco manualmente en «infinito» para colaborar. La moneda es de bajo contraste y depende de la iluminación que haya disponible.
Hablo desde la experiencia de fotografiar la luna con telescopios, cámaras reflex, point-n-shoot, celulares… hasta filmadoras. La luna es un sujeto fácil, «solo» necesitás resolución: zoom óptico y megapíxeles.