Lytro, Steve Jobs y el modo cinematográfico del iPhone 13

Cuando vi el asombroso modo cinematográfico que estrena el iPhone 13 en sus diferentes sabores, algo resonó en m cabeza. Ya había oído hablar de eso antes… y estaba relacionado con Steve Jobs.

Me ha costado un tiempo localizar la historia (desgraciadamente, a pesar de haber leído sobre ello, no llegué a escribirlo en faq-mac) pero ya la tengo lista

Qué es (era) Lytro

Lytro fue una empresa americana fundada en 2006 y que desarrolló una cámara plenóptica, que puso a la venta en 2012. Los primeros modelos tenían 8 y 16 GB de almacenamiento, con sensor de 11 “megarrayos”. La lente tenía un zoom óptico de 8x y una apertura de f/2.0. Las imágenes que producía ocupaban 1,2 MB

Hasta aquí tal vez parezca la descripción de una cámara normal, pero lo que diferenciaba las cámaras Lytro era su aspecto. Se trataba de un prisma cuadrangular de casi 13 centímetros, con una pantalla LED en un extremo y un sistema de microlentes en el otro.

La gran revolución que prometía Lytro es que su software permitía cambiar el enfoque de la imagen después de haber hecho la foto, simplemente con tocar con el puntero en el lugar donde quisiéramos enfocar, tantas veces como deseáramos.

Es decir, de una imagen con tres personas en tres planos diferentes, podríamos exportar la misma imagen tres veces, enfocando cada vez en una persona distinta.

A pesar del revuelo mediático que consiguió, cuando finalmente el producto llegó al mercado las revisiones no fueron muy buenas, porque la pantalla LED tenía baja calidad y hacía difícil enfocar, la velocidad de captura era lenta provocando imágenes borrosas o movidas, y el software de procesamiento era lento.

Después de sacar diversos productos, Lytro anunció en 2018 que cerraba sus puertas (su dominio ahora redirige a una empresa llamada Raytrix), y la mayor parte de sus trabajadores se fueron a trabajar a Google.

Qué es una cámara plenóptica

Afortunadamente, existe la Wikipedia haciendo mucho más sencillo explicar las cosas media la técnica de copiar y pegar.

Una cámara plenóptica (o cámara de campo de luz) captura información sobre el campo de luz emanado de una escena, es decir, la intensidad de la luz y la dirección en la que los rayos viajan hacia el espacio. En cambio, una cámara convencional tan sólo captura la intensidad de la luz. 

En la actualidad, las cámaras plenópticas se utilizan sobre todo en entornos profesionales, para medición de distancias, detección de gases o cámaras de seguridad, por citar algunas aplicaciones.

El sistema de Lytro

Las cámara de Lytro tenían una matriz de microlentes delante del sensor. En lugar de permitir que la luz incida directamente en el sensor, colocaban una matriz de microlentes formada por 200.000 lentes hexagonales frente al silicio para obtener perspectivas ligeramente diferentes de la imagen que entra por la lente de la cámara. Cada lente micro hexagonal también se asigna a una cantidad de píxeles en el sensor de imagen. Lo que esto significa es que cada fotón que ingresa a la cámara pasa por la matriz y aterriza en un píxel concreto del sensor que está determinado por el origen de la luz.

Lytro mide la resolución de sus sensores en “Megarays”, que es solo un término simple que describe cuántos megapíxeles tiene el sensor subyacente e indica que se ha colocado una matriz de microlentes en la parte superior. Por ejemplo, Lytro ILLUM (uno de los productos de Lytro), que se decía que tenía una capacidad de 40 Megaray, quería decir que tenía un sensor de 40 MP que tenía delante una matriz de 200.000 microlentes. Sin embargo, la resolución final no será una imagen de 40 MP debido a la forma en que se desglosan y analizan los datos. En ILLUM, la imagen resultante tenía un “pico” de 4 MP.

Antes de enviar una cámara al usuario final, cada unidad que salía de la línea de fabricación se calibraba para saber exactamente cómo viajaba la luz dentro del cuerpo antes de depositarse en el sensor.

Steve Jobs y Lytro

En 2012 los sitios de rumores y noticias se hacían eco de que el iPhone podría incorporar la tecnología de Lytro y el libro de Adam Lashinsky, Inside Apple, reveló que Steve Jobs se entrevistó con el CEO de Lytro, Ren Ng, para discutir cómo las dos empresas podrían colaborar el 28 de Junio de 2011.

Según el libro, el CEO de Lytro, al conocer (a través de Bruce Chizen, CEO de Adobe) que Steve Jobs estaba interesado en su tecnología, llamó a Jobs, quien le convocó para una reunión esa misma tarde.

Rea Ng se desplazó a Palo Alto, le hizo a Jobs una demo de la tecnología de Lytro, hablaron de cámaras y diseño de producto y a petición de Jobs, acordó enviarle un correo electrónico señalando tres áreas en las que le gustaría que Lytro colaborara con Apple.

Apple y Lytro tenían en común la misión de utilizar la tecnología para hacer que fuera sencillo realizar cosas extremadamente complejas.

Steve Jobs falleció en Octubre de 2011

Conclusión

Evidentemente, el iPhone 13 no tiene un sensor de luz en su interior, ni la tecnología que ha estrenado se aplica a la fotografía (de momento), pero la visión de Lytro de conseguir que puedas cambiar el enfoque después de capturar la imagen se ha reencarnado en la tecnología de Apple para llevarlo a las masas, que era lo que quería originalmente Lytro.

Apple registró su primera patente sobre sistemas de luz en 2017 y en 2021 ha vuelto a registrar una nueva patente sobre este tema, así que seguro que en futuras versiones del sistema operativo veremos cómo la tecnología se aplica a nuevos campos.

Alf

Propietario de www.faq-mac.com.

0 0 votos
Article Rating
Subscribe
Notify of
0 Comments
Opiniones Inline
Ver todos los comentarios
0
Me encantaría saber tu opinión, por favor, deja un comentariox
()
x