Apple ha presentado una patente en la que esboza sistemas de realidad aumentada para iOS, que permitiría ofrecer a los usuarios una capa superpuesta de realidad virtual de los alrededores, incluyendo una «visión de Rayos X» que eliminaría los muros.
Apple presentó dos solicitudes en la USPTO, llamadas «Posicionamiento combinado de dispositivos móviles» (Federated mobile device positioning) y «Registro entre la posición real del dispositivo móvil y el modelo del entorno» (Registration between actual mobile device position and environmental model), ambos describiendo una solución de realidad aumentada avanzada que aprovecha la cámara del iPhone, los sensores incorpoados y el conjunto de sistemas de comunicación para ofrecer una vista en tiempo real que tiene superpuesta una capa de datos de ubicaciones.
El sistema utiliza primero GPS, la potencia de la señal Wi-Fi, datos de sensores y otras fuentes de información para determinar la ubicación de un usuario. A partir de ahí, la app descarga un modelo tridimensional del área que rodea al usuario, completa con esquemas y datos de imágenes de edificios cercanos y puntos de interés. Sin embargo, corresponder esa representación digital con el mundo real es una tarea compleja usando solo sensores.
Para ubicar correctamente el modelo, Apple propone que el esquema se superponga a una fuente de vídeo en directo captada por la cámara del iPhone. Los usuarios podrían alinear el archivo 3D con la fuente de vídeo manipulándolo en la escena usando gestos como pellizco, tocar y arrastrar y otros gestos, ofreciend un nivel de fiabilidad impensable con el uso exclusivo del dispositivo.
Alternativamente, los usuarios pueden ejecutar órdenes por voz como «desplazarse a la izquierda» o «desplazarse a la derecha» para que las imágenes coincidan. El esquema de la escena puede entonces «bloquearse» cuando un punto o puntos están alineados correctamente, ayudando a calibrar la vista de realidad aumentada.
Por ejemplo, un usuario de iPhone que entra en un local nuevo puede desconocer los alrededores. Abriendo la app de realidad aumentada, los usuarios podrían leer nombres de edificios cercanos y de calles, obtener información de empresas y comercio y, en algunos casos, «eliminar» muros para ver el interior de estructuras determinadas.
La «visión de Rayos X» no se detalla en profundidad en los documentos más allá de una nota diciendo que los arrchivos de los interiores de edificios se almacenarían en servidores externos. Puede asumirse, sin embargo, que una amplia base de datos de este tipo de datos es necesaria para coordinar adecuadamente las fotos con sus correspondientes en la vida real.
Finalmente, Apple señala que los datos para calibración se mejorarían a través de las contribuciones de los usuarios así como un método de marcadores para alinear que utiliza capacidades exclusivas o patrones en el mundo real para alinear la matriz.
Otro punto más para acercarnos a Matrix, aunque nada garantiza que Apple vaya a utilizar estas ideas en un producto próximo o futuro.

El metodo se me antoja confuso.
Entonces, para «cuadrar» la información de Apple con el entorno del dispositivo, habra que hacerlo manualmente?.
Si es ese el caso, no se yo si será práctico.
La localizaión GPS tiene margenes de error bastante grandes, y encajar ese entorno virtual con la imagen de video del telefono puede ser algo que te lleve minutos.
Si es como lo imagino, el componente práctico del asunto va a ser muy limitado. Probablemente espectacular, pero de uso muy esporádico.
Jose, sin duda tal y como lo describen no es apto para corazones débiles o para impacientes. Pero es una patente.
Además, hacen mención expresa al crowdsourcing, lo que significa que con el uso y con el registro de coordenadas más «bloqueos» cada vez será más fiable.
De todas formas, son imaginaciones de un futuro alternativo, por si acaso. Pero nada indica que lo vayan a utilizar o que lo hagan de esa manera.