La tecnología propuesta también permitiría a usar cámaras u otros sensores visuales para reconocer de forma inteligente las intenciones del usuario, tal como la vista del usuario en un objeto particular en la pantalla, el perfil de sus manos respecto a la pantalla o el humor expresado para la cara del usuario. La frustración del usuario podría decirle al ordenador que está malinterpretando una orden, dice Apple.
Información adicional también podría venir de datos más avanzados generados por la forma de coger el dispositivo por parte del usuario, incluyendo el modificar un objeto tocado basándose en el ángulo y el movimiento del aparato mismo, el tamaño de los dedos y las manos y datos biológicos como la temperatura del cuerpo o los latidos del corazón.
Apple es muy amplia en la descripción de las posibilidades de estos sistemas y dice que podrían aplicarse a móviles, ordenadores y reproductores portátiles entre otros aparatos. Sin embargo, explica específicamente que la cámara necesaria para estos aspectos visuales de este sistema podría ser una cámara iSight en uno de sus ordenadores MacBook y provee una ilustración sugiriendo que podría ser usado un iMac o una única pantalla con cámara.
Los inventores de la patente son Wayne Wasterman y John Elias, los fundadores de la firma pionera multitáctil FingerWorks que finalmente fue adquirida por Apple y ha sido la fuente de muchas de las patentes multitáctiles de Apple.
Fuente: Electronista