TECNOLOGÍA
Google trabaja en una nueva tecnología para leer el lenguaje corporal: ¿Invadirá nuestra privacidad?
Google se encuentra en el desarrollo de una tecnología que pueda leer el lenguaje corporal de las personas a través de un radar para mejorar la relación tecnología-humano.
¿Te imaginás que la película que estás viendo en tu televisor se pause cuando te levantes del sillón? ¿O que una notificación no suene en tu computadora porque notó que no estás sentado en tu escritorio? Puede sonar futurista o hasta muy invasivo, pero Google está trabajando en el desarrollo de una nueva tecnología que pueda leer el lenguaje corporal.
Esta tecnología de Google no depende de una cámara que observa lo que está haciendo la persona, sino que utiliza un radar. La división de Tecnología y Productos Avanzados de Google, mejor conocida como ATAP, estuvo explorando cómo las computadoras pueden usar el radar para comprender nuestras necesidades o intenciones y luego reaccionar ante nosotros de manera apropiada.
Esta no es la primera vez que Google utiliza un radar para dotar a los dispositivos de conciencia espacial. En 2015, Google presentó Soli, un sensor que usa ondas electromagnéticas de un radar para detectar gestos y movimientos. Este mismo sensor se usa en esta nueva ronda de investigación, pero en lugar de usar la entrada del sensor para controlar directamente una computadora, ATAP usa los datos del sensor para permitir que las computadoras reconozcan nuestros movimientos cotidianos y tomen nuevos tipos de elecciones.
“Creemos que a medida que la tecnología se vuelve más presente en nuestra vida, es justo comenzar a pedirle a la tecnología que tome algunas señales más de nosotros”, comentó Leonardo Giusti, jefe de diseño de ATAP. Giusti dice que gran parte de la investigación se basa en la proxémica, el estudio de cómo las personas usan el espacio a su alrededor para las interacciones sociales.
Según explica Wired, revista especializada en ciencia y tecnología, “el radar puede detectarlo acercándose a una computadora e ingresando a su espacio personal. Esto podría significar que la computadora puede optar por realizar ciertas acciones, como iniciar la pantalla sin necesidad de presionar un botón. Google emplea ondas de sonido ultrasónicas para medir la distancia de una persona al dispositivo”.
El sensor Soli puede capturar más sutilezas en los movimientos y gestos de las personas con la ayuda de un algoritmo de aprendizaje automático que refinan aún más los datos. Toda esta información de radar ayuda al dispositivo a concluir mejor qué acción tomará la persona. Si realmente está a punto de realizar una interacción con el dispositivo o cuál podría ser el tipo de interacción.
Durante los estudios sobre esta nueva tecnología, “el equipo formalizó un conjunto de movimientos, todos inspirados en la comunicación no verbal y en la forma en que interactuamos de forma natural con los dispositivos: acercarse o alejarse, pasar, volverse hacia o alejarse y mirar”, describe Wired.
Además, citaron algunos ejemplos: “Si un dispositivo detecta que te acercas, puede activar los controles táctiles; acérquese a un dispositivo y puede resaltar los correos electrónicos entrantes; Sal de una habitación y el televisor puede marcar el lugar donde lo dejaste y reanudar desde esa posición cuando regreses. Si un dispositivo determina que solo estás de paso, no te molestará con notificaciones de baja prioridad. Si estás en la cocina siguiendo una receta en video, el dispositivo puede hacer una pausa cuando te alejas para agarrar los ingredientes y reanudar cuando retrocedes y expresas tu intención de volver a participar. Y si mira una pantalla inteligente cuando está en una llamada telefónica, el dispositivo podría ofrecer la opción de transferir a una videollamada para que pueda dejar su teléfono.
“Todos estos movimientos comienzan a insinuar una forma futura de interactuar con computadoras que se sienten muy invisibles al aprovechar las formas naturales en que nos movemos, y la idea es que las computadoras pueden retroceder a un segundo plano y solo ayudarnos en los momentos correctos.”, comentó Bedel, uno de los investigadores del equipo. "Realmente estamos empujando los límites de lo que percibimos como posible para la interacción humano-computadora".
Martes, 22 de marzo de 2022
|