abril 23, 2024

Blog de Habeas Data

Encuentra toda la información nacional e internacional sobre españa. Seleccione los temas sobre los que desea saber más

Google quiere que los dispositivos sepan cuándo tomar nota

era google Trabajando en un «nuevo lenguaje de interacción» Durante años, hoy comparte un vistazo a lo que se ha desarrollado hasta ahora. La compañía presenta un conjunto de movimientos que identificó en el nuevo lenguaje de interacción en el primer episodio de una nueva serie llamada En el laboratorio con Google ATAP. Este acrónimo significa Tecnología y Proyectos Avanzados, y la sección más experimental de Google es La compañía lo llama «Estudio de invención de hardware».«

La idea detrás de este «lenguaje de interacción» es que las máquinas que nos rodean pueden ser más intuitivas y conscientes de nuestro deseo de interactuar con ellas al comprender mejor nuestras señales no verbales. «Los dispositivos que nos rodean… tienen que sentirse como nuestro mejor amigo», dijo a Engadget la diseñadora jefe de interacción de ATAP, Lauren Bedal. «Deben tener gracia social».

Específicamente (hasta ahora, de todos modos), ATAP analiza nuestros movimientos (a diferencia de las vocalizaciones o las expresiones faciales) para ver si estamos listos para compartir, de modo que los dispositivos sepan cuándo permanecer en segundo plano en lugar de bombardearnos con información. El equipo usó la compañía Sensor de radar sólido Para descubrir la proximidad, la dirección y los caminos de las personas a su alrededor. Luego, analizó esos datos para determinar si alguien estaba mirando el sensor, pasándolo, acercándose o dirigiéndose hacia él.

Google ha formalizado este conjunto de cuatro movimientos, llamándolos acercarse, mirar, girar y desplazarse. Estas acciones se pueden usar como desencadenantes de comandos o reacciones a cosas como pantallas inteligentes u otros tipos de computadoras circundantes. Si esto le suena familiar, es porque algunos de estos gestos ya funcionan en los dispositivos habilitados para Soli existentes. los Píxel 4Por ejemplo, tenía una función llamada Motion Sense que retrasaba las alertas cuando lo agitaba o activaba el teléfono si detectaba que su mano se acercaba. Google Nest Hub Max usó su propia cámara Para ver cuándo levanta la palma abierta y pausa la reproducción multimedia en respuesta.

READ  Apple ha lanzado una nueva forma de comprar en línea para iPhones con la ayuda de un especialista en vivo

El enfoque parece similar a las implementaciones actuales. Permite que los dispositivos sepan cuándo se está acercando (o parte del cuerpo), para que puedan mostrar información que puede estar lo suficientemente cerca para ver. Al igual que el Pixel 4, el Nest Hub utiliza un enfoque similar Cuando sabe que está cerca, muestra las próximas citas o recordatorios. También mostrará comandos táctiles en la pantalla de cuenta regresiva si está cerca y cambiará a una fuente más grande y fácil de leer cuando no esté.

Si bien un vistazo puede parecer que interfiere con el enfoque, explicó Pedal, puede ser para comprender dónde está la atención de una persona cuando usa múltiples dispositivos. «Digamos que estás hablando por teléfono con alguien y miras otro dispositivo en la casa», dijo. «Dado que sabemos que es posible que haya llamado su atención en otro dispositivo, podemos sugerirle que posiblemente convierta su conversación en una videollamada». Glance también se puede utilizar para ver rápidamente un fragmento de información.

Google

Lo que es menos conocido es Turn and Pass. “Al envolverlo, podemos permitir que los dispositivos ayuden a automatizar tareas repetitivas o normales”, dijo Bedale. Se puede usar para determinar cuándo está listo para el siguiente paso en un proceso de varias etapas, como seguir una receta en pantalla, o algo repetitivo, como iniciar y detener un video. Mientras tanto, Pass le dice al dispositivo que no estás listo para compartir.

Aproximación, Pasar, Girar y Mirar obviamente se basan en lo que Google ha implementado poco a poco en sus productos a lo largo de los años. Pero el equipo de ATAP también jugó incorporando algunas de estas acciones, como deslizar y deslizar o acercarse y deslizar, algo que aún no hemos visto en el mundo real.

READ  Esta nueva barra de sonido de Sony ofrece sonido envolvente 5.1 desde un sencillo sistema 2.1

Para que todo esto funcione bien, los sensores y algoritmos de Google tienen que ser increíblemente hábiles no solo para reconocer cuándo estás haciendo una determinada acción, sino también cuándo no. El reconocimiento de gestos inexacto puede convertir una experiencia supuestamente útil en una muy frustrante.

«Este es el mayor desafío que enfrentamos con estas señales», dijo el director de diseño de ATAP, Leonardo Giusti. Con los dispositivos conectados, dijo, hay más potencia disponible para ejecutar algoritmos más complejos que con los dispositivos móviles. Parte del esfuerzo por hacer que el sistema sea más preciso es recopilar más datos para entrenar algoritmos de aprendizaje automático, incluidas acciones correctas y acciones similares pero incorrectas (para que también aprendan lo que no aceptan).

Una animación que muestra una animación de Google en su nuevo lenguaje de interacción.  El ejemplo en esta animación.

Google

«Otro enfoque para mitigar estos riesgos es a través del diseño de la experiencia del usuario», dijo Gusti. Explicó que el sistema podría ofrecer una sugerencia en lugar de desencadenar una respuesta totalmente automática, para permitir a los usuarios confirmar la entrada correcta en lugar de actuar sobre un gesto inexacto.

Sin embargo, no nos frustrará que los dispositivos de Google malinterpreten estos cuatro movimientos para nuestros movimientos en un futuro próximo. «En lo que estamos trabajando es solo en investigación. No nos enfocamos en la integración de productos», señaló Bidal. Y para que quede claro, Google está compartiendo esta mirada al lenguaje de interacción como parte de una serie de videos que está publicando. episodios posteriores de En el laboratorio con ATAP Cubrirá otros temas además de este nuevo lenguaje, y Gusti dijo que el objetivo es «dar a las personas una mirada interna a algunas de las investigaciones que estamos explorando».

READ  El Galaxy Ring ya está en el widget de batería de Samsung y su lanzamiento está cada vez más cerca

Pero es fácil ver cómo este nuevo lenguaje eventualmente podría encontrar su camino en muchas de las cosas que hace Google. La empresa estaba hablando de eso. verla sobre Un mundo de ‘informática ambiental’ Durante años, visualizando los muchos sensores y dispositivos integrados en las muchas superficies que nos rodean, listos para anticipar y responder a todas nuestras necesidades. Para que un mundo así no se sienta intrusivo o violado, hay muchos problemas que resolver (proteger la privacidad del usuario entre ellos). Tener máquinas que sepan cuándo mantenerse alejadas y cuándo ofrecer ayuda es parte de ese desafío.

«Creemos que estos movimientos realmente sugieren una forma futurista de interactuar con computadoras aparentemente invisibles aprovechando las formas naturales en que nos movemos», dijo Bedale, quien también es coreógrafo profesional.

«Al hacer esto, podemos trabajar menos y las computadoras pueden… trabajar en segundo plano, ayudándonos solo en los momentos adecuados», agregó.

Todos los productos recomendados por Engadget son cuidadosamente seleccionados por nuestro equipo editorial, independientemente de la empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado.