Publicado por

PEC1. ¿Qué es la interacción tangible?

Publicado por

PEC1. ¿Qué es la interacción tangible?

Introducción a la interacción tangible Para poder analizar un proyecto interactivo, habremos de definir primeramente a qué nos referimos. El diseño de interacción plantea las pautas de comportamiento de los productos y/o sistemas con los que interactúa el usuario. Para poder entender un sistema como interactivo, habremos de tener elementos de interacción que relacionen al usuario con el manejo del propio sistema, y además hacer esta relación lo más sencilla y útil posible. Simplificando un poco, un buen sistema interactivo…
Introducción a la interacción tangible Para poder analizar un proyecto interactivo, habremos de definir primeramente a qué nos referimos.…

Introducción a la interacción tangible

Para poder analizar un proyecto interactivo, habremos de definir primeramente a qué nos referimos. El diseño de interacción plantea las pautas de comportamiento de los productos y/o sistemas con los que interactúa el usuario. Para poder entender un sistema como interactivo, habremos de tener elementos de interacción que relacionen al usuario con el manejo del propio sistema, y además hacer esta relación lo más sencilla y útil posible. Simplificando un poco, un buen sistema interactivo ayudará a un usuario a realizar una tarea compleja de una manera sencilla.

En la propuesta de la primera PEC hacemos una aproximación de análisis a proyectos interactivos.

Un saludo!

 

Debate0en PEC1. ¿Qué es la interacción tangible?

No hay comentarios.

Publicado por

Interacción tangible PEC1 – ¿Qué es la interacción tangible?

Publicado por

Interacción tangible PEC1 – ¿Qué es la interacción tangible?

1. Clasificación, análisis y reflexión Busqué todas las técnicas del temario del curso y fui pensando en algún ejemplo práctico que usara…
1. Clasificación, análisis y reflexión Busqué todas las técnicas del temario del curso y fui pensando en algún ejemplo…

1. Clasificación, análisis y reflexión

Busqué todas las técnicas del temario del curso y fui pensando en algún ejemplo práctico que usara alguna. Después, fui comprobando que no estaban mencionadas en los ejemplos antes de indagar más sobre ellas en Google.
Para hacer su análisis, comparé las técnicas y elementos que usaba cada proyecto con el temario.

Face projection mapping

Wildbytes comenzó haciendo escaneos 3D de la modelo, capturando su imagen utilizando luz estructurada y fotogrametría. A partir de ahí, se imprimió en 3D un busto de su cara que usaron para las pruebas y el desarrollo de los efectos de mapeo en posición estática. Después de eso, el equipo necesitaba lanzarse a las imágenes coloridas y caleidoscópicas que se proyectarían.

Más adelante trabajaron en el mapeo en tiempo real con un potente motor de renderizado 3D y el trackeo de la cara de la modelo con el sistema de ftrack.

Me parece el proyecto menos relevante, porque no ayuda con ningún problema de usabilidad o accesibilidad, los temas donde me gustaría centrarme.

Sensor de temperatura (domótica)

Los sensores de temperatura están formados por mecanismos muy sencillos constituidos por dos materiales combinados mediante uniones llamadas unión fría y unión caliente. El grado de temperatura que detectan estas uniones, genera una diferencia de potencial que se transforma en una señal eléctrica.

Los sensores de humedad nos dirán el porcentaje de vapor de agua que se encuentra en el ambiente.

El sensor de temperatura analiza dos niveles de temperatura: uno por debajo de la temperatura que se requiere para calefacción y otro por encima que activa el aire acondicionado de la vivienda.

Existen varios tipos de sensores de humedad, como mecánicos o de sales higroscópicas, y de temperatura, como Termopares o RTD.

El modelo de Xiaomi se conecta a dispositivos inteligentes a través de la app “Mi Bluetooth Gateway”.

No me parece demasiado relevante porque no es algo muy novedoso. A día de hoy hay multitud de fabricantes de este tipo de sensores.

Asistente de Google

El asistente utiliza un modelo de aprendizaje automático que convierte lo que se tararea o silba en una secuencia numérica. Después se compara dicha secuencia numérica con las secuencias de canciones existentes y ya escaneadas. Cuanto más coincidan ambas secuencias, más probabilidad hay de que sea la canción que se busca.

Dicen que han entrenado al modelo de aprendizaje basándose en personas cantando, silbando y tarareando y no tiene en cuenta los instrumentos o la calidad vocal de cada usuario.

Me parece bastante interesante, sobretodo el cómo es capaz de analizar la melodías con sólo un tarareo.

2. Análisis del proyecto elegido

Tobii dynavox TD Pilot

TD Pilot es un dispositivo para iPadOS que te permite generar de voz y controlar tu iPad con seguimiento ocular. Está diseñado para personas con discapacidad y dificultades para comunicarse como personas con afecciones como ELA, lesión de la médula espinal o parálisis cerebral. TD Pilot ayuda a estas personas a comunicarse, usar sus aplicaciones de iPad
favoritas y les permite que su voz se escuche alto y claro.

El dispositivo viene precargado con aplicaciones de CAA: TD Talk para personas alfabetizados o TD Snap para aquellos que utilizan la comunicación basada en pictogramas.

Mecanismos de la interacción y su usabilidad

  • Visión artificial, eye tracking
    El sistema de seguimiento ocular que usa es el Tobii IS5, compuesto por 4 sensores de 850nm (luz infraroja).
  • Tratamiento de datos
    Usa como periférico de entrada los sensores electrónicos del eye tracking para mostrar un cursor en la pantalla del iPad con el que interactuar con los elementos de la GUI. Como periféricos de salida se encuentran los altavoces integrados en el TD Pilot para dictar el mensaje del usuario en forma de audio y la pantalla en la parte posterior para reproducirlo en formato texto.

Análisis y descripción del diseño de interacción

TD Pilot es un dispositivo que te permite controlar un iPad y escribir mensajes con seguimiento ocular. TD Pilot captura el movimiento ocular del usuario gracias a sus 4 sensores infrarrojos y lo plasma con un cursor en pantalla, lo que permite interactuar sin necesitad de usar las manos con cualquier aplicación de tu iPad.

Por otro lado, también viene con 2 aplicaciones, TD Talk y TD Snap, que permiten al usuario introducir textos mediante caracteres o pictogramas y generar un mensaje de voz o reproducir el texto en la parte trasera del TD Pilot.

Diagrama de flujo

Valoración de la usabilidad y facilidad de uso

TD Pilot está diseñado para que las personas con discapacidad o dificultades para comunicarse puedan acceder y usar con mucha más facilidad cualquier aplicación que se pueda instalar en un iPad. Además, les ayuda a comunicarse con los demás pese a sus discapacidades.

Para ayudar a aprender a usar esta herramienta, tobii ha hecho una serie de vídeos guía y elpaquete viene con unas instrucciones detalladas. También tienen la app de TD CoPilot para ayudar con la calibración. Una vez configurado, iniciar el trackeo es bastante sencillo, sólo hay que encender el dispositivo.

El dispositivo se adapta a las necesidades de cada persona, por ejemplo, usando la entrada de texto de TD Talk o con pictogramas con TD Snap. Estas aplicaciones también se pueden utilizar con los dedos.

Opinión personal y aportaciones creativas

Personalmente me parece un producto fantástico y muy flexible, que se puede adaptar apersonas con distintas discapacidades o dificultades y les brinda una mayor calidad de vida.
Lo único que veo negativo es que sólo funciona con iPad, por lo que fuerza un poco a disponer de uno o tener que comprarlo.

3. Webgrafía y enlaces

  1. Wildbytes pioneers live facial projection mapping with ftrack – ftrack
  2. Wildbytes FACE PROJECTION MAPPING FOR PONDS
  3. Wildbytes Kat Von D’s Live Face Projection Mapping – Wildbytes
  4. Domótica para control de temperatura y humedad (hogarsense.es)
  5. Xiaomi Mi Temperature and Humidity Monitor 2 – Termómetro/Higrómetro (tuxiaomi.es)
  6. El buscador de Google ahora es capaz de encontrar una canción con sólo tararearla o silbarla (xataka.com)
  7. Google introduce Hum to Search – «Hey Google, what’s that song that goes na na doo da?» – RouteNote Blog
  8. Tobii gives disabled users the power to control iPads with their eyes (newatlas.com)
  9. TD Pilot – seguimiento ocular disponible en iPad – Seguidor ocular #1 en el mundo – Tobii Dynavox ES
  10. TD Pilot – Tobii Dynavox ES
  11. TD Talk
  12. TD Snap
  13. TobiiDynavox_TDPilot_UsersManual_v1-0-5_es-MX_13000444.pdf (mytobiidynavox.com)
  14. Tobii Eye Tracker 5L | Engineered for innovation – Tobii – Tobii
  15. TD Pilot Product Support – Tobii Dynavox Global

4. Archivo PDF

Debate0en Interacción tangible PEC1 – ¿Qué es la interacción tangible?

No hay comentarios.

Publicado por

PEC1: ¿Qué es la interacción tangible?

PEC1: ¿Qué es la interacción tangible?
Publicado por

PEC1: ¿Qué es la interacción tangible?

PEC1: ¿Qué es la interacción tangible? Los sistemas englobados dentro de la interacción tangible se pueden aplicar en proyectos de investigación de…
PEC1: ¿Qué es la interacción tangible? Los sistemas englobados dentro de la interacción tangible se pueden aplicar en proyectos…

PEC1: ¿Qué es la interacción tangible?

Los sistemas englobados dentro de la interacción tangible se pueden aplicar en proyectos de investigación de diferentes áreas como son, por ejemplo: Educación, entretenimiento, museos y exposiciones, arte digital, salud digital o arquitectura. En este caso, analizaremos un proyecto de interacción tangible con fuerza dentro del área de los museos y del arte digital.

Museos, arte e interacción tangible: Light Bearers

Light Bearers fue una exposición interactiva que utilizaba sensores infrarrojos, bombillas con agua tónica, bombillas reflectoras y un sistema de tres láseres invisibles conectados a un enrutador de red.

¿Con qué motivo? Una exposición interactiva en el Montreal Insectarium Espace, en la que sus autores, Mathieu Le Sourd y Etienne Paquette, querían plasmar de forma poética el movimiento de las luciérnagas en una noche de verano.

Los visitantes interactúan con unos tocones de madera con la silueta de una mano en los que se encuentran instalados los sensores IR. Gracias a esta silueta, los visitantes entienden cómo pueden interactuar con la exposición: con las manos, a partir de movimientos.

Una vez los visitantes comienzan a mover los dedos y la mano sobre los sensores IR, los tres láseres invisibles comienzan a moverse al ritmo de los movimientos que realizan los visitantes. Al impactar sobre las bombillas reflectantes, el visitante puede ver como las luces que representan a las luciérnagas se mueven por el campo de flores.

 

 

Técnicas utilizadas y análisis de la interacción

Se utiliza un sensor de movimiento (PIR) para detectar el movimiento de las manos de los visitantes en un ángulo proyectado hacia arriba (cuando la mano se sitúa sobre el tocón de madera). Los PIR miden la luz infrarroja que irradian los objetos que se encuentran en su ángulo de visión.

Esta captura de movimiento genera una instrucción mediante Arduino para que unos láseres invisibles situados en el techo se activen y reaccionen al movimiento (ritmo, velocidad, dirección) que el visitante realiza con las manos.

El haz de luz de los láseres rebota contra las bombillas reflectantes, en las que el visitante podrá ver la representación física del movimiento que está realizando dentro del diorama de bulbos creado para la exposición.

A la vez que se genera el efecto lumínico, también se genera un efecto de sonido, lo que hace que la experiencia sea más inmersiva.

 

Descripción de la interacción y del funcionamiento del diseño

Para activar la interacción, el usuario tiene que situar la mano encima de la silueta con forma de mano que hay sobre el tocón de madera. Una vez el usuario sitúe ahí su mano activará los sensores de detección de movimiento por infrarrojo. El movimiento se traducirá en una entrada de datos que pueden transformarse según las necesidades del proyecto, en este caso, la activación de los láseres y la generación de sonido.

El sonido y la luz generada por el movimiento será suficiente para que el visitante entienda el efecto de su interacción en el conjunto de la obra.

Para realizar el diseño de interacción de Light Bearers, se ha utilizado el entorno de hardware libre Arduino. Al ser una obra con un enfoque artístico, la robustez y solidez del proyecto no son tan cruciales como en el caso de fabricación industrial, por lo que las plataformas Open Source tanto de software como de hardware, son adecuadas para esta exposición.

 

Diagrama de flujo de Light Bearers

 

Usabilidad y accesibilidad (aprendizaje y facilidad de uso)

Tal y como hemos aprendido en diseño de interacción, la evaluación de usabilidad debería realizarse por medio de test con usuarios para verificar su eficacia, eficiencia y la satisfacción del proyecto.

Desde mi punto de vista, y sin evaluar in situ la exposición, la silueta de la mano puede dar a entender al usuario que tiene que apoyar su mano encima del tocón para interactuar con la exposición, en vez de realizar movimientos en el rango de actuación de los sensores, por lo que quizá no se esté utilizando la señalética adecuada.

En relación a la accesibilidad, la interacción con esta exposición es accesible para un número elevado de personas. Si bien es cierto que la exposición tiene un impacto muy potente a nivel visual, personas con discapacidad visual también podrían disfrutar de esta exposición gracias a la generación de sonido a partir del movimiento.

Probablemente, habría que adaptar el espacio para que cualquier persona en situación de discapacidad pudiera acceder a la sala sin problemas, por ejemplo, utilizando rampas y pasamanos de doble altura para personas con movilidad reducida.

Además, aunque requiera movimiento físico, este es mínimo, generándose el efecto en el momento en que el sensor de infrarrojos se activa, por lo que es también accesible para personas mayores, personas neurodivergentes y niños pequeños.

Por lo que a nivel de accesibilidad, podemos decir que la interacción es asequible, atractiva, funcional, respetuosa con la diversidad y sostenible.

 

Flexibilidad

En cuanto a la flexibilidad, si bien es flexible en cuanto a su interacción, puede llegar a ser difícil de instalar y transportar a otros museos, ya que el campo de bulbos de flores, está formado por 2500 bombillas y varillas metálicas, lo que puede dificultar su transporte debido a su fragilidad.

Tanto los sensores instalados en los tocones de madera como los láser y altavoces, pueden ser transportados de forma bastante sencilla a diferentes instalaciones.

En cuanto a la flexibilidad del proyecto en sí, fijándonos en las alteraciones o modificaciones que podrían realizarse, creo que al ser un prototipo con una lógica tan simple y que funciona tan bien, va a responder muy bien a cualquier tipo de modificación o añadido que se quiera hacer sobre la base.

 

Robustez y coherencia

Si bien se utilizan tecnologías Open Source, Arduino es perfecto para proyectos artísticos y, además, el hardware de Arduino lleva utilizándose unos años en contextos de producción industrial (con ciertas particularidades).

En cuanto a coherencia con la propuesta del proyecto, la exposición funciona como un sistema con una identidad única, capaz de transmitir el vuelo de las luciérnagas de una forma poética. El sonido, la iluminación y el uso de la luz negra para resaltar el “campo de flores”, dotan a la exposición de una fuerza expresiva muy alta.

 

Valoración personal y aportaciones creativas

Quería elegir un proyecto inmersivo, no muy complejo y que pudiera tener un impacto expresivo alto en el público. Creo que este entorno interactivo consigue una fuerza expresiva muy alta con un pequeño (pero irreemplazable) esfuerzo a nivel de hardware y software.

Como aportación creativa, opino que sería muy interesante añadir ciertos elementos para mejorar la inmersión. Por ejemplo, más sonidos de la naturaleza o la utilización de proyectores en el techo que se activen mediante sensores de movimiento en toda la sala (no únicamente con el movimiento de las manos).

Como aporte, creo que este tipo de exposición podría complementarse muy bien con la zona de Avatar (Pandora) en el parque de atracciones de Disney World (podemos ver algunas imágenes a la derecha).

Pensar en una sala oscura en la que un entorno surrealista basado en la naturaleza cambie con las acciones de los visitantes, genera una imagen muy potente.

Mundo de Pandora (Avatar) en Disney World.

 

http://www.maotik.com/lightbearers/

Debate0en PEC1: ¿Qué es la interacción tangible?

No hay comentarios.

Publicado por

¡Bienvenidos y bienvenidas!

¡Bienvenidos y bienvenidas!
Publicado por

¡Bienvenidos y bienvenidas!

¡Hola! Esta publicación se ha generado automáticamente en el Ágora. Te encuentras en el Ágora de la asignatura. En este espacio se…
¡Hola! Esta publicación se ha generado automáticamente en el Ágora. Te encuentras en el Ágora de la asignatura. En…

¡Hola!

Esta publicación se ha generado automáticamente en el Ágora.

Te encuentras en el Ágora de la asignatura. En este espacio se recogerán todas las publicaciones relacionadas con las actividades que hagan los compañeros y compañeras del aula a lo largo del semestre.

El Ágora es un espacio de debate en el que estudiantes y docentes pueden ver, compartir y comentar los proyectos y las tareas de la asignatura.

Si solamente ves esta publicación, puede ser porque todavía no se ha hecho ninguna más, porque no has entrado con tu usuario de la UOC o porque no perteneces a esta aula. Si no eres miembro de la UOC y ves alguna publicación, es porque su autor o autora ha decidido hacerla pública.

¡Esperamos que esta Ágora sea un espacio de debate enriquecedor para todos y todas!

Debate0en ¡Bienvenidos y bienvenidas!

No hay comentarios.

Las intervenciones están cerradas.