Soundsight

Entrevistamos al equipo de Soundsight JDA 2016

Aunque quedaron fuera de la fase final del James Dyson Award 2016 queremos saber más de los proyectos finalistas del concurso. En esta ocasión entrevistamos al equipo responsable de Soundsight .

¿Quiénes componen el equipo responsable de Soundsight? ¿Qué estudiáis?

El equipo de Soundsight lo componemos: Carlota Armillas, Laura Ben, David Gálvez, Patricia Marzo y José Manuel Trujillo. Los cinco somos estudiantes del Grado en Ingeniería en Diseño Industrial y Desarrollo del Producto en la Universidad de Cádiz, aunque algunos de nosotros tenemos interés en completar nuestros estudios en el doble grado de nuestra carrera actual con Ingeniería Mecánica. Actualmente, dos miembros del equipo, Patricia y Carlota, se encuentran de beca erasmus el presente curso.

De arriba a abajo e izda-dcha: David, Laura, Patricia, Carlota y José Manuel.
De arriba a abajo e izda-dcha: David, Laura, Patricia, Carlota y José Manuel.

¿Podéis explicar brevemente cómo funciona?

El producto está compuesto por unas gafas y un nanoPC, que hemos querido conectar entre sí por Bluetooth para evitar cables y lograr más autonomía y comodidad de la persona.

En las gafas están los sensores que captan la información del entorno. La información es enviada al nanoPC, donde ésta se procesa para finalmente ser traducida en unas ondas ultrasónicas comprensibles por el usuario. Las ondas se transmiten a través de unos piezoeléctricos situados en las patillas, en contacto con la cabeza. Una vez el usuario aprenda a interpretar las ondas (que es un proceso sencillo), será capaz de identificar los volúmenes y situarlos en el espacio 3D.

Además, hemos querido añadirle otras funciones, como un GPS, un localizador de amigos, reconocimiento facial, reconocimiento de ciertos objetos de uso cotidiano (como la marca de yogurt favorita) para facilitar el ir de compras, identificador de semáforos, luces y señales, llamada de emergencia… Esta parte de la interacción sí sería mediante control de voz, con un sistema parecido a Siri o Cortana, sencillo de usar.

El diseño ergonómico de las gafas (sobre todo la parte de las patillas y el apoyo en la nariz) se adapta a distintos contornos faciales y tamaños para que el producto pueda ser utilizado por el mayor número de personas posible. Los materiales seleccionados son suaves y ligeros, y el peso total de la estructura junto a la electrónica está repartido de forma equitativa para evitar un frontal muy cargado que cause molestias en el usuario.

El producto funciona gracias a unas baterías de grafeno, más ecológicas y duraderas que las convencionales, que garantizan un uso continuado de 24h. Se cargan mediante inducción en la propia funda del producto, que sirve a su vez como cargador y envase.

https://www.youtube.com/watch?v=xqI1xauMmCE

 

La idea de unas gafas de ayuda para invidentes es muy sorprendente. ¿Cómo surgió la idea?

Soundsight nació como un proyecto de clase en la asignatura de Diseño Ergonómico y Ecodiseño. Debíamos hacer un producto que sirviese para solucionar un problema ergonómico o ecológico. Queríamos que nuestro proyecto sirviese para mejorar la vida de las personas, y enmarcarlo en la corriente de diseño “Diseño para todos”, que busca que todas las personas tengan las mismas oportunidades. Estuvimos más de dos semanas descartando ideas, ya que ninguna nos parecía suficientemente buena u original.

La fecha límite se iba a acercando y éramos incapaces de decidirnos. Entonces, en un descanso de clases, una compañera empezó a hablar de cómo su abuela ciega crió a sus hijos y, casi sin darnos cuenta, empezamos a redactar una lista con todas las dificultades a las que se enfrenta un invidente en su día a día: dar un paseo, cruzar la calle, hacer la compra, distinguir dos botes de champú, esquivar obstáculos aéreos (como la rama de un árbol) o en el suelo (una piedra o una señal de tráfico), coger un objeto que se le ha caído y un largo etcétera de situaciones que para nosotros son de lo más cotidiano. De repente, lo vimos claro. Ese era el problema que queríamos solucionar. Queríamos mejorar la autonomía de las personas invidentes.

Pensamos en distintos aparatos colocados en distintas partes del cuerpo, pero después de hacer un estudio ergonómico y analizar la tecnología existente llegamos a la conclusión de que lo mejor era hacer un único producto y que fuese sencillo y cómodo de usar, unas gafas.
Soundsight

¿Tiene un matiz solidario? 

Para nosotros el diseño siempre tiene que estar orientado hacia el ser humano y su entorno a fin de mejorar su calidad de vida. El coste de las gafas, su durabilidad y su impacto medioambiental han sido puntos críticos muy importantes en la toma de decisiones.

Por ejemplo, decidimos utilizar baterías de grafeno, que son más sostenibles y duraderas, o materiales duraderos pero también de bajo impacto ambiental. Además, todas las piezas de las gafas se desmontan de forma sencilla para facilitar el reciclado, minimizando el uso de tornillos. Se ha reducido el número de piezas al mínimo posible, para evitar costes de fabricación que además empeorarían el impacto ambiental de Soundsight.

Nuestra prioridad era diseñar unas gafas que durasen el máximo posible, que fueran sencillas de entender, reutilizables y válidas para cualquier tipo de usuario, con un precio asequible y lo más ecológicas posible. Si eso se puede considerar matiz solidario, entonces sí que lo tiene.

Soundsight

¿Cómo puede el invidente sentir lo que tiene delante?

La tecnología que utiliza nuestro proyecto proviene de una tecnología existente llamada Eyesynth: “visión a través del oído”. Las gafas utilizan un conjunto de sensores para captar la información tridimensional del entorno, como, por ejemplo, obstáculos como muros o farolas, formas geométricas y distancias. Esta información se procesa en un microordenador (el “nanoPC”), que en nuestro caso está conectado mediante Bluetooth a las gafas para evitar cables molestos.

Como si se tratara del cerebro humano, el nanoPC transmite una respuesta sonora que se ejecuta a través de unos piezoeléctricos situados en contacto con la cabeza. El nervio coclear de la persona capta estos sonidos, de manera que el cerebro de la persona invidente es capaz de aprender el nuevo “lenguaje” y traducir los sonidos que escucha en volúmenes 3D, espacios abiertos… para intuir los elementos que le rodean. Por hacer una analogía, sería algo parecido a la forma que tienen los murciélagos para ver.

El lenguaje sonoro es muy fácil de entender y de automatizar, y además deja vía libre a los oídos, por lo que el usuario puede mantener conversaciones o realizar otras tareas sin requerir mucha concentración en utilizar las gafas.

¿Cuánto tiempo dedicasteis al proyecto? 

Según la planificación de la asignatura, el proyecto comenzaba unas tres semanas antes de la convocatoria de exámenes de Junio. Queríamos desarrollar un proyecto de calidad, por lo que cuidamos hasta el más mínimo detalle. Inevitablemente, un proyecto de calidad implica un gran número de horas dedicado al mismo. No recordamos exactamente cuánto tiempo le dedicamos, pero sí recordamos la gran cantidad de tutorías con nuestro profesor, pasar días enteros en la facultad, noches sin dormir y la entrega a última hora el día 1 de Julio. Y, después, tuvimos que seguir preparando la documentación y el vídeo para el concurso.

Soundsight

¿Qué os resulto más difícil? Parece muy complicado suplir las carencias de perder un sentido. ¿Cómo lo consigue Soundsight?

Lo más complicado fue encontrar una tecnología y una electrónica que sirviesen para nuestra aplicación.

En nuestro grado no se profundiza mucho en la electrónica, por lo que tuvimos que documentarnos bastante acerca de sensores y tamaños. Esto fue decisivo también a la hora de escoger entre hacer unas gafas y otro objeto, ya que el rango de entorno que pudieran captar los aparatos electrónicos era determinante.

También resultó complicado el tema de las baterías, ya que para poder cumplir con todas sus funciones la batería debería ser muy potente. Realizamos un amplio análisis del mercado existente y de estudios sobre el tema de las baterías de grafeno de distintas universidades del mundo para llegar a una solución factible.

¿Cómo conocisteis el concurso?

Mediante el profesor Juan Antonio Molina Agea. El trabajo era para su asignatura, y viendo los avances y resultados obtenidos a lo largo de las tutorías nos motivó a presentarlo al James Dyson Award.

¿Podéis contarnos alguna curiosidad que os pasara cuando desarrollasteis el proyecto?

Un profesor nos recomendó que, en vez de las gafas, podríamos hacer una especie de trampa para las plagas de palomas que abundan en las grandes ciudades y cuya única solución actual es utilizar pinchos en las fachadas, que resultan bastante antiestéticos. Llegamos a meditarlo, pero la idea de hacer un “matapalomas” nos parecía un poco desagradable por lo que descartamos la idea.

También, a la hora de grabar el vídeo, la gente de la calle miraba el prototipo con curiosidad y se llegaron a escuchar algunas risitas o pitidos de coches que luego tuvimos que recortar del montaje. Por cierto, fueron necesarias seis horas para hacer los 16 segundos de vídeo donde se muestran las gafas girando.


Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *