{"id":205407,"date":"2015-12-02T13:54:55","date_gmt":"2015-12-02T15:54:55","guid":{"rendered":"http:\/\/revistapesquisa.fapesp.br\/?p=205407"},"modified":"2015-12-02T13:54:55","modified_gmt":"2015-12-02T15:54:55","slug":"reconocimiento-de-ambiente","status":"publish","type":"post","link":"https:\/\/revistapesquisa.fapesp.br\/es\/reconocimiento-de-ambiente\/","title":{"rendered":"Reconocimiento de ambiente"},"content":{"rendered":"<div id=\"attachment_205408\" style=\"max-width: 300px\" class=\"wp-caption alignright\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-205408\" src=\"http:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2015\/12\/Capacete_EDU_1166.jpg\" alt=\"Un sensor con c\u00e1maras y equipos...\" width=\"290\" height=\"229\" srcset=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2015\/12\/Capacete_EDU_1166.jpg 290w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2015\/12\/Capacete_EDU_1166-120x95.jpg 120w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2015\/12\/Capacete_EDU_1166-250x197.jpg 250w\" sizes=\"auto, (max-width: 290px) 100vw, 290px\" \/><p class=\"wp-caption-text\"><span class=\"media-credits-inline\">EDUARDO CESAR<\/span>Un sensor con c\u00e1maras y equipos&#8230;<span class=\"media-credits\">EDUARDO CESAR<\/span><\/p><\/div>\n<p>Con base en una tecnolog\u00eda disponible en el mercado, el sensor Xbox Kinect, lanzado por Microsoft para videojuegos, cient\u00edficos de la Universidad de Campinas (Unicamp) desarrollaron un sistema, a\u00fan en etapa experimental, que convierte videos en informaci\u00f3n sonora para ayudar a discapacitados visuales en sus tareas cotidianas. La tecnolog\u00eda Kinect posee dos c\u00e1maras, una de ellas con un sistema que emite y captura luz infrarroja, reconocido por un algoritmo que confiere un valor de profundidad \u2013o distancia de la c\u00e1mara\u2013 por cada punto de la imagen. Con base en estos datos es posible detectar objetos y usuarios en el ambiente sin confundirse con sus contornos y variaciones de luces y colores. En el proyecto llevado adelante en la Unicamp en colaboraci\u00f3n con el investigador Dinei Flor\u00eancio, de Microsoft, se mont\u00f3 un prototipo que cuyo soporte es un casco de <em>skater<\/em>. Sobre el casco se ubic\u00f3 un sensor Kinect con ambas c\u00e1maras \u2013los elementos restantes que forman parte del aparatos original se quitaron\u2013 conectadas a una <em>laptop<\/em> con gran poder de procesamiento de informaci\u00f3n, aparte de un giroscopio, un aceler\u00f3metro y una br\u00fajula, dispositivos que registran conjuntamente alteraciones en la direcci\u00f3n de la cabeza.<\/p>\n<p>El usuario lleva la <em>laptop<\/em> \u00a0dentro de una mochila. \u201cLos datos del ambiente captados a trav\u00e9s de la c\u00e1mara se procesan en la computadora, que le devuelve la informaci\u00f3n al usuario en audio\u201d, dice Siome Klein Goldenstein, docente del Instituto de Computaci\u00f3n de la Unicamp y coordinador del proyecto, financiado por la FAPESP y Microsoft en el marco del Programa de Investigaci\u00f3n en Colaboraci\u00f3n para la Innovaci\u00f3n Tecnol\u00f3gica (Pite). El usuario cuenta tambi\u00e9n con aud\u00edfonos provistos de tecnolog\u00eda <em>bone conduction<\/em>: el audio se transmite a los o\u00eddos por la conducci\u00f3n del sonido a trav\u00e9s de los huesos del cr\u00e1neo. Esto permite que los o\u00eddos queden libres para escuchar otras fuentes sonoras del ambiente y no s\u00f3lo los <em>feedbacks<\/em> de audio que suministra el sistema, cosa que suceder\u00eda si se utilizasen <em>headphones<\/em> comunes.<\/p>\n<div id=\"attachment_205409\" style=\"max-width: 300px\" class=\"wp-caption alignleft\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-205409\" src=\"http:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2015\/12\/Capacete_EDU_1198.jpg\" alt=\"...que registran cambios en la direcci\u00f3n de la cabeza del usuario forma parte del prototipo de la Unicamp\" width=\"290\" height=\"194\" srcset=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2015\/12\/Capacete_EDU_1198.jpg 290w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2015\/12\/Capacete_EDU_1198-120x80.jpg 120w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2015\/12\/Capacete_EDU_1198-250x167.jpg 250w\" sizes=\"auto, (max-width: 290px) 100vw, 290px\" \/><p class=\"wp-caption-text\"><span class=\"media-credits-inline\">EDUARDO CESAR<\/span>&#8230;que registran cambios en la direcci\u00f3n de la cabeza del usuario forma parte del prototipo de la Unicamp<span class=\"media-credits\">EDUARDO CESAR<\/span><\/p><\/div>\n<p>Siome explica que durante el proyecto se estudiaron varios escenarios de uso para la tecnolog\u00eda. Una de las aplicaciones que ya est\u00e1n listas es un m\u00f3dulo de detecci\u00f3n y reconocimiento de personas en un ambiente cerrado. Para que el sistema efect\u00fae el reconocimiento, primero es necesario crear un registro de personas. \u201cUtilizamos una t\u00e9cnica de localizaci\u00f3n facial y empleamos un algoritmo para la clasificaci\u00f3n de cada una de las personas del registro\u201d, explica Laurindo de Sousa Britto Neto, doctorando del Instituto de Computaci\u00f3n de la Unicamp y participante en el proyecto. Cuando el usuario entra en un recinto con personas registradas previamente, el m\u00f3dulo de detecci\u00f3n y reconocimiento facial transmite la informaci\u00f3n al m\u00f3dulo de audio 3D, configurado para reproducir un sonido en la localizaci\u00f3n espacial de cada uno de los presentes en la sala. \u201cAl escuchar el nombre de cada una de las personas, el usuario sabr\u00e1 la posici\u00f3n exacta donde la misma se encuentra\u201d, explica Siome. \u201cEs como si el sonido saliera de la cabeza de la persona identificada por el m\u00f3dulo de detecci\u00f3n\u201d. El objetivo es hacer que el discapacitado pueda girar su rostro en la direcci\u00f3n correcta y comunicarse de la forma m\u00e1s natural posible.<\/p>\n<p>La t\u00e9cnica de audio 3D fue un cap\u00edtulo aparte en el desarrollo del proyecto, pues cada o\u00eddo reacciona de forma distinta a los est\u00edmulos del mundo externo, seg\u00fan Siome. La investigaci\u00f3n con audio 3D estuvo a cargo de Felipe Grijalva Ar\u00e9valo, ecuatoriano que lleg\u00f3 a Brasil en 2012 para hacer su maestr\u00eda bajo la direcci\u00f3n del profesor Luiz C\u00e9sar Martini, de la Facultad de Ingenier\u00eda El\u00e9ctrica y Computaci\u00f3n de la Unicamp, discapacitado visual que trabaja con investigaciones orientadas a ese p\u00fablico. Como cada cabeza tiene una anatom\u00eda distinta, es necesario recurrir a un proceso denominado personalizaci\u00f3n para generar audio 3D. \u201cEl abordaje m\u00e1s sencillo consiste en utilizar medidas ya conocidas de anatom\u00eda de la oreja y, con base en \u00e9stas, trazar un modelo de personalizaci\u00f3n\u201d, informa Felipe. El investigador estudi\u00f3 el tema durante la elaboraci\u00f3n de su tesina de maestr\u00eda, codirigido por Siome, y actualmente sigue trabajando con audio 3D en su tesis doctoral. Las pruebas se hicieron inicialmente con personas vendadas; en la pr\u00f3xima etapa, tras la aprobaci\u00f3n del comit\u00e9 de \u00e9tica de la Unicamp, se llevar\u00e1n a cabo con discapacitados visuales. Tras la realizaci\u00f3n de todos los experimentos necesarios para la validaci\u00f3n del nuevo sistema, podr\u00e1 compart\u00edrselo con toda la comunidad.<\/p>\n<p><strong>Un abordaje simplificado<br \/>\n<\/strong>Otra aplicaci\u00f3n que se encuentra en etapa de finalizaci\u00f3n es un sistema de ayuda a la navegaci\u00f3n capaz de informarle al usuario d\u00f3nde hay obst\u00e1culos en su camino. \u201cEl Kinect posicionado en la cabeza del discapacitado captar\u00e1 los cuadros del video que ser\u00e1n segmentados mediante algoritmos en diversos planos, tales como piso, puerta y escalera\u201d, explica Laurindo Neto. La informaci\u00f3n se le transfiere entonces en audio al usuario. El proyecto cont\u00f3 con la participaci\u00f3n de Vanessa Maike bajo la direcci\u00f3n de Maria Cecilia Baranauskas, del Instituto de Computaci\u00f3n (IC), quien trabaj\u00f3 en experimentos en el \u00e1rea de interfaces naturales que comprenden formas naturales de interacci\u00f3n entre personas y ordenadores, y de Anderson Rocha, tambi\u00e9n del IC, en la parte de biometr\u00eda.<\/p>\n<p>La idea de transformar im\u00e1genes en sonidos para discapacitados visuales no es nueva, pero las tecnolog\u00edas utilizadas por el grupo de investigaci\u00f3n de la Unicamp resultaron en un abordaje de reconocimiento m\u00e1s sencillo para el usuario, con reproducci\u00f3n del ambiente natural. El dispositivo m\u00e1s conocido en el mercado con ese concepto es el The vOICe, creado por Peter Meijer, del Laboratorio de Investigaciones Philips, en Holanda. Este sistema consiste en una c\u00e1mara com\u00fan acoplada a gafas \u2013tambi\u00e9n puede utilizarse la del <em>smartphone<\/em>\u2013, que captan las im\u00e1genes del ambiente, convertidas en im\u00e1genes por un ordenador y transmitidas mediante aud\u00edfonos. En este caso, la c\u00e1mara capta las escenas de izquierda a derecha, y el usuario recibe la informaci\u00f3n a trav\u00e9s del o\u00eddo izquierdo y del derecho alternadamente.<\/p>\n<p><strong>Proyectos<\/strong><br \/>\n<strong>1.<\/strong> Vista para ciegos: traducci\u00f3n de conceptos visuales 3D en informaci\u00f3n de 3D de audio (<a href=\"http:\/\/bv.fapesp.br\/pt\/auxilios\/48058\/visao-para-o-cego-traduzindo-conceitos-visuais-3d-em-informacoes-de-3d-de-audio\/\" target=\"_blank\">n\u00ba 2012\/50468-6<\/a>); <strong>Modalidad<\/strong> Investigaci\u00f3n en Asociaci\u00f3n para la Innovaci\u00f3n Tecnol\u00f3gica (Pite); <strong>Investigador responsable<\/strong> Siome Klein Goldenstein (Unicamp); <strong>Inversi\u00f3n<\/strong> R$ 32.648,40 (FAPESP) y R$ 32.648,40 (Microsoft).<br \/>\n<strong>2.<\/strong> Aprendizaje de m\u00e1quina en procesamiento de se\u00f1ales aplicado al audio espacial (<a href=\"http:\/\/bv.fapesp.br\/pt\/bolsas\/155525\/aprendizado-de-maquina-em-processamento-de-sinais-aplicado-ao-audio-espacial\/\" target=\"_blank\">n\u00ba 2014\/14630-9<\/a>); <strong>Modalidad<\/strong> Beca de Doctorado; Investigador responsable Luiz C\u00e9sar Martini (Unicamp); <strong>Becario<\/strong> Felipe Leonel Grijalva Ar\u00e9valo (Unicamp); <strong>Inversi\u00f3n<\/strong>R$ 136.000,80.<\/p>\n","protected":false},"excerpt":{"rendered":"Tecnolog\u00eda transforma im\u00e1genes en sonidos para ayudar deficientes visuales","protected":false},"author":22,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[1587,192,1574],"tags":[288],"coauthors":[115],"class_list":["post-205407","post","type-post","status-publish","format-standard","hentry","category-investigacion-en-colaboracion-para-la-innovacion-tecnologica-en","category-tecnologia-es","category-tecnologia-especial-es","tag-computacion"],"acf":[],"_links":{"self":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/205407","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/users\/22"}],"replies":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/comments?post=205407"}],"version-history":[{"count":0,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/205407\/revisions"}],"wp:attachment":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/media?parent=205407"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/categories?post=205407"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/tags?post=205407"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/coauthors?post=205407"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}