{"id":90285,"date":"2011-07-01T00:00:00","date_gmt":"2011-07-01T00:00:00","guid":{"rendered":"http:\/\/revistapesquisa.fapesp.br\/2011\/07\/01\/atencion-virtual\/"},"modified":"2017-02-21T17:47:13","modified_gmt":"2017-02-21T20:47:13","slug":"atencion-virtual","status":"publish","type":"post","link":"https:\/\/revistapesquisa.fapesp.br\/es\/atencion-virtual\/","title":{"rendered":"Atenci\u00f3n virtual"},"content":{"rendered":"<p><a href=\"http:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2011\/07\/art4478img11.jpg\" rel=\"attachment wp-att-99850\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter wp-image-99850\" src=\"http:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2011\/07\/art4478img11.jpg\" alt=\"art4478img1\" width=\"580\" height=\"241\" srcset=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2011\/07\/art4478img11.jpg 620w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2011\/07\/art4478img11-120x50.jpg 120w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2011\/07\/art4478img11-250x104.jpg 250w\" sizes=\"auto, (max-width: 580px) 100vw, 580px\" \/><span class=\"media-credits-inline\"> JOS\u00c9 DE MARTINO \/ UNICAMP<\/span><\/a>En poco tiempo m\u00e1s, una extracci\u00f3n de dinero, un pago o cualquier movimiento bancario realizado en una m\u00e1quina de atenci\u00f3n electr\u00f3nica podr\u00e1 transformarse en una experiencia distinta de la actual. En lugar de digitar mandos e interactuar fr\u00edamente con la pantalla del cajero autom\u00e1tico, el usuario tendr\u00e1 una vivencia de atenci\u00f3n parecida a la que realiza un empleado de carne y hueso de una sucursal bancaria. La persona ser\u00e1 &#8220;atendida&#8221; por la imagen de un bancario virtual, cuyo rostro surgir\u00e1 en la pantalla de la m\u00e1quina y lo instruir\u00e1 verbalmente acerca de qu\u00e9 debe hacer. Este empleado virtual podr\u00e1 estar presente en los celulares, verbalizando mensajes que actualmente se env\u00edan por escrito, o en <em style=\"font-size: 13px; line-height: 19px;\">websites<\/em><span style=\"font-size: 13px; line-height: 19px;\">, ayudando a los usuarios a hacer reservas de pasajes a\u00e9reos, concertando consultas m\u00e9dicas y otros diversos servicios realizados actualmente por medio de men\u00fas, una tarea aparentemente trivial para muchos, pero que a\u00fan causa dolores de cabeza a personas no familiarizadas con esas tecnolog\u00edas o con discapacidad de lectura y limitaciones f\u00edsicas, por ejemplo.<\/span><\/p>\n<p>\u00c9ste es el escenario proyectado por un d\u00fao de investigadores de la Universidad Estadual de Campinas (Unicamp) responsable del desarrollo de un m\u00e9todo de animaci\u00f3n facial videorrealista, elaborado con base en im\u00e1genes del rostro humano \u2013 no dibujadas con ayuda de la computaci\u00f3n gr\u00e1fica \u2013, que crea y reproduce en caras virtuales los detalles y los matices que se observan en rostros reales. El objetivo de esta innovaci\u00f3n, que recibi\u00f3 el nombre de AnimaFace2D, es convertir a la interacci\u00f3n con la computadora y otros dispositivos electr\u00f3nicos en una parecida a la que se establece durante una conversaci\u00f3n cara a cara. &#8220;El sistema que creamos podr\u00e1 soportar el desarrollo de interfaces humano-ordenador m\u00e1s intuitivas, eficientes y cautivantes, lo que representa una alternativa a los aplicativos m\u00e1s tradicionales, que se apoyan en el uso de ventanas, \u00edconos, men\u00fas, teclado y <em>mouse<\/em>&#8220;, dice el ingeniero electricista Jos\u00e9 Mario De Martino, corresponsable de la investigaci\u00f3n y docente de la Facultad de Ingenier\u00eda El\u00e9ctrica y de Computaci\u00f3n de la Unicamp. &#8220;La conversaci\u00f3n con un rostro humano es un proceso eficiente e intuitivo. Creo que las personas virtuales constituyen una alternativa prometedora para la creaci\u00f3n de interfaces de comunicaci\u00f3n en diferentes tipos de dispositivos y aplicaciones.&#8221;<\/p>\n<p>El resultado final del proceso de animaci\u00f3n facial creado en la Unicamp es un conjunto de im\u00e1genes fotogr\u00e1ficas de una cara real que, al ser procesadas y presentadas en secuencia y a un ritmo apropiado, transmiten la sensaci\u00f3n de movimiento, como si fuese una persona hablando en vivo. Para generar una imagen hablante videorrealista, la tecnolog\u00eda recurre a una base de 34 fotograf\u00edas de distintas posturas labiales, los llamados visemas. Cada uno de \u00e9stos puede asociarse a un conjunto de fonemas de nuestro idioma. Por ende, cada visema es la representaci\u00f3n visual de la posici\u00f3n articulatoria de la boca para la producci\u00f3n ac\u00fastica de los fonemas. La identificaci\u00f3n de los visemas fue producto de una investigaci\u00f3n que involucr\u00f3 el an\u00e1lisis del movimiento articulatorio durante la producci\u00f3n de los fonemas del portugu\u00e9s hablado en Brasil realizada por De Martino.<\/p>\n<p><strong>Fotograf\u00edas sincronizadas<br \/>\n<\/strong>La ingeniera electricista Paula Dornhofer Costa, alumna de doctorado bajo supervisi\u00f3n del profesor De Martino, emple\u00f3 la definici\u00f3n de los visemas para identificar el conjunto de 34 fotograf\u00edas del rostro de una persona real utilizadas para la s\u00edntesis de la animaci\u00f3n. Esas 34 im\u00e1genes hacen posible la sincronizaci\u00f3n entre los movimientos labiales del rostro virtual y el habla, generando as\u00ed una animaci\u00f3n cercana a la de un interlocutor que habla en vivo. Trazando un paralelo con el universo de los doblajes de pel\u00edculas, la correcta identificaci\u00f3n y la perfecta secuencia de los visemas evitan la falta de sincron\u00eda entre el habla y la articulaci\u00f3n labial. De acuerdo con el profesor de la Unicamp, el <em>software<\/em> desarrollado es in\u00e9dito en Brasil. Los sistemas similares que existen en el exterior, todav\u00eda no comerciales, se destinan a otros idiomas.<\/p>\n<p>&#8220;Todo el estudio relacionado con el desarrollo de la tecnolog\u00eda se hizo en Brasil y se centr\u00f3 en nuestra realidad, sobre todo en nuestra lengua y sus particularidades&#8221;, afirma De Martino. &#8220;No contamos con la colaboraci\u00f3n de investigadores extranjeros. La \u00fanica e importante colaboraci\u00f3n que tuvimos fue a la fundaci\u00f3n CPqD, de Campinas, que contribuy\u00f3 con la beca de maestr\u00eda, apoy\u00f3 la implementaci\u00f3n del sistema piloto y permiti\u00f3 el uso del sintetizador de texto \u2013 CPqD Texto Fala \u2013 [CPqD Texto Habla]&#8221;. El <em>software<\/em> empleado en este sistema piloto fue registrado en el Instituto Nacional de Propiedad Industrial (INPI) y est\u00e1 listo para su uso comercial. &#8220;Tenemos un fuerte inter\u00e9s en establecer asociaciones con empresas interesadas en explotar la tecnolog\u00eda&#8221;, dice.<\/p>\n<p>&#8220;Esta tecnolog\u00eda ser\u00e1 presentada a expertos del mercado en agosto de este a\u00f1o, y creemos que le interesar\u00e1 a las empresas que trabajan con la interfaz hombre-m\u00e1quina, tales como las de automaci\u00f3n bancaria, <em>e-commerce <\/em>y turismo, entre otras&#8221;, dice Giancarlo Stefanuto, coordinador cient\u00edfico del proyecto intitulado Movilizaci\u00f3n Empresarial para la Innovaci\u00f3n (Mepi) de Inova, la Agencia de Innovaci\u00f3n de la Unicamp, que administra los derechos de propiedad intelectual y la b\u00fasqueda de interesados en licenciar o crear una empresa para comercializar ese <em>software<\/em>. &#8220;Nos dimos cuenta de que existe un mercado en expansi\u00f3n para <em>software<\/em> de animaci\u00f3n de expresiones faciales, como el desarrollado en la Unicamp. La interfaz hombre-m\u00e1quina se est\u00e1 volviendo cada vez m\u00e1s personalizada, e innovaciones como \u00e9sta tienden a tener una buena demanda en el futuro. Para nosotros, \u00e9sta es una l\u00ednea de investigaci\u00f3n estrat\u00e9gica, pero, para que la tecnolog\u00eda salga al mercado, a\u00fan se hacen necesarios algunos ajustes y adaptaciones. Debe ser m\u00e1s amigable, tener interfaces m\u00e1s intuitivas y requiere de un tutorial y un manual&#8221;, dice Stefanuto. &#8220;La expansi\u00f3n del mercado es producto de la percepci\u00f3n de los expertos de Inova, comprobada por el propio investigador en foros internacionales en donde la tecnolog\u00eda es debatida.&#8221;<\/p>\n<p>Los sistemas de animaci\u00f3n facial podr\u00e1n tener en el futuro diversos tipos de aplicaciones, entre ellos la creaci\u00f3n de avatares, personajes o actores virtuales en juegos o videos comerciales, la elaboraci\u00f3n de agentes personificados virtuales, tales como vendedores, tutores, empleados de soporte, gu\u00edas virtuales y presentadores de noticias, entre otros. Podr\u00e1n usarse tambi\u00e9n como herramientas de estudio y capacitaci\u00f3n de lectura labial. La tecnolog\u00eda tiene caracter\u00edsticas que hacen posible su adaptaci\u00f3n a diversas plataformas de procesamiento, tales como tel\u00e9fonos celulares, <em>smartphones <\/em>y <em>tablets<\/em>. &#8220;Es posible imaginar una aplicaci\u00f3n en la que los usuarios de celulares suscribir\u00edan un servicio de noticias a cargo de un presentador sintetizado en los propios aparatos, por ejemplo. Las ventajas tienen que ver con que las noticias podr\u00edan enviarse en formato de texto a los celulares, y el sistema se encargar\u00eda de hacer la conversi\u00f3n autom\u00e1tica del texto en habla visual. Adem\u00e1s de abaratar el servicio \u2013 el env\u00edo de caracteres tiene un costo menor que el de im\u00e1genes \u2013, no ser\u00eda necesario gravar el video de un presentador de noticias todos los d\u00edas o por cada bolet\u00edn&#8221;, explica De Martino.<\/p>\n","protected":false},"excerpt":{"rendered":"Un sistema puede volver m\u00e1s intuitiva la interacci\u00f3n con las computadoras","protected":false},"author":23,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[192],"tags":[288],"coauthors":[116],"class_list":["post-90285","post","type-post","status-publish","format-standard","hentry","category-tecnologia-es","tag-computacion"],"acf":[],"_links":{"self":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/90285","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/users\/23"}],"replies":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/comments?post=90285"}],"version-history":[{"count":0,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/90285\/revisions"}],"wp:attachment":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/media?parent=90285"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/categories?post=90285"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/tags?post=90285"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/coauthors?post=90285"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}