{"id":507663,"date":"2024-03-29T10:29:09","date_gmt":"2024-03-29T13:29:09","guid":{"rendered":"https:\/\/revistapesquisa.fapesp.br\/?p=507663"},"modified":"2024-04-22T17:00:15","modified_gmt":"2024-04-22T20:00:15","slug":"desafios-a-la-hora-de-regular-el-uso-de-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/revistapesquisa.fapesp.br\/es\/desafios-a-la-hora-de-regular-el-uso-de-la-inteligencia-artificial\/","title":{"rendered":"Desaf\u00edos a la hora de regular el uso de la inteligencia artificial"},"content":{"rendered":"<p>En los \u00faltimos meses, representantes de los gobiernos de los 27 pa\u00edses de la Uni\u00f3n Europea, Canad\u00e1 y Brasil han trabajado arduamente en la elaboraci\u00f3n de directrices para el uso seguro de programas y aplicaciones que utilizan inteligencia artificial (IA). En junio, el Parlamento Europeo aprob\u00f3 la versi\u00f3n final de un proyecto de ley, denominado AI Act. Si los pa\u00edses miembros lo aprueban, quiz\u00e1 antes de fin de a\u00f1o podr\u00eda convertirse en la primera legislaci\u00f3n del mundo en materia de IA. En Brasil, el Congreso Nacional est\u00e1 tramitando al menos cuatro proyectos de ley (PL) con miras al establecimiento de una normativa referente al desarrollo, la implementaci\u00f3n y el uso de sistemas de IA, cuyo debate est\u00e1 previsto para este mismo a\u00f1o.<\/p>\n<p>La tarea de establecer normas para controlar el uso de programas de este tipo es compleja. La IA se ha incorporado a la ciencia, al sistema financiero, a la seguridad, a la salud, a la educaci\u00f3n, a la publicidad y al entretenimiento, la mayor\u00eda de las veces sin que el usuario se d\u00e9 cuenta. La regulaci\u00f3n debe establecer un equilibrio entre la minimizaci\u00f3n de los riesgos del uso indebido, evitar la discriminaci\u00f3n de grupos minoritarios de la poblaci\u00f3n y garantizar privacidad y la transparencia a los usuarios. Tambi\u00e9n debe preservar el espacio de la innovaci\u00f3n, seg\u00fan los expertos entrevistados para la elaboraci\u00f3n de este reportaje. Tampoco es posible prever todos los riesgos que puede acarrear el uso de estas tecnolog\u00edas.<\/p>\n<p>\u201cMantenerse en un terreno de incertidumbre regulatoria puede ser perjudicial para los ciudadanos\u201d, dice la abogada Cristina Godoy, de la Facultad de Derecho de Ribeir\u00e3o Preto de la Universidad de S\u00e3o Paulo (FDRP-USP), autora de un art\u00edculo publicado en octubre de 2022 en la <em>Revista USP<\/em> sobre los retos de la regulaci\u00f3n de la IA en el pa\u00eds. A finales de septiembre, ella presentar\u00e1 en un congreso que se llevar\u00e1 a cabo en Belo Horizonte los primeros resultados de una investigaci\u00f3n sobre el uso del reconocimiento facial, un tipo de IA, para la concesi\u00f3n de pr\u00e9stamos bancarios.<\/p>\n<p>En el estudio, realizado en las instalaciones del Centro de Inteligencia Artificial (C4AI) de la USP, financiado por IBM y la FAPESP, el 90 % de los demandantes en 2.300 casos presentados ante el Tribunal de Justicia del Estado de S\u00e3o Paulo (TJ-SP) no reconocen los pr\u00e9stamos aprobados mediante biometr\u00eda facial en las aplicaciones de los bancos. \u201cLas personas argumentan que no firmaron ning\u00fan documento y que no sab\u00edan que estaban contratando el servicio\u201d, informa la investigadora. Los datos forman parte del Observatorio Brasile\u00f1o de Inteligencia Artificial, un portal desarrollado junto al N\u00facleo de Informaci\u00f3n y Coordinaci\u00f3n del Punto BR (NIC.Br), cuyo lanzamiento est\u00e1 previsto para antes de fin de a\u00f1o.<\/p>\n<p>El TJ-SP suele fallar a favor de los bancos porque considera que la biometr\u00eda facial es una forma segura de sustituir la firma del cliente. Godoy discrepa: \u201cEsta tecnolog\u00eda a\u00fan presenta un alto \u00edndice de error\u201d. A su juicio, otro de los problemas es lo poco que se sabe sobre el funcionamiento de estos sistemas. \u201cNo hay claridad en cuanto a qu\u00e9 empresa se contrata para prestar este servicio, c\u00f3mo ha sido desarrollado, qu\u00e9 criterios adoptan para certificar si una persona es tal o no. Sin esta informaci\u00f3n, es dif\u00edcil que los ciudadanos puedan cuestionar a los bancos\u201d.<\/p>\n<p>El grupo de Godoy tambi\u00e9n analiz\u00f3 los sistemas de reconocimiento facial utilizados para identificar fraudes en los descuentos para estudiantes o ancianos en el transporte p\u00fablico en 30 ciudades brasile\u00f1as con m\u00e1s de un mill\u00f3n de habitantes. En la mayor\u00eda de ellas (el 60 %), el nivel de transparencia se consider\u00f3 muy bajo, ya que los ayuntamientos no revelaron c\u00f3mo se recababa y procesaba la informaci\u00f3n sobre los usuarios de autobuses y trenes, ni qu\u00e9 par\u00e1metros se utilizan para detectar fraudes. Los resultados se publicaron en noviembre de 2022 en las actas de la 11\u00aa Conferencia Brasile\u00f1a de Sistemas Inteligentes, celebrada en Campinas, en el interior paulista.<\/p>\n<p>Godoy aboga por una mayor transparencia en los programas de IA. Pero, seg\u00fan ella, no basta con informar si las aplicaciones utilizan las herramientas: tambi\u00e9n es necesario explicar c\u00f3mo funcionan, c\u00f3mo procesan la informaci\u00f3n y c\u00f3mo toman decisiones. Esta informaci\u00f3n ayudar\u00eda a evitar la discriminaci\u00f3n contra grupos vulnerables.<\/p>\n<p>Un ejemplo: investigadores de la Universidad Federal de Rio Grande do Norte (UFRN) analizaron los datos de la Red Observatorio de Seguridad, que supervisar\u00e1 los datos de seguridad p\u00fablica en ocho estados, y constataron que el 90 % de las 151 personas detenidas en el pa\u00eds en 2019 bas\u00e1ndose en im\u00e1genes aportadas por las c\u00e1maras de reconocimiento facial eran negras, seg\u00fan se detalla en un estudio publicado en julio de 2020 en la revista <em>Novos Olhares<\/em>.<\/p>\n<p>\u201cAl ser entrenados con bases de datos del pasado y del presente, los programas de inteligencia artificial a menudo pueden reproducir o amplificar patrones de discriminaci\u00f3n\u201d, sostiene el abogado Bruno Ricardo Bioni, director de la Asociaci\u00f3n de Investigaci\u00f3n Data Privacy Brasil y miembro del Consejo Nacional de Protecci\u00f3n de Datos Personales y de la Privacidad, organismo consultivo de la Autoridad Nacional de Protecci\u00f3n de Datos (ANPD).<\/p>\n<p>Bioni form\u00f3 parte de la comisi\u00f3n de expertos en derecho digital y civil convocada por el Senado Federal en marzo de 2022 para analizar los proyectos de ley sobre la regulaci\u00f3n de la IA. Uno de ellos, el PL 21\/20, fue muy criticado por ser demasiado gen\u00e9rico. Tras nueve meses de seminarios y audiencias p\u00fablicas, el equipo jur\u00eddico present\u00f3 un informe de 900 fojas con conceptos y sugerencias de principios por seguirse. Unas 20 p\u00e1ginas sirvieron como base para otro proyecto de ley, el 2338\/23, presentado en mayo por el senador Rodrigo Pacheco (del Partido Social Democr\u00e1tico, PSD, Minas Gerais), presidente del Senado. En julio, el senador Jorge Kajuru (del Partido Socialista Brasile\u00f1o, PSB, Goi\u00e1s) le solicit\u00f3 al Senado que otros proyectos similares, como el 5691\/19, el 21\/20 y el 2338\/23, se tramiten juntos. \u201cPara este segundo semestre del a\u00f1o se espera que el Parlamento pueda evaluar estos proyectos de ley en forma conjunta, tomando como base el 2338\/23, con el fin de aprobar una regulaci\u00f3n para el pa\u00eds\u201d, comenta Bioni.<\/p>\n<p>\u201cNo es posible concebir una propuesta de regulaci\u00f3n que sea una bala de plata, que equipare la gobernanza para todos los sectores\u201d, dice el abogado. Seg\u00fan \u00e9l, la soluci\u00f3n es crear una regulaci\u00f3n que clasifique los sistemas de IA seg\u00fan niveles de riesgo, el enfoque adoptado en la legislaci\u00f3n europea, sobre el cual se estructur\u00f3 el proyecto de ley 2338\/23.<\/p>\n<p>El AI Act de la Uni\u00f3n Europea propone que los sistemas de IA sean transparentes, rastreables, seguros, no discriminatorios y respetuosos de la privacidad de los ciudadanos, aunque a\u00fan no est\u00e1n claras las v\u00edas para alcanzar estos objetivos. Los programas tambi\u00e9n tendr\u00e1n que ser supervisados por expertos humanos, para evitar que las decisiones importantes sean tomadas enteramente por una m\u00e1quina. Las aplicaciones se clasificar\u00e1n conforme a cuatro categor\u00edas de riesgo: inaceptable y, por tanto, pasibles de prohibici\u00f3n; alto; limitado, sujeto a una normativa m\u00e1s laxa, y m\u00ednimo, sin obligaciones legales adicionales m\u00e1s all\u00e1 de la legislaci\u00f3n vigente. Los programas para coches aut\u00f3nomos, por ejemplo, figuran en la categor\u00eda de alto riesgo.<\/p>\n<p>Entre las aplicaciones de riesgo inaceptable est\u00e1n los programas de IA que clasifican a las personas en funci\u00f3n de su comportamiento o polic\u00eda predictiva para prevenir delitos. Es el caso de algoritmos como el denominado Compas (acr\u00f3nimo en ingl\u00e9s por Perfiles de Gesti\u00f3n de Delincuentes Correcionales para Sanciones Alternativas), utilizado en Estados Unidos para predecir la probabilidad de que los acusados vuelvan a delinquir. Estos programas incorporan un sesgo prejuicioso al se\u00f1alar como sospechosos de delitos a m\u00e1s personas negras que blancas. Su transparencia es baja, ya que la aplicaci\u00f3n la proporciona una empresa privada y su c\u00f3digo no es abierto.<\/p>\n<p>Las llamadas IA generativas, que aprenden a producir nuevos textos analizando los patrones que utilizan las personas para conectar palabras, ganaron un nuevo apartado en la propuesta tras las repercusiones de la aplicaci\u00f3n ChatGPT, lanzada en noviembre de 2022. Tendr\u00e1n que adoptar medidas de transparencia, dejando claro que su contenido ha sido generado por un sistema inform\u00e1tico inteligente, y estar programadas para evitar la creaci\u00f3n de contenido ilegal perjudicial, como proporcionar la f\u00f3rmula para fabricar una bomba. Los que presentan un riesgo limitado, como aquellos que crean im\u00e1genes y contenidos sint\u00e9ticos, tambi\u00e9n deben adoptar requisitos de transparencia.<\/p>\n<p>En Brasil, el proyecto de ley 2338\/23 sigue una l\u00f3gica similar, con dos niveles de grado de riesgo: excesivo, cuyas aplicaciones ser\u00e1n prohibidas, y de alto riesgo, que deben ser evaluadas y supervisadas antes y durante su uso. El primer caso incluye a los algoritmos que explotan vulnerabilidades sociales o promueven la clasificaci\u00f3n de personas por el Poder P\u00fablico para el acceso a bienes y servicios p\u00fablicos como prestaciones sociales, entre otros. Las aplicaciones de alto riesgo son programas inform\u00e1ticos que pueden tomar decisiones en \u00e1reas tales como la educaci\u00f3n, filtrando el acceso a las instituciones educativas, el trabajo, clasificando a quienes se postulan para cubrir ofertas de empleo, la salud, al realizar diagn\u00f3sticos m\u00e9dicos, y la seguridad social, concediendo beneficios, entre otros. Para evitar que el sistema de clasificaci\u00f3n se vuelva r\u00edgido y pueda adaptarse a un ambiente tecnol\u00f3gico din\u00e1mico, una futura autoridad de control, prevista en el proyecto, podr\u00e1 reevaluar el riesgo de una determinada aplicaci\u00f3n.<\/p>\n<p>\u201cEl PL n\u00ba 2338\/23 es el m\u00e1s completo, ya que trata sobre la categorizaci\u00f3n de los riesgos, y se ha amoldado a las tendencias legislativas sobre el tema, especialmente las de la Uni\u00f3n Europea, y, en lo que se refiere a los niveles de riesgo, constituye un delineamiento oportuno\u201d, sostiene el abogado Antonio Carlos Morato, de la Facultad de Derecho de la USP.<\/p>\n<p>\u201cLa propuesta europea con niveles de impacto diferenciados es un modelo interesante para utilizar como base para la discusi\u00f3n regulatoria en el pa\u00eds, pero es menester tener en cuenta que la realidad de esos pa\u00edses es muy diferente de la nuestra\u201d, dice el cient\u00edfico de la computaci\u00f3n Virg\u00edlio Almeida, de la Universidad Federal de Minas Gerais (UFMG) y coordinador del Centro de Innovaci\u00f3n en Inteligencia Artificial para la Salud (CIIA-Salud), uno de los Centros de Investigaciones en Ingenier\u00eda (CPE, por sus siglas en portugu\u00e9s) financiados por la FAPESP. \u201cAqu\u00ed tenemos grandes desigualdades sociales y necesitamos pensar en pol\u00edticas p\u00fablicas que eval\u00faen e incentiven tecnolog\u00edas automatizadas que no sustituyan a los trabajadores menos calificados, sino que promuevan su capacitaci\u00f3n\u201d.<\/p>\n<p>En un art\u00edculo publicado en febrero en la revista cient\u00edfica <em>IEEE Internet Computing<\/em>, \u00e9l y sus coautores proponen un modelo de gobernanza, que denominan corregulaci\u00f3n. El Gobierno establecer\u00eda directrices y pol\u00edticas p\u00fablicas, y les corresponder\u00eda a las empresas dise\u00f1ar y seguir sus propios mecanismos internos de gobernanza. \u201cLas tecnolog\u00edas de inteligencia artificial cambian muy r\u00e1pidamente y es dif\u00edcil hacer frente a todas estas transformaciones con una sola ley\u201d, pondera.<\/p>\n<p>El coordinador del Centro de Inteligencia Artificial de la USP, Fabio Gagliardi Cozman, advierte del riesgo de que las normas que vayan a establecerse inhiban la capacidad emprendedora: \u201cUna normativa muy restrictiva podr\u00eda impedir el desarrollo local de la innovaci\u00f3n y, al final, habr\u00eda que importar las tecnolog\u00edas\u201d, sostiene.<\/p>\n<p>El polit\u00f3logo Fernando Filgueiras, de la Universidad Federal de Goi\u00e1s (UFG), tambi\u00e9n se muestra preocupado por el impacto de la regulaci\u00f3n en la industria nacional: \u201cLa legislaci\u00f3n deber\u00eda ir asociada a mecanismos de incentivo a la investigaci\u00f3n y a la industria\u201d. Para Filgueiras, sin inversi\u00f3n en investigaci\u00f3n e industria nacional, las grandes corporaciones internacionales pueden estar mejor estructuradas para hacer frente a posibles sanciones, mientras que las peque\u00f1as y medianas empresas nacionales, con menos recursos, pueden quedar rezagadas. La \u201cEstrategia brasile\u00f1a de inteligencia artificial\u201d, que aborda cuestiones \u00e9ticas para que el gobierno avance en esta \u00e1rea, publicada en agosto de 2021 por el Ministerio de Ciencia, Tecnolog\u00eda e Innovaci\u00f3n (MCTI), podr\u00eda, a su juicio, ser un documento complementario a las normas que se implementen. Pero, como \u00e9l ya lo se\u00f1al\u00f3 en febrero de 2023 en la revista <em>Discover Artificial Intelligence<\/em>, el documento del Gobierno es gen\u00e9rico y no deja claro c\u00f3mo va a avanzar en este campo y c\u00f3mo pretende apoyar la investigaci\u00f3n en universidades y empresas. El MCTI no respondi\u00f3 a las solicitudes de aclaraciones solicitadas por <em>Pesquisa FAPESP<\/em>.<\/p>\n<p>Cristina Godoy, de la USP de Ribeir\u00e3o Preto, dice que la propuesta de la Uni\u00f3n Europea prev\u00e9 una evaluaci\u00f3n del impacto de la IA en las peque\u00f1as y medianas empresas, en caso de que se aprueben las medidas regulatorias, algo que no se incluye en el documento brasile\u00f1o. \u201cConociendo esta realidad, los gobiernos pueden calcular cu\u00e1nto necesitan invertir para apoyar la innovaci\u00f3n\u201d, se\u00f1ala.<\/p>\n<p>El AI Act europeo prev\u00e9 los llamados <em>sandbox<\/em> o ambientes de prueba de las regulaciones, en los que las <em>startups<\/em> podr\u00edan poner a prueba sus creaciones sin ser penalizadas ni multadas. En Brasil, el proyecto de ley 2338\/23 del Senado prev\u00e9 ambientes normativos experimentales similares, tambi\u00e9n supervisados por una autoridad competente por definirse. \u201cEs poco probable que estos espacios funcionen satisfactoriamente sin una perspectiva estrat\u00e9gica del presupuesto y de las \u00e1reas prioritarias por promoverse\u201d, advierte. Seg\u00fan ella, prever en qu\u00e9 \u00e1reas de la IA es m\u00e1s importante invertir puede hacer m\u00e1s eficiente este proceso para que las empresas puedan organizarse para participar en la captaci\u00f3n de fondos y, en consecuencia, probar posteriormente sus productos en estos ambientes <em>sandbox<\/em>. Ella apunt\u00f3 a este vac\u00edo de la estrategia nacional en su art\u00edculo en la <em>Revista USP<\/em>.<\/p>\n<p>Otro reto de la regulaci\u00f3n ser\u00e1 la supervisi\u00f3n de las instituciones p\u00fablicas y privadas. Los europeos crear\u00e1n un organismo espec\u00edfico para esta finalidad. En Brasil, el proyecto de ley contempla el establecimiento de una autoridad reguladora que, en principio, deber\u00eda ejercer un control sobre todas las \u00e1reas en las que se pueda aplicar la IA, cuyo nombramiento ser\u00e1 potestad del Poder Ejecutivo. Los expertos entrevistados para este reportaje atisban un movimiento de la ANPD, recientemente convertida en autarqu\u00eda, para absorber esta funci\u00f3n.<\/p>\n<p>Godoy considera que es un camino arriesgado. La permeabilidad de las aplicaciones de IA, que est\u00e1n en distintos sectores de la econom\u00eda, complicar\u00eda la tarea si se concentrara en un solo organismo. \u201cEs dif\u00edcil que pueda reunir toda la pericia necesaria, desde la salud a la educaci\u00f3n\u201d, dice.<\/p>\n<p>Como especialista en los impactos \u00e9ticos y sociales de la IA, Dora Kaufman, de la Pontificia Universidad Cat\u00f3lica de S\u00e3o Paulo (PUC-SP), dice que la creaci\u00f3n de una agencia reguladora nacional acaso sea inviable y sugiere esta misi\u00f3n podr\u00eda ser asumida por organismos sectoriales: el Banco Central (Bacen) podr\u00eda ocuparse del sector bancario y la Agencia Nacional de Vigilancia Sanitaria (Anvisa) de la salud.<\/p>\n<p>\u201cEn Estados Unidos no existe ni parece ser inminente que vaya a implementarse una regulaci\u00f3n federal\u201d, comenta. \u201cLa autoridad y la responsabilidad de la regulaci\u00f3n y gobernanza de la IA est\u00e1n repartidas entre las agencias federales\u201d. Los dos documentos que regulan el \u00e1rea \u2013el \u201cBlueprint for an AI bill of rights\u201d de la Casa Blanca y el \u201cNIST risk management framework\u201d del Instituto Nacional de Est\u00e1ndares y Teconolog\u00eda\u2013 son directrices voluntarias sin fuerza de ley.<\/p>\n<p>El cient\u00edfico de la computaci\u00f3n Andr\u00e9 Carlos Ponce de Leon Carvalho, del Instituto de Ciencias Matem\u00e1ticas y de la Computaci\u00f3n (ICMC) de la USP en S\u00e3o Carlos, plantea otra disyuntiva: \u201c\u00bfUna regulaci\u00f3n nacional podr\u00e1 resolver el problema o ser\u00e1 necesario un acuerdo internacional, como se hizo con la energ\u00eda nuclear?\u201d.<\/p>\n<p>Los expertos advierten que cualquier regulaci\u00f3n necesitar\u00e1 un tiempo de maduraci\u00f3n para que los parlamentarios conozcan mejor el tema y otros sectores de la sociedad empiecen a participar de los debates. \u201cUna regulaci\u00f3n prematura puede ser restrictiva para la innovaci\u00f3n y dejar desprotegida a la sociedad\u201d, subraya Kaufman. \u201cEl proceso es tan importante como el resultado final\u201d. Como ejemplos por recordarse, cita el Marco Civil de Internet, aprobado en abril de 2014 tras debates abiertos que comenzaron en 2009, y el proceso europeo de regulaci\u00f3n de la IA, cuya consulta p\u00fablica comenz\u00f3 en abril de 2021.<\/p>\n<div class=\"box\"><strong>Los niveles de riesgo de la ia en Europa y en Brasil<\/strong><\/p>\n<p><strong>COMUNIDAD EUROPEA<br \/>\n<\/strong>Ley de Inteligencia Artificial (IA Act)<\/p>\n<p><strong>\u25cf Inaceptable (prohibido)<br \/>\n\u2013 <\/strong>Algoritmos de calificaci\u00f3n social o que clasifiquen a los ciudadanos bas\u00e1ndose en su conducta o polic\u00eda predictiva<\/p>\n<p><strong>\u25cf <\/strong><strong>Riesgo alto: <\/strong>Se evaluar\u00e1n antes y despu\u00e9s de su comercializaci\u00f3n<br \/>\n<strong>\u2013 <\/strong>Sistemas de gesti\u00f3n de infraestructura (transporte, educaci\u00f3n) y de control de fronteras o asistencia jur\u00eddica<\/p>\n<p><strong>\u25cf <\/strong><strong>Riesgo limitado: <\/strong>Deben cumplir medidas m\u00ednimas de transparencia<br \/>\n<strong>\u2013 <\/strong>Programas que producen <em>deepfake<\/em> y <em>chatbots<\/em><\/p>\n<p><strong>\u25cf Riesgo m\u00ednimo: <\/strong>Sin obligaciones legales adicionales m\u00e1s all\u00e1 de la legislaci\u00f3n vigente<\/p>\n<p><strong>BRASIL<br \/>\n<\/strong>Proyecto de Ley n\u00ba 2338\/2023<\/p>\n<p><strong>\u25cf Prohibidos<br \/>\n\u2013 <\/strong>Programas de clasificaci\u00f3n social o que son capaces de manipular la conducta de poblaciones vulnerables<\/p>\n<p><strong>\u25cf Alto riesgo: <\/strong>Deben ser evaluados y supervisados antes y durante su uso<br \/>\n<strong>\u2013 <\/strong>Programas de selecci\u00f3n autom\u00e1tica de estudiantes, postulantes a empleos, solicitudes de cr\u00e9dito o beneficios de la seguridad social, diagn\u00f3sticos m\u00e9dicos, riesgo de delito y conducta delictiva, y veh\u00edculos aut\u00f3nomos<\/p>\n<p><strong>Fuentes: <\/strong>Parlamento Europeo y Pl 2330\/2023, Agencia Senado<\/div>\n<div class=\"box\"><strong>Las propuestas que se analizan en Brasil<\/strong><\/p>\n<p>El proyecto de regulaci\u00f3n no menciona las IA generativas de uso general, ya que el trabajo de los juristas fue anterior a la presentaci\u00f3n de ChatGPT, ni tampoco las utilizadas para crear <em>deepfakes<\/em>. Por ello, es probable a\u00fan incorpore otras modificaciones durante su tramitaci\u00f3n.<\/p>\n<p>Las aplicaciones que generan contenidos sint\u00e9ticos hiperrealistas, como las <em>deepfakes<\/em> de video o audio, son motivo de creciente preocupaci\u00f3n por su capacidad para generar desinformaci\u00f3n con contenidos falsos, que incluso pueden llegar a poner en peligro los procesos democr\u00e1ticos en las elecciones.<\/p>\n<p>Un anuncio reciente de un fabricante de autom\u00f3viles inclu\u00eda una imagen generada por <em>deepfake<\/em> de la cantante Elis Regina, fallecida en 1982, cantando con su hija Mar\u00eda Rita. En julio, el Consejo Nacional de Autorregulaci\u00f3n Publicitaria (Conar) abri\u00f3 un expediente para investigar el derecho a utilizar la imagen de Elis Regina. La pol\u00e9mica se ha extendido al Congreso Nacional: al menos dos proyectos de ley (el 3592\/23, del Senado, y el 3614\/23, en la C\u00e1mara de Diputados) proponen directrices para el uso de im\u00e1genes y audio de personas fallecidas mediante sistemas de IA.<\/p>\n<p>El abogado Antonio Carlos Morato, de la Facultad de Derecho de la USP, quien investiga los derechos de autor y la inteligencia artificial, no ve la necesidad de leyes espec\u00edficas para este tipo de uso: \u201cSin duda, el uso no autorizado puede evitarse con lo que ya tenemos en la Constituci\u00f3n Federal, el C\u00f3digo Civil y la Ley de Derechos de Autor. El Proyecto de Ley 3614\/23, por ejemplo, solamente pretende detallar lo que ya existe en el texto actual del C\u00f3digo Civil\u201d.<\/p>\n<p>Para \u00e9l, la autorizaci\u00f3n de los hijos para el comercial de la cantante fue v\u00e1lida, pues los derechos privados personales (que incluyen la imagen y la voz) ya est\u00e1n protegidos por la Constituci\u00f3n Federal y el C\u00f3digo Civil, y existe la posibilidad de su defensa por familiares hasta el cuarto grado despu\u00e9s de la muerte.<\/div>\n<p class=\"bibliografia separador-bibliografia\"><strong>Proyectos<\/strong><strong><br \/>\n1.<\/strong>\u00a0Centro de Inteligencia Artificial (<a href=\"https:\/\/bv.fapesp.br\/pt\/auxilios\/105714\/centro-de-inteligencia-artificial\/\" target=\"_blank\" rel=\"noopener\">n\u00ba 19\/07665-4<\/a>);\u00a0<strong>Modalidad<\/strong>\u00a0Centros de Investigaciones en Ingenier\u00eda (CPE);\u00a0<strong>Investigador responsable <\/strong>Fabio Gagliardi Cozman (USP);\u00a0<strong>Inversi\u00f3n<\/strong> R$ 7.102.736,09.<br \/>\n<strong>2.<\/strong>\u00a0La regulaci\u00f3n y la financiaci\u00f3n de la inteligencia artificial en Brasil (<a href=\"https:\/\/bv.fapesp.br\/pt\/pesquisa\/buscador\/?q2=(id_pesquisador_exact%3A717499)%20AND%20(*:*)\" target=\"_blank\" rel=\"noopener\">n<sup>o<\/sup>\u00a022\/12747-2<\/a>);\u00a0<strong>Modalidad<\/strong>\u00a0Becas en Brasil;\u00a0<strong>Investigadora<\/strong>\u00a0<strong>responsable<\/strong>\u00a0Cristina Godoy Bernardo de Oliveira (USP);\u00a0<strong>Inversi\u00f3n<\/strong> R$ 44.287,20.<br \/>\n<strong>3.<\/strong>\u00a0Centro de Innovaci\u00f3n en Inteligencia Artificial para la Salud (CIIA- Salud) (<a href=\"https:\/\/bv.fapesp.br\/pt\/auxilios\/110077\/centro-de-inovacao-em-inteligencia-artificial-para-a-saude-ciia-saude\/\" target=\"_blank\" rel=\"noopener\">n\u00ba 20\/09866-4<\/a>);\u00a0<strong>Modalidad<\/strong>\u00a0Centros de Investigaciones en Ingenier\u00eda (CPE);\u00a0<strong>Investigador responsable <\/strong>Virg\u00edlio Augusto Fernandes Almeida (UFMG);\u00a0<strong>Inversi\u00f3n<\/strong> R$ 1.683.839,04.<\/p>\n<p class=\"bibliografia\"><strong>Art\u00edculos cient\u00edficos<\/strong><strong><br \/>\n<\/strong>ALMEIDA, V.\u00a0<em>et al<\/em>.\u00a0<a href=\"https:\/\/ieeexplore.ieee.org\/document\/10044302\" target=\"_blank\" rel=\"noopener\">On the development of AI governance frameworks<\/a>.\u00a0<strong>IEEE Internet Computing<\/strong>. v. 27, n. 1, p. 70-4. ene. 2023.<br \/>\nBRAND\u00c3O, R.\u00a0<em>et al<\/em>.\u00a0<a href=\"https:\/\/doi.org\/10.1007\/978-3-031-21686-2_39\" target=\"_blank\" rel=\"noopener\">Artificial intelligence, algorithmic transparency and public policies: The case of facial recognition technologies in the public transportation system of large Brazilian municipalities<\/a>. Bracis 2022. Lecture notes in computer science.\u00a0<strong>Intelligent Systems.<\/strong>\u00a0v. 13653. nov. 2022.<br \/>\nFILGUEIRAS, F. y JUNQUILHO, T. A.\u00a0<a href=\"https:\/\/doi.org\/10.1007\/s44163-023-00052-w\" target=\"_blank\" rel=\"noopener\">The Brazilian (non)perspective on national strategy for artificial intelligence<\/a>.\u00a0<strong>Discover Artificial Intelligence<\/strong><em>.\u00a0<\/em>n. 3, v. 7. feb. 2023.<br \/>\nGODOY, C. B. O.\u00a0<a href=\"https:\/\/jornal.usp.br\/wp-content\/uploads\/2022\/12\/7-Cristina-Godoy.pdf\" target=\"_blank\" rel=\"noopener\">Desafios da regulaci\u00f3n do digital e da intelig\u00eancia artificial no Brasil.<\/a>\u00a0<strong>Revista USP<\/strong>. n. 135. oct. 2022.<br \/>\nMAGNO, M. E. da S. P. y BEZERRA, J. S.\u00a0<a href=\"https:\/\/www.revistas.usp.br\/novosolhares\/article\/view\/165698\" target=\"_blank\" rel=\"noopener\">Vigil\u00e2ncia negra: O dispositivo de reconhecimento facial e a disciplinaridade dos corpos<\/a>.\u00a0<strong>Novos Olhares<\/strong>. v. 9, n. 2. p. 45-52. jul. 2020.<br \/>\nVIEIRA, L. M.\u00a0<a href=\"https:\/\/lcv.fee.unicamp.br\/images\/BTSym-19\/Papers\/090.pdf\" target=\"_blank\" rel=\"noopener\">A problem\u00e1tica da intelig\u00eancia artificial e dos vieses algor\u00edtmicos: Caso Compas<\/a>. 2019 Brazilian Technology Symposium.<\/p>\n","protected":false},"excerpt":{"rendered":"Brasil debate la legislaci\u00f3n con miras a regular el uso de la inteligencia artificial","protected":false},"author":684,"featured_media":507664,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[192],"tags":[288,289,312,333],"coauthors":[2721],"class_list":["post-507663","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia-es","tag-computacion","tag-comunicacion","tag-innovacion","tag-tecnologia-de-la-informacion"],"acf":[],"_links":{"self":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/507663","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/users\/684"}],"replies":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/comments?post=507663"}],"version-history":[{"count":3,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/507663\/revisions"}],"predecessor-version":[{"id":509807,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/507663\/revisions\/509807"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/media\/507664"}],"wp:attachment":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/media?parent=507663"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/categories?post=507663"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/tags?post=507663"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/coauthors?post=507663"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}