Imprimir Republicar

BOAS PRÁTICAS

Confidencialidade em risco

Agência proíbe revisores de submeterem o conteúdo de projetos a ferramentas de inteligência artificial

A National Science Foundation (NSF), principal agência de apoio à ciência básica dos Estados Unidos, publicou um memorando sobre o uso de ferramentas de inteligência artificial generativa em projetos e pedidos de financiamento apresentados por grupos de pesquisa e instituições científicas. As diretrizes determinam que os revisores estão proibidos de submeter a softwares de inteligência artificial disponíveis na internet, como o ChatGPT, o conteúdo total ou parcial das propostas que estão avaliando, além de registros associados a elas ou

materiais de seus pareceres. O compartilhamento de informações de propostas com ferramentas de tecnologia generativa “viola os princípios de confidencialidade e integridade do processo de avaliação de mérito da NSF”, segundo a agência.

De acordo com o memorando, existe o risco de que ideias originais de pesquisadores que ainda não foram divulgadas sejam apropriadas por outras pessoas depois de serem compartilhadas em ferramentas de inteligência artificial generativa. “Como resultado, a NSF não poderia preservar a confidencialidade da informação”, informa o documento. Acontece que a tecnologia incorpora informações submetidas a ela ao conjunto de dados utilizado para seu treinamento e aperfeiçoamento – e posteriormente, os dados podem subsidiar pesquisas feitas por outros usuários das ferramentas. De acordo com o memorando, apenas informações públicas podem ser submetidas pelos revisores a softwares de inteligência artificial.

A agência reconhece que os sistemas de inteligência artificial têm potencial para serem utilizados em seus processos. “Eles poderiam favorecer a criatividade e auxiliar no desenvolvimento de novos conhecimentos científicos, além de agilizar os processos da agência, aumentando a produtividade por meio da automatização de tarefas rotineiras”, diz o memorando.

As ferramentas podem ser usadas por pesquisadores na preparação de suas propostas, mas a NSF os encoraja a informar se e até que ponto recorreram a elas. O memorando alerta que há o risco de que esse tipo de tecnologia gere situações de má conduta, como plágio, fabricação e falsificação de dados e que “os proponentes são responsáveis pela precisão e autenticidade de sua proposta de envio em consideração para revisão de mérito”. A agência comunicou que está examinando continuamente esses riscos e não descarta publicar diretrizes adicionais.

Republicar