Doutor em Direito pela Universidade de São Paulo, com período de sanduíche na Universidad Complutense de Madrid/ESP (bolsa PDSE/CAPES) e estágio de pós-doutoramento pela Universidade Federal do Rio de Janeiro. Mestre em Ciências Criminais pela PUCRS. Professor permanente do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa – IDP/DF (mestrado/doutorado) e da Faculdade de Direito da Universidade de São Paulo. Editor-chefe da RBDPP. Advogado. vinicius.vasconcellos@usp.br
Publicado em 20/12/2024
[Este trabalho foi publicado originalmente em: VASCONCELLOS, Vinicius G. Editorial – Inteligência artificial e coautoria de trabalhos científicos: discussões sobre utilização de ChatGPT em pesquisa e redação científicas. Revista Brasileira de Direito Processual Penal, vol. 9, n. 3, p. 1047-1057, set./dez. 2023. https://doi.org/10.22197/rbdpp.v9i3.913]
O avanço das tecnologias ocasiona relevantes e imprevisíveis impactos na vida humana em geral e na pesquisa científica especificamente. Assim, a sua publicação em revistas é impactada diretamente por inovações na forma de se fazer ciência. Em termos recentes, a propagação do uso de ferramentas de inteligência artificial, como ChatGPT, tem gerado discussões pertinentes em relação à sua possível contribuição à pesquisa e à escrita científica e, consequentemente, aos critérios de autoria e coautoria em trabalhos científicos. Por exemplo, se houver a utilização de ChatGPT para produção de parte do texto do artigo, para análise de dados, etc., o mecanismo deve ser listado como coautor do artigo?
Para instigar o debate, apresentamos esse questionamento ao próprio sistema (ChatGPT) e obtivemos uma resposta interessante, embora questionável, para a questão: “A decisão de incluir o ChatGPT como coautor em um artigo científico depende de vários fatores, incluindo o grau de contribuição do modelo para a pesquisa e redação do texto. O ChatGPT é uma ferramenta poderosa para auxiliar na geração de texto e na obtenção de informações, mas seu papel em um projeto de pesquisa pode variar. Aqui estão algumas considerações a serem feitas ao decidir se o ChatGPT deve ser incluído como coautor:
Contudo, a resposta retornada pelo ChatGPT não é compatível com a posição majoritária em termos de orientações internacionais de integridade científica.[3] Diante disso, este editorial pretende problematizar e sugerir, considerando o cenário atual, critérios para definição da coautoria em trabalhos científicos e o uso de ferramentas de inteligência artificial.
A utilização de mecanismos de inteligência artificial tem se disseminado no público científico, especialmente a partir da expansão do ChatGPT. A partir de um modelo estatístico e probabilístico, o sistema gera uma resposta ao comando inserido pelo usuário, desenvolvendo uma réplica ao questionamento que, em geral, apresenta encadeamento lógico e plausibilidade. Assim, com base nos comandos e informações providos ao sistema, forma-se um banco de dados que constantemente é atualizado e ampliado para fornecimento de respostas mais precisas.
Sem dúvidas, abre-se uma enorme gama de possibilidades e avanços nas diversas áreas das ciências, nas mais distintas etapas do processo de pesquisa, editoração e divulgação científicas.[4] O sistema pode revolucionar o modo de sistematização de dados, de consolidação de revisões bibliográficas, etc. Contudo, os riscos, especialmente no estágio atual do seu desenvolvimento, são relevantes e precisam sem ponderados, ainda mais ao se considerar a função da equipe editorial de periódicos científicos.[5]
Embora o sistema se aprimore diuturnamente e de um modo extremamente veloz, verifica-se que a resposta ao comando pode resultar comprometida por diversos motivos, como vieses e plágio, tendo em vista as informações que subsidiaram o seu treinamento.[6] Além disso, o modo de determinação do comando e até mesmo a ordem de sua inserção podem ocasionar respostas distintas e não diretamente relacionadas ao objeto questionado. Diante disso, já há autores que recomendam alterações nos mecanismos para adotar maiores proteções contra plágio e violações de direitos autorais.[7]
Na utilização dos sistemas, é fundamental considerar que toda a informação inserida no comando, como artigos e materiais científicos, será considerada na aprendizagem do algoritmo e, assim, poderá ser utilizada por ele em futuras respostas. Isso potencializa o risco de plágio com o passar do tempo. Portanto, autore/as, revisore/as e editore/as precisam adotar postura cautelosa em seu emprego, vedando-se a inserção no sistema de partes do texto em avaliação.
A WAME (Associação Mundial dos Editores em Medicina) esboçou recomendações sobre chatbots e inteligência artificial em manuscritos científicos: “1) Somente humanos podem ser autore/as; 2) Autore/as devem declarar as fontes de seus materiais; 3) Autore/as devem se responsabilizar publicamente por seus trabalhos; 4) Editore/as e revisore/as devem indicar especificamente para autores, e reciprocamente, o uso de chatbots na avaliação de manuscritos e redação de pareceres e correspondências; e, 5) Editore/as precisam de ferramentas digitais apropriadas para lidar com os efeitos de chatbots na publicação”.[8]
De modo semelhante, o COPE (Comitê de Ética na Publicação) adotou posição no sentido de que ferramentas de IA não cumprem os requisitos mínimos de autoria porque não assumem responsabilidade pelo trabalho submetido e não são capazes de constatar a presença ou ausência de conflitos de interesse ou problemas de direitos autorais e licenças. Também ressaltou que autore/as devem declarar como ferramentas de IA foram utilizadas na pesquisa e são responsáveis pelo trabalho integralmente, inclusive trechos eventualmente por elas produzidos.[9]
No mesmo sentido, a revista Nature, juntamente aos periódicos da Springer, alterou suas políticas editorias em sentido semelhante, a partir de dois princípios. Primeiramente, sistemas como ChatGPT não podem ser indicados como autores, visto que não são responsabilizáveis pela pesquisa e/ou texto. Além disso, autore/as que utilizem tais mecanismos devem declarar isso na seção de metodologia ou agradecimentos do artigo.[10]
Com relação à autoria, em editorial anteriormente publicado nesta Revista, assentou-se que, para poder ser considerado autor/a do trabalho, a/o pesquisador/a “deve cumprir requisitos básicos de atuação no sentido de: 1) contribuir efetivamente com a pesquisa (a) em sua concepção ou desenvolvimento, e (b) em sua redação e revisão crítica; 2) aprovar a versão final do artigo e concordar com as ideias sustentadas; e, 3) responsabilizar-se por garantir a integridade da pesquisa e do artigo em sua integralidade”.[11] Diante disso, no cenário atual da IA em chatbots, tais ferramentas não são capazes de aprovar a versão final do trabalho e concordar com as ideias sustentadas, tampouco de se responsabilizar pela integridade da pesquisa científica.
Para assegurar a transparência necessária à produção de conhecimento científico aberto, autore/as devem declarar a utilização de chatbots e mecanismos de inteligência artificial na redação de artigos e nas demais fases da pesquisa científica.[12] Tal declaração deve constar no item de metodologia do trabalho e/ou nos agradecimentos ao final do artigo. Para garantir a repetibilidade do processo, deve-se indicar o comando exato utilizado, qual ferramenta e a data da pesquisa realizada.
Por fim, pensa-se que as políticas aqui recomendadas para atuação de autore/as também se aplicam, na medida de suas respectivas atribuições, a revisore/as e editore/as. Portanto, todo/as a/os autore/as do processo editorial devem ser transparentes em relação à utilização de chatbots e mecanismos de inteligência artificial, responsabilizando-se pelo conteúdo gerado e informando aos demais o seu emprego.
Diante do exposto, considerando o cenário atual, pensa-se que as revistas científicas devem inserir normas em suas políticas editoriais e de integridade científica para regular questões de coautoria relacionadas ao uso de inteligência artificial, recomendando-se que: 1. mecanismos de inteligência artificial (como ChatGPT) não cumprem os requisitos para coautoria; 2. autore/as devem declarar (na metodologia ou nos agradecimentos) a utilização de mecanismos de inteligência artificial na redação do artigo e/ou nas demais fases da pesquisa científica; 3. autore/as são responsáveis por erros, plágios e outras más-práticas que eventualmente ocorram em suas pesquisas em razão da utilização de mecanismos de inteligência artificial.
Contudo, por óbvio, ressalta-se que este editorial pode ser rapidamente superado em suas conclusões, considerando-se a veloz alteração das premissas relacionadas às possibilidades e às capacidades das ferramentas de inteligência artificial na sociedade e na pesquisa científica.
COPE, Authorship and AI tools position statement. Feb. 13, 2023. Disponível em: <https://publicationethics.org/cope-position-statements/ai-author>. Acesso em: 12 ago. 2023.
LEVENE, Alysa. Artificial intelligence and authorship. COPE, Feb. 13, 2023. Disponível em: <https://publicationethics.org/news/artificial-intelligence-and-authorship>. Acesso em: 12 ago. 2023.
LIRA, R. P. C. et al. Challenges and advantages of being a scientific journal editor in the era of ChatGPT. Arquivos Brasileiros de Oftalmologia, v. 86, n. 3, p. 5–7, maio 2023. https://doi.org/10.5935/0004-2749.2023-1003
LOPES, Marcelo Frullani. Obras geradas por inteligência artificial: desafios ao conceito jurídico de autoria. 2021. Dissertação de Mestrado - Faculdade de Direito, Universidade de São Paulo, São Paulo.
NAGPAL, Arth. Authorship in works created by AI. Disponível em: <https://legaltechcenter.net/files/sites/159/2020/05/Authorship-in-Works-Created-by-Artificial-Intelligence.pdf>. Acesso em: 12 ago. 2023.
TOOLS such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, v. 613, p. 612, 2023. https://doi.org/10.1038/d41586-023-00191-1
THORP, Holden. ChatGPT is fun, but not an author. Science, vol. 379, n. 6630, p. 313, 2023. https://doi.org/10.1126/science.adg7879
VASCONCELLOS, V. G. de. Editorial: A função do periódico científico e do editor para a produção do conhecimento no Direito e nas ciências criminais. Revista Brasileira de Direito Processual Penal v. 3, n. 1, p. 9–17, 2017. https://doi.org/10.22197/rbdpp.v3i1.34
VASCONCELLOS, Vinicius G. Editorial – Autoria e coautoria de trabalhos científicos: discussões sobre critérios para legitimação de coautoria e parâmetros de integridade científica. Revista Brasileira de Direito Processual Penal, vol. 6, n. 1, jan./abr. 2020. https://doi.org/10.22197/rbdpp.v6i1.313
YOSHINARI JÚNIOR, Gerson H.; VITORINO, Luciano M. How may ChatGPT impact medical teaching? Revista da Associação Médica Brasileira, v. 69, n. 4, p. e20230282, 2023. https://doi.org/10.1590/1806-9282.20230282
ZIELINSKI, WINKER, AGGARWAL, FERRIS, HEINEMANN, LAPEÑA, PAI, ING, CITROME, ALAM, VOIGHT, HABIBZADEH. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME, May 31, 2023. Disponível em: <https://wame.org/page3.php?id=106>. Acesso em: 12 ago. 2023.
Acknowledgment: We used ChatGPT, as pointed in footnotes 2 and 3, to generate an initial answer about co-authorship and artificial intelligence, which is quoted in the introduction of the editorial.
Conflict of interest declaration: the author confirms that there are no conflicts of interest in conducting this research and writing this article.
Declaration of authorship: all and only researchers who comply with the authorship requirements of this article are listed as authors; all coauthors are fully responsible for this work in its entirety.
Declaration of originality: the author assured that the text here published has not been previously published in any other resource and that future republication will only take place with the express indication of the reference of this original publication; she also attests that there is no third party plagiarism or self-plagiarism.
[1] Doutor em Direito pela Universidade de São Paulo, com período de sanduíche na Universidad Complutense de Madrid/ESP (bolsa PDSE/CAPES) e estágio de pós-doutoramento pela Universidade Federal do Rio de Janeiro. Mestre em Ciências Criminais pela PUCRS. Professor permanente do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa – IDP/DF (mestrado/doutorado) e da Universidade Católica de Brasília – UCB/DF (mestrado). Professor efetivo da Universidade Estadual de Goiás. Editor-chefe da RBDPP. Advogado.
[2] ChatGPT (https://chat.openai.com/), acesso em 11 ago. 2023. Comando utilizado: “O ChatGPT deve ser indicado como coautor em artigo científico quando for utilizado na pesquisa ou redação do texto?”.
[3] Vale destacar que, em momento posterior, quando da revisão final deste texto, idêntico questionamento foi apresentado ao ChatGPT, em 2 out. 2023 (Comando utilizado: “O ChatGPT deve ser indicado como coautor em artigo científico quando for utilizado na pesquisa ou redação do texto?”) e a resposta foi outra, mais compatível com os parâmetros de integridade aqui propostos, o que demonstra a evolução do sistema: “O uso de ChatGPT, ou qualquer outra ferramenta de IA, na pesquisa ou redação de um artigo científico não requer que o modelo seja listado como coautor. A autoria em um artigo científico deve ser reservada para aqueles que fizeram contribuições intelectuais substanciais para o trabalho. No entanto, é apropriado e ético reconhecer o uso de ferramentas de IA em seus agradecimentos ou na seção de metodologia do artigo. Por exemplo, você pode mencionar que ‘uma parte da pesquisa foi realizada com a assistência do ChatGPT, um modelo de linguagem desenvolvido pela OpenAI’. Além disso, se a plataforma ou a equipe de desenvolvimento da ferramenta de IA (como a OpenAI, no caso do ChatGPT) tiverem fornecido orientações específicas sobre como citar ou referenciar a ferramenta em trabalhos acadêmicos, é importante seguir essas orientações. Em resumo, não é necessário incluir o ChatGPT como coautor, mas é importante reconhecer a contribuição da ferramenta na seção de agradecimentos ou metodologia do artigo. Certifique-se também de seguir quaisquer diretrizes específicas fornecidas pelos desenvolvedores da ferramenta.”
[4] LIRA, R. P. C. et al. Challenges and advantages of being a scientific journal editor in the era of ChatGPT. Arquivos Brasileiros de Oftalmologia, v. 86, n. 3, p. 5–7, maio 2023. p. 6.
[5] VASCONCELLOS, V. G. de. Editorial: A função do periódico científico e do editor para a produção do conhecimento no Direito e nas ciências criminais. Revista Brasileira de Direito Processual Penal. v. 3, n. 1, p. 9–17, 2017.
[6] LEVENE, Alysa. Artificial intelligence and authorship. COPE, Feb. 13, 2023. Disponível em: <https://publicationethics.org/news/artificial-intelligence-and-authorship>. Acesso em: 12 ago. 2023; THORP, Holden. ChatGPT is fun, but not an author. Science, vol. 379, n. 6630, 2023. p. 313; YOSHINARI JÚNIOR, Gerson H.; VITORINO, Luciano M. How may ChatGPT impact medical teaching? Revista da Associação Médica Brasileira, v. 69, n. 4, p. e20230282, 2023.
[7] NAGPAL, Arth. Authorship in works created by AI. Disponível em: <https://legaltechcenter.net/files/sites/159/2020/05/Authorship-in-Works-Created-by-Artificial-Intelligence.pdf>. Acesso em: 12 ago. 2023. p. 9-10.
[8] ZIELINSKI, WINKER, AGGARWAL, FERRIS, HEINEMANN, LAPEÑA, PAI, ING, CITROME, ALAM, VOIGHT, HABIBZADEH. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME, May 31, 2023. Disponível em: <https://wame.org/page3.php?id=106>. Acesso em: 12 ago. 2023 (tradução livre).
[9] COPE, Authorship and AI tools position statement. Feb. 13, 2023. Disponível em: <https://publicationethics.org/cope-position-statements/ai-author>. Acesso em: 12 ago. 2023.
[10] “Large Language Models (LLMs), such as ChatGPT, do not currently satisfy our authorship criteria. Notably an attribution of authorship carries with it accountability for the work, which cannot be effectively applied to LLMs. Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript.” (Disponível em: < https://www.nature.com/nature/for-authors/initial-submission>. Acesso em: 12 ago. 2023).
[11] VASCONCELLOS, Vinicius G. Editorial – Autoria e coautoria de trabalhos científicos: discussões sobre critérios para legitimação de coautoria e parâmetros de integridade científica. Revista Brasileira de Direito Processual Penal, vol. 6, n. 1, jan./abr. 2020. p. 19.
[12] TOOLS such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, v. 613, 2023. p. 612.
Vinicius Gomes de Vasconcellos. Doutor em Direito pela Universidade de São Paulo, com período de sanduíche na Universidad Complutense de Madrid/ESP (bolsa PDSE/CAPES) e estágio de pós-doutoramento pela Universidade Federal do Rio de Janeiro. Mestre em Ciências Criminais pela PUCRS. Professor permanente do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa – IDP/DF (mestrado/doutorado) e da Faculdade de Direito da Universidade de São Paulo. Editor-chefe da RBDPP. Advogado. vinicius.vasconcellos@usp.br
VASCONCELLOS, Vinicius Gomes de. Inteligência artificial e coautoria de trabalhos científicos: discussões sobre utilização de ChatGPT em pesquisa e redação científicas [Publicado originalmente na Revista Brasileira de Direito Processual Penal em outubro de 2023] [online]. Blog da RERJ, 2024. Disponível em: https://www.rerj.com.br/post/14/editorial-inteligencia-artificial-e-coautoria-de-trabalhos-cientificos-discussoes-sobre-utilizacao-de-chatgpt-em-pesquisa-e-redacao-cientificas/