Políticas de IA.

Em Ciência e Filosofia, estamos cientes de que “na grande maioria dos artigos, como os modelos de linguagem de IA parecem estar se expandindo a uma taxa exponencial e suas capacidades tendem a se desenvolver em um ritmo sem precedentes, [isso levou a] controvérsias e dilemas significativos em termos de como eles mudarão a escrita acadêmica e a produção de conhecimento”.

Por esse motivo, dividimos a política sobre Inteligência Artificial nas seguintes declarações:

A IA não é um autor; é um assistente de pesquisa útil para explicar artigos, explorar dados e formatar citações.

Riscos: dependem de a) vieses nos dados; b) informações incorretas, imprecisas ou enganosas de "importância crítica", particularmente referências alucinadas refletidas em trabalhos acadêmicos, em dados completamente fabricados usados para fins empíricos.

Isso levanta preocupações sobre a confiabilidade da ferramenta na escrita científica. Textos criados com IA apresentam uma alta taxa de erro de uma perspectiva factual, o que questiona seu uso em certas áreas de pesquisa, como a análise bibliométrica.

Em relação à qualidade, os textos gerados por IA tendem a ser de menor qualidade e abrangência; no entanto, também vale ressaltar que é cada vez mais difícil diferenciar entre textos gerados por IA e textos escritos por humanos, especialmente em textos que levantam preocupações sobre a precisão da pesquisa e o comprometimento da qualidade em prol da produtividade.

Ética: preocupações com a definição de autoria, responsabilidade e aplicação de padrões éticos na publicação acadêmica. O aspecto legal das questões éticas inclui riscos como violações de direitos autorais e plágio decorrentes de informações não autorizadas. Verificado ou gerado incorretamente pelo ChatGPT.

As preocupações com a "criatividade" não podem mais se limitar à capacidade de escrita, mas também ao uso do ChatGPT ou outros modelos de linguagem de grande porte (LLMs) para escrever criativamente, o que, em última análise, questiona a própria essência da autoria e da escrita acadêmica e pode ser uma ideia central na era da pesquisa assistida por IA.

Inovação e Integração Acadêmica: O uso do ChatGPT para pesquisa leva a um aumento nas alucinações com IA, especialmente em termos de referências, o que pode ser alarmante, dadas as crescentes questões em torno da falta de capacidade ou, em certos casos, de rigor na revisão por pares.

Recomendamos o uso cauteloso da IA na literatura científica para preservar os padrões de publicação e a confiabilidade com rigorosa supervisão humana, ou seja, a adesão estrita às leis de direitos autorais e regulamentações acadêmicas ao usar ferramentas de IA para limitar potenciais danos.

Também deve-se observar que a integridade acadêmica, embora ameaçada pelo uso excessivo do ChatGPT na escrita, pode ser protegida, pois é mais fácil detectar ou destacar erros de dados ou dados ou resultados falsos por meio do ChatGPT.

Autorregulação, pensamento crítico e interação ética com IA na educação Contextos são encorajados; qualquer intenção não relacionada à política de IA aqui proposta será motivo para rejeição do artigo.

Referência

Lenvdai GF. ChatGPT na escrita acadêmica: Uma análise cienciométrica da literatura publicada entre 2022 e 2023. Journal of Empirical Research on Human Research Ethics. 2025;20(3):131-148. doi: 10.1177/15562646251350203