Política de Uso de Inteligência Artificial (IA)
Políticas e declaração sobre autoria e ferramentas de Inteligência Artificial (IA)
A Duna - Revista Multidisciplinar de Inovação e Práticas de Ensino está em conformidade com as recomendações do COPE (Committee on Publication Ethics) para o estabelecimento de procedimentos éticos na publicação científica, bem como, de forma mais específica, com as diretrizes e recomendações da UNESCO (Organização das Nações Unidades para a Educação, a Ciência e a Cultura), em seu Guia para a IA generativa na educação e na pesquisa e na Recomendação sobre a Ética da Inteligência Artificial.
A revista reconhece que a importância e difusão de ferramentas de inteligência artificial (IA), como os modelos de linguagem larga (Large Language Models - LLM), que se utilizam de machine learning e deep learning, como ChatGPT (da OpenAI), o Gemini (do Google), o Claude (da Anthropic), o DeepSeek, o Grok, entre outros, que está se expandindo rapidamente em publicações de pesquisa.
Dessa forma, a Duna - Revista Multidisciplinar de Inovação e Práticas de Ensino, alinhada às diretrizes do COPE e da UNESCO, bem como de toda a comunidade científica, defende que as ferramentas de IA não podem ser listadas como autoras de um artigo nesta revista.
As ferramentas de IA não atendem aos requisitos de autoria, pois não podem assumir a responsabilidade pelo trabalho submetido, bem como não apresentam metodologias ou comportamentos conscientes, como os dos seres humanos.
Sendo assim, sem regulamentação jurídica que lhes conceda personalidade jurídica própria, não podem afirmar a presença ou ausência de conflitos de interesse nem gerenciar contratos de direitos autorais e licenças.
Os autores que utilizam ferramentas de IA na redação de um manuscrito, devem usar de transparência informando qual a ferramenta de IA utilizada e o que foi produzido com a mesma na seção de procedimentos metodológicos.
Devem, ainda, os autores, respeitarem as seguintes diretrizes:
1. A autoria é humana e intransferível, e nenhum sistema de IA pode figurar como autor ou coautor.
2. A utilização de ferramentas de IA deve ser explicitamente declarado no manuscrito, preferencialmente na seção Métodos ou de Metodologia, na Introdução ou, ainda, em nota de rodapé.
3. Devem ser informados quais os tipos de ferramentas que foram utilizados, como o ChatGPT, Gemini, CoPilot, Grammarly, DeepL, Claude, DeepSeek, Grok, entre outras, bem como a sua finalidade (revisão gramatical, tradução, análise de dados, entre outras) e a extensão do uso no manuscrito.
4. O uso não declarado de IA constitui falha ética grave e pode resultar em rejeição, retratação ou comunicação às instituições dos autores, bem como a tomada, pela revista, das medidas judiciais e administrativas cabíveis.
5. Os autores permanecem integralmente responsáveis pela originalidade, integridade e veracidade de todo o conteúdo submetido, mesmo quando apoiados por IA.
Portanto, é de responsabilidade do autor o conteúdo de seu manuscrito, bem como, as partes produzidas por uma ferramenta de IA, e qualquer violação que ocorra referente à ética de publicação.
Para os editores, estabelecem-se as seguintes diretrizes:
1. Devem zelar pela detecção e verificação de uso não declarado de IA em manuscritos, utilizando ferramentas adequadas quando necessário.
2. O uso de IA por editores somente será permitido em tarefas técnicas, como as verificação estatística, checagem de similaridade, correção linguística, entre outras, e deve ser registrado internamente.
3. Nenhum manuscrito poderá ser compartilhado em plataformas de IA que comprometam a confidencialidade do processo editorial.
4. O editor responsável pela decisão final deve garantir que a declaração de uso de IA, quando presente, seja clara e transparente, e assumirá a responsabilidade pela omissão dessa informação.
Para os pareceristas e avaliadores ad hoc:
1. Os pareceristas e avaliadores devem emitir pareceres de forma autônoma, não podendo delegar integralmente sua função a sistemas de IA.
2. A verificação de utilização integral de ferramentas de IA pelo avaliador promoverá sua exclusão do quadro de pareceristas e avaliadores.
3. O uso de IA como apoio, quando para a realização de sugestões de redação, tradução de trechos, análise linguística, é permitido, mas deve ser informado no parecer, com a ferramenta que foi utilizada e sua extensão.
4. É vedado o uso de plataformas de IA que comprometam o anonimato ou a confidencialidade do manuscrito avaliado, em defesa aos princípios estabelecidos pela COPE, pela UNESCO, bem como pela própria Lei Geral de Proteção de Dados (LGPD).
5. Os pareceristas ou avaliadores devem observar se o manuscrito declara corretamente o uso de IA e, em caso de suspeita de uso não declarado, deve comunicar ao editor responsável.