Declaração sobre IA e autoria
Utilização de ferramentas de IA generativa na produção do trabalho
A revista Análise Social reconhece o valor da IA generativa (por exemplo, ChatGPT ou outros Large Language Models, LLM) como uma ferramenta de produtividade que pode ajudar os autores na preparação dos seus artigos para submissão; para gerar ideias iniciais para uma estrutura, por exemplo, ou para resumir, parafrasear, rever a linguagem, etc. No entanto, é importante notar que todos estes modelos têm limitações e não são capazes de replicar o pensamento criativo e crítico humano. A intervenção humana nessas ferramentas é essencial para garantir que o conteúdo apresentado seja preciso e adequado ao leitor. Por conseguinte, a Análise Social exige que os autores estejam conscientes das limitações da IA generativa e que tenham em consideração o seguinte:
- Imparcialidade: os conteúdos previamente publicados que contenham preconceitos racistas, sexistas ou outros podem estar presentes no texto gerado pela IA, e os pontos de vista das minorias podem não ser representados. A utilização da IA tem o potencial de perpetuar estes preconceitos porque a informação é descontextualizada e mais difícil de detetar.
- Exatidão: a IA pode “alucinar”, ou seja, gerar conteúdos falsos, especialmente quando é utilizada fora do seu domínio ou quando lida com temas complexos ou ambíguos. Pode gerar conteúdos que são plausíveis linguisticamente, mas não cientificamente, pode errar nos factos e foi demonstrado que gera citações que não existem. Algumas versões são treinadas apenas com conteúdos publicados antes de uma determinada data e, por conseguinte, apresentam uma imagem incompleta.
- Ausência de compreensão contextual: a IA generativa não pode aplicar a compreensão humana ao contexto de um texto, especialmente quando se trata de expressões idiomáticas, sarcasmo, humor ou linguagem metafórica. Este facto pode levar a erros ou a interpretações erradas no conteúdo gerado.
- Limitações de informação: a IA requer uma grande quantidade de dados de formação de alta qualidade (training data) para atingir um desempenho ótimo. No entanto, em alguns domínios ou línguas, esses dados podem não estar facilmente disponíveis, limitando a utilidade do modelo.
Orientações para autores/as:
Os/as autores/as devem:
- indicar claramente a utilização de modelos generativos de IA no manuscrito, incluindo qual o modelo utilizado e com que objetivo. Utilizar a secção de métodos ou de agradecimentos, conforme adequado. Não mencionar ChatGPT ou similares como autores;
- verificar a exatidão, a validade e a adequação do conteúdo e de quaisquer citações geradas por modelos generativos e corrigir quaisquer erros ou inconsistências;
- fornecer uma lista das fontes utilizadas para gerar conteúdo e citações, incluindo as geradas por IA generativa. Verificar novamente as citações para garantir que são exatas e que estão devidamente referenciadas;
- ter consciência da possibilidade de plágio quando estes modelos possam ter reproduzido texto substancial de outras fontes. Verificar as fontes originais para se certificar de que não está a plagiar o trabalho de outra pessoa;
- reconhecer as limitações dos modelos generativos de IA no manuscrito, incluindo o potencial de enviesamento, erros e lacunas no conhecimento;
A Análise Social reserva-se o direito de tomar medidas corretivas adequadas sempre que identificar artigos publicados com utilização não divulgada de tais ferramentas.
Orientações para editores e revisores
- Os editores e revisores devem avaliar a adequação da utilização de IA generativa e garantir que o conteúdo gerado é exato e válido;
- Os editores e revisores devem respeitar a confidencialidade do processo de revisão por pares. Os editores não devem partilhar informações sobre manuscritos submetidos ou relatórios de revisão por pares com IA generativa, como o ChatGPT;
- Os revisores não devem utilizar ferramentas de inteligência artificial para gerar relatórios de revisão, incluindo, entre outros, o ChatGPT.
Mais informações
Consulte a declaração de posição do Committee on Publication Ethics (COPE) sobre Autoria e ferramentas de IA.
Esta política poderá ser alterada à medida que tal se revelar relevante. Para isso é fundamental monitorizar os avanços na compreensão do impacto das tecnologias emergentes sobre a investigação científica, os processos de análise de dados e a preparação de manuscritos para publicação. Volte a consultar esta página para obter as informações mais recentes.