[ARTIGO] Uso de IA e transparência: e quando a honestidade é punida?
Schilke e Reimann (2025), em artigo intitulado “The transparency dilemma: How AI disclosure erodes trust”, relatam a execução de treze estudos experimentais por meio dos quais foi avaliado se a declaração de uso de IA afeta ou não a confiança em relação ao declarante. Ou seja, os estudos buscaram reunir dados empíricos que permitissem esclarecer como a transparência em relação ao uso de IA é recebida socialmente.
Schilke e Reimann (2025), seguindo as boas práticas defendidas pela Open Science, fizeram o pré-registro dos estudos na plataforma Open Science Framework (OSF). A prática de pré-registro envolve a publicização de um projeto ou protocolo de pesquisa em momento anterior à sua execução. Além disso, todos os instrumentos utilizados e os dados brutos obtidos durante a investigação também foram publicados na OSF e podem ser acessados na íntegra.
Aproximadamente 4000 pessoas participaram da pesquisa de Schilke e Reimann (2025), entre universitários e profissionais de diferentes áreas do conhecimento. Os pesquisados foram recrutados na própria instituição dos autores e via plataforma online de recrutamento de participantes (i.e., CloudResearch Connect). Schilke e Reimann (2025) testaram a confiança em relação ao declarante de uso de IA em diferentes cenários artificiais criados para os experimentos. Os cenários envolviam, por exemplo, a avaliação de aplicações de emprego, a redação de e-mails, a contratação de contador para o cálculo de imposto de renda e o recebimento de uma avaliação do supervisor (Schilke & Reimann, 2025). Em todos esses cenários, o agente (i.e., o autor do e-mail, o contador, o supervisor, o candidato ao emprego) assumia ou não o uso de IA na realização da atividade e, então, era avaliada a confiança do pesquisado em relação a esse agente. Vejamos, mais de perto, um dos treze estudos.
No Estudo 1, universitários foram divididos randomicamente em três grupos e convidados a cursar uma disciplina por meio de uma plataforma de aprendizagem online. Cada grupo foi exposto a uma condição experimental diferente: em uma condição, os alunos recebiam uma mensagem escrita na qual a professora da disciplina se apresentava e anunciava que as atividades do curso seriam corrigidas automaticamente por IA; em outra condição, a professora, também por comunicado escrito, anunciava que as atividades seriam corrigidas por um aluno de pós-graduação; e na terceira, a autoria da correção das atividades não era divulgada ou mencionada. À parte a declaração ou não de uso de IA (variável independente), as demais variáveis nos três grupos foram mantidas constantes.
Após essa apresentação inicial, os alunos respondiam a um instrumento que avaliava o grau de confiança deles em relação à professora da disciplina; a escala, do tipo Likert, envolvia afirmações como: “Eu confio na forma como esta professora usa seu poder e sua autoridade” (Schilke & Reimann, 2025, p. 6). Os resultados evidenciaram que, comparada às outras condições, os universitários confiavam significativamente menos na professora quando esta revelava uso de IA na correção das atividades; não foram registradas diferenças significativas quando um aluno de pós era identificado como corretor ou quando a autoria da correção não era citada.
Resultados similares foram obtidos nos demais estudos: ceteris paribus, a pessoa ou entidade comercial que declarava o uso de IA foi repetidamente considerada, pelos participantes de Schilke e Reimann (2025), menos digna de confiança. Esse dado é especialmente relevante: a declaração de uso de IA afetou a confiabilidade em relação ao ator que declarou o uso da ferramenta e não (só) ao trabalho desse ator. Os agentes que declararam o uso de IA nos estudos 2, 9 e 12 tinham, inclusive, menos chances de serem contratados ou recontratados pelos pesquisados de Schilke e Reimann (2025). Existe, portanto, um preço a ser pago pela transparência no uso da IA: a perda da confiança. Como destacam os cientistas, esse resultado contraria as assunções que defendem que a transparência e a honestidade aumentam, necessariamente, a confiabilidade no ator e no seu trabalho.
Os cenários testados por Schilke e Reimann (2025) não envolveram nenhuma atividade relacionada à produção de conhecimento científico, a exemplo da redação de artigos, livros ou capítulos de livros. Dessa forma, não é possível afirmar que a declaração de uso de IA por cientistas também impacta negativamente a confiança do público no cientista e/ou na própria ciência. Ainda assim, os resultados de Schilke e Reimann (2025) levantam questões sobre as quais a comunidade científica deveria se debruçar. Sampaio et al. (2024) afirmam que, embora os consensos na área de IA sejam incipientes, a comunidade científica tem convergido para a conclusão de que o uso de IA, na ciência, deve ser necessariamente reportado e detalhado nos relatos de pesquisa. A não-admissão do uso atenta contra a integridade do processo científico e é considerada uma falta ética. Contudo, atualmente, quais são os consequentes envolvidos na declaração de uso de IA no âmbito científico? Quais consequências a comunidade científica tem programado ou liberado para o comportamento de reportar o uso de IA na ciência?
Uma leitura analítico-comportamental dos resultados de Schilke e Reimann (2025) permite dizer que o comportamento de declarar o uso de IA é punido socialmente e as punições envolvidas parecem ser de alta magnitude. Conquanto o comportamento de declarar o uso de IA é punido, o comportamento de usar IA não é. Sob esse cenário, cientistas, estudantes e demais profissionais podem aprender a se esquivar/fugir da punição e passar a omitir o uso da ferramenta tecnológica. Ou seja, a frequência de ocorrência do comportamento de utilizar IA seria mantida constante e a queda seria observada em relação à frequência de ocorrência do comportamento de relatar o seu uso. As contingências sociais atuais parecem favorecer, nesse sentido, a manutenção e/ou o fortalecimento de práticas de ocultamento do uso de IA. Quando a honestidade é punida, a desonestidade pode emergir como comportamento de fuga/esquiva da punição ou como uma estratégia de contracontrole. Em desdobramento das análises empreendidas por Guazi et al. (2021), estamos frente a mais uma situação na qual a correspondência fazer-dizer pode estar sendo punida – e a produção de relatos imprecisos (i.e., com omissão de uso de IA) pode estar sendo reforçada.
Como sociedade, e como comunidade científica, devemos nos atentar a essas questões. À luz dos resultados de Schilke e Reimann (2025), parece ingenuidade defender a transparência em relação ao uso de IA sem arranjar contingências adicionais que atenuem os aversivos relacionados à declaração de uso dessa ferramenta. É preciso criar reforçadores artificiais para o comportamento de declarar o uso de IA e, ao mesmo tempo, especificar sanções para o comportamento de omissão do uso dessa tecnologia.
No âmbito científico, a transparência em relação ao uso de IA é fundamental para assegurar a integridade do processo científico e a própria replicabilidade e reprodutibilidade das pesquisas desenvolvidas (Sampaio et al., 2024). Além disso, essa transparência possibilita que seja avaliada a extensão com que essa ferramenta está sendo utilizada na ciência e em outros espaços. A descrição das contingências sob as quais a IA é empregada permite a criação de políticas que regrem o seu uso e amenizem eventuais efeitos deletérios do uso indiscriminado da ferramenta (e.g., Guazi, 2025; Lee et al., 2025; Zhang & Xu, 2025). Ou seja, a transparência é condição necessária para a construção de contingências sob as quais o uso da IA seja, de fato, seguro.
Por hoje é só. Até a próxima!
Um breve comment de:
Schilke, O., & Reimann, M. (2025). The transparency dilemma: How AI disclosure erodes trust. Organizational Behavior and Human Decision Processes, 188, 1-16. https://doi.org/10.1016/j.obhdp.2025.104405
Referências
Guazi, T. S. (2025, 30 de junho). IA e comportamento autônomo: quando depender das coisas não é autonomia? Boletim contexto. https://boletimcontexto.wordpress.com/2025/06/30/artigo-ia-e-comportamento-autonomo-quando-depender-das-coisas-nao-e-autonomia/
Guazi, T. S.; Verdu, A. C. M. A., & Cortez, M. De. C. D. (2020). A correspondência não-verbal e verbal na ciência: uma discussão sobre integridade na pesquisa. Revista Brasileira de Terapia Comportamental e Cognitiva, 22(1), p. 1-22.
Lee, H. P.; Sarkar, A.; Tankelevitch, L.; Drosos, I.; Rintel, S.; Banks, R;, & Wilson, N. (2025, April 26 – May 01). The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects from a Survey of Knowledge Workers. In Conference on Human Factors in Computing Systems (CHI 2025), Yokohama, Japan. https://doi.org/10.1145/3706598.3713778
Sampaio, R. C., Sabbatini, M., & Limongi, R. (2024). Diretrizes para o uso ético e responsável da inteligência artificial generativa: Um guia prático para pesquisadores. Sociedade Brasileira de Estudos Interdisciplinares da Comunicação.
Zhang, L., & Xu, J. (2025). The paradox of self-efficacy and technological dependence: Unraveling generative AI’s impact on university students’ task completion. The Internet and Higher Education, 65, 100978, 1-10. https://doi.org/10.1016/j.iheduc.2024.100978
Agradecimentos
Agradeço a gentileza, o cuidado e a competência de Guilherme Paes e Diogo Cavalcanti na revisão desse texto.
Declaração de uso de IA
Na produção desse texto, a autora utilizou a inteligência artificial generativa Gemini (2.5 flash) para gerar a imagem de destaque do post. Para tanto, foi utilizado o seguinte prompt “Faça a imagem de uma lápide de pedra, na qual esteja escrito a palavra ‘trust’. Faça várias rachaduras na lápide, uma delas dividindo a palavra ‘trust’ ao meio“.

Nenhum comentário:
Postar um comentário