Maria Cecília de Souza Minayo, Editora-chefe da Revista Ciência & Saúde Coletiva, Rio de Janeiro, RJ, Brasil.
Luiza Gualhano, Editora assistente da Revista Ciência & Saúde, Rio de Janeiro, RJ, Brasil.
A Revista Ciência & Saúde Coletiva começa o ano de 2024 com sua edição vol. 29, no. 1 brindando seus leitores com vários artigos sobre tecnologia em saúde. Dentre os textos, destaca-se o de Frederico Peres (2024) sobre “literacia em saúde”, um dos conceitos que vêm sendo utilizados, de forma crescente desde os anos 1990, para definir a capacidade dos indivíduos em buscar, compreender, avaliar e dar sentido às informações que recebem sobre sua própria saúde e a de terceiros (Peres, 2021; Zarcadoolas et al., 2005; Plesant et al., 2008). Tais estudos têm demonstrado que, quanto mais desenvolvidas são as habilidades e competências associadas à literacia em saúde, melhores são os resultados individuais e coletivos.
A novidade do artigo, no entanto, é um debate sobre o uso do ChatGPT pela área acadêmica, assunto de tantas controvérsias. O autor faz cinco perguntas a esse instrumento de inteligência artificial (IA): (1) explique o conceito de literacia em saúde; (2) as origens desse conceito; (3) os principais desafios para melhorar a literacia em saúde das pessoas; (4) descreva a importância dessa literacia para indivíduos, sistemas e instituições de saúde; (5) perspectivas para aprimorar políticas públicas orientadas pela literacia em saúde.
A análise dos resultados evidencia ampla e positiva perspectiva para o uso de tecnologias baseadas em IA, como é o caso do ChatGPT, que possui uma interface intuitiva e simples, capaz de gerar textos coerentes e estruturados em linguagem natural. Porém, essas vantagens trouxeram ao debate implicações éticas do seu uso na produção do conhecimento e na autoria de trabalhos acadêmicos, sobrepondo mais uma camada de complexidade ao já imbricado contexto de produção de informações sobre saúde (Peres, 2024).
Peres (2024) discutiu os resultados de sua pesquisa sob a perspectiva tecnológica, acadêmica e ética. Do ponto de vista tecnológico, a ampla disponibilização da ferramenta ChatGPT representa um marco de referência no processo de incorporação de tecnologias na produção acadêmica, da mesma forma como o Google representou um salto no modo como os indivíduos passaram a buscar informações sobre os mais variados temas.
Do ponto de vista ético, um aspecto chama atenção especial: os riscos do uso do ChatGTP servir ao “produtivismo acadêmico”, aflorado e associado à necessidade do cumprimento de metas quantitativas de produção, com fins de acesso a financiamentos, à progressão de carreira, ao credenciamento em programas de pós-graduação e à obtenção de títulos (Teixeira et al., 2020; Vieira et al., 2021). O uso antiético do ChatGPT por alunos, professores e pesquisadores pode levar a atalhos que implicam na falta de integridade no trabalho e na carreira, como falsificação de resultados de pesquisa, fabricação de dados e plágio. O plágio é a má conduta mais registrada no mundo acadêmico (Olivia-Dumitrina, 2019).
Em um editorial publicado na revista Science, o editor-chefe Holden Thorp (2023) mencionou que resumos criados pelo ChatGPT foram submetidos a um seleto e experiente grupo de revisores acadêmicos que detectaram possíveis falsificações em 63% deles. Considerando implicações éticas relacionadas à integridade do conhecimento, o grupo de revistas Science atualizou sua política editorial, reforçando de forma explícita, que um texto gerado pelo ChatGPT ou por qualquer ferramenta de IA não pode ser usado em qualquer artigo submetido às revistas do grupo, assim como não são admitidas figuras, imagens ou gráficos a partir de tais ferramentas.
Igualmente, a Nature (2023), publicou um editorial, afirmando que ferramentas como ChatGPT ameaçam a transparência da ciência e que passaria a definir regras básicas para seu uso, como a proibição de creditar coautoria ao ChatGPT ou a qualquer ferramenta de IA, exigindo que os autores mencionem, na metodologia ou nos agradecimentos, o uso de tais meios e em que condições foram usados. Desta forma, o debate segue aberto e a Ciência & Saúde Coletiva se inclui nele!
Referências
NATURE. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature [online]. 2023, vol. 613, no. 612 [viewed 22 January 2024]. https://doi.org/10.1038/d41586-023-00191-1. Available from: https://www.nature.com/articles/d41586-023-00191-1
OLIVIA-DUMITRINA, N., CASANOVAS, M. AND CAPDEVILA, Y. Academic writing and the internet: cyber-plagiarism amongst university students. Journal of New Approaches in Educational Research [online]. 2019, vol. 8, no. 2, pp. 112-125 [viewed 22 January 2024]. https://doi.org/10.7821/naer.2019.7.407. Available from: https://naerjournal.ua.es/article/view/v8n2-3
PERES, F., RODRIGUES, K.M. and SILVA, T.S. Literacia em saúde. RJ: Editora Fiocruz, 2021.
PLEASANT, A and KURUVILLA, S. A tale of two health literacies: public health and clinical approaches to health literacy. Health Promotion international [online]. 2008, vol. 23, no. 2, pp. 152-159 [viewed 22 January 2024]. https://doi.org/10.1093/heapro/dan001. Available from: https://pubmed.ncbi.nlm.nih.gov/18223203/
TEIXEIRA, T.S.C., MARQUEZE, E.C. and MORENO, C.R.C. Produtivismo acadêmico: quando a demanda supera o tempo de trabalho. Revista de Saúde Pública [online]. 2020, vol. 54, pp. 117 [viewed 22 January 2024]. https://doi.org/10.11606/s1518-8787.2020054002288. Available from: https://www.scielo.br/j/rsp/a/JK5ZNcPtfW5zy89wwWd9TFv/
THORP, H.H. ChatGPT is fun, but not an author. Science [online]. 2023, vol. 379, no. 6630, pp. 313-313 [viewed 22 January 2024]. https://doi.org/10.1126/science.adg7879. Available from: https://www.science.org/doi/10.1126/science.adg7879
VIEIRA, J.D.A., CASTAMAN, A.S and JUNGES JÚNIOR, M.L. Produtivismo acadêmico: representação da universidade como espaço de reprodução social. Revista de Avaliação da Educação Superior [online]. 2021, vol. 26, pp. 253-269 [viewed 22 January 2024]. https://doi.org/10.1590/S1414-40772021000100014. Available from: https://www.scielo.br/j/aval/a/LJXc6k8hdgqCYsgY8zrWw3c/
ZARCADOOLAS, C., PLEASANT, A. and GREER, D.S. Understanding health literacy: an expanded model. Health Promotion International [online]. 2005, vol. 20, no. 2, pp. 195-203 [viewed 22 January 2024]. https://doi.org/10.1093/heapro/dah609. Available from: https://pubmed.ncbi.nlm.nih.gov/15788526/
Para ler o artigo, acesse
PERES, F. A literacia em saúde no ChatGPT: explorando o potencial de uso de inteligência artificial para a elaboração de textos acadêmicos. Ciência & Saúde Coletiva [online]. 2024, vol. 29, no. 1, e02412023 [viewed 22 January 2024]. https://doi.org/10.1590/1413-81232024291.02412023. Available from: https://www.scielo.br/j/csc/a/mgdv7bWZ6pnjVYNfrG6HTgh/
Links externos
Ciência & Saúde Coletiva – CSC: http://www.scielo.br/csc
Ciência & Saúde Coletiva – Site: http://www.cienciaesaudecoletiva.com.br
Ciência & Saúde Coletiva – Redes sociais: Facebook | Twitter | Instagram
Para ler a edição temática completa acesse: https://www.scielo.br/j/csc/i/2024.v29n1/
Como citar este post [ISO 690/2010]:
Últimos comentários