tgoop.com/rujournals/700
Last Update:
Thelwall M., Jiang X., Bath P. A. Evaluating the quality of published medical research with ChatGPT //arXiv preprint arXiv:2411.01952. – 2024.
Исследование, проведенное учеными из Университета Шеффилда, показало, что оценки качества статей, выполненные с помощью ChatGPT, имеют низкую корреляцию с оценками, полученными в рамках Рамочной оценки исследований Великобритании (REF) 2021 года для клинической медицины.
В то время как в других областях ChatGPT продемонстрировал свою эффективность, в клинической медицине результаты оказались менее убедительными.
Основные выводы:
Корреляция: В исследовании была проанализирована выборка из 9872 статей. Корреляция между оценками ChatGPT и средними оценками REF составила всего 0.134, что указывает на слабую связь.
Аномалии: В некоторых журналах с высоким количеством статей наблюдалась более высокая корреляция (до 0.495), но также выявлены отрицательные корреляции с показателями цитируемости.
Необходимость улучшений: Результаты подчеркивают необходимость дальнейших исследований для оптимизации методов оценки качества научных работ в области медицины с использованием искусственного интеллекта.
Это исследование открывает новые горизонты для использования ИИ в научной оценке, однако также указывает на существующие проблемы, требующие внимания и решения.
#научныестатьи #chatgpt
____
@rujournals - Научные журналы и базы данных (НЖБД)
BY Научные журналы и базы данных (НЖБД)
Share with your friend now:
tgoop.com/rujournals/700