Telegram Web
▫️ انتصاب دکتر سید رضا رئیس کرمی به سمت ریاست دانشگاه علوم پزشکی تهران

دکتر محمدرضا ظفرقندی -وزیر بهداشت-، تغییر روسای دانشگاه‌ها را از دانشگاه علوم پزشکی تهران آغاز کرد.

رئیس کرمی استاد روماتولوژی کودکان است و در انتخابات اخیر مسئول ستاد سلامت دکتر پزشکیان بود. او در گذشته رئیس دانشگاه علوم پزشکی قم هم بوده است.

نکته جالب!

ظهر امروز، دکتر حسین قناعتی که همچنان رئیس دانشگاه بود، دکتر علی گنجعلیخان را به عنوان سرپرست معاون درمان دانشگاه منصوب کرد و چند ساعت بعد خودش برکنار شد!

🆔 @irevidence
▫️فیلترهای جستجو برای هوش مصنوعی مولد

هوش مصنوعی مولد (Generative AI) در کمتر از دو سال، تحول زیادی را در حوزه‌های مختلف ایجاد کرده و تعداد پژوهش‌ها هم در این زمینه رو به فزونی است. برخی افراد دنبال این هستند که کاربرد و نقش هوش مصنوعی مولد را در حوزه تخصصی خودشان بررسی کنند و در حقیقت سنتز شواهد انجام دهند.

طبیعی است که جستجوی سیستماتیک اساس سنتز شواهد است. به علت تعدد چت‌بات‌ها و مدل‌های زبانی بزرگ مثل ChatGPT، گوگل جمنای، مایکروسافت کوپایلوت، Claude و غیره و نیز اصطلاحات دیگری که بجای Generative AI بکار برده می‌شوند، بازیابی همه مقالات و مدارک مربوط به هوش مصنوعی مولد کار سختی است.

استفاده از فیلترهای جستجو (Search Filters) یکی از راه‌کارهای پیشنهادی است. Kung و Chojecki در کتابخانه علوم سلامت دانشگاه آلبرتا (Alberta) در کانادا برای چندین دیتابیس و پلتفرم، فیلتر جستجو طراحی کرده‌اند که می‌توان مقالات مرتبط با هوش مصنوعی مولد را بازیابی کرد.

البته متأسفانه هنوز این فیلترها Valid نشده‌اند یعنی حساسیت (Sensitivity) و ویژگی (Specificity) آن‌ها سنجیده نشده است. با این حال استفاده از آنها توصیه می‌شود.

در حال حاضر این فیلتر برای دیتابیس‌های Medline و Embase و PsycINFO در پلتفرم Ovid و برای دیتابیس CINAHL در پلتفرم EBSCO طراحی شده است. این فیلتر همچنین برای دیتابیس Scopus هم موجود است که در زیر مشاهده می‌کنید:

TITLE-ABS-KEY ( ( ( "artificial intelligence" OR ai ) W/2 ( chat* OR generat* ) ) OR genai OR ( ( large OR natural OR generative OR machine OR "deep learning" ) W/3 ( language OR text ) W/3 model* ) OR alexatm OR ( amazon* AND alexa ) OR anthropic OR bard OR bardeen OR bert OR "Bing chat" OR biogpt OR bloom OR bloomberggpt OR cerebras-gpt OR chatgpt* OR "Chat GPT" OR chatbot* OR chatsonic OR chinchilla OR claude OR dall-e OR einsteingpt OR ernie OR falcon OR galactica OR "Generative Fill" OR "GitHub Copilot" OR glam OR "Google* Assistant" OR "Google* Bard" OR "Google* Gemini" OR gopher OR gpt-1 OR gpt-2 OR gpt-3* OR gpt-4* OR gptneo OR gpt-neox OR gpt-j* OR "IBM Watson" OR lamda OR llama OR "Megatron-Turing NLG" OR "Microsoft* Bing" OR "Microsoft* Copilot" OR midjourney OR minerva OR neevaai OR nvidia OR openai OR "Open AI" OR openassistant OR palm OR pangu-e OR pathai OR "Path AI" OR perplexity OR "pre-trained transformer*" OR "pretrained transformer*" OR ( apple* AND siri ) OR slackgpt OR "Stable Diffusion" OR stylegan OR synthesis OR xlnet OR "yalm 100b" OR youchat )


برای استفاده از آنها کافیست استراتژی جستجو یا همان فیلتر جستجو را به آخر جستجوی خود با عملگر بولی AND اضافه کنید. حتماً هم کل فیلتر را در داخل پرانتز قرار دهید.

برای مشاهده فیلترهای سایر دیتابیس‌ها به این لینک مراجعه کنید.
#AI
#searching
#search_filter

🆔 @irevidence
▫️Systematic Approaches to a Successful Literature Review

ویرایش اول این کتاب در سال 2012، ویرایش دوم در سال 2016 و ویرایش سوم آن در سال 2022 توسط انتشارات Sage منتشر شده است و 425 صفحه دارد.

نویسندگان نام آشنایی در حوزه سنتز شواهد مثل Andrew Booth و Anthea Sutton این کتاب را نوشته‌اند.

یکی از بهترین کتاب‌هایی است که در زمینه مرور متون و سنتز شواهد نوشته شده است. اگر قصد انجام هر نوع سنتز شواهد (از مرور سیستماتیک گرفته تا مرور اسکوپینگ و سایر اعضای خانواده مرورها) دارید، این کتاب برای شماست.

Table of contents

Chapter 1: Meeting the Review Family: An Overview

Chapter 2: Getting Started on Your Literature Review

Chapter 3: Choosing Your Review Methods

Chapter 4: Defining Your Scope

Chapter 5: Searching the Literature

Chapter 6: Assessing the Evidence Base

Chapter 7: Synthesising and Analysing Quantitative Studies

Chapter 8: Synthesising and Analysing Qualitative Studies

Chapter 9: Synthesising and Analysing Mixed Methods Data

Chapter 10: Writing Up, Presenting and Disseminating Your Review

متن کامل این کتاب تقدیم شما می‌شود.

#book
#evidence_synthesis

🆔 @irevidence
▫️Benchmarking Human-AI Collaboration for Common Evidence Appraisal Tools

Woelfle et al. Journal of Clinical Epidemiology; 2024.

در مرورهای سیستماتیکْ مراحل غربالگری، ارزیابی کیفیت روش‌شناسی مطالعات اولیه (یا ارزیابی خطر سوگرایی) و نیز استخراج داده‌ها عموماً توسط دو مرورگر بطور مستقل انجام می‌شوند و اختلاف پیش آمده یا با بحث و گفتگو بین این دو مرورگر حل و فصل می‌شوند و یا با نظر مرورگر سوم. در حقیقت در پایان این مراحل، باید میزان توافق (Agreement) بین دو مرورگر به 100 درصد برسد.


آقای Woelfle و همکارانش در مطالعه‌ای میزان توافق همکاری بین هوش مصنوعی و انسان (Human-AI Collaboration) را بصورت کمی محاسبه کرده‌اند.

آن‌ها 5 مدل زبانی بزرگ (LLMs) زیر را انتخاب کردند:

Claude-3-Opus, Claude-2, GPT-4, GPT-3.5, Mixtral-8x22B

در این مطالعه، ابزارهای PRISMA (چک لیست گزارش دهی مرورهای سیستماتیک)، AMSTAR (ابزار ارزیابی کیفیت روش شناسی مرورهای سیستماتیک) و PRECIS-2 (چک لیستی برای ارزیابی میزان عملگراییِ کارآزمایی های بالینی) مورد استفاده قرار گرفته است.

ابتدا دو مرورگر باتجربه به عنوان Rater انسانی، چک لیست‌های PRISMA و AMSTAR را برای 112 مرور سیستماتیک و نیز چک لیست PRECIS-2 را برای 56 کارآزمایی بالینی تکمیل کردند و با بحث و گفتگو اختلافات را حل کردند تا به اجماع (Consensus) برسند. نویسندگان مقاله، این را به عنوان استاندارد طلایی در نظر گرفتند.

▫️آن‌ها سپس 4 تحلیل زیر را برای هر سه ابزار فوق انجام دادند:

1- میزان توافق بین عملکرد یک Rater انسانی با استاندارد طلایی (دو Rater انسانی که به اجماع رسیده‌اند)

2- میزان توافق بین عملکرد هر یک از LLM ها با استاندارد طلایی

3- میزان توافق بین عملکردِ ترکیبی از LLM ها با استاندارد طلایی

4- میزان توافق بین عملکرد ترکیبی انسان و AI با استاندارد طلایی

جزئیات بیشتر روش‌شناسی و نتایج این مطالعه در متن کامل آمده است. همچنین جدول پیوست را نگاه کنید. اما بطور خلاصه:

عملکرد یک Rater انسانی بهتر از عملکرد هر کدام از LLM ها و همچنین بهتر از از عملکرد ترکیبی از چند LLM بود. اما وقتی عملکرد یک Rater انسانی با بهترین LLM ترکیب می‌شد، بالاترین توافق و دقت حاصل می‌شد.

مدل Claude-3-Opus در PRISMA با 70 درصد و در AMSTAR با 74 درصد توافق، بهترین عملکرد را در بین 5 مدل داشته است. GPT-3.5 هم در PRECIS-2 با 55 درصد بهترین عملکرد را داشته است که البته در کل میزان پایینی است.

اما بهترین نتیجه زمانی حاصل شده است که عملکرد یک Rater انسانی با بهترین عملکرد LLM ترکیب شده است:

PRISMA: 96% (1 rater + Claude-3-Opus)

AMATAR: 95% (1 rater + Claude-3-Opus)

PRECIS-2: 86% (1 rater + GPT-3.5)


نویسندگان چنین نتیجه گرفتند که:

عملکرد مدل‌های زبانی در ارزیابی شواهد، بدتر از عملکرد انسان است. اما همکاری بین انسان و AI می‌تواند در تکمیل PRISMA و AMSTAR جایگزین ارزیاب دوم شود. اما برای چک لیست‌های پیچیده‌ای مثل PRECIS-2 چنین توصیه‌ای نمی‌شود. چون درصد توافق 86 درصد بود و وجود 14 درصد خطا، قابل قبول نیست.

▫️چند نکته:

مرورها در حوزه جراحی کودکان بوده است و ممکن است در حوزه‌های دیگر متفاوت باشد.

از GPT-4O استفاده نشده است. عملکرد این نسخه از GPT با نسخه 3.5 اصلاً قابل مقایسه نیست.

همچنین عملکرد و سرعت جدیدترین نسخه Claude تحت عنوان Claude 3.5 Sonnet حداقل دو برابر بهتر از Claude-3-Opus است.

بنابراین اگر از این نسخه‌ها استفاده شود، احتمالاً میزان توافق بهتر خواهد شد.

🔗 لینک به مقاله

#AI
#evidence_synthesis

🆔 @irevidence
▫️اخبار خوب

دکتر مسعود حبیبی معاون فرهنگی و دانشجویی وزارت بهداشت:

توقف تمامی احکام کمیته های انضباطی به دستور وزیر بهداشت/ دانشجویان به دانشگاه برگشتند

معاون فرهنگی و دانشجویی وزارت بهداشت با اشاره به تاکید ویژه رییس جمهور مبنی بر بازگشت به تحصیل دانشجویان اخراجی و دارای احکام انضباطی، گفت: با دستور وزیر بهداشت، احکامی که برای دانشجویان معترض در سالهای ۱۴۰۱ و ۱۴۰۲ صادر شده، با بهره‌گیری از رویکرد جذب حداکثری رهبر فرزانه انقلاب، ایده محوری وفاق ملی رییس جمهور و همچنین در راستای افزایش سرمایه اجتماعی نظام مقدس جمهوری اسلامی، ایجاد امید و انگیزه در بین دانشجویان و جوانان عزیز و شروعی پر نشاط برای دانشگاه ها در آغاز سال تحصیلی، متوقف شد و دانشجویان دوباره به محل تحصیل خود باز خواهند گشت.


دکتر سید رضا رییس کرمی سرپرست دانشگاه علوم پزشکی تهران

بازگشت دانشجویان و اساتید اخراجی دانشگاه علوم پزشکی تهران را پیگیری می کنیم

سرپرست دانشگاه علوم پزشکی تهران با بیان اینکه این دانشگاه محل تحصیل و فعالیت بهترین اعضای هیات علمی، دانشجویان و نیروهای انسانی است، از پیگیری برای بازگشت به تحصیل دانشجویان و بازگشت به کار اساتید اخراجی این دانشگاه خبر داد.


▫️دانشجویان و اساتید اخراجی در حال بازگشت به دانشگاه هستند و اما این لکه ننگ همیشه بر دامان دکتر بهرام عین الهی-وزیر سابق بهداشت، دکتر عباس شیراوژن-معاون سابق دانشجویی و فرهنگی وزارت بهداشت و برخی روسای دانشگاه‌های علوم پزشکی از جمله دکتر حسین قناعتی-رئیس سابق د.ع.پ تهران باقی خواهد ماند.

▫️این داستان واقعی است....

دکتر سید محمد مقیمی رئیس دانشگاه تهران یکشنبه 26 شهریور به معاون دانشجویی خود دستور داده بصورت ضرب‌الاجل، احکام انضباطی صادر شده برای دانشجویان طی ۳ سال گذشته مورد بررسی قرار گیرد.

او گفته است: از معاون دانشجویی دانشگاه خواسته شد تا همه پرونده‌های انضباطی با اصل رأفت اسلامی و با نگاه پدرانه مجدداً بررسی شوند و به نفع کسی که متهم به تخلف است، تفسیر و مجدداً ارزیابی شود و در آستانه سال تحصیلی جدید تا جایی که ممکن است بتوانیم کمک کنیم که فضای خوبی ایجاد شود.

وی همچنین به رئیس سازمان امور دانشجویان وزارت علوم توصیه کرده است که کمیته‌ای به منظور بازنگری و تجدیدنظر در ضوابط اجرایی آئین‌نامه انضباطی دانشجویان بر اساس نگاه رئیس‌جمهوری و وزیر علوم تشکیل شود.(منبع)

اما این چرخش جواب نداد و امروز 27 شهریور 1403 از ریاست دانشگاه تهران برکنار و دکتر سیدحسین حسینی جایگزین وی شد.
▫️داوری همتا در کما

سرکار خانم Ángeles Oviedo-García از دانشگاه Seville اسپانیا مقاله جالبی را در مجله Scientometrics منتشر کرده است. عنوان مقاله ایشان بدین صورت است:

The review mills, not just (self-)plagiarism in review reports, but a step further

وی بطور اتفاقی با یک مورد از استناد اجباری (coercive citation) مواجه شد و این امر او را به بررسی بیشتر گزارش‌های داوری همان داور سوق داد.

او از جستجوی گوگل برای یافتن گزارش‌های داوری مشابه کمک گرفت و از زنجیره‌های کلمات (هم جملات کامل و هم ناقص) به همراه نام داور استفاده کرد. وی در مجموع، 263 گزارش داوری که به صورت آنلاین قابل دسترسی بودند، جمع‌آوری و تحلیل کرد.

این گزارش‌ها از 37 مجله مختلف جمع‌آوری شدند، که 98.1% آن‌ها متعلق به انتشارات MDPI بودند. گزارش‌های مورد بررسی بین 9 فوریه 2021 تا 8 ژانویه 2024 منتشر شده بودند. 26 داور با نام مشخص و تعدادی داور ناشناس شناسایی شدند.

او محتوای گزارش‌ها را برای یافتن الگوهای تکراری، عبارات کلی و مبهم، و موارد استناد اجباری مورد بررسی قرار داد. او برای این بداخلاقی، اصطلاح Review Mill را بکار برد (پیشنهاد یکی از فالوورهای توئیترش بود!)

در Review Mill داوران در حقیقت اصلاً دستونشته را داوری نمی‌کنند بلکه یکسری جملات کلی، مبهم و بی ربط به موضوع دستونشته را برای نویسندگان بدبخت می‌نویسند (در حقیقت کپی پیست می‌کنند).

برخی از جملات تکراری، کلی و مبهم که ایشان پیدا کرد بدین صورت است:

In abstract, the author should add more scientific findings.

Comparison of the present results with other similar findings in the literature should be discussed in more detail.

What is the motivation of the proposed work?

The novelty of this paper is not clear

The difference between present work and previous works should be highlighted.

Please refer all relations to valid references after the first appearance in the article.

What is assumption and limitation of the proposed materials and model?

What is the difference of the current work against other published articles?

Discuss the Novelty and clear application of the work in the abstract as well as in introduction section.

Future recommendations should be added to assist other researchers to extend the presented research analysis.

گزارش‌های داوری اغلب همراه با استناد اجباری هستند، که احتمالاً یکی از دلایل اصلی این رفتار است. استناد اجباری یعنی اینکه داور، نویسندگان را مجبور می‌کند به مقاله یا مقالات خاصی استناد بدهند. البته که آن مقالات عمدتاً نوشته خود داوران هستند!

به عقیده نویسنده این مقاله، داوران ممکن است به دلایل مختلفی مانند کسب اعتبار، دریافت پاداش مالی، افزایش تعداد استنادها، یا کمک به " Review Mills" به این کار روی آورند.

برخی از پیشنهادات نویسنده:


1. مجلات و ناشران باید اقدامات فوری برای شناسایی و مقابله با این نوع سوء رفتار انجام دهند.

2. باید از نرم‌افزارهای تشخیص متون مشابه برای بررسی گزارش‌های داوری استفاده شود.

3. مقالاتی که با این روش داوری شده‌اند باید با عبارت "ابراز نگرانی" (expression of concern) مشخص شوند تا زمانی که مجدداً مورد ارزیابی قرار گیرند.

4. داورانی که در این فعالیت‌ها دست داشته‌اند باید حداقل برای مدتی از فرآیند داوری کنار گذاشته شوند.

5. تمام گزارش‌های داوری افراد مشکوک باید مورد بازبینی قرار گیرند.

6. کمیته اخلاق انتشارات (COPE) و ناشران باید دستورالعمل‌هایی برای مقابله با این نوع سوء رفتار تدوین کنند.

7. نویسندگان و محققان باید در صورت مشاهده چنین مواردی، آن را به سردبیران و ناشران گزارش دهند.

نویسنده تأکید می‌کند که این مسئله احتمالاً تنها نوک کوه یخ است و نیاز به بررسی و اقدام جدی دارد تا اعتماد به فرآیند داوری و انتشارات علمی حفظ شود.

#peer_review
#ethics
#predatory

🆔 @irevidence
▫️دیتابیس‌های ما را حتی پژوهشگران اتیوپی هم سرچ می‌کنند

قبلاً در پست‌هایی اشاره کرده بودم که در حال حاضر دیتابیس‌های ایرانی Medlib و Iranmedex وجود خارجی ندارند و از بین رفته‌اند. با این حال مشاهده می‌کنیم که نویسندگان ایرانی همچنان ادعا می‌کنند ما این دیتابیس‌ها را سرچ کرده‌ایم (اینجا و اینجا را ببینید).

لابد وارد ماتریکس می‌شوند و در آنجا احتمالاً این دو تا دیتابیس هنوز زنده هستند.

امروز به طور اتفاقی به یک مقاله مرور سیستماتیک برخورد کردم. هدف این مطالعه بررسی اثربخشی و ایمنی دو نوع تزریق انسولین بود و اینکه بیماران دیابتی کدام نوع را بیشتر ترجیح می‌دهند.

این مقاله 10 نویسنده دارد که همه آنها اهل کشور اتیوپی هستند.

استراتژی جستجو را دیدم، غافلگیر شدم:


A comprehensive search strategy was conducted using electronic databases, including PubMed, MEDLINE, SCOPUS, CINAHL, Web of Science, EMBASE, Google Scholar, Cochrane Library, ISI, Scopus, Medlib, Irandoc, SID, and Magiran, which were systematically searched online to retrieve related articles.

این نویسندگان نه تنها Medlib را سرچ کرده اند-که وجود خارجی ندارد-بلکه سه دیتابیس دیگر ایرانی یعنی ایرانداک، SID و مگیران را هم مورد جستجو قرار داده‌اند. الله اکبر!


یعنی ما باور کنیم که شما از شاخ آفریقا آمدید دیتابیس‌های فارسی ما را سرچ کردید؟ چاخان نیست؟

بجز مدلیب که در دسترس نیست بقیه در دسترس هستند ولی چه ربطی دارند. مثلاً چرا ایرانداک؟ در آنجا که فقط پایان نامه‌های ارشد و دکتری تخصصی و کمی هم دکتری حرفه‌ای وجود دارد. شما که دنبال RCT بودید!

مشکل این مقاله فقط وجود دیتابیس‌های ایرانی نیست
:

▫️اسکوپوس دوبار تکرار شده است: یک بار با حروف بزرگ (SCOPUS) و بار دیگر بصورت معمولی (Scopus).

▫️ممکنه بپرسم Web of Science با ISI چه فرقی دارد؟ اصلاً ما الان دیتابیسی به نام ISI داریم؟

▫️هم PubMed را نوشتید و هم Medline. در هر حالی که فقط پابمد کفایت می‌کرد. البته برخی همچنان این دو تا جدا می‌نویسند.

استراتژی جستجویی که نوشتند غلط است. وجود بلوک‌های جستجوی زیاد و عبارات نامناسب باعث شده است که نتایج خیلی کمی بازیابی شود. هر چند در فلوچارت پریزما، 1480 رکورد ذکر شده است که قطعاً واقعیت ندارد.

((“Diabetes patient”, “Patients with diabetes mellitus”, “Type 1 diabetes”, “Type I diabetes”, “Type 2 diabetes”, “Type II diabetes”, “Type 1 and type 2 diabetes”) and (“Transdermal insulin”, “Transdermal insulin injection”, “Transdermal insulin delivery”, “Cutaneous insulin”, “Microneedle insulin”, “Insulin patch”, “jet injector insulin”) and (“Subcutaneous insulin”, “Subcutaneous insulin delivery”, “SC insulin”, “SQ insulin delivery”) and (“Effectiveness of insulin”, “Outcome of insulin”, “Safety of insulin”, “Adverse effect of insulin”, “Effectiveness and safety of insulin”, “HbA1c”, “Blood glucose”, “Postprandial blood glucose”, “Fating blood glucose”, “AUC of insulin”, “Hypoglycemia”, “preference of insulin”))


▫️عملگر OR نداشت. من اضافه کردم و در پابمد سرچ کردم کلاً 30 رکورد بازیابی کرد. سرچ مال چند ماه قبل است و قطعاً آن زمان از این هم کمتر بوده است. تازه کمتر از 7 تای آن‌ها RCT است.

▫️برخی اصطلاحات را اشتباه نوشته‌اند. مثلاً Fasting را Fating نوشته.

▫️اصطلاحاتی را بصورت عبارتی سرچ کرده است که در پابمد هیج رکوردی بازیابی نمی‌کنند مثل:

"Transdermal insulin injection", "Microneedle insulin", "jet injector insulin", "SQ insulin delivery", "Effectiveness of insulin", "Outcome of insulin", "Adverse effect of insulin", "Effectiveness and safety of insulin", "Fating blood glucose", "AUC of insulin", "preference of insulin"

این مقاله در مجله Diabetology & Metabolic Syndrome از انتشارت Springer Nature و BMC منتشر شده است.

▫️با IF=3.4 در نمایه استنادی علوم (SCIE) نمایه شده و جزو مجلات Q2 است

▫️ با CiteScore=6.2 در اسکوپوس هم نمایه شده و جزو مجلات Q1 است.

▫️در پابمد سنترال هم آرشیو می‌شود، بنابراین در پابمد حضور دارد.

یکبار دیگر مرور کنیم مجله‌ای داریم در بهترین نمایه‌ها، ایندکس شده است. IF و CiteScore خوبی دارد بطوری که در اولی Q2 و در دومی Q1 است. اما مقاله‌ای منتشر کرده است با متدولوژی غلط.

بخاطر همین است که می گوییم ناشر معتبر، حضور در نمایه‌های معروف و داشتن سنجه‌های پژوهشی قابل قبول یک مجله، هیچ کدام تضمین کننده کیفیت مقالات آن مجله نیست. هر مقاله‌ای را باید بطور مجزا و بدون در نظر گرفتن موارد فوق، ارزیابی کرد.

#journal
#search_strategy
#databases


🆔 @irevidence
▫️جستجوی شلوغ یا جستجوی تمیز

رکوردهای دیتابیس مدلاین (و نه کل پابمد) با استفاده از اصطلاحات کنترل شده خاصی تحت عنوان سرعنوان های موضوعی پزشکی (MeSH) نمایه می‌شوند. وقتی هر اصطلاح MeSH را ببینید گزینه‌ای به نام Entry Terms را خواهید یافت که در حقیقت لیست مترادف‌ها و اصطلاحات خیلی نزدیک به آن مفهوم اصلی است.

برای جستجوی‌های نظام مند و جامع، جستجوی کلمات آزاد در کنار اصطلاحات کنترل شده ضروری است.

برخی از متخصصان محترم توصیه می‌کنند که تمام اصطلاحات و واژه‌های موجود در زیر Entry Terms یک مش ترم باید با استفاده از OR مورد جستجو قرار بگیرند و اگر اصطلاحی بصورت برعکس یا مقلوب نوشته شده باشد، آن‌ها را با AND باید سرچ کنیم. جستجوی عبارتی هم با "" صورت می‌گیرد.


🔘اجازه بدهید با یک مثال توضیح دهم:

برای انواع هزینه‌های مربوط به خدمات، مؤسسات، منابع و غیره و نیز تجزیه و تحلیل و مطالعه این هزینه‌ها، اصطلاح کنترل شده زیر را داریم:

Costs and Cost Analysis


طبیعی است که با استفاده از کوئری زیر می‌توانیم این مش ترم را در پابمد سرچ کنیم:

"Costs and Cost Analysis"[Mesh]

اما در Entry Terms این مش ترم، واژه‌ها و اصطلاحات زیر قید شده است:


• Costs and Cost Analyses
• Costs, Cost Analysis
• Cost, Cost Analysis
• Cost Measures
• Cost Measure
• Measure, Cost
• Measures, Cost
• Cost
• Costs
• Cost Comparison
• Comparison, Cost
• Comparisons, Cost
• Cost Comparisons
• Cost-Minimization Analysis
• Analyses, Cost-Minimization
• Analysis, Cost-Minimization
• Cost-Minimization Analyses
• Cost Minimization Analysis
• Cost Analysis
• Analysis, Cost
• Analyses, Cost
• Cost Analyses

می‌خواهم با روش معمول جستجو را انجام دهم. همه اصطلاحات را OR می‌کنم. عبارات را داخل کوتیشن قرار می‌دهم و اصطلاحات برعکس شده را با AND به هم متصل می‌کنم و همچنین در فیلدهای عنوان و چکیده جستجو را انجام می‌دهم. نتیجه نهایی بدین صورت خواهد بود:

"Costs and Cost Analyses"[Title/Abstract] OR (Costs[Title/Abstract] AND Cost Analysis[Title/Abstract]) OR (Costs[Title/Abstract] AND Cost Analysis[Title/Abstract]) OR "Cost Measures"[Title/Abstract] OR "Cost Measure"[Title/Abstract] OR (Measure[Title/Abstract] AND Cost[Title/Abstract]) OR (Measures[Title/Abstract] AND Cost[Title/Abstract]) OR Cost[Title/Abstract] OR Costs[Title/Abstract] OR "Cost Comparison"[Title/Abstract] OR (Comparison[Title/Abstract] AND Cost[Title/Abstract]) OR (Comparisons[Title/Abstract] AND Cost[Title/Abstract]) OR "Cost-Minimization Analysis"[Title/Abstract] OR (Analyses[Title/Abstract] AND Cost-Minimization[Title/Abstract]) OR (Analysis[Title/Abstract] AND Cost-Minimization[Title/Abstract]) OR "Cost-Minimization Analyses"[Title/Abstract] OR "Cost Minimization Analysis"[Title/Abstract] OR "Cost Analysis"[Title/Abstract] OR (Analysis[Title/Abstract] AND Cost[Title/Abstract]) OR (Analysis[Title/Abstract] AND Cost[Title/Abstract]) OR (Analyses[Title/Abstract] AND Cost[Title/Abstract]) OR "Cost Analyses"[Title/Abstract]



در سه اکتبر 2024 تعداد 781,922 بازیابی شد. اما آیا جستجوی فوق غلط است؟ نه اصلاً!


اصول سینتکس‌نویسی را رعایت کردم. پس مشکل چیست؟ مشکل اصلی شلوغ بودن استراتژی جستجو و به عبارت بهتر حشو و زاید بودن خیلی از اصطلاحات فوق است.

با بررسی اصطلاحات فوق می‌بینیم که یک کلمه در همه عبارات تکرار شده است و آن هم Cost است البته هم بصورت مفرد و هم بصورت جمع (costs).

✳️ قانون طلایی: وقتی کلمه‌ای داریم که در همه اصطلاحات و عبارات تکرار شده است و خود آن کلمه جزو کلیدواژه‌های سرچ است، در این صورت کافیست فقط آن کلمه را بنویسیم و خلاص!

استراتژی فوق را بدین صورت می‌توان نوشت:

Cost[tiab] OR Costs[tiab]


بجای [Title/Abstract] از [tiab] استفاده کردم که خلاصه‌تر است.

همین سرچ کوتاه و تر و تمیز هم دقیقاً 781,922 بازیابی خواهد کرد! بنابراین تمام اصطلاحات دیگر زاید هستند.

اگر هم خواستم باز ساده‌تر بنویسیم از Truncation یا همان علامت ستاره استفاده می‌کنم تا حالت جمع cost هم بازیابی بشود. البته به غیر از حالت جمع، کلمات دیگری که با cost شروع می‌شوند هم بازیابی خواهند شد، بنابراین تعداد رکوردها بیشتر خواهد بود:

Cost*[tiab]


تعداد 867,802 رکورد بازیابی شد که 85,880 رکورد بیشتر از جستجوی قبلی است.

اگر با مش ترم هم OR کنیم، کوئری زیر را خواهیم داشت:



"Costs and Cost Analysis"[Mesh] OR Cost*[tiab]

ملاحظه می‌کنید که این جستجو، چقدر جمع و جورتر و جذاب‌تر است.

#search_strategy

🆔 @irevidence
▫️کتابسنجی N مقاله پراستناد در حوزه Y

در چند سال اخیر انتشار مقالات کتابسنجی تحت عنوان "X مقاله پراستناد" زیاد شده است. الگوی کلی این مقالات بدین صورت است:

X most-cited articles in/on [topic/discipline]

قبل یا بعد از این الگو، اصطلاحاتی مانند Bibliometric/Scientometric Analysis/Study می‌آید.

روال کار بدین صورت است که موضوع در دیتابیس اسکوپوس یا WOS جستجو می‌شود و مقالاتی که بیشترین استناد (Citation) را دریافت کرده‌اند، انتخاب می‌شوند.

شاید سؤال برایتان پیش بیاید که آیا نویسندگان، مقالات بازیابی شده را غربالگری می‌کنند؟ 4 سناریوی زیر را در نظر بگیرید، فقط در یک حالت غربالگری صورت می‌گیرد و در بقیه موارد، نویسندگان از لقمه آماده استفاده می‌کنند:

1- مقالات پراستناد یک مجله

کافیست ابتدا تمام مقالات آن مجله را در اسکوپوس یا WOS جستجو کنیم، سپس بر اساس بیشترین استناد، مرتب کنیم و تعدادی را به عنوان پراستنادترین مقاله انتخاب کنیم و تمام! مثل این مقاله:

The 100 most cited articles in the Journal of NeuroInterventional Surgery

در بخش روش‌ها می‌خوانیم:

The most cited articles in JNIS were identified by using the Web of Science database. The top 100 articles were ranked according to their number of citations.

2- مقالات پراستناد چندین مجله

در برخی مواقع بجای یک مجله، چندین مجله یک رشته یا حوزه موضوعی جستجو می‌شوند. در این صورت هم نیازی به غربالگری وجود ندارد و کافیست نتایج بر اساس بیشترین استناد مرتب شوند. مثل این مقاله:

The top 100 most-cited papers in Paediatric Dentistry journals: A bibliometric analysis

3- مقالات پراستناد یک طبقه موضوعی

در برخی مطالعات هم با این که جستجوی موضوعی صورت می‌گیرد ولی در حقیقت طبقه‌بندی خود دیتابیس‌ها ملاک است. مثلاً در اسکوپوس بیش از 330 طبقه موضوعی وجود دارد که مجلات بر اساس آنها طبقه‌بندی می‌شوند یا در WOS بیش از 250 طبقه وجود دارد. در این گونه مطالعات هم غربالگری صورت نمی‌گیرد. مثل این مقاله:

The Top 100 Most Cited Scientific Papers in the Public, Environmental & Occupational Health Category of Web of Science: A Bibliometric and Visualized Analysis


4- مقالات پراستناد یک موضوع خاص

در این حالت نیاز به غربالگری وجود دارد، چون نویسندگان بصورت کلیدواژه آزاد جستجو را انجام می‌دهند و قاعدتاً همه نتایج بازیابی شده، مرتبط با آن موضوع خاص نخواهد بود. بنابراین ابتدا غربالگری انجام می‌شود تا مقالات مرتبط باقی بمانند و سپس بر اساس تعداد استناد مرتب می‌شود. مثل مقاله زیر:

A bibliometric study of the top 100 most-cited papers in neuroendocrine prostate cancer

نویسندگان، جستجوی کلیدواژه‌ای انجام دادند و نتایج بازیابی شده را ابتدا غربالگری و سپس بر اساس استناد مرتب کردند. اما وقتی جستجوی آنها را نگاه می‌کنیم، می‌بینیم که نخواستند به خودشان زحمت بیشتری بدهند، چون فقط Title مقالات را در WOS جستجو کرده‌اند.

TI = (neuroendocrine prostate* OR NEPC OR small cell prostate*)

در کل در بیشتر موارد، هیچگونه غربالگری صورت نمی‌گیرد.

اما چند تا مقاله پراستناد را بررسی کنم خوبه؟!

در اکثر مطالعات منتشر شده، 100 مقاله پراستناد بررسی شده است که در بالا چند نمونه آورده‌ام.

اما برخی تنبلی می‌کنند. مثلاً میگن ولش کن بابا کی حوصلش را داره. بهتره 50 مقاله پراستناد را بررسی کنم و خودم را به دردسر نیندازم:


The 50 most cited articles on soft tissue integration of dental implants: A bibliometric analysis

برخی دیگر وقتی می‌بینند مقاله 50 تایی منتشر شده است، میگن چرا فقط 25 تا را بررسی نکنم:

The 25 Most Cited Articles in Pediatric Orthopaedic Sports Medicine.

برخی دیگر میان فقط 20 تای پراستناد را بررسی می‌کنند:

A Bibliometric Analysis of the 20 Most Cited Articles on Sacrococcygeal Chordomas

برخی دیگر میگن کی به کیه؟ من بیام 10 تای پراستناد را بررسی کنم:

The top 10 most-cited articles on the management of fractured instruments: a bibliometric analysis

یکی هم می‌خواست فقط 5 تای اول را بررسی کند که خودش خجالت کشید و انجام نداد!

به غیرت برخی‌ها برمی‌خورد:

بذار 200 تای اول را بررسی کنم تا سردبیر خوشش بیاد:

Traumatic spinal cord and spinal column injuries: A bibliometric analysis of the 200 most cited articles

من 300 تا را انجام میدم:

The 300 most cited articles published in periodontology

ببین 500 خیلی خوبه. رند هم هست:

A Bibliometric Analysis of the 500 Most Cited Papers in Orthopaedic Oncology


من 1000 تا را بررسی می‌کنم:

Top 1000 Most Cited Papers in World Neurosurgery

#bibliometric


🆔 @irevidence
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
▫️زوج پژوهشگر ایرانی زیر ذره‌بین کمیته اخلاق: اعتبار ده‌ها مطالعه در حوزه سرطان مورد تردید قرار گرفته است

پایگاه Retraction Watch در جدیدترین گزارش خود به این مطلب اشاره کرده است و من در اینجا آن خبر را به فارسی بازنویسی کردم. اسامی دو پژوهشگر در متن انگلیسی آمده است ولی من نیاوردم.


یک زوج پژوهشگر در یکی از دانشگاه‌های ایران طی سال‌های متمادی مقالاتی را منتشر کرده‌اند که در آن‌ها ادعا شده از رده‌های سلولی (Cell lines) خریداری شده از انستیتو پاستور ایران استفاده کرده‌اند. اما اخیراً شواهدی به دست آمده که نشان می‌دهد این زوج احتمالاً هرگز این رده‌های سلولی را در اختیار نداشته‌اند.

[لاین سلولی یا رده سلولی، مجموعه‌ای از سلول‌های یکسان است که از یک سلول اصلی توسط روش‌های تقسیم سلولی به دست می‌آید. این لاین های سلولی برای تحقیقات علمی و تولید داروها و واکسن‌ها بسیار مفید هستند.]

بر اساس مکاتباتی که به دست Retraction Watch رسیده، انستیتو پاستور به دانشگاه علوم پزشکی جهرم، محل کار این زوج، اطلاع داده که در طول ده سال گذشته، تنها سه مورد از رده‌های سلولی متعددی که در مقالات این زوج ذکر شده، در بانک سلولی ملی موجود بوده است.

دکتر امیر عبدلی، معاون تحقیقات و فناوری دانشگاه علوم پزشکی جهرم، تأیید کرده که این زوج -که هر دو عضو هیئت علمی گروه آناتومی هستند- تحت بررسی قرار دارند. او گفت:

"ابهاماتی درباره در دسترس بودن رده‌های سلولی در انستیتو پاستور ایران و همچنین محل انجام پژوهش‌های این زوج وجود دارد. کارهای آن‌ها در آزمایشگاه‌های دانشگاه ما انجام نشده است. ما چندین بار از آن‌ها توضیح خواستیم، اما پاسخ قانع‌کننده‌ای دریافت نکردیم. بنابراین، مجبور شدیم مدارک و شواهد را برای بررسی بیشتر به کمیته ملی اخلاق در پژوهش‌های زیست‌پزشکی ایران ارسال کنیم."

دکتر عبدلی افزود که دانشکده پزشکی فعلاً پذیرش طرح‌های تحقیقاتی جدید از این دو استاد را متوقف کرده است.

دکتر جنیفر بیرن، مدیر بانک زیستی NSW Health Pathology در استرالیا و استاد انکولوژی مولکولی دانشگاه سیدنی، درباره این موضوع اظهار نظر کرده است. او می‌گوید:

"از نظر تئوری، این احتمال وجود دارد که پژوهشگران، حتی اگر به اشتباه ادعا کرده باشند رده‌های سلولی را از منبعی تهیه کرده‌اند که در واقعیت آن‌ها را نداشته، باز هم با همان رده‌های سلولی کار کرده باشند. شاید آن‌ها این رده‌های سلولی را از شخص دیگری گرفته‌اند که تصور می‌کردند از منبع ادعا شده تهیه شده است. گاهی محققان برای نشان دادن اعتبار کارشان، ادعا می‌کنند که رده‌های سلولی را از یک منبع معتبر تهیه کرده‌اند، در حالی که در واقع، بسیاری از پژوهشگران رده‌های سلولی را بین خود رد و بدل می‌کنند چون سریع‌تر، ارزان‌تر و راحت‌تر است. با این حال، ادعای تهیه رده‌های سلولی از مرکزی که در واقع آن‌ رده‌ها را ندارد، می‌تواند نشانه‌ هشداردهنده‌ای باشد. این ادعا گمراه‌کننده است، حتی اگر بدون سوء نیت مطرح شده باشد."

از سال 2014، این زوج ده‌ها مقاله را به طور مشترک منتشر کرده‌اند که عمدتاً در مجلات ایرانی چاپ شده‌اند. بیشتر پژوهش‌های آن‌ها درباره تأثیر داروهای موجود یا بالقوه بر سلول‌های سرطانی انسان بوده است.

اخیراً، نامه‌ای از رئیس دانشگاه جهرم به انستیتو پاستور فرستاده شده که در آن درباره تعداد زیادی از رده‌های سلولی سؤال شده که ظاهراً در وب‌سایت پاستور موجود نبوده‌اند. در پاسخ، معاون انستیتو پاستور اعلام کرده که در 10 سال گذشته، تنها سه مورد از 70 رده سلولی مورد پرسش در انستیتو موجود بوده است.

این پرونده هم‌اکنون در دست بررسی است و نتیجه آن می‌تواند تأثیر قابل توجهی بر اعتبار علمی این پژوهشگران و مقالات منتشر شده آن‌ها داشته باشد.



توضیح تکمیلی

شاید بتوان گفت این جزو معدود دفعاتی است که خودِ دانشگاه‌ها و مراکز ایرانی فعالانه و مسئولانه دنبال کشف حقیقت ماجرا هستند. سلب اعتبار مقالات ایرانی-مخصوصاً اگر به دلیل بداخلاقی‌های عمدی پژوهش باشد-خبر خوبی نیست، اما این که دانشگاه‌ها و مسئولان مربوطه به این مسئله حساس باشند و خودشان پیگیر ماجرا بشوند، خبر خوبی است.

نکته دیگر اینکه اتهامات این دو پژوهشگر، هنوز ثابت نشده است و ممکن است کاملاً تبرئه شوند. باید منتظر تصمیم‌گیری کمیته اخلاق در پژوهش وزارت بهداشت باشیم.

#retraction
#ethics

🆔 @irevidence
▫️تجربه انجام اولین Umbrella Review: درس‌هایی که آموختیم

وقتی دنبال عنوانی برای انجام مرور سیستماتیک می‌گردیم و مشاهده می‌کنیم که در آن حوزه خاص، مرورهای سیستماتیک زیادی انجام شده است؛ در این صورت بجای افسردگی و نا امیدی، می‌توانیم آن مرورهای سیستماتیک را مرور سیستماتیک کنیم.

یک اصطلاح مورد توافق همگان برای نام‌گذاری این نوع مرور وجود ندارد:

مثلاً کاکرین به آن‌ها Overviews of Reviews یا به اختصار Overviews می‌گوید. یا موسسه JBI ترجیح می‌دهد از اصطلاح Umbrella Review استفاده کند. برخی دیگر از اصطلاحات استفاده شده عبارتند از:

Systematic review of systematic reviews

Review of systematic reviews

Meta-review of systematic reviews

Overview of systematic reviews

Systematic review of reviews

ما بر اساس روش‌شناسی JBI این مرور را انجام دادیم و بنابراین از اصطلاح Umbrella Review استفاده کردیم.

موضوع مرور ما، یادگیری مبتنی بر تیم در آموزش حرفه‌های سلامت بود. یادگیری مبتنی بر تیم (Team-Based Learning) یا TBL یک روش تدریس و یادگیری است و در چند سال اخیر، پژوهش‌های زیادی در این حوزه انجام شده است. ما می‌خواستیم یک مرور سیستماتیک انجام بدهیم ولی بعد از دیدن مرورهای سیستماتیک زیادِ این حوزه، نظرمان عوض شد و تصمیم گرفتیم یک مرور چتری انجام دهیم.

مرکزی به نام Team Based Learning Collaborative وجود دارد و هدفش پیشبرد استفاده از TBL در همه رشته‌ها و سطوح تحصیلی است. این مرکز، سالانه طی فراخوانی، به پروپوزال‌های پژوهشی حوزه TBL گرنت می‌دهد. ما هم اپلای کردیم و خوشبختانه جزء دو طرح برتر شدیم و گرنت به ما تعلق گرفت ولی به خاطر تحریم‌ها نتوانستیم دریافت کنیم!

درس آموخته‌ها:

1- اینکه انجام مرورهای چتری راحت‌تر از سایر مرورهاست، تصور اشتباهی است

ما در کل 23 مرور سیستماتیک را وارد مطالعه کردیم ولی حجم داده‌های استخراج شده بسیار زیاد بود. یکی از دلایلش این است که در هر مرور سیستماتیک-مخصوصاً در حوزه آموزش-چندین سؤال و هدف مورد بررسی قرار می‌گیرند و بنابراین عملاً ما با تنوعی از اهداف، سؤالات و پیامدها روبرو شدیم.

2- ماهیت رشته‌ها بر پیچیدگی کار تأثیر می‌گذارد


در برخی رشته‌ها مثل آموزش، مدیریت و سیاستگذاری، زمینه و بافتار (Context) بسیار مهم است و این باعث پیچیدگی این حوزه‌ها شده است. بطور کلی در این حوزه‌ها نظریه‌ها، مدل‌ها و الگوها حائز اهمیت هستند.

این سؤال که آیا یک مداخله کار می‌کند به تنهایی جوابگو نیست. باید مشخص شود که این مداخله تحت چه شرایط و مکانیسم‌هایی کار می‌کند؟ مثلاً یک روش تدریس چه زمانی، برای چه نوع فراگیرانی، در چه موضوعی و به چه میزانی کار می‌کند؟

با بررسی مرورهای سیستماتیکِ TBL مشخص شد که همه نوع دیزاین مطالعه وارد این مرورها شده‌اند از جمله: مطالعات تجربی، شبه تجربی، یک گروهی قبل و بعد، توصیفی-مقطعی، کیفی و حتی مطالعات ترکیبی (Mixed Methods).

بنابراین به نظر می‌رسد انجام یک Overviews با روش‌شناسی کاکرین-که فقط مرورهای سیستماتیک اثربخشی را شامل می‌شوند- تا حدودی جمع و جورتر و بسامان‌تر از حوزه‌های زمینه-محور هستند.

3- محدود کردن جستجو به مرورها

طبیعی است که ما در مرورهای چتری دنبال مطالعات اولیه نیستیم، بلکه مطالعات سنتزی را می‌خواهیم پیدا کنیم. بنابراین بشدت توصیه می‌شود که نتایج بازیابی شده به مرورها محدود شوند.

در پابمد فیلتر systematic[sb] با حساسیت بالایی می‌تواند مرورهای سیستماتیک را بازیابی کند. برای دیتابیس‌های دیگر هم فیلترهای جستجو برای بازیابی مرورها، تدوین شده است که می‌توانید از آن استفاده کنید.

ما از پلتفرم Ovid برای جستجوی دیتابیس‌های مدلاین، Embase و PsycINFO استفاده کردیم. برای افزایش حساسیت از کوئری زیر برای بازیابی مرورها استفاده کردیم:

(review* or meta-analysis or metaanalysis or synthesis).mp.

4- ارزیابی کیفیت مرورهای وارد شده

برای ارزیابی کیفیت مرورها بجای چک لیست AMSTAR از چک لیست اختصاصی موسسه JBI استفاده کردیم. این چک‌لیست خیلی کلی‌تر است و 11 آیتم دارد و برای هر نوع سنتز شواهد (از جمله اسکوپینگ، کیفی و ...) می‌تواند مورد استفاده قرار بگیرد.

5- تحلیل داده‌های کیفی


بخش عمده‌ای از داده‌های ما حالت کیفی داشتند. ابتدا Google Sheets را امتحان کردیم که راضی‌کننده نبود و بنابراین مجبور شدیم از نرم‌افزار MAXQDA 20 برای کدگذاری و سازماندهی کدها استفاده کنیم که تجربه موفقی از آب در آمد.

6- سایر اقدامات


- از Rayyan برای غربالگری استفاده کردیم.

- برای دسته‌بندی مطالب و رسم جداول و نمودارها از اکسل استفاده کردیم.

- ما یکبار سرچ را آپدیت کردیم و دو مرور مرتبط دیگر پیدا کردیم. همیشه آپدیت سرچ را در برنامه‌تان قرار دهید.

🔗لینک مقاله


#evidence_synthesis
#umbrella_review

🆔 @irevidence
Evidence.ir
▫️Systematic Approaches to a Successful Literature Review ویرایش اول این کتاب در سال 2012، ویرایش دوم در سال 2016 و ویرایش سوم آن در سال 2022 توسط انتشارات Sage منتشر شده است و 425 صفحه دارد. نویسندگان نام آشنایی در حوزه سنتز شواهد مثل Andrew Booth و Anthea…
▫️دوره آموزشی جدیدی در راه است ...

چندی قبل کتاب Systematic Approaches to a Successful Literature Review را در پستی معرفی کردم.

اخیراٌ فرصتی فراهم شد و توانستم ویرایش جدید این کتاب را از ابتدا تا انتها و با دقت مطالعه کنم.

واقعاً کتاب ارزشمندی است و برای کسانی که می‌خواهند مرور متون با رویکرد سیستماتیک را بصورت اصولی یاد بگیرند، منبعی عالی است.

در کنار اینکه یادگیری خیلی زیادی برایم داشت، ایده‌ای هم به ذهنم رسید: چرا این کتاب را در قالب یک دوره آموزشی تدریس نکنم؟!

این شد که کمی بیشتر فکر کردم و تصمیم گرفتم تمام فصل‌های این کتاب را تدریس کنم و علاوه بر آن مطالب دیگری هم به آن اضافه کنم تا یک دوره آموزشی جامع تهیه شود.

به‌زودی نحوه ارائه این دوره را- بعد از جمع‌بندی ایده‌هایم- اطلاع‌رسانی خواهم کرد. شما عزیزان هم اگر ایده خاصی برای اجرا دارید، لطفاً بیان فرمایید.

#evidence_synthesis
#course

🆔 @irevidence
▫️چت‌بات Bing، سوالات بیماران در خصوص نحوه استفاده از داروها را پاسخ می دهد ولی ممکن است منجر به مرگ آنها هم بشود!

در یک اکتبر 2024 در مجله BMJ Quality & Safety مطالعه ای با عنوان زیر منتشر شده است:

Artificial intelligence-powered chatbots in search engines: a cross-sectional study on the quality and risks of drug information for patients

در زیر خلاصه‌ای از این مقاله را به زبان فارسی آورده‌ام:

در عصر دیجیتال، بیش از نیمی از شهروندان اتحادیه اروپا و ایالات متحده برای کسب اطلاعات دارویی و بهداشتی به اینترنت مراجعه می‌کنند. موتورهای جستجو، ابزار اصلی برای دستیابی به این اطلاعات هستند. اخیراً، با معرفی چت‌بات‌های مبتنی بر هوش مصنوعی در فوریه 2023، تحول عمده‌ای در عرصه موتورهای جستجو رخ داده است. اگرچه این فناوری‌ها پتانسیل بالایی دارند، اما خطراتی مانند تولید اطلاعات نادرست یا مضر را نیز به همراه دارند.

با توجه به اهمیت این موضوع، مطالعه‌ای توسط گروهی از محققان با هدف بررسی کیفیت و خطرات احتمالی اطلاعات دارویی ارائه شده توسط این چت‌بات‌ها برای بیماران انجام شد. این مطالعه مقطعی بر روی چت‌بات Bing، که در موتور جستجوی مایکروسافت تعبیه شده، متمرکز بود (در آوریل 2023)

روش تحقیق به این صورت بود که 10 سؤال رایج بیماران در مورد 50 داروی پر تجویز در آمریکا از چت‌بات Bing پرسیده شد. این سؤالات شامل مواردی درباره موارد مصرف دارو، مکانیسم عمل، دستورالعمل‌های مصرف، عوارض جانبی و موارد منع مصرف بود. تمام پرامپت‌ها به زبان انگلیسی و در حالت " balanced" چت‌بات انجام شد. (در بینگ سه حالت creative، balanced و precise وجود دارد.)

برای ارزیابی پاسخ‌های چت‌بات، سه معیار اصلی مورد بررسی قرار گرفت: خوانایی (Readability)، جامعیت (Completeness) و دقت (Accuracy). خوانایی پاسخ‌ها با استفاده از معیار Flesch Reading Ease Score سنجیده شد. برای ارزیابی جامعیت و دقت، یک پایگاه داده مرجع با استفاده از اطلاعات دارویی معتبر از وب‌سایت drugs.com ایجاد شد (توسط یک داروساز بالینی و یک پزشک با تخصص داروشناسی). پاسخ‌های چت‌بات به گزاره‌های جداگانه تقسیم و با این پایگاه داده مقایسه شدند.

نتایج نشان داد که میانگین نمره خوانایی پاسخ‌های چت‌بات 37.2 از 100 بود، که نشان‌دهنده دشواری درک این پاسخ‌ها برای عموم مردم است و نیاز به سطح تحصیلات دانشگاهی برای درک آنها را نشان می‌دهد. میانه جامعیت پاسخ‌ها 100% (با میانگین 76.7%) و میانه دقت 100% (با میانگین 88.7%) بود.

علاوه بر این ارزیابی‌های کمی، یک زیر مجموعه از 20 پاسخ چت‌بات که دقت یا جامعیت پایینی داشتند یا خطر بالقوه‌ای برای ایمنی بیمار ایجاد می‌کردند، توسط هفت متخصص در زمینه ایمنی دارویی مورد بررسی قرار گرفت. این ارزیابی شامل بررسی اجماع علمی (scientific consensus)، احتمال آسیب و میزان آسیب احتمالی بود.

نتایج این ارزیابی تخصصی نشان داد که تنها 54% از پاسخ‌های بررسی شده با اجماع علمی همسو بودند، در حالی که 39% مخالف اجماع علمی و 6% بدون اجماع علمی مشخص بودند.

از نظر احتمال آسیب، 66% از پاسخ‌ها دارای پتانسیل آسیب‌رسانی تشخیص داده شدند، که از این میان 3% احتمال بالا، 29% احتمال متوسط و 34% احتمال پایین آسیب‌رسانی داشتند.

در مورد شدت آسیب احتمالی، 22% از پاسخ‌ها می‌توانستند منجر به آسیب شدید یا حتی مرگ شوند، 42% آسیب متوسط تا خفیف و 36% بدون آسیب ارزیابی شدند.

محققان چندین دلیل فنی برای کیفیت پایین برخی از پاسخ‌های چت‌بات شناسایی کردند. اول اینکه، چت‌بات‌ها می‌توانند اطلاعات را از منابع مختلف اینترنتی، اعم از معتبر و نامعتبر، استخراج کنند. دوم، چت‌بات‌ها به جای ارجاع به پاراگراف‌های خاص، به کل وب‌سایت‌ها ارجاع می‌دهند که می‌تواند منجر به ترکیب نادرست اطلاعات شود. سوم، چت‌بات‌ها قادر به تأیید به‌روز بودن منابع نیستند و ممکن است اطلاعات قدیمی ارائه دهند.

این مطالعه نشان داد که اگرچه چت‌بات‌های مبتنی بر هوش مصنوعی قادر به ارائه پاسخ‌های نسبتاً کامل و دقیق به سؤالات دارویی بیماران هستند، اما پیچیدگی پاسخ‌ها و خطر ارائه اطلاعات نادرست یا ناقص می‌تواند ایمنی بیمار را به خطر بیندازد. محققان توصیه می‌کنند که تا زمان دستیابی به راه‌حل‌های دقیق‌تر و قابل اعتمادتر، در توصیه استفاده از این ابزارها به بیماران احتیاط شود.

در نهایت، این مطالعه تأکید می‌کند که علی‌رغم پتانسیل بالای فناوری هوش مصنوعی در ارائه اطلاعات دارویی، همچنان نیاز به بهبود و نظارت دقیق وجود دارد تا بتوان از آن به عنوان منبعی ایمن و قابل اعتماد برای بیماران استفاده کرد. تا آن زمان، مشاوره با متخصصان و حرفه‌مندان سلامت همچنان مهم‌ترین و ایمن‌ترین راه برای دریافت اطلاعات دارویی صحیح و مناسب برای بیماران باقی می‌ماند.

#AI
#copilot

🆔 @irevidence
این پایگاه Retraction Watch هم واقعاٌ خیلی نامرده. رفته گشته بدترین عکس طرف را پیدا کرده و داد میزنه آی مردم این شیمیدان ژاپنی، داده‌ها را جعل کرده است😂

🆔 @irevidence
▫️مجله Optical and Quantum Electronics از انتشارات Springer Nature اخیراً بیش از 200 مقاله خود را ریترکت کرده است

این مجله با IF=3.3 جزء مجلات Q2 محسوب می‌شود. بیشتر مقالات ریترکت شده از کشور چین هستند و بعد از آن هند قرار دارد. چندین مقاله هم از نویسندگان ایرانی ریترکت شده است.

برخی از دلایل ذکر شده برای ریترکشن عبارتند از:

مقاله خارج از اسکوپ مجله بوده است (سؤال این است که پس چرا آن‌ها را چاپ کردی؟!)

نقص در فرایند داوری همتا

رفرنس‌های نامناسب یا نامرتبط

اصطلاحات و عبارات غیر استاندارد

البته اشاره کرده است که دلایل ریترکشن فقط محدود به موارد فوق نیست.

یکی از دلایل را رفرنس‌های نامناسب یا نامرتبط ذکر کرده است. اخیراً مجلات و سردبیران خیلی به رفرنس‌ها حساس شده‌اند. تصور می‌کنم اگر قرار باشد رفرنس‌های مقالات را بطور عمیق و دقیق بررسی کنند، اتفاقات تلخی رخ خواهد داد!

#retraction
#springer

🆔 @irevidence
▫️مقاله‌ای با 442 رفرنس

در پست قبلی اشاره کردم که اخیراً جامعه علمی به رفرنس مقالات حساسیت نشان داده است. مقاله یکی از هموطنان عزیزمان با این که در سال 2021 منتشر شده است، ولی چند روزی است به سر خط اخبار آمده است.

عنوان این مقاله عبارت است از:

Polymeric membranes on base of PolyMethyl methacrylate for air separation: a review


مقاله فوق در سال 2021 در مجله Journal of Materials Research and Technology از انتشارات الزویر با IF=6.2 منتشر شده است. نویسنده دوم از کشور ویتنام است.

آنچه حساسیت نسبت به این مقاله را بالا برده است، تعداد رفرنس‌های آن است:

مقاله دارای 442 رفرنس است.

کل مقاله 25 صفحه است که بیش از نصف آن (12 و نیم صفحه) لیست رفرنس‌هاست.

نویسنده اول به 18 مقاله قبلی خود هم استناد داده است

این مقاله بر اساس داده‌های اسکوپوس، تاکنون 70 استناد دریافت کرده است که تقریباً نصف آنها (39 مورد) را خود نویسنده اول در مقالات بعدی‌اش به آن استناد داده است.

ضمناً نویسنده محترم از سال 2020 تاکنون، جزء پژوهشگران پراستناد 2 درصد برتر جهان است.

#publishing


🆔 @irevidence
▫️چگونه از مدل‌های زبانی بخواهیم که برایمان عنوانِ مناسب پژوهش معرفی کنند؟ ارائه 5 الگوی کلی

در زیر 5 الگوی کلی برای سؤال پرسیدن از مدل‌های زبانی بزرگ را آورده‌ام که شما می‌توانید از آنها برای پیدا کردن عنوان یا سوال مناسب برای پژوهشِ خود استفاده کنید. کلمات داخل کروشه و همچنین تعداد عناوین و سؤالات را می‌توانید تغییر دهید. هر دو نسخه فارسی و انگلیسی آورده شده است.

سه عنوان پژوهشی جذاب در مورد [موضوع کلی] ارائه دهید که هنوز به طور گسترده مورد بررسی قرار نگرفته‌اند. برای هر کدام، یک جمله توضیح دهید که چرا این موضوع ارزش بررسی دارد.

Provide three intriguing research titles about [general subject] that have not yet been extensively studied. For each, give a one-sentence explanation of why this topic is worth investigating



یک موضوع پژوهشی در زمینه [حوزه مورد نظر] را که [ویژگی خاص] داشته باشد، پیشنهاد دهید. لطفاً توضیح دهید چرا این موضوع مهم است و چگونه می‌تواند به پیشرفت دانش در این حوزه کمک کند

Suggest a research topic in the field of [specific area] that [specific characteristic]. Please explain why this topic is important and how it could contribute to advancing knowledge in this field.



یک سؤال پژوهشی چالش‌برانگیز در رابطه با [موضوع یا مسئله خاص] طراحی کنید. این سؤال باید نوآورانه باشد و پتانسیل ایجاد بینش‌های جدید در این زمینه را داشته باشد. لطفاً توضیح دهید چگونه این سؤال می‌تواند به حل مشکلات موجود در این حوزه کمک کند.

Design a challenging research question related to [specific topic or issue]. This question should be innovative and have the potential to generate new insights in this field. Please explain how this question could help solve existing problems in this area."



با توجه به روندهای اخیر در [حوزه مورد نظر]، یک عنوان پژوهشی پیشنهاد دهید که بتواند شکاف موجود در دانش فعلی را پر کند. لطفاً توضیح دهید چرا این موضوع مرتبط و به‌روز است و چگونه می‌تواند به پیشرفت این حوزه کمک کند.

Considering recent trends in [field of interest], propose a research title that could fill a gap in current knowledge. Please explain why this topic is relevant and timely, and how it could contribute to the advancement of this field.



یک عنوان پژوهشی بین‌رشته‌ای که [حوزه اول] و [حوزه دوم] را ترکیب می‌کند، پیشنهاد دهید. این عنوان باید نوآورانه باشد و پتانسیل ایجاد دیدگاه‌های جدید در هر دو حوزه را داشته باشد. لطفاً توضیح دهید چگونه این رویکرد بین‌رشته‌ای می‌تواند به حل مسائل پیچیده کمک کند.

Suggest an interdisciplinary research title that combines [first field] and [second field]. This title should be innovative and have the potential to create new perspectives in both fields. Please explain how this interdisciplinary approach could help address complex issues.


#AI
#prompt
#LLM

🆔 @irevidence
2024/12/04 15:01:27
Back to Top
HTML Embed Code: