Evidence.ir


Гео и язык канала: Иран, Фарси
Категория: не указана


مرور سیستماتیک، جستجوی پیشرفته، آمار و روش تحقیق، مدیریت رفرنس و تولید محتوا
ادمین: دکتر رسول معصومی
@rasoul911
https://www.instagram.com/evidence.ir
https://evidence.ir
این کانال قبلا با نام Search Strategy فعالیت می کرد.

Связанные каналы  |  Похожие каналы

Гео и язык канала
Иран, Фарси
Категория
не указана
Статистика
Фильтр публикаций


▫️ میکروسکوپ الکترونی روبشی یا رویشی؟!

پایگاه ریترکشن‌واچ در تازه‌ترین پست خود به اشتباه جالبی اشاره کرده است که نویسندگان ایرانی مرتکب شده‌اند.

در ایران Scanning Electron Microscope (SEM) را میکروسکوپ الکترونی روبشی ترجمه کرده‌اند که نوعی میکروسکوپ الکترونی است و قابلیت عکس‌برداری از سطوح با بزرگنمایی 10 تا 500 هزار برابر با قدرت تفکیکی کمتر از 1 تا 20 نانومتر را دارد. (منبع)

اخیراً مشاهده شده است که در بیش از 20 مقاله علمی-که برخی از آن‌ها در مجلاتِ ناشران بزرگ منتشر شده‌اند-از اصطلاح نامفهوم vegetative electron microscope یا vegetative electron microscopy استفاده شده است. ترجمه فارسی آن میکروسکوپ الکترونی رویشی خواهد بود.


در سال 1959 مقاله‌ای علمی منتشر شده است که واژه vegetative و electron microscopy در آن وجود دارد. اما چون این مقاله بصورت دو ستونه نوشته شده است و این دو اصطلاح دقیقاً روبروی هم (یکی سمت راست و دیگری سمت چپ) قرار دارند، بنابراین مگزینوف (Magazinov) در PubPeer معتقد است هوش مصنوعی به اشتباه این مقاله را پردازش کرده است و نویسندگان ایرانی هم چون از AI برای تولید متن استفاده کرده‌اند، بنابراین مرتکب این اشتباه‌ شده‌اند.

اما کاربر دیگری در شبکه اجتماعی Reddit نظر دیگری داشته است:

بر اساس ترجمه گوگل، scanning electron microscopy در فارسی به‌صورت mikroskop elektroni robeshi (میکروسکوپ الکترونی روبشی) نوشته می‌شود، درحالی‌که vegetative electron microscopy معادل mikroskop elektroni royashi (میکروسکوپ الکترونیکی رویشی) است. تفاوت این دو اصطلاح فقط در یک نقطه است (روبشی در برابر رویشی).


سینا فروتن‌نژاد، شیمی‌دان آکادمی علوم لهستان، به پایگاه ریترکشن واچ گفته است:

نظر کاربر Reddit کاملاً درست است. من شنیده‌ام که برخی از پژوهشگران ایرانی ابتدا مقالات خود را به فارسی می‌نویسند و سپس از یک موسسه برای ترجمه آن به انگلیسی کمک می‌گیرند. در این فرایند، مترجم ممکن است روبشی را به‌اشتباه رویشی خوانده باشد. تنها یک نقطه باعث تغییر حرف ب به ی در فارسی می‌شود و احتمالاً فردی که پیش‌زمینه علمی نداشته، این عبارت را اشتباه ترجمه کرده و آن را به vegetative برگردانده است، درحالی‌که ترجمه درست آن scanning است.


از سوی دیگر، نویسنده فارسی‌زبانِ مقاله نیز ممکن است در هنگام تایپ دچار یک اشتباه ساده شده باشد و روبشی را به‌اشتباه رویشی نوشته باشد؛ چرا که دو حرف ب و یـ در صفحه‌کلید فارسی کنار یکدیگر قرار دارند.

اما مگزینوف همچنان معتقد است که ظهور این عبارت نتیجه کپی‌برداری از مقالات دیگر یا استفاده از هوش مصنوعی مولد بوده است.

فروتن‌نژاد همچنین به پدیده تکرار متون یا استفاده مجدد از متن (reuse of text) در مقالات علمی ایران اشاره کرده است که می‌تواند به گسترش این اشتباه دامن زده باشد:

یکی دیگر از مشکلات بسیاری از تیم‌های پژوهشی در ایران این است که آن‌ها به معنای واقعی کلمه یک الگو (template) برای انتشار مقالات دارند. اگر شما بارها و بارها مقالات مشابه و یکسانی را درباره مولکول‌ها، نمونه‌های زیستی یا مواد مختلف منتشر کنید، به‌صورت فرضی می‌توانید یک الگو داشته باشید که در آن با استفاده از قابلیت Find and Replace فقط برخی نام‌ها را عوض کنید! من شخصاً چنین مواردی را دیده‌ام و اصلاً شوخی نمی‌کنم!


نتیجه‌گیری:


نقطه در فارسی خیلی مهم است. بطوری که فاصله حُریت و خریت فقط یک نقطه است (به نقل از فیلم اخراجی‌ها)

#retractionwatch
#translation
#Iran

🆔 @irevidence


▫️تشویق اساتید دانشگاه شریف به انتشار مقاله در نشریات نیچر و ساینس

حسن حدادپور-معاون پژوهش و فناوری دانشگاه شریف- در گفتگو با ایسنا گفته است:

ما به دنبال انجام کارهای پژوهشی اصیل در دانشگاه هستیم. هدف‌گذاری‌هایی که انجام می‌دهیم، به تشویق اساتید برای انتشار مقالات با کیفیت در نشریات معتبر بین‌المللی اختصاص دارد. به عنوان مثال، نشریات نیچر و ساینس جزو نشریات با ضریب تأثیر بالا هستند که سعی داریم اساتید را به سمت انتشار مقالات در این نشریات هدایت کنیم.


خیلی هم عالی. اساتید را باید هدایت کرد و گرنه گمراه خواهند شد!

میانگین نمره درس ریاضی 2 دانشجویان کارشناسی شریف: 5
.23 از 20

طبق گزارش روزنامه شریف، در ترم پاییز 1403، درس ریاضی 2 به عنوان یک درس فرعی برای دانشجویان دوره کارشناسی ورودی 1402 و پیش از آن ارائه شد. در این دوره، 740 دانشجو ثبت‌نام کرده بودند، اما در روزهای پایانی ترم، 90 نفر تصمیم به حذف اضطراری این درس گرفتند. در نهایت، 650 دانشجو در آزمون پایان ترم شرکت کردند. پس از تصحیح برگه‌ها، میانگین نمرات به 5.23 از 20 رسید، که این رقم به عنوان یک رکورد تاریخی برای این درس در نظر گرفته می‌شود (منبع).

فکر کردم برای این فاجعه هم، هدایت‌هایی صورت گرفته است ولی:

مدیر آموزشی شریف: مساله حادی نیست و قابل حل است

امینی ضمن انتقاد از بازتاب این خبر در برخی رسانه‌ها گفت: این ماجرا یک اتفاق داخلی برای دانشگاه است و عده‌ای با شلوغ کردنش قصد رسانه‌ای کردن آن را داشتند.

وی ادامه داد: این اصلا مساله حادی نیست و در دانشگاه قابل حل است. قرار نیست با شلوغ کاری یک عده کیفیت آموزشی را در دانشگاه پایین بیاوریم.

#IF
#university

🆔 @irevidence


Видео недоступно для предпросмотра
Смотреть в Telegram
🔷 عنوان آموزش: عوامل موثر بر ارزش استناد

🟢 مدت زمان آموزش: 10 دقیقه

👨‍🏫 مدرس: رسول معصومی

توضیحات

اساس سنجه‌های پژوهشیِ کلاسیک، استناد است. اما استناد فقط به عملکرد یک فرد، مجله یا سازمان بستگی ندارد، بلکه حداقل شش عامل دیگر نیز بر میزان و ارزش آن تأثیر می‌گذارند. این عوامل عبارتند از:

1- اندازه (Size)

2- رشته (Discipline)
میزان انتشارات
تعداد رفرنس‌های هر مقاله
تعداد نویسندگان همکار

3- نوع انتشار (Publication-type)

4- پوشش دیتابیس (Database coverage)

5- دستکاری (Manipulation)

6- زمان (Time)

در این فیلم 10 دقیقه‌ای، این عوامل را به زبان ساده توضیح داده‌ام. این ویدئو بخشی از دوره جامع آموزش Scopus است.

#film
#research_metrics
#citation
#scopus

🆔 @irevidence


▫️ ‏معرفی Deep Research: ویژگی جدید ChatGPT برای سنتز پژوهش

نسخه فعلی ChatGPT بطور پیش‌فرض برای متونی که تولید می‌کند، رفرنسی ارائه نمی‌دهد. وقتی هم بطور واضح در پرامپت از او درخواست می‌کنیم که این کار را انجام دهد، عموماً رفرنس‌های جعلی تحویل ما می‌دهد.

چند روزی است شرکت OpenAI از ویژگی جدیدی به نام Deep Research رونمایی کرده است که این مشکل را حل کرده است و البته توانمندی‌های جالب دیگری دارد که مهم‌ترین آن سنتز دانش است. در اینجا به نقل از سایت OpenAI آن را معرفی می‌کنم.

‏Deep Research قابلیتی جدید است که پژوهش‌های چندمرحله‌ای را برای وظایف پیچیده در اینترنت انجام می‌دهد. کاری را که معمولاً انجام آن برای انسان ساعت‌ها طول می‌کشد، در عرض چند ده دقیقه به سرانجام می‌رساند. کافی است یک پرامپت ارائه کنید تا ChatGPT صدها منبع آنلاین را جستجو، تحلیل و سنتز کند و در نهایت گزارشی جامع در حد یک تحلیلگر پژوهشی (research analyst) فراهم آورد.

این سیستم از نسخه‌ای از مدل OpenAI o3 استفاده می‌کند و با تکیه بر استدلال (reasoning)، حجم وسیعی از متون، تصاویر و فایل‌های PDF را در اینترنت جستجو، تفسیر و تحلیل می‌کند.

توانایی سنتز دانش (Synthesize Knowledge) پیش‌نیازی ضروری برای خلقِ دانش جدید است. به همین دلیل، Deep Research گامی مهم به‌سوی هدف گسترده‌تر ما یعنی توسعه هوش مصنوعی عمومی (AGI) است. چیزی که مدت‌ها در تصور داشتیم بتواند پژوهش‌های علمی بدیع (novel scientific research) تولید کند.

این ویژگی برای افرادی طراحی شده است که در حوزه‌هایی مانند امور مالی، علوم، سیاست و مهندسی مشغول به کار هستند و به پژوهشی جامع، دقیق و قابل اعتماد نیاز دارند. هر خروجی (output) به‌طور کامل مستندسازی می‌شود و استناداتی شفاف به همراه خلاصه‌ای از روند فکری ارائه می‌گردد که رفرنس دادن و راستی‌آزمایی اطلاعات را آسان می‌کند. Deep Research تنها با یک کوئری، زمان ارزشمند شما را حفظ می‌کند و پژوهش‌های پیچیده و زمان‌بر اینترنتی را به سرعت انجام می‌دهد.

در حالی که o1 قابلیت‌های چشمگیری در برنامه‌نویسی، ریاضیات و دیگر حوزه‌های فنی دارد، بسیاری از چالش‌های دنیای واقعی نیازمند اطلاعات زمینه‌ای گسترده و گردآوری داده از منابع متنوع آنلاین هستند. Deep Research بر پایه همین توانایی‌های استدلالی بنا شده است تا این خلأ را پر کند و به حل مسائلی بپردازد که افراد در کار و زندگی روزمره با آن مواجه‌اند.

برای غنی‌تر کردن بستر (context) سؤال خود، می‌توانید فایل‌ها یا صفحات گسترده را نیز ضمیمه کنید. Deep Research ممکن است بین ۵ تا ۳۰ دقیقه طول بکشد تا کار خود را به پایان برساند؛ این زمان به عمق جستجو در وب بستگی دارد.

در چند هفته آینده، تصاویر، بصری‌سازی داده‌ها و سایر خروجی‌های تحلیلی نیز برای شفافیت و زمینه بیشتر به این گزارش‌ها اضافه خواهند شد.

این مدل می‌تواند فایل‌های آپلودشده از سوی کاربر را مرور کند، با استفاده از ابزار Python نمودارها را ترسیم و اصلاح کند، نمودارهای تولیدشده و تصاویر وبسایت‌ها را در پاسخ‌های خود بگنجاند و به جملات یا بخش‌های خاص منابع نیز به طور دقیق استناد دهد.

در آزمون‌هایی مثل Humanity’s Last Exam و GAIA نمره خوبی کسب کرده است. در مقایسه با OpenAI o1، بیشترین پیشرفت در رشته‌های شیمی، علوم انسانی و اجتماعی و ریاضیات به چشم می‌خورد.

با اینکه Deep Research توانمندی‌های جدید و مهمی را ارائه می‌کند؛ اما همچنان در مرحله اولیه است و محدودیت‌هایی دارد. ممکن است گاهی در بیان حقایق دچار توهم (Hallucinate) شود یا استنباط‌های اشتباه داشته باشد، هرچند طبق ارزیابی‌های داخلی، این نرخ کمتر از مدل‌های فعلی ChatGPT است.

گاهی تشخیص اطلاعات موثق از شایعات برای آن دشوار است، و در حال حاضر در تنظیم سطح اطمینان (Confidence Calibration) نیز ضعف دارد؛ به‌نحوی که اغلب نمی‌تواند عدم قطعیت را دقیقاً منتقل کند. انتظار داریم با گذشت زمان و افزایش میزان استفاده، این مسائل به‌سرعت بهبود پیدا کنند.

در آینده، می‌توانید آن را به منابع داده تخصصی‌تر (specialized data sources) از جمله منابع اشتراکی یا داخلی متصل کنید تا خروجی آن حتی جامع‌تر و شخصی‌سازی‌شده‌تر شود.

ترکیب Deep Research که می‌تواند تحقیقات آنلاین غیرهمزمان انجام دهد با Operator که توانایی انجام کار در دنیای واقعی را دارد، به ChatGPT این امکان را می‌دهد تا وظایف پیچیده‌تری را برایتان انجام دهد.

نحوه استفاده:

استفاده از آن رایگان نیست و حتماً باید اشتراک Pro چت‌جی‌پی‌تی تهیه شود.

برای استفاده کافیست بعد از انتخاب مدل مد نظر گزینه Deep Research را فعال کنید.


#AI
#deep_research
#evidence_synthesis
#chatgpt

🆔 @irevidence


▫️آیا نویسندگی همچنان معنایی دارد؟

آقای Stuart Macdonald استاد مدعو دانشگاه لستر انگلستان اخیراً در وبسایت مدرسه اقتصاد و علوم سیاسی لندن مطلب جالبی را نوشته است که بارتاب‌های زیادی در محافل علمی داشته است.

ترجمه کاملی از این نوشته را در فایل پیوست این پست می‌توانید دریافت و مطالعه کنید. اما در این پست جملات و پاراگراف‌های مهم را می‌آورم:

آن دوران گذشته است که محققان تنها به انجام پژوهش و انتشار نتایج آن می‌پرداختند. امروزه، ارزش مقالات بیش از آنکه بر پایه محتوایشان باشد، بر اساس نقشی که در سنجش عملکرد علمی ایفا می‌کنند، تعیین می‌شود. در این میان، استناد مهم‌ترین شاخص به‌شمار می‌رود.

شعار منتشر کن یا نابود شو گمراه‌کننده است: در واقع اگر دانشگاهیان استناد نگیرند نابود می‌شوند. مقاله علمی، در وهله اول بستری برای گرفتن استناد است. استنادات اشتباه (نامناسب، بی‌ربط یا حتی غیرواقعی) همان‌قدر ارزش آماری دارند که استنادات درست؛ و بسیاری از استنادات هم اشتباه‌اند — که چندان شگفت‌آور نیست وقتی بدانیم ۸۰ درصد نویسندگان هرگز مقالاتی را که به آن‌ها استناد می‌دهند، نخوانده‌اند.

این باور که "بهترین مقالات همان‌هایی هستند که بیشترین استناد را دریافت می‌کنند" پنجاه سال پیش توسط یوجین گارفیلد مطرح شد. این گزاره از همان ابتدا زیر سؤال بود.

استناد اجباری (coercive citation)-یعنی وقتی ویراستاران شرط پذیرش مقاله را استناد به خود مجله می‌گذارند- در مجلات برتر به‌شدت رواج دارد. بیش از ۹۰ درصد نویسندگان هم از این خواسته تبعیت می‌کنند.

فقط یکی دو دستکاری ساده می‌تواند سرنوشت را زیر و رو کند؛ مثلاً تغییر طبقه‌بندی چکیده‌های نشست‌ها (meeting abstracts) به مقالات علمی (academic papers) در یک مجله زیست‌شناسی باعث شد ضریب تأثیر آن از ۰٫۲۴ به ۱۸٫۳ در یک سال جهش کند.

مزیت کووید-۱۹ ضریب تأثیر مجلۀ Lancet را از ۷۹.۳ در سال ۲۰۲۱ به ۲۰۲.۷ در سال بعد رساند که جهشی ۲۵۵ درصدی در کیفیتِ اندازه‌گیری‌شده محسوب می‌شود.

وقتی دستکاری سنجه‌ها این‌قدر پاداش دارد، دیگر چه نیازی به بهبود واقعی عملکرد نویسندگان است؟ اصلاً چرا به خودِ نویسنده نیاز داشته باشیم؟

در فهرست نویسندگان پرکارِ اسکوپوس، تعدادی از افراد، دهه‌ها قبل از تولدشان شروع به انتشار مقاله کرده‌اند. یکی از نویسندگان که ۱۲ مقاله علمی، ۱۴۴ استناد و اچ-ایندکس ۱۲ دارد، لریِ گربه (Larry the cat) است!

چین با انواع دستکاری، خود را به صدر فهرست تحقیقات پُراستناد جهان رسانده و کلاریویت نیز ۱۰۰۰ نفر از ۶۸۴۹ نویسنده پُراستناد سالانه‌اش را تقلبی برچسب زده است.

عربستان سعودی به پژوهشگران خارجی پُرکار پول می‌دهد تا خود را وابسته به دانشگاه‌های عربستان معرفی کنند و بدین ترتیب جایگاه علمی آن کشور را بالا ببرند. دانشگاه ملک عبدالعزیز – که سالانه ۷۶ هزار دلار به هر نویسندگان خارجی می‌پردازد – حتی در رده‌بندی ریاضیاتِ US News & World Report از کمبریج هم پیشی گرفته است. نیازی هم به داشتن یک دپارتمان ریاضیات نیست!

تعداد نویسندگان هر مقاله به‌سرعت رو به افزایش است؛ چراکه نویسندگان همکار نیز به آثار خود استناد می‌کند و در نتیجه میزان استنادها، ضریب تأثیر و همه شاخص‌های وابسته به‌طرز چشمگیری بالا می‌رود. هرجا تعداد نویسندگان زیاد شوند، ضریب تأثیر هم افرایش پیدا می‌کند.

اخلاق مدیریتی در تمام شئون نشر دانشگاهی نفوذ کرده و باعث شده است مدیران عالی‌رتبه، از جمله رؤسا و معاونان دانشگاه، خود را محق بدانند نامشان را روی مقالاتی بگذارند که زیردستانِ گمنام‌شان نوشته‌اند.

چند سال پیش مشخص شد که ۱۶ درصد مقالاتِ مجله معتبر New England Journal of Medicine دارای نویسنده سایه یا شبح (ghost author) هستند و دست‌کم ۴۴ درصد دیگر مقالات، نویسندگان افتخاری (honorary authors) دارند.

تعداد نویسندگانی که سالانه بیش از ۶۰ مقاله چاپ می‌کنند، در عرض یک دهه تقریباً چهار برابر شده است.

هدف از تولید مقالات، صرفاً گرفتن استناد است و حتی خواندنشان لزوماً از عنوان و چکیده و چند کلیدواژه فراتر نمی‌رود.

در واقع این استناد است—نه خود پژوهش—که جایگاه نویسندگان را ارتقا می‌دهد.

زمانی نقش انتشار علمی این بود که دانشِ حاصل از پژوهش را در اختیار عموم بگذارد. اما اکنون خودِ پژوهشگر، مشتری است و برای رسیدن به شاخص‌های عملکرد مورد نیاز، مستقیماً به ناشر پول می‌دهد.

به این ترتیب، پژوهشگران برای چاپ مقالاتشان پول می‌پردازند و به دنبال مقاله‌هایی می‌گردند که بتوان برای هر موضوعی و در تأیید تقریباً هر ادعایی به آن‌ها استناد کرد، تا بالاترین بازده را به دست آورند و در مقام نویسنده، سرانجام به نوعی میان‌مایگی‌ (mediocrity) تن می‌دهند که سنجه‌های عملکردْ آن را به‌عنوان پژوهشِ واقعی تلقی می‌کند. (لینک)

#authorship
#research_ethics
#citation

🆔 @irevidence


▫️مجلات لنست استفاده از هوش مصنوعی مولد در داوری همتا را ممنوع کردند

خانم Laura Hart سردبیر مجله The Lancet Neurology در قالب سرمقاله‌ای ضمن قدردانی از داوران متعهد این مجله، مطالب زیر را بیان کرده است:

در سال‌های اخیر، چشم‌انداز نشر علمی با سرعت زیاد دچار دستخوش تغییر شده است. در سال 2024 نه تنها با چالش‌های جدیدی روبرو بودیم، بلکه با ظهور فناوری‌های هوش مصنوعی مولد (generative artificial intelligence) فرصت‌هایی نیز برای رشد و پیشرفت فراهم شد.

با توجه به این چالش‌ها، گروه لنست، گایدلاین صریحی درباره استفاده از فناوری‌های مبتنی بر هوش مصنوعی در فرایند داوری همتا تدوین کرده است (اینجا را ببینید).

از آنجا که سرعت پیشرفت فناوری‌ها در نشر علمی غالباً از تدوین چارچوب‌های اخلاقی (ethical frameworks) بیشتر است، ضروری است با احتیاط بیشتری به سراغ هوش مصنوعی برویم.

با اینکه هوش مصنوعی مولد، فرصت‌های هیجان‌انگیزی را ایجاد می‌کند، ولی خطرات بالقوه‌ای نیز از نظر دقت، سوگیری و امکان تخلف به همراه دارد.

ما قویاً باور داریم که تفکر انتقادی (critical thinking) و ارزشیابی دقیقی (nuanced evaluation) که برای داوریِ مؤثر لازم است، به‌طور کامل قابل جایگزینی با فناوری‌های هوش مصنوعی نیست.

به همین دلیل، نشریات گروه Lancet اجازه استفاده از ابزارهای هوش مصنوعی مولد را در فرایند داوری نمی‌دهند. قرار دادن دستنوشته‌های منتشر نشده (unpublished manuscripts) در مدل‌های زبانی بزرگ در طی فرایند داوری، نقض آشکار محرمانگی است.

25 مجله توسط گروه لنست منتشر می‌شوند.

#AI
#peer_review
#lancet

🆔 @irevidence


با ویراستاری مهسا قجرزاده، نیما رضایی و سارا حنایی

▫️کتاب مرور سیستماتیک و متاآنالیز توسط انتشارات Elsevier منتشر شد.

عنوان کامل کتاب به انگلیسی:

Systematic Review and Meta-Analysis: Stepwise Approach for Medical and Biomedical Researchers

در نوشتن این کتاب، 9 نویسنده همکاری داشته‌اند که 7 نفر از آن‌ها ایرانی هستند (2 نفر از از این 7 نفر، در حال حاضر در آمریکا فعالیت می‌کنند)

مهسا قجرزاده: گروه نورولوژی، دانشکده پزشکی دانشگاه جان‌هاپکینز، آمریکا

نرگس ابراهیمی: گروه ایمونولوژی، دانشکده پزشکی دانشگاه علوم پزشکی اصفهان

مهدی مختاری: گروه اپیدمیولوژی، دانشگاه علوم پزشکی خوی

معصومه صادقی: گروه اپیدمیولوژی، دانشکده بهداشت دانشگاه علوم پزشکی مشهد

پریا دهش: گروه آمار و اپیدمیولوژی، دانشگاه علوم پزشکی کرمان

محسن راستکار: مرکز پژوهش‌های علمی دانشجویان، دانشگاه علوم پزشکی تهران

کیارش آرامش: موسسه اخلاق زیستی James F. Drane، آمریکا (قبلاً عضو هیئت علمی گروه اخلاق پزشکی دانشگاه علوم پزشکی تهران بود)

ویراستاران

مهسا قجرزاده

نیما رضایی متخصص ایمنی شناسی پزشکی و استاد تمام دانشگاه علوم پزشکی تهران است.

سارا حنایی هم در گروه جراحی مغز و اعصاب (نوروسرجری) بیمارستان امام دانشگاه علوم پزشکی تهران فعالیت می‌کند.

کتاب دارای 18 فصل به ترتیب زیر است:

1. Medical Research: Steps Forward Towards Scientific Advancement

2. Research Methodology: Primary vs. Secondary Studies

3. Systematic Reviews: Definition and Structure

4. Topic Selection: Structured Questions

5. Systematic Search for A Systematic Review

6. Search-Record Screening

7. Data Extraction

8. Risk of Bias Assessment in Included Studies

9. Data Synthesis

10. Performing Meta-Analysis in Different Software

11. Interpretation of Results in Forest Plot

12. Publication Bias and Funnel Plot

13. Heterogeneity Among Included Studies

14. Missing Data in Systematic Reviews

15. Network Meta-Analysis

16. Quality assessment of systematic reviews

17. Scientific Writing in A systematic review

18. Ethics in Systematic Reviews

هر فصل بصورت ساده و خلاصه نوشته شده است و در کل 236 صفحه دارد.

چون بطور کامل کتاب را نخواندم، بنابراین نمی‌توانم نظری درباره محتوای آن داشته باشم.

125 دلار باید برای تهیه این کتاب بپردازید ولی می‌دانم نخواهید پرداخت، بنابراین در پیوست این کتاب بصورت رایگان آن را دانلود کنید. امیدوارم نویسندگان محترم راضی باشند!

#book
#systematic_review
#meta_analysis

🆔 @irevidence


▫️پیشی گرفتن عربستان از ایران در Web of Science Core Collection برای اولین بار

دیتابیس Web of Science Core Collection شامل 10 نمایه نامه استنادی است و در حال حاضر (21 فوریه 2025) تعداد 95 میلیون و 934 هزار و 486 رکورد دارد.

نمایه استنادی علوم-گسترش یافته (SCIE) به تنهایی 70.5 درصد از کل رکوردهای این دیتابیس را شامل می‌شود و بنابراین بزرگترین و مهم‌ترین نمایه استنادی این مجموعه است.

در سال 2023 ایران با تولید 59 هزار و 606 مدرک در رتبه 17 جهان قرار داشت و عربستان سعودی با 58 هزار و 163 مدرک در رتبه 18 قرار داشت.

اما در سال 2024 عربستان سعودی از ایران پیشی گرفته است. با ذکر این نکته که هنوز رکوردهای جدیدی از سال 2024 به این مجموعه در حال اضافه شدن است و در آینده تعداد رکوردهای هر دو کشور افزایش پیدا خواهند کرد.

در سال 2024 ایران 58 هزار و 480 مدرک تولید کرده است ولی عربستان 63 هزار و 950 مدرک.

تا الان عربستان 5 هزار و 787 مدرک بیش از پارسال تولید کرده است، در حالی که تعداد مدارک ایران کاهش یافته است.

با این وجود، ایران همانند پارسال در رتبه 17 قرار دارد درحالی که عربستان با دو پله صعود به رتبه 16 رسیده است. در سال 2023 روسیه بالاتر از ایران بود ولی در 2024 فعلاً پایین‌تر از ایران قرار دارد.

اما اختلاف زیادی بین ایران و روسیه وجود ندارد (حدود 2 هزار مدرک) و به احتمال بسیار زیاد، در ماه‌های آتی روسیه هم از ایران پیشی خواهد گرفت و بنابراین ایران به رتبه 19 خواهد رفت.

اما در اسکوپوس، تعداد رکوردهای ایران بیشتر از عربستان است و بعید به نظر می‌رسد در سال 2024 عربستان جای ایران را بگیرد ولی با روند فعلی و در سال 2025، قطعاً عربستان جایگاه ایران در اسکوپوس را هم خواهد گرفت.

این مطالب را نوشتم برای مسئولینی که عاشق رتبه، عدد، رقم و کمیت هستند و در برنامه هفتم توسعه هم به رتبه و چارک و ... اشاره کرده‌اند و قرار است در پایان این برنامه، رتبه 14 را کسب کنیم. (این پست را بخوانید.)

#research_outputs
#research_metrics
#webofscience
#Iran

🆔 @irevidence


▫️ هوش مصنوعی Grok 3 رایگان شد!

شرکت xAI که متعلق به ایلان ماسک است، اخیراً از جدیدترین مدل زبانی خود رونمایی کرد. این نسخه 10 برابر توانمندتر از نسخه قبلی (Grok 2) است.

ایلان ماسک آن را باهوش‌ترین هوش مصنوعی در جهان نامید. ابتدا قرار بود بصورت اشتراکی برای کاربران در دسترس باشد. ولی ماسک طی یک تصمیم غافل‌گیرکننده‌ای دسترسی رایگان و محدود به این مدل پیشرفته را برای همگان فعال کرده است.

البته فعلاً رایگان است و بعداً قطعاً هزینه اشتراک از کاربران دریافت می‌شود.

یک ساعتی با این مدل کار کردم. اولین چیزی که به چشم می‌آید سرعت بسیار بالای آن در پاسخ به سوالات است.

گزینه جالبی به نام DeepSearch دارد که برای تحقیقات علمی و اهداف آکادمیک عالی است.

برای کارهای استدلالی از گزینه Think می‌توانید استفاده کنید.

تصاویر خوب و واقع‌گرایانه‌ای را هم خلق می‌کند.

خودش میگه:

یه چیز دیگه که من رو خاص می‌کنه، اینه که دانشم مدام به‌روز می‌شه - برخلاف بعضی مدل‌ها که یه تاریخ قطعی دانش دارن، من همیشه در حال یادگیری‌ام و تا همین امروز، 20 فوریه 2025، به‌روزم.


🔗 آدرس دسترسی:
https://grok.com


#AI
#grok
#LLMS

🆔 @irevidence


▫️مدل زبانی جدید از شرکت MiniMax به نام MiniMax-Text-01

شرکت MiniMax در شانگهای چین مستقر است و قبلاً محصولاتی مانند تولید موسیقی از متن، تولید ویدئو از عکس و متن (پتلفرم Hailuo)، چت با کاراکترهای AI (پلتفرم Talkie) و چند محصول دیگر را به بازار ارائه کرده بود. این شرکت کم کم وارد مدل‌های زبانی بزرگ هم شد و محصول خود را تحت عنوان MiniMax-Text-01 معرفی کرد.

بر اساس توضیحات ارائه شده در صفحه گیت‌هاب این محصول، مدل MiniMax-Text-01 یک مدل زبان قدرتمند است که در مجموع دارای 456 میلیارد پارامتر بوده و به ازای هر توکن، 45.9 میلیارد پارامتر فعال دارد.

برای بهره‌برداری از قابلیت‌های پردازش متن‌های طولانی، این مدل از معماری هیبریدی بهره می‌برد و با به کارگیری استراتژی‌های موازی‌سازی پیشرفته، طول زمینۀ آموزشی این مدل به 1 میلیون توکن افزایش یافته و در زمان استنتاج قادر است تا 4 میلیون توکن را پردازش کند. در نتیجه، MiniMax-Text-01 عملکردی در سطح برتر در انواع بنچمارک‌های آکادمیک به نمایش می‌گذارد.

این مدل در بنچمارک‌ها و تست‌های استاندارد زبان‌شناسی، نتایج رقابتی و حتی برتر نسبت به سایر مدل‌های مطرح ارائه می‌دهد. از جمله توانایی‌های مدل می‌توان به دقت بالا در درک مفاهیم و پاسخ به سؤالات تخصصی اشاره کرد که آن را به یکی از بهترین‌ها در سطح جهانی تبدیل کرده است.

یکی از ویژگی‌های برجسته این مدل، توانایی پردازش ورودی‌های بسیار طولانی است. این مدل قادر است تا چندین میلیون توکن (به عنوان مثال، تا ۴ میلیون توکن) را به صورت همزمان پردازش کند که تقریباً 31 برابر بزرگ‌تر از GPT-4o و Llama 3.1 است.

به لطف بهینه‌سازی‌های فنی، این مدل توانسته زمان استنتاج را به شدت کاهش دهد. در برخی موارد، پاسخ‌ها در حدود 6.5 ثانیه ارائه می‌شوند که این امر برای کاربردهای زمان واقعی و تعاملات داینامیک بسیار حیاتی است.

برای استفاده از این مدل به سایت زیر مراجعه کنید:

https://chat.minimax.io/

در این سایت علاوه بر مدل MiniMax-Text-01، مدل DeepSeek R1 را هم می‌توانید انتخاب و استفاده کنید.

#AI
#minimax
#LLM

🆔 @irevidence


▫️استخراج متن فارسی از عکس بی‌کیفیت: مقایسه سه مدل زبانی بزرگ

زمانی نه چندان دور OCR متون فارسی، رویایی دست نیافتنی بود. اما کم کم این رویا به حقیقت پیوست و در حال حاضر OCR متون فارسی توسط نرم‌افزارها و سرویس‌های زیادی (رایگان یا پولی) به راحتی انجام می‌شود.

یکی از کارکردهای اکثر مدل‌های زبانی بزرگ، OCR متون از عکس‌هاست. OCR متونی که با فونت مناسب نوشته شده‌اند و بخوبی هم اسکن شده‌اند، کار دشواری نیست. اما وقتی عکس، کیفیت پایین‌تری داشته باشد و فونت‌ها هم کمی ناخوانا باشند، آیا LLM ها باز هم قادر خواهند بود با دقت بالا، آن را OCR کنند.

عکس پیوست شده را در سه مدل زبانی امتحان کردم. عکس مد نظر از یک کتاب قدیمی و اسکن شده برداشته شده است.

ابتدا از ChatGPT 4o شروع کردم و بعد از تلاش فراوان نوشت که در OCR زبان فارسی مشکل دارد.

مدل استدلالی ChatGPT o3-mini-high را امتحان کردم. OCR کرد و خروجی زیر را تحویل داد:

در خلال پنجاه سال یا اندکی بیشتر – یعنی از زمانی که روانشناسی بصورت دانشی مستقل در آمد – صدها مکتب، نگرش، گرایش در این زمینه پدید آمده، وجود داشته است. گروه‌ها، خرده‌گروه‌ها و گروه‌های فرعی در این زمینه پیدا شدند.
اصلا مکتب‌هایی که از معروفیت بسیار برخوردار بودند باز می‌توان از مکتب روانشناسی نیکسا سنختگر گفت. روانشناسی پیدا و روانشناسی محض و معرفت بروند رفتاری و ... نا بهدار.


رسماً چرت و پرت تحویلم داد. داستان نوشته برای خودش! " مکتب روانشناسی نیکسا سنختگر " خیلی مکتب خوبی است!

از DeepSeek خواستم این کار را انجام دهد و خروجی زیر را ارائه کرد:

در خلال پنجاه سال بالندگی بیشتر، یعنی از زمانی که روانشناسی بهصورت دانشی مستقل درآمد، صدها «مکتب» فکری گوناگون در این زمینه پا به عرصه وجود گذاشته است. گروهها، خردهگروهها و گروههای باز هم کوچکتری در این زمینه پیدا شدند. از میان مکتبهایی که از معروفیت بیشتری برخوردار بودهاند، میتوان از مکتب روانشناسی ژنتیک، ساختگرایی (12)، کارکردگرایی، روانشناسی پویا (14)، روانشناسی انسانگرا (15)، روانشناسی گشتالتی (17)، روانشناسی انعکاس مشروط، و بهویژه مکتب آمریکایی رفتارگرایی (18) نام برد.


اشکالات:
"یا اندکی بیشتر" را "بالندگی بیشتر" تشخیص داد.

روانشناسی "هورمیک" را روانشناسی "انسانگرا" تشخیص داد!

مشکل دیگر، چسبیدن نیم‌فاصله‌ها است که این مشکل کلی DeepSeek است.

از Claude 3.5 Sonnet استفاده کردم و خروجی زیر را ارائه داد:

در خلال پنجاه سال یا اندکی بیشتر، یعنی از زمانی که روانشناسی بصورت دانشی مستقل درآمد، صدها "مکتب" فکری گوناگون در این زمینه پا به عرصه‌ی وجود گذاشته است. گروه‌ها، خرده‌گروه‌ها و گروه‌های باز هم کوچکتری در این زمینه پیدا شدند.
از میان مکتب‌هایی که از معروفیت بیشتری برخوردار بودند، میتوان از مکتب روانشناسی ژنتیک، ساخت‌گرایی (۱۳)، کارکردگرایی، روانشناسی پویا (۱۴)، روانشناسی هورمیک (۱۵)، روانشناسی گشتالتی (۱۷)، روانشناسی انعکاسی مشروط و بویژه مکتب آمریکایی رفتارگرایی (۱۸) نام برد.


تمام کلمات را به درستی تشخیص داد و حتی برخی موارد را هم اصلاح کرد. مثلاً "پابعرصه‌ی وجود" را بصورت "پا به عرصه‌ی وجود" نوشت. اگر میتوان را می‌توان می‌نوشت که دیگه نور علی نور می‌شد!

بنابراین در تستی که انجام دادم بهترین خروجی را Claude 3.5 Sonnet تحویل داد و سپس DeepSeek. اما ChatGPT کلاً به جاده خاکی زد. ورژن‌های شخصی‌سازی‌شده GPT وجود دارند که می‌توان از آن‌ها هم استفاده کرد.

البته طبیعی است که با یک عکس نمی‌توان درباره عملکرد این مدل‌ها قضاوت دقیقی داشت، بهتر است شما هم امتحان کنید و اگر دوست داشتید، تجربه‌تان را با ما به اشتراک بگذارید.

#AI
#LLM
#OCR

🆔 @irevidence


▫️نرم‌افزاری تخصصی برای ترسیم نمودارهای پیچیده و زیبا

شاید اکسل و SPSS اکثر نیازهای ما را در زمینه ترسیم نمودار برآورده کنند. اما برای ترسیم نمودارهای پیچیده و خاص، به نرم‌افزارهای تخصصی نیاز داریم.

امروز با نرم‌افزاری به نام Golden Software Grapher آشنا شدم که فوق‌العاده است. شرکت سازنده این نرم‌افزار، شعار زیر را انتخاب کرده است:

If You Can Imagine It, You Can Graph It!

اگر چیزی را بتوانی تصور کنی، می‌توانی آن را ترسیم کنی!

وجود ده‌ها الگوی آماده، امکان ایجاد نمودارهای سفارشی با استفاده از Graph Wizard، امکان خروجی گرفتن به فرمت‌های مختلف با بالاترین کیفیت و ویژگی‌های متعدد دیگر، ما را ترغیب می‌کند که این نرم‌افزار را حتماً در رایانه‌مان نصب کنیم و از آن استفاده کنیم. (البته اگر مشکلی با استفاده از نرم‌افزارهای پولیِ کرک‌شده نداشته باشیم!)

برای دانلود به این لینک مراجعه کنید.

#software
#grapher

🆔 @irevidence


▫️گایدلاین FUTURE-AI: اجماع بین‌المللی برای هوش مصنوعیِ قابل اعتماد و قابل استقرار در مراقبت‌های بهداشتی

گروهی متشکل از 117 متخصص بین‌رشته‌ای از 50 کشور جهان، کنسرسیومی به نام FUTURE-AI تأسیس کردند.

آنها گایدلاینی را بر اساس شش اصل بنیادین تدوین کردند: عدالت (fairness)، جامعیت (universality)، قابلیت ردیابی (traceability)، کاربردپذیری (usability)، استحکام (robustness) و تبیین‌پذیری (explainability).

برای عملیاتی کردن هوش مصنوعیِ قابل اعتماد در مراقبت‌های بهداشتی 30 مورد Best Practice تعریف شده است. این توصیه‌ها کل چرخه عمر هوش مصنوعی در سلامت، از طراحی، توسعه و اعتبارسنجی گرفته تا تنظیم‌گری، استقرار و پایش را شامل می‌شود.

مقاله منتشر شده در BMJ را ببینید. یا به سایت اختصاصی این پژوه سر بزنید تا 30 توصیه را ببینید.

عدالت
اصل عدالت بیان می‌کند که ابزارهای AI در پزشکی باید در میان افراد و گروه‌های مختلف، عملکرد یکسانی داشته باشند. همچنین، مراقبت‌های پزشکی مبتنی بر هوش مصنوعی باید برای همه شهروندان، فارغ از جنس، جنسیت، قومیت، سن، وضعیت اقتصادی-اجتماعی و (نا) توانایی‌ها، به‌طور برابر ارائه شود. در طراحی ابزارهای AI عادلانه، ضروری است سوگیری‌های بالقوه تا حد امکان کاهش یابند یا در صورت بروز، شناسایی و گزارش شوند.

جامعیت

اصل جامعیت ایجاب می‌کند که ابزار AI پزشکی بتواند فراتر از محیط کنترل‌شده‌ای که در آن توسعه یافته است، عملکرد خود را حفظ کند (قابلیت تعمیم داشته باشد). به بیان دیگر، این ابزار باید در برخورد با بیماران، کاربران و در صورت نیاز، مراکز بالینی جدید نیز کارآمد باقی بماند. بسته به گسترۀ کاربردِ درنظرگرفته‌شده، چنین ابزاری باید تا حد امکان از نظر تبادل‌پذیری (interoperable) و انتقال‌پذیری توانمند باشد تا بتواند در مقیاس وسیع، مزایای خود را در اختیار شهروندان و متخصصان بالینی قرار دهد.

قابلیت ردیابی یا پایش‌پذیری
اصل قابلیت ردیابی تصریح می‌کند که ابزارهای AI در پزشکی باید همراه با مکانیسم‌هایی برای مستندسازی و پایش مسیر کامل آن‌ها، از مرحله توسعه و اعتبارسنجی تا استقرار و استفاده، طراحی شوند. این کار با ارائه اطلاعات جامع و پیوسته در طول چرخۀ عمر ابزارهای AI به بالین‌گران، سازمان‌های بهداشتی، بیماران و شهروندان، توسعه‌دهندگان AI و نهادهای نظارتی، موجب ارتقای شفافیت و مسئولیت‌پذیری می‌شود. همچنین، این قابلیت شرایط را برای ممیزی مداوم مدل‌ها، شناسایی خطرات و محدودیت‌ها و به‌روزرسانی مدل‌ها در صورت نیاز فراهم می‌سازد.

کاربردپذیری
این اصل بر این نکته تأکید دارد که کاربران نهایی باید بتوانند در محیط واقعی خود، با بهره‌گیری از ابزارهای AI، به اهداف بالینی به‌صورت کارآمد و ایمن دست یابند. از یک سو، این به معنای سهولت استفاده از قابلیت‌ها و رابط‌های کاربری AI و کاهش خطاهای احتمالی است. از سوی دیگر، ابزار مورد نظر باید از نظر بالینی مفید و ایمن باشد؛ به‌عنوان مثال، موجب افزایش کارایی پزشکان، بهبود پیامدهای سلامتیِ بیماران و پیشگیری از آسیب شود.

استحکام
این اصل بر توانایی ابزارهای AI پزشکی در حفظ عملکرد و دقتشان در مواجهه با تغییرات قابل پیش‌بینی یا غیرمنتظره در داده‌های ورودی تأکید می‌کند. پژوهش‌ها نشان داده‌اند که حتی تغییرات جزئی و نامحسوس در داده‌های ورودی می‌توانند تصمیمات مدل‌های AI را به خطا بکشانند. از آنجا که داده‌های زیست‌پزشکی و بهداشتی در دنیای واقعی ممکن است دستخوش تغییرات عمده، چه قابل انتظار و چه غیرمنتظره، شوند و در نتیجه بر عملکرد ابزارهای AI تأثیر بگذارند، لازم است این ابزارها به گونه‌ای طراحی و توسعه یابند که در برابر چنین تغییراتی مقاوم باشند و به‌شیوه‌ای مناسب ارزشیابی و بهینه‌سازی شوند.

تبیین‌پذیری
اصل تبیین‌پذیری بر این نکته تأکید دارد که ابزارهای AI در پزشکی باید اطلاعاتی معنادار از نظر بالینی درباره منطقِ تصمیمات خود ارائه دهند. اگرچه حوزه پزشکی، به دلیل حساسیت و ریسک بالا، نیازمند شفافیت، قابلیت اطمینان و پاسخگویی است، اما فنون یادگیری ماشین اغلب به مدل‌های پیچیده و اصطلاحاً جعبه سیاه منجر می‌شوند. از دیدگاه فنی، پزشکی، اخلاقی، حقوقی و بیماران، تبیین‌پذیری ویژگی مطلوبی محسوب می‌شود چون به کاربران نهایی امکان می‌دهد تا مدل AI و خروجی‌های آن را تفسیر کنند، ظرفیت‌ها و محدودیت‌های ابزار را بشناسند و در صورت لزوم مداخله کنند؛ برای مثال، تصمیم بگیرند از آن استفاده کنند یا خیر. با این حال، تبیین‌پذیری فرایندی پیچیده است که چالش‌های خاص خود را دارد و باید در تمامی مراحل توسعه و ارزیابی AI مورد توجه دقیق قرار گیرد تا اطمینان حاصل شود که تبیین‌های ارائه‌شده، از نظر بالینی معنادار و برای کاربران نهایی سودمند هستند.

#AI
#healthcare
#guideline

🆔 @irevidence


▫️مجموعه وبینارهای شرح چک‌لیست‌های ارزیابی کیفیت مطالعات

چک‌لیست‌ها و ابزارهای زیادی برای ارزیابی کیفیت مطالعات (Quality Assessment) یا ارزیابی خطر سوگیری (Risk of bias Assessment) وجود دارد. در مرورهای سیستماتیک و عملکرد مبتنی بر شواهد نیاز هست که کیفیت مطالعات با استفاده از این ابزارها مورد ارزیابی قرار بگیرند.

از این هفته قرار است در قالب مجموعه وبینارهایی، مهم‌ترین و پر استفاده‌ترین این چک‌لیست‌ها را شرح دهیم.

ابتدا از ابزارهای ارزیابی نقادانه موسسه جووانا بریگز (JBI’s Critical Appraisal Tools) شروع می‌کنیم که برای انواع مطالعات و دیزاین‌های اصلی، چک‌لیست اختصاصی ارائه کرده و اخیراً هم اکثر آنها را مورد ویرایش قرار داده است.

بطور کلی این موسسه برای مطالعات زیر چک لیست اختصاصی طراحی کرده است:

1- مطالعات مقطعیِ تحلیلی (Analytical Cross Sectional Studies)

2- مطالعات مورد-شاهدی (Case Control Studies)

3- مطالعات کوهورت (Cohort Studies)

4- مطالعات شبه تجربی (Quasi-Experimental Studies)

‌‏5- مطالعات ‏RCT

6- مطالعات کیفی (Qualitative Research)

7- مرورهای سیستماتیک (Systematic Reviews)

8- مطالعات دقت تست‌های تشخیصی (Diagnostic Test Accuracy Studies)

9- مطالعات شیوع (Prevalence Studies)

10- ارزشیابی‌های اقتصادی (Economic Evaluations)

11- و البته شواهد متنی (Textual Evidence) که در سه نسخه نظرات متخصصان (Expert Opinion)، روایتی (Narrative) و سیاستی (Policy) طراحی شده است.

در این وبینارها فقط چک لیست‌های 1 تا 7 -که مورد نیاز و استفاده طیف گسترده‌ای از پژوهشگران است-شرح داده می‌شوند.

روال اجرا بدین صورت خواهد بود:

1️⃣ ابتدا توضیحات کوتاهی درباره دیزاین پژوهشی مد نظر و مراحل انجام آن ارائه خواهد شد (البته انتظار می‌رود شرکت کنندگان از قبل آشنایی کلی با این دیزاین‌ها داشته باشند.)

2️⃣ تمام آیتم‌های هر چک‌لیست و نحوه تفسیر و تکمیل آن توضیح داده می‌شود.

3️⃣ یک نمونه مقاله منتشر شده، بصورت عملی توسط آن چک‌لیست مورد ارزیابی قرار می‌گیرد.

4️⃣ در بخش نهایی وبینار، فرصتی برای پرسش و پاسخ مهیا می‌شود.

✳️ برای وبینار اول، چک‌لیست مطالعات RCT را شرح می‌دهیم.

ابزار RoB 2 هم که توسط کاکرین طراحی شده است، در وبینارهای آتی شرح داده‌ می شود.

⌛️ پنجشنبه این هفته (25 بهمن 1403) از ساعت 18:30 تا 20:30 منتظر شما هستیم.

🔗 برای ثبت‌نام در وبینار شرح چک‌لیست ارزیابی مطالعات RCT به لینک زیر مراجعه کنید:

https://zarinp.al/678815

#webinar
#riskofbias
#quality_assessment

🆔 @irevidence


▫️کتاب مایکروسافت کوپایلوت برای خنگ‌ها

Microsoft Copilot For Dummies by Chris Minnick; 2025

این کتاب که به تازگی منتشر شده است راهنمای مفیدی برای استفاده از Microsoft Copilot فراهم کرده است.

عناوین بخش‌ها و فصول کتاب:

Part 1: Meeting Your AI Assistant
Chapter 1: Getting Started with Microsoft Copilot
Chapter 2: Chatting with Copilot
Chapter 3: Browsing with Copilot
Chapter 4: Going Mobile with Copilot
Chapter 5: Using a Copilot+ PC

Part 2: Getting Work Done with Microsoft 365 Copilot
Chapter 6: Writing with Copilot
Chapter 7: Crunching the Numbers with Copilot
Chapter 8: Presenting with Copilot.
Chapter 9: Emailing with Copilot
Chapter 10: Meeting and Collaborating with Copilot
Chapter 11: Generating and Manipulating Images
Chapter 12: Using Copilot for Project Management

Part 3: Jumpstarting Your Productivity with Copilot
Chapter 13: Making Custom Copilots
Chapter 14: Expanding Copilot’s Capabilities with Plugins
Chapter 15: Troubleshooting Common Issues with Copilot

Part 4: The Part of Tens
Chapter 16: Ten Plugins for Copilot
Chapter 17: Ten Hidden Copilot Gems

کوپایلوت با Microsoft 365 ادغام شده است ولی در آفیس‌های دیگر مثل 2019 و 2016 کار نمی‌کند. بنابراین اگر اشتراک 365 را ندارید برخی مطالب بخش دوم کتاب (فصول 6 تا 12) برایتان کاربردی نخواهد داشت. با این حال از نکات و مخصوصاً پرامپت‌های این بخش می‌توان استفاده کرد.


🔗 برای دانلود کتاب به این لینک مراجعه کنید.


#AI
#book
#Copilot

🆔 @irevidence


▫️ریترکت شد!

اگر یادتان باشد چند ماه قبل از مقاله‌ای گفتیم که در مجله با IF بالا چاپ شده بود ولی یک جمله عجیب داشت:

به درخواست مصرانه داوران، در اینجا به تعدادی منابع (35 تا 46) استناد کرده‌ایم، اگرچه این منابع کاملاً بی‌ارتباط با موضوع اصلی پژوهش ما هستند.


با اینکه نویسندگان مقصر نبودند ولی الزویر، این مقاله را به تازگی ریترکت کرده است. در اعلان ریترکشن آمده است:

این مقاله بنا به درخواست سردبیر، ریترکت شده است. سردبیر مجله متوجه جمله‌ای در این مقاله شد که به درخواست ۱۳ استناد از سوی داوران در طول فرایند داوری اشاره می‌کرد. در نتیجۀ بررسیِ تیم صداقت پژوهش و اخلاق نشر الزویر (Elsevier's Research Integrity & Publishing Ethics) به نمایندگی از مجله مشخص شد که دو تن از داوران از نویسندگان درخواست کرده‌اند رفرنس‌های تکراری را در مقاله درج کنند. بنابراین فرآیند داوری، مخدوشْ تشخیص داده شده است.

مجله تصمیم گرفته است داورانی را که مسئول درخواست استنادات بودند، بلافاصله از دیتابیس خود حذف کند تا در آینده نتوانند مقالات را داوری کنند.

سردبیر با ریترکشن مقاله موافقت کرده و از نویسندگان دعوت کرده است که مقاله را دوباره ارسال کنند (resubmit) تا طی یک فرآیند داوری صحیح و عادلانه بررسی شود. نویسندگان کاملاً با دلیل ریترکشن موافق‌ هستند و قصد دارند اثر خود را دوباره به مجله ارسال کنند.

سردبیر مایل است توضیح دهد که نویسندگان در این ماجرا قصوری نداشته‌اند و نباید اعتبار و مشارکت‌های آنان زیر سؤال برده شود. از نویسندگان و خوانندگان مجله عذرخواهی می‌شود.

#publishing
#peer_review
#ethics
#retraction
#elsevier

🆔 @irevidence


▫️آموزشِ پژوهش: سهل و ممتنع

بیش از 10 سال قبل، در یک کارگاه سه روزه متاآنالیز شرکت کرده بودم. مدرس آن کارگاه، به تازگی دوره دکتری خود را تمام کرده بود. از همان اول، تدریس خود را با اصطلاحات پیچیده و به اصطلاح سطح بالا شروع کرد. طبیعی بود که برای شرکت کنندگان تازه کار، فهم صحبت‌های ایشان دشوار بود. دو سه ساعتی گذشت و بالاخره یکی از خانم‌های شرکت کننده جرئت کرد و گفت که: "بیشتر مطالبی که بیان می‌کنید، ما درک نمی‌کنیم."

مدرس محترم جمله‌ای گفت که هنوز هم بخوبی خاطرم است:

من وظیفه‌ام درس دادن است و این مطالب را باید ارائه کنم. این که شما یاد بگیرید یا نه، به من اصلاً ربطی ندارد!


این مدرس محترم وظیفه اصلی خود را تدریسِ (Teaching) مطالب می‌دانست نه کمک به شرکت کنندگان برای یادگیریِ (Learning) محتوای مورد نظر.

اگر تدریس را متغیر مستقل در نظر بگیریم، در حقیقت یادگیری، متغیر وابسته (پیامد) است. اگر در نتیجۀ تدریسِ ما، هیچ گونه یادگیری در فراگیران اتفاق نیفتد، انگار هیچ کاری انجام نداده‌ایم. بنابراین تدریسی اثربخش است که منجر به یادگیریِ بهتر دانشجویان شود و گرنه هیچ ارزشی ندارد.

البته یادگیری پدیده پیچیده‌ای است و عوامل زیادی ممکن است بر آن اثر بگذارد، با این حال همچنان استاد یا مدرس، نقش برجسته‌ای در یادگیری فراگیران دارد.

چند وقتی است به آموزشِ پژوهش فکر می‌کنم. دوره‌های زیادی شرکت کردم ولی بعد از اتمام آن دوره، احساس کردم چیزی یاد نگرفتم. قطعاً این احساس در بین شرکت کنندگان محترمی هم وجود دارد که در دوره‌ها و کارگاه‌های من شرکت می‌کنند.

اگر قصد برگزاری دوره‌ای را داریم باید به این‌گونه سؤالات پاسخ دهیم:

1️⃣ چه اهداف یا پیامدهای یادگیری را باید در نظر بگیریم؟

2️⃣ شرکت‌کنندگان دوره‌ها چه ویژگی‌هایی باید داشته باشند؟

3️⃣ چه محتوا و مطالبی را تدریس کنیم؟

4️⃣ محتوا را چگونه سازماندهی کنیم؟ (از جز به کل، از کل به جزء، از ساده به پیچیده و ...)

5️⃣ از چه روش‌ها و استراتژی‌های آموزشی استفاده کنیم؟ (سخنرانی، مسئله محور، پروژه محور، منتورشیپ، آنلاین، آفلاین و ...)

6️⃣چگونه مطمئن شویم که به اهدافمان رسیده‌ایم؟ (روش‌های ارزیابی دانشجو)

فرض کنید من قصد برگزاری دوره‌ای را دارم. در پوستر دوره می‌نویسم: مناسب برای همه!

ثبت نام تمام می‌شود و من لیست ثبت‌نام ‌کنندگان را بررسی می‌کنم. می‌بینم که تنوع بسیار زیادی از لحاظ سطح دانش، تجربه، سن و رشته آنها وجود دارد. از دانشجوی سال اول کارشناسی تا دانشجویان ارشد و دکتری و حتی اساتید محترم دانشگاه در این دوره شرکت کرده‌اند. رشته‌ها بسیار متنوع است: پزشکی عمومی، پرستاری، دندانپزشکی، داروسازی، دستیاران تخصصی، رشته‌های بهداشت، رشته‌های علوم توانبخشی و رشته‌های علوم انسانی و مهندسی!

واقعاً چطور می‌توان تدریس کرد که مناسبِ همه این عزیزان باشد؟

از چه مثال‌هایی باید استفاده کرد که همه درکشان کنند و آنها را نامرتبط تلقی نکنند؟

به چه میزان و در چه سطحی باید تدریس کرد؟

یا فرض کنید قصد داشته باشم برای دانشجویانی که برای اولین بار می‌خواهند مقدمات پژوهش را یاد بگیرند، تدریس کنم:

دقیقاً از کجا شروع کنم؟ از تعریف پژوهش؟ متغیرها، دیزاین‌های پژوهش؟!

چه مطالبی را تدریس کنم و چه مطالبی را تدریس نکنم؟

و مسائلی از این قبیل.

ملاحظه می‌فرمایید که این‌ها سؤالات بسیار مهمی هستند که اگر بدرستی به آن‌ها پاسخ دهیم، به احتمال زیاد دانشجویان و شرکت‌کنندگان ما یادگیری بهتری خواهند داشت.

ولی آنچه در عمل اتفاق می افتد این است که در بیشتر اوقات به نیازهای یادگیری فراگیران توجهی نمی‌کنیم و فقط دوست داریم اسلاید درست کنیم و آن را تند تند بصورت آنلاین یا حضوری به شرکت‌کنندگان منتقل کنیم.

شاید با بررسی بهترین شواهد و best practice‌های موجود، بتوانیم چندین برنامه درسی (Curriculum) را تدوین کنیم که ما را به اهداف خودمان برساند که همان افزایش دانش، نگرش و مهارت دانشجویان یا بطور کلی توانمندی یا صلاحیت آنها در حوزه پژوهش است. یا شاید هم هیچگاه به چنین برنامه‌ای نرسیم!

❔شما چه فکر می‌کنید؟

#research
#education

🆔 @irevidence


▫️شگفتانه جدید چینی‌ها: ارائه مدل زبانی بزرگ Qwen2.5 با عملکرد خارق العاده

این مدل متعلق به شکرت Alibaba است و آن طور که ادعا می‌کند در برخی زمینه‌ها حتی از DeepSeek هم عملکرد بهتری دارد. در این صفحه توضیحات کاملی ارائه شده است که من مهم‌ترین نکات را اینجا بیان می‌کنم.

معرفی نسل جدید مدل Qwen

‏Qwen-2.5 به‌عنوان نسخه‌ای بهبودیافته از خانواده مدل‌های زبانی Qwen معرفی شده و هدف اصلی آن ارائه قابلیت‌های بهتر در درک متن، کدنویسی، استدلال، و تعامل چندمرحله‌ای (multi-turn) است.

بهبود در معماری و فرایند پیش‌آموزش

در این نسخه بر معماری مدل و فرایند پیش‌آموزش (pre-training) متمرکز شده است تا کیفیت پاسخ‌ها و توانایی‌های مدل در زبان‌های مختلف ارتقا یابد.

از داده‌های گسترده و متنوع‌تری برای پیش‌آموزش استفاده شده و تکنیک‌های جدیدی در بهینه‌سازی و تنظیم ابرپارامترها (hyperparameters) به‌کار رفته است.

توانایی‌های برجسته

قابلیت تولید متن (Text Generation): بهبود در روانی و انسجام متنی در مکالمات و متون بلند.

تعامل چندمرحله‌ای (Multi-turn Dialogue): قدرت پاسخ‌دهی پیوسته به پرسش‌ها در گفت‌وگوهای طولانی و درک بهتر تاریخچه مکالمه.

درک و تولید کد (Code Generation): توانایی بالاتر در تفسیر و نگارش قطعه کدها، که می‌تواند برای کاربردهای توسعه نرم‌افزار مفید باشد.

استدلال و تحلیل (Reasoning): پیشرفت در حل مسائل پیچیده، تحلیل داده‌ها و ارائه استدلال‌های منطقی‌تر.

پوشش دانش عمومی (Knowledge): گستره وسیع‌تری از دانسته‌ها در زمینه‌های گوناگون، به‌ویژه حوزه‌های تخصصی.

بهبود در کارایی و مقایسه با سایر مدل‌ها

در تست‌های بنچمارک (Benchmarks) و مقایسه با سایر مدل‌های هم‌رده (مثلاً مدل‌هایی با اندازه مشابه یا کمی بزرگ‌تر) پیشرفت‌های چشم‌گیری مشاهده شده است.

قدرت یادگیری و انطباق مدل در شرایط و داده‌های متفاوت نسبت به نسخه‌های پیشین ارتقا یافته است.

امکان استفاده متن‌باز (Open-Source)


‏Qwen-2.5 به‌صورت متن‌باز قابل دریافت و استفاده است. این موضوع زمینه را برای تحقیقات دانشگاهی و همچنین کاربردهای صنعتی بازتر می‌کند.

کاربردهای متنوع

حوزه‌هایی مانند چت‌بات‌های هوشمند، تولید محتوای خودکار، خلاصه‌سازی متون، تحلیل احساس (Sentiment Analysis)، پرسش‌وپاسخ پیشرفته و حتی کاربردهای کدنویسی، همگی می‌توانند از توانمندی Qwen-2.5 بهره ببرند.

اهداف توسعه و برنامه‌های آتی

تیم توسعه‌دهنده قصد دارد با گسترش مستمر مجموعه داده‌های آموزشی و بهبود روش‌های یادگیری، قابلیت‌ها و کیفیت پاسخ‌گویی را در نسخه‌های آینده خانواده Qwen باز هم افزایش دهد.

همچنین برنامه‌هایی برای گسترش پشتیبانی از زبان‌های بیشتر و کاربردهای تخصصی‌تر (مانند حوزه‌های پزشکی، حقوقی، مالی و …) مطرح شده است.

[سپاس ویژه از یکی ار همراهان کانال که این مدل را معرفی کرد]


🔗 نحوه دسترسی:


دمویی از این ربات در سایت زیر بالا آمده است. برای استفاده کافیست با جی‌میل وارد شوید. سرعتش کند است:

https://chat.qwenlm.ai/


مشاهده کدها و سایر اطلاعات در گیت‌هاب:

https://github.com/QwenLM/Qwen2.5


مشاهده در huggingface:

huggingface.co/Qwen

#AI
#LLMs
#Qwen
#chatbot

🆔 @irevidence


▫️شش ناشر در عرض 5 سال حدود 9 میلیارد دلار بابت چاپ مقالاتِ اوپن اکسس به جیب زدند.


مقاله‌ای با عنوان زیر توسط خانم Haustein و همکارانش بصورت Preprint منتشر شده است:

Estimating global article processing charges paid to six publishers for open access between 2019 and 2023 (Link)


این مقاله برآوردی از هزینه‌های کلی صرف‌شده برای هزینه پردازش مقالات (APC) پرداختی به شش ناشر بزرگ برای انتشار دسترسی آزاد (Open Access - OA) در بازه زمانی ۲۰۱۹ تا ۲۰۲۳ ارائه می‌دهد.

این هزینه‌ها شامل پرداخت‌های مربوط به مجلاتِ با دسترسی آزاد طلایی (Gold OA) و مجلات هیبریدی (Hybrid OA) است.

از آنجایی که شفافیتی در مورد هزینه‌های واقعی APC وجود ندارد، نویسندگان مقاله با ترکیب داده‌های قیمت APC از الزویر، Frontiers، MDPI، PLOS، اسپرینگر نیچر و وایلی و تعداد مقالات OA نمایه‌شده در OpenAlex تخمینی از مجموع هزینه‌های کلی ارائه کرده‌اند.

مهم‌ترین یافته‌های این مطالعه

هزینه کل:

مجموع هزینه‌های APC در سطح جهانی ۸.۳۴۹ میلیارد دلار برآورد شد که با تعدیل تورمی معادل ۸.۹۶۸ میلیارد دلار در سال ۲۰۲۳ است.

هزینه‌ها از ۹۱۰.۳ میلیون دلار در سال ۲۰۱۹ به ۲.۵۳۸ میلیارد دلار در سال ۲۰۲۳ افزایش یافت (تقریباً سه برابر شدن هزینه‌ها در عرض پنج سال).

ناشران با بیشترین درآمد از APC در سال ۲۰۲۳:

1- ‏MDPI: ‏حدود ۶۸۱.۶ میلیون دلار
2- الزویر: حدود ۵۸۲.۸ میلیون دلار
3- اسپرینگر نیچر: حدود ۵۴۶.۶ میلیون دلار

روند تغییرات در هزینه‌های APC:

هزینه‌های دسترسی آزاد هیبریدی (Hybrid OA) سریع‌تر از دسترسی آزاد طلایی (Gold OA) رشد داشته است.

سهم ناشران از درآمد APC متفاوت است:

الزویر و وایلی رشد چشمگیری در درآمدهای هیبریدی خود داشتند (بیش از ۳.۵ برابر افزایش).

و MDPI از سال ۲۰۲۱ به بزرگ‌ترین ناشر OA تبدیل شد اما از سال ۲۰۲۲ رشد آن متوقف شد.

فرانتیرز در سال ۲۰۲۳ با کاهش شدید در تعداد مقالات منتشرشده، افت درآمدی ۲۵.۵ درصدی را تجربه کرد.

روند قیمت APC:

هزینه APC مجلات هیبریدی بالاتر از ژورنال‌های طلایی است، اگرچه هزینه‌های اشتراکی نیز برای مجلات هیبریدی پرداخت می‌شود.

میانگین APC پرداخت‌شده برای مجلات طلایی ۲۴۵۰ دلار و برای مجلات هیبریدی ۳۶۰۰ دلار برآورد شد.

ناشران با گران‌ترین هزینه‌های APC:

مجلات Nature (هیچ‌کدام در این مطالعه نبودند) هزینه‌هایی تا ۱۱۶۹۰ دلار دارند.

مجلات Cell هزینه‌ای تا ۹۰۸۰ دلار دارند.

چالش‌های روش‌شناختی و شفافیت:

نبود اطلاعات شفاف از سوی ناشران در مورد تخفیف‌ها، معافیت‌ها و پرداخت‌های واقعی باعث می‌شود برآورد دقیق دشوار باشد.

روش‌های به‌کاررفته در این مطالعه تلاش کرده‌اند تا تخمین‌های اغراق‌آمیز قبلی را تصحیح کنند.

مدل هیبریدی به دلیل عدم تطابق بین هزینه‌های APC و هزینه‌های واقعی انتشار مورد انتقاد قرار گرفته است.

#open_access
#open_science
#publishers
#journals
#APC

🆔 @irevidence


▫️حجت الاسلام احمدحسین شریفی-رئیس دانشگاه قم: رشد علم در ایران ۱۱ برابر متوسط دنیا است

این آمار مربوط به سال 2010 است که در آن سال تعداد مقالات ایرانی نسبت به سال 2009 بسیار افزایش پیدا کرد ولی بعد از آن، این رشد کاهش پیدا کرد و در حال حاضر حتی به اندازه میانگین جهانی هم مقاله منتشر نمی‌کنیم.

من آمار رشد سالانه کل مدارک اسکوپوس و ایران را از سال 2021 محاسبه کردم. ملاحظه می‌فرمایید که نه تنها 11 برابر که حتی به اندازه میانگین رشد جهانی هم مقاله منتشر نکرده‌ایم.

آقای شریفی این مطالب را در 20 آذر 1403 ارائه فرموده‌اند. معاون فرهنگی و دانشجویی دانشگاه آزاد اسلامی در 21 بهمن 1402 هم دقیقاً همین آمار را ارائه کرده بودند. افراد دیگری هم کم و بیش به این آمار 14 سال قبل استناد می‌کنند و ظاهراً حرف مرد یکی است.
#research_outputs
#scopus
#critique

🆔 @irevidence

Показано 20 последних публикаций.