📕شناسایی misinformation در شبکههای اجتماعی به کمک هوش مصنوعی
🚨 زمان مطالعه: ۱ دقیقه
🔗 #مقاله
🔺 احتمالا شما هم با این مشکل مواجه شدید که به طور مداوم اخبار نادرست، spam و تبلیغات با اطلاعیههای غلط در شبکههای اجتماعی بهتون suggest بشه. در این رابطه ۲ سال اخیر توسط محققین دانشگاه MIT آمریکا سیستمی طراحی شده با هدف شناسایی اطلاعات نادرست در شبکههای اجتماعی و در ادامه اطلاعرسانی به کاربران. یکی از محققین این مقاله نیز خانم فرناز جهانبخش از دانشجویان قدیمی دانشگاه صنعتی شریف میباشند!
🔺 در این مقاله، سیستمی طراحی شده که به طور مداوم از ارزیابیهای یک کاربر برای یادگیری استفاده میکنه و پیشبینی میکنه که کاربر چگونه به سایر محتواهای موجود در شبکههای اجتماعی واکنش نشون میده. کاربران در یک آزمایش، هم با این سیستم تعامل داشتن و هم ارزیابیهای خودشون رو انجام دادن.
🔺 نتیجهی این پژوهش نشون داده که کاربران تحت تأثیر پیشبینیهای هوش مصنوعی قرار میگیرن و این تأثیر در طول زمان افزایش پیدا میکنه. با اینحال، زمانی که کاربران دلایل ارزیابی خود رو توضیح میدن، این تأثیر کاهش پیدا میکنه. این یافته اهمیت استراتژیهایی رو که کاربران رو به ارائه توضیح برای تصمیماتشون تشویق میکنه، برجسته میکنه.
🔹 همچنین استفاده از ارزیابی شخصیسازیشده به کاربران امکان میده که دیدگاههای خود رو نسبت به صحت محتوا بهتر بررسی کنن. اما این رویکرد میتونه منجر به تقویت بابلهای فکری (Filter Bubbles) هم بشه، چرا که کاربران تمایل دارن به محتوایی که با دیدگاههای خودشون هماهنگ هست، اعتماد کنن.
📕شناسایی misinformation در شبکههای اجتماعی به کمک هوش مصنوعی
🚨 زمان مطالعه: ۱ دقیقه
🔗 #مقاله
🔺 احتمالا شما هم با این مشکل مواجه شدید که به طور مداوم اخبار نادرست، spam و تبلیغات با اطلاعیههای غلط در شبکههای اجتماعی بهتون suggest بشه. در این رابطه ۲ سال اخیر توسط محققین دانشگاه MIT آمریکا سیستمی طراحی شده با هدف شناسایی اطلاعات نادرست در شبکههای اجتماعی و در ادامه اطلاعرسانی به کاربران. یکی از محققین این مقاله نیز خانم فرناز جهانبخش از دانشجویان قدیمی دانشگاه صنعتی شریف میباشند!
🔺 در این مقاله، سیستمی طراحی شده که به طور مداوم از ارزیابیهای یک کاربر برای یادگیری استفاده میکنه و پیشبینی میکنه که کاربر چگونه به سایر محتواهای موجود در شبکههای اجتماعی واکنش نشون میده. کاربران در یک آزمایش، هم با این سیستم تعامل داشتن و هم ارزیابیهای خودشون رو انجام دادن.
🔺 نتیجهی این پژوهش نشون داده که کاربران تحت تأثیر پیشبینیهای هوش مصنوعی قرار میگیرن و این تأثیر در طول زمان افزایش پیدا میکنه. با اینحال، زمانی که کاربران دلایل ارزیابی خود رو توضیح میدن، این تأثیر کاهش پیدا میکنه. این یافته اهمیت استراتژیهایی رو که کاربران رو به ارائه توضیح برای تصمیماتشون تشویق میکنه، برجسته میکنه.
🔹 همچنین استفاده از ارزیابی شخصیسازیشده به کاربران امکان میده که دیدگاههای خود رو نسبت به صحت محتوا بهتر بررسی کنن. اما این رویکرد میتونه منجر به تقویت بابلهای فکری (Filter Bubbles) هم بشه، چرا که کاربران تمایل دارن به محتوایی که با دیدگاههای خودشون هماهنگ هست، اعتماد کنن.
Avoid compound hashtags that consist of several words. If you have a hashtag like #marketingnewsinusa, split it into smaller hashtags: “#marketing, #news, #usa. Concise The optimal dimension of the avatar on Telegram is 512px by 512px, and it’s recommended to use PNG format to deliver an unpixelated avatar. Step-by-step tutorial on desktop: Add up to 50 administrators
from us