tgoop.com/toefl_shahab/315
Last Update:
آیا ChatGPT ابزار مناسبی برای تصحیح و نمرهدهی رایتینگهامونه؟
حسام:
هوش مصنوعی ChatGPT ابزار قابل اعتمادی برای تصحیح نمونههای اسپیکینگ و رایتینگ نیست. تسکی مثل تصحیح رایتینگ یک امتحان خاص، کار تخصصیای هستش و هوش مصنوعیهایی که مخصوص تصحیح هستن -- مثل Grammarly و QuillBot -- میتونن بسیار کمککنندهتر ظاهر بشن. از اون طرف، نمرهای که ابزار تخصصی تصحیح میدن، صرفا بر اساس گرامر، غلط املایی و حشو نداشتنه. این ابزار نمیدونن سوال چی بوده و یا دو دانشجوی دیگه چی گفتن. پس نمیتونن آفتاپیک بودن جوابتون یا ارائه نکردن دیدگاه جدید به دیسکاشن رو بررسی کنن و نمرهای بر اساسش بدن.
ابزار ChatGPT یه هوش مصنوعی General Purpose هستش، یعنی جوری ساخته شده که بتونه به طیف خیلی وسيعی از سوالات و مشکلات، پاسخ نسبتا مناسبی بده. هوش مصنوعی روی دیتا آموزش میبینه: هرچقدر دیتای بیشتری دریافت کنه، تواناییش در تولید دیتای مشابه افزایش پیدا میکنه. دیتای ChatGPT بر اساس دادههاییه که تا سال 2021 در اینترنت قرار گرفته بود.
هوش مصنوعی General Purpose از کجا میتونه بفهمه که جواب صحیح به یک سوال چیه؟ از فراوانی جوابهای مصطلح به سوالات مشابه که در دادههاش موجوده.
پس این شکل از هوش مصنوعی در عمل تحلیلگر خوبی نمیتونه باشه. وقتی میگین خودت رو بذار جای مصحح تافل و تصحیح کن، تمامی جوابهاش تصادفی خواهد بود (حتی جوابهای درستش). چرا؟ چون ETS اصلا دستورالعمل دقیقی در مورد طریقهی تصحیح و نمرهدهی به سوالات تافل منتشر نکرده که هوش مصنوعی بخواد مبنا قرارش بده! پس هر جوابی بده، مبنای دقیقی نداره! شما همین تسک رایتینگ رو به معلم انگلیسی مدرسه که تخصصش انگلیسیه بدید هم، در صورتی که با تافل آشنا نباشه، نمیتونه نمرهی دقیقی بده، چه برسه به ChatGPT!
یک تسک رو چند بار بهش بدید و بخواید نمره بده. خواهید دید که نمرههای متفاوتی میده. یا به جای اینکه جواب یک سوال رو بدید، جواب یک سوال دیگه رو بدین (آفتاپیک بنویسید)، میبینید که همچنان بهتون نمرهای مشابه میده (در صورتی که این نمره باید خیلی کمتر بشه).
دلیل: مفهومی توی هوش مصنوعی به اسم seed که تلاش میکنه از تولید جوابهای دقیقا یکسان برای سوالات مشابه جلوگیری کنه، یعنی اگر ده بار ازش پرسیدیم سلام حالت چطوره هر ده بار رو جواب یکسان تولید نکنه -- برای اطلاعات بیشتر سرچش کنین و در موردش بخونید.
این باعث میشه که این شکل از هوش مصنوعی اکثر مواقع جوابهای متنوعی به سوالات یکسانی که در زمانهای مختلف پرسیده شدهان میده.
یعنی هدف هوش مصنوعی general purpose ارائهی جواب صحیح نیست (اصلا نمیتونه)، بلکه ارائهی جوابیه که که شبیه آنچه باشه که در قبلا باهاش روبرو شده (فارغ از درستی یا غلطیشون)!
مثلا وقتی که ازش میپرسیم رنگ آناناس چه رنگیه، چون جواب اینجور دیتاها توی اینترنت موجودن و کسی نمیاد به آناناس بگه قرمز. اگر هم کسی بگه آناناس قرمزه، هوش مصنوعی میبینه بر اساس آمار این گزاره خیلی کم مطرح شده (اکثریت افراد چیزی مغایرش رو گفتهان)، پس نادرسته. به عبارتی، هدف هوش مصنوعی تولید جوابی مناسب، بر اساس اطلاعاتیه که در دسترس عمومه.
میتونه هم تقریبا رندوم باشه (مثل تصحیح یک نمونه رایتینگ).
توزیع نرمال دادههایی که در اینترنت موجوده!
طبق نمودار توزیع نرمال، نمرهی اکثر نمونههای رایتینگ و اسپیکینگی که توی اینترنت هست و هوش مصنوعی میتونه روشون آموزش ببینه بین 20 تا 27 هست، در نتیجه وقتی از هوش مصنوعی میخواید به نمونهی اسپیکینگ و رایتینگتون نمره بده، معمولا نمرهای در این بازه میده. به علاوه، از اونجایی هم که شما احتمالا در توزیع نرمال جا دارید، احتمالا نمرهای که بهتون میده که به نمره اصلیتون نزدیکه ( در حد 3 4 نمره خطا).
📝فهرست کل مطالب رایتینگ کانال 📝
#هوش_مصنوعی #تصحیح #رایتینگ #گرامر
#chatgpt #writing #grammar