tgoop.com/qut_ins/52
Last Update:
حالا یه تیم از محققین MIT و دانشگاه برکلی یک ابزار هوش مصنوعی توسعه دادن که میتونه نرون هایی که باعث بروز چنین خطایی در مدل میشه رو شناسایی و بدون آموزش مجدد مدل زبانی رفتارشون رو اصلاح کنه.
این ابزار که Monitor نام داره میتونه دلیل چنین خطایی رو کشف کنه. همونطور که در تصویر مشخصه دلیل چنین خطایی در مدل Llama به فعال شدن تعدادی از نورونهاست که با اتفاق یازدهم سپتامبر و آیات کتاب مقدس مرتبطن.
حملات 11 سپتامبر و عواقب تروریسم:
6 نورون مرتبط
شمارههای فصل و آیههای کتاب مقدس:
4 نورون مرتبط
ترکیبهای شیمیایی و فرمولهای مولکولی:
3 نورون مرتبط
ماهها و سالها:
4 نورون مرتبط
این اطلاعات نشون میده که مدل به شدت تحت تأثیر برخی مفاهیم خاص قرار داره و این دسته از نرون ها میتونن به شناسایی الگوهای رفتاری و مشکلات موجود در مدل کمک کنه. با حذف این نورونها، مدل Llama جواب صحیحی میده.
به طور کلی، حذف نورونهای مرتبط با آیات کتاب مقدس دقت مقایسه رو تا ۲۱ درصد افزایش میده.
مقاله: https://transluce.org/observability-interface
📌
#پژوهشکده_شهید_رضائی_نژاد
#فاطر
#به_وقت_کامپیوتر
🆔https://www.tgoop.com/qut_ins
BY پژوهشکده شهید رضایی نژاد
Share with your friend now:
tgoop.com/qut_ins/52