tgoop.com/Vajehkadeh/2766
Last Update:
این وکیل پس از پذیرش استفاده از ChatGPT برای تهیه اسناد دادگاهی که شامل ارجاعات غیرواقعی بود، به دفتر کمیسیون خدمات حقوقی نیو ساوت ولز ارجاع داده شد. این اتفاق در جریان تجدیدنظر در یک پرونده مهاجرتی رخ داد، جایی که این وکیل در اکتبر ۲۰۲۴ اسنادی را ارائه کرد که حاوی منابع ساختگی بود.
❌ اشتباهات غیرعمدی
وکیل مذکور ادعا کرد که این اشتباهات غیرعمدی بوده و ناشی از اتکای بیش از حد به هوش مصنوعی بدون بررسی دقیق بوده است.
👩⚖️ نگرانی قضایی
قاضی رانیا اسکاروس نگرانیهایی را درباره این رفتار مطرح کرد و به زمان تلفشده دادگاه در جستجوی این پروندههای غیرواقعی اشاره کرد.
⚖️ ارجاع به نهادهای نظارتی
با توجه به اهمیت جلوگیری از سوءاستفاده از هوش مصنوعی در فرآیندهای قضایی، این پرونده برای بررسی بیشتر به کمیسیون خدمات حقوقی نیو ساوت ولز ارجاع داده شده است.
🔥 موارد مشابه
این دومین مورد شناختهشده در استرالیا است که وکیلی به دلیل استفاده از ارجاعات جعلی تولیدشده توسط هوش مصنوعی تحت بررسی قرار میگیرد. پیش از این، یک وکیل در ملبورن نیز پس از پذیرش استفاده از هوش مصنوعی در یک پرونده خانوادگی، که منجر به ارائه ارجاعات نادرست شد، به نهادهای نظارتی معرفی شده بود.
👮 واکنش مقرراتی
در واکنش به چنین مواردی، دادگاه عالی نیو ساوت ولز یک دستورالعمل جدید صادر کرده است که استفاده از هوش مصنوعی مولد توسط وکلا را محدود میکند. این دستورالعمل که از ۳ فوریه ۲۰۲۵ اجرایی میشود، تصریح میکند که هوش مصنوعی نباید برای تولید سوگندنامهها، اظهارات شاهدان، توصیهنامههای شخصیتی یا سایر مدارکی که به عنوان شواهد ارائه میشوند یا در بازجویی مورد استفاده قرار میگیرند، به کار رود.
نتیجه: هنگام استفاده از ChatGPT یا سایر ابزارهای هوش مصنوعی، حتماً منابع خود را دوباره بررسی کنید!
@ainews_fa