VAJEHKADEH Telegram 2766
🚨یک وکیل استرالیایی به دلیل ارائه ارجاعات جعلی به پرونده‌های قضایی که با هوش مصنوعی تولید شده بودند، تحت تعقیب قرار گرفته است.

این وکیل پس از پذیرش استفاده از ChatGPT برای تهیه اسناد دادگاهی که شامل ارجاعات غیرواقعی بود، به دفتر کمیسیون خدمات حقوقی نیو ساوت ولز ارجاع داده شد. این اتفاق در جریان تجدیدنظر در یک پرونده مهاجرتی رخ داد، جایی که این وکیل در اکتبر ۲۰۲۴ اسنادی را ارائه کرد که حاوی منابع ساختگی بود.
اشتباهات غیرعمدی
وکیل مذکور ادعا کرد که این اشتباهات غیرعمدی بوده و ناشی از اتکای بیش از حد به هوش مصنوعی بدون بررسی دقیق بوده است.
👩‍⚖️ نگرانی قضایی
قاضی رانیا اسکاروس نگرانی‌هایی را درباره این رفتار مطرح کرد و به زمان تلف‌شده دادگاه در جستجوی این پرونده‌های غیرواقعی اشاره کرد.
⚖️ ارجاع به نهادهای نظارتی
با توجه به اهمیت جلوگیری از سوءاستفاده از هوش مصنوعی در فرآیندهای قضایی، این پرونده برای بررسی بیشتر به کمیسیون خدمات حقوقی نیو ساوت ولز ارجاع داده شده است.
🔥 موارد مشابه
این دومین مورد شناخته‌شده در استرالیا است که وکیلی به دلیل استفاده از ارجاعات جعلی تولیدشده توسط هوش مصنوعی تحت بررسی قرار می‌گیرد. پیش از این، یک وکیل در ملبورن نیز پس از پذیرش استفاده از هوش مصنوعی در یک پرونده خانوادگی، که منجر به ارائه ارجاعات نادرست شد، به نهادهای نظارتی معرفی شده بود.
👮 واکنش مقرراتی
در واکنش به چنین مواردی، دادگاه عالی نیو ساوت ولز یک دستورالعمل جدید صادر کرده است که استفاده از هوش مصنوعی مولد توسط وکلا را محدود می‌کند. این دستورالعمل که از ۳ فوریه ۲۰۲۵ اجرایی می‌شود، تصریح می‌کند که هوش مصنوعی نباید برای تولید سوگندنامه‌ها، اظهارات شاهدان، توصیه‌نامه‌های شخصیتی یا سایر مدارکی که به عنوان شواهد ارائه می‌شوند یا در بازجویی مورد استفاده قرار می‌گیرند، به کار رود.
نتیجه: هنگام استفاده از ChatGPT یا سایر ابزارهای هوش مصنوعی، حتماً منابع خود را دوباره بررسی کنید!

  @ainews_fa 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM



tgoop.com/Vajehkadeh/2766
Create:
Last Update:

🚨یک وکیل استرالیایی به دلیل ارائه ارجاعات جعلی به پرونده‌های قضایی که با هوش مصنوعی تولید شده بودند، تحت تعقیب قرار گرفته است.

این وکیل پس از پذیرش استفاده از ChatGPT برای تهیه اسناد دادگاهی که شامل ارجاعات غیرواقعی بود، به دفتر کمیسیون خدمات حقوقی نیو ساوت ولز ارجاع داده شد. این اتفاق در جریان تجدیدنظر در یک پرونده مهاجرتی رخ داد، جایی که این وکیل در اکتبر ۲۰۲۴ اسنادی را ارائه کرد که حاوی منابع ساختگی بود.
اشتباهات غیرعمدی
وکیل مذکور ادعا کرد که این اشتباهات غیرعمدی بوده و ناشی از اتکای بیش از حد به هوش مصنوعی بدون بررسی دقیق بوده است.
👩‍⚖️ نگرانی قضایی
قاضی رانیا اسکاروس نگرانی‌هایی را درباره این رفتار مطرح کرد و به زمان تلف‌شده دادگاه در جستجوی این پرونده‌های غیرواقعی اشاره کرد.
⚖️ ارجاع به نهادهای نظارتی
با توجه به اهمیت جلوگیری از سوءاستفاده از هوش مصنوعی در فرآیندهای قضایی، این پرونده برای بررسی بیشتر به کمیسیون خدمات حقوقی نیو ساوت ولز ارجاع داده شده است.
🔥 موارد مشابه
این دومین مورد شناخته‌شده در استرالیا است که وکیلی به دلیل استفاده از ارجاعات جعلی تولیدشده توسط هوش مصنوعی تحت بررسی قرار می‌گیرد. پیش از این، یک وکیل در ملبورن نیز پس از پذیرش استفاده از هوش مصنوعی در یک پرونده خانوادگی، که منجر به ارائه ارجاعات نادرست شد، به نهادهای نظارتی معرفی شده بود.
👮 واکنش مقرراتی
در واکنش به چنین مواردی، دادگاه عالی نیو ساوت ولز یک دستورالعمل جدید صادر کرده است که استفاده از هوش مصنوعی مولد توسط وکلا را محدود می‌کند. این دستورالعمل که از ۳ فوریه ۲۰۲۵ اجرایی می‌شود، تصریح می‌کند که هوش مصنوعی نباید برای تولید سوگندنامه‌ها، اظهارات شاهدان، توصیه‌نامه‌های شخصیتی یا سایر مدارکی که به عنوان شواهد ارائه می‌شوند یا در بازجویی مورد استفاده قرار می‌گیرند، به کار رود.
نتیجه: هنگام استفاده از ChatGPT یا سایر ابزارهای هوش مصنوعی، حتماً منابع خود را دوباره بررسی کنید!

  @ainews_fa 🤖

BY  




Share with your friend now:
tgoop.com/Vajehkadeh/2766

View MORE
Open in Telegram


Telegram News

Date: |

For crypto enthusiasts, there was the “gm” app, a self-described “meme app” which only allowed users to greet each other with “gm,” or “good morning,” a common acronym thrown around on Crypto Twitter and Discord. But the gm app was shut down back in September after a hacker reportedly gained access to user data. Healing through screaming therapy Telegram channels fall into two types: A new window will come up. Enter your channel name and bio. (See the character limits above.) Click “Create.” As of Thursday, the SUCK Channel had 34,146 subscribers, with only one message dated August 28, 2020. It was an announcement stating that police had removed all posts on the channel because its content “contravenes the laws of Hong Kong.”
from us


Telegram  
FROM American