PYTHON4FINANCE Telegram 1036
مروری بر قانون هوش مصنوعی اروپا
این قانون در دسامبر 2023 و بعد از سه سال کار روی پیش نویس اولیه تصویب شده است. اخیرا دیدم که مجددا بحث در خصوص این قانون داغ شده است و تصمیم گرفتم ترجمه خلاصه ای از آن را در کانال ارائه کنم.
رویکرد ارائه شده در این قانون، رویکرد مبتنی بر ریسک است.
قانون هوش مصنوعی یک رویکرد مبتنی بر ریسک را برای دسته بندی برنامه های هوش مصنوعی بر اساس تأثیر بالقوه آنها بر حقوق بشر و ایمنی اتخاذ می کند. این رویکرد اجازه می دهد تا الزامات نظارتی متفاوتی وجود داشته باشد و اطمینان حاصل شود که برنامه های کاربردی با ریسک بالاتر تحت نظارت دقیق تری قرار دارند.
برنامه های غیرقابل قبول هوش مصنوعی
قانون هوش مصنوعی صراحتاً برخی از برنامه های کاربردی هوش مصنوعی را که به دلیل احتمال آسیب رساندن به افراد یا جامعه «غیرقابل قبول» تلقی می شوند، ممنوع می کند. این موارد عبارتند از:
- امتیازدهی اجتماعی: سیستم هایی که افراد را بر اساس رفتار یا ویژگی هایشان امتیاز می دهند، مشابه سیستم اعتبار اجتماعی مورد استفاده در برخی کشورها.
- پیش بینی رفتار مجرمانه: سیستم های هوش مصنوعی برای پیش بینی رفتار مجرمانه استفاده می شود که می تواند منجر به نتایج مغرضانه و ناعادلانه شود.
- شناخت عاطفی: به ویژه در محیط های حساس مانند محل کار و مدارس، جایی که چنین فناوری می تواند به حریم خصوصی نفوذ کند و منجر به تبعیض شود.

سیستم های هوش مصنوعی پرخطر

سیستم‌های هوش مصنوعی پرخطر آن‌هایی هستند که پیامدهای مهمی برای سلامت، ایمنی و حقوق اساسی دارند. این موارد عبارتند از:
- وسایل نقلیه خودران: سیستم‌های هوش مصنوعی مورد استفاده در خودروهای خودران که باید تحت ارزیابی‌های ایمنی دقیق قرار گیرند.
- ابزارهای پزشکی: کاربردهای هوش مصنوعی در مراقبت‌های بهداشتی که برای اطمینان از ایمنی بیمار نیاز به اعتبارسنجی دقیق دارند.
- امور مالی و آموزش: سیستم‌های هوش مصنوعی مورد استفاده در این بخش‌ها باید برای جلوگیری از سوگیری‌هایی که می‌توانند منجر به رفتار یا نتایج ناعادلانه شوند، ارزیابی شوند.

با دسته‌بندی برنامه‌های هوش مصنوعی به این شیوه، قانون هوش مصنوعی تضمین می‌کند که تلاش‌های نظارتی در جایی متمرکز می‌شوند که بیشتر مورد نیاز است، در نتیجه از افراد و جامعه در برابر آسیب‌های احتمالی محافظت می‌کند و در عین حال امکان نوآوری در مناطق کم‌خطر را فراهم می‌کند.

#AI_ACT
#AI
#قانون_هوش_مصنوعی
#هوش_مصنوعی

پایتون برای مالی
🆔 www.tgoop.com/python4finance
🆔 ble.ir/python4finance



tgoop.com/python4finance/1036
Create:
Last Update:

مروری بر قانون هوش مصنوعی اروپا
این قانون در دسامبر 2023 و بعد از سه سال کار روی پیش نویس اولیه تصویب شده است. اخیرا دیدم که مجددا بحث در خصوص این قانون داغ شده است و تصمیم گرفتم ترجمه خلاصه ای از آن را در کانال ارائه کنم.
رویکرد ارائه شده در این قانون، رویکرد مبتنی بر ریسک است.
قانون هوش مصنوعی یک رویکرد مبتنی بر ریسک را برای دسته بندی برنامه های هوش مصنوعی بر اساس تأثیر بالقوه آنها بر حقوق بشر و ایمنی اتخاذ می کند. این رویکرد اجازه می دهد تا الزامات نظارتی متفاوتی وجود داشته باشد و اطمینان حاصل شود که برنامه های کاربردی با ریسک بالاتر تحت نظارت دقیق تری قرار دارند.
برنامه های غیرقابل قبول هوش مصنوعی
قانون هوش مصنوعی صراحتاً برخی از برنامه های کاربردی هوش مصنوعی را که به دلیل احتمال آسیب رساندن به افراد یا جامعه «غیرقابل قبول» تلقی می شوند، ممنوع می کند. این موارد عبارتند از:
- امتیازدهی اجتماعی: سیستم هایی که افراد را بر اساس رفتار یا ویژگی هایشان امتیاز می دهند، مشابه سیستم اعتبار اجتماعی مورد استفاده در برخی کشورها.
- پیش بینی رفتار مجرمانه: سیستم های هوش مصنوعی برای پیش بینی رفتار مجرمانه استفاده می شود که می تواند منجر به نتایج مغرضانه و ناعادلانه شود.
- شناخت عاطفی: به ویژه در محیط های حساس مانند محل کار و مدارس، جایی که چنین فناوری می تواند به حریم خصوصی نفوذ کند و منجر به تبعیض شود.

سیستم های هوش مصنوعی پرخطر

سیستم‌های هوش مصنوعی پرخطر آن‌هایی هستند که پیامدهای مهمی برای سلامت، ایمنی و حقوق اساسی دارند. این موارد عبارتند از:
- وسایل نقلیه خودران: سیستم‌های هوش مصنوعی مورد استفاده در خودروهای خودران که باید تحت ارزیابی‌های ایمنی دقیق قرار گیرند.
- ابزارهای پزشکی: کاربردهای هوش مصنوعی در مراقبت‌های بهداشتی که برای اطمینان از ایمنی بیمار نیاز به اعتبارسنجی دقیق دارند.
- امور مالی و آموزش: سیستم‌های هوش مصنوعی مورد استفاده در این بخش‌ها باید برای جلوگیری از سوگیری‌هایی که می‌توانند منجر به رفتار یا نتایج ناعادلانه شوند، ارزیابی شوند.

با دسته‌بندی برنامه‌های هوش مصنوعی به این شیوه، قانون هوش مصنوعی تضمین می‌کند که تلاش‌های نظارتی در جایی متمرکز می‌شوند که بیشتر مورد نیاز است، در نتیجه از افراد و جامعه در برابر آسیب‌های احتمالی محافظت می‌کند و در عین حال امکان نوآوری در مناطق کم‌خطر را فراهم می‌کند.

#AI_ACT
#AI
#قانون_هوش_مصنوعی
#هوش_مصنوعی

پایتون برای مالی
🆔 www.tgoop.com/python4finance
🆔 ble.ir/python4finance

BY Python4Finance


Share with your friend now:
tgoop.com/python4finance/1036

View MORE
Open in Telegram


Telegram News

Date: |

The best encrypted messaging apps It’s easy to create a Telegram channel via desktop app or mobile app (for Android and iOS): "Doxxing content is forbidden on Telegram and our moderators routinely remove such content from around the world," said a spokesman for the messaging app, Remi Vaughn. A Hong Kong protester with a petrol bomb. File photo: Dylan Hollingsworth/HKFP. Unlimited number of subscribers per channel
from us


Telegram Python4Finance
FROM American