Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
Уточнение определения ИИ: трехфакторный подход

Европейский институт права (European Law Institute, ELI) представил ответ на консультацию Европейской комиссии по определению искусственного интеллекта в Законе ЕС об ИИ (Статья 3(1)). Несмотря на соответствие текущего определения пересмотренной версии ОЭСР 2023 года, ELI отмечает его недостаточную четкость в разграничении ИИ-систем и традиционных ИТ-систем.

Для устранения этой неопределенности ELI предлагает «трехфакторный подход»:

1️⃣ Объем данных или специфических знаний, использованных при разработке.
2️⃣ Способность системы создавать новое «ноу-хау» в процессе работы.
3️⃣ Степень формальной неопределенности результатов.

Предложенная структура действует гибко: ИТ-система квалифицируется как ИИ, если она набирает "три плюса" по этим факторам. Такой подход сохраняет абстрактное определение Закона ЕС об ИИ, обеспечивая при этом техническую нейтральность и практическую точность в регулировании.

#AIRegulation #AIAct #LegalTech
Выпущено новое Руководство NIST по борьбе с рисками синтетического контента

Национальный институт стандартов и технологий США (U.S. National Institute of Standards and Technology, NIST) опубликовал отчет "Reducing Risks Posed by Synthetic Content", посвященный проблемам, связанным с deepfake-технологиями на основе ИИ. Документ рассматривает, в частности, следующие темы:

1️⃣ Отслеживание происхождения контента для проверки его источника и изменений.
2️⃣ Разработка инструментов для маркировки и идентификации материалов, созданных ИИ.
3️⃣ Борьба с ИИ-генерируемыми материалами CSAM (материалы сексуального насилия над детьми) и NCII (интимные изображения без согласия) реальных людей.

В отчете рассмотрен широкий спектр рисков синтетического контента: от личных угроз до масштабной дезинформации, затрагивающей общество. Особое внимание уделено кибербезопасности и мошенничеству, так как deepfake-технологии могут использоваться для взлома биометрических систем аутентификации или обмана через подделку голоса.

NIST отмечает, что эффективность методов борьбы с рисками зависит от их цели и аудитории. Такие меры, как отслеживание происхождения контента, могут повысить прозрачность для широкого круга пользователей, в то время как специализированные инструменты для обнаружения синтетического контента лучше подходят для аналитиков и платформ, чтобы оценивать риски и разрабатывать меры противодействия.

#Deepfakes #ЭтикаИИ #КонтрольКонтента #NIST
Уважаемые подписчики, сегодня хотим поделиться с вами еще одной подборкой интересных юридических каналов, в которых коллеги-юристы рассказывают о правовых нюансах в своих областях, делятся полезными материалами и лайфхаками:

Юрист в IT и онлайн-бизнесе
- канал юриста, который рассказывает про правовые нюансы онлайн-бизнеса и IT-проектов, а также делится полезными материалами

Судебник | Стрюкова Юлия - канал начальника юр отдела крупной российской корпорации: про споры с торговыми центрами, о недвижимости по любви и о жизни в декрете.

Адвокат Яна Неповиннова - в своём блоге транслирует любовь к профессии, делится рабочими буднями молодой мамы, трудностями и радостями профессии, личным опытом становления в адвокатуре

Новгородский юрист - правовые новости Новгородской области (не спутайте с Нижегородской), взгляд юриста на происходящее в регионе. Субъективная и саркастическая оценка нормативных актов, судебных решений и прочего правоприменения.

ЧАК В ПРАВЕ - Канал социального и медицинского юриста Черняевой Анны, которая делится своей практикой по защите прав онкопациентов и другим вопросам медицинского права. Канал вошел в топ- 15 самых цитируемых и топ-20 самых больших каналов по версии компании Veta в номинации здравоохранения.

Валерия Рытвина - юриспруденция и PR
Успешно ведет дела звезд. Основатель Совета блогеров. Эксперт по общению со СМИ. Лайфстайл из жизни бизнес-леди

Ко всем сразу можно присоединиться по ссылке 📥
Please open Telegram to view this post
VIEW IN TELEGRAM
🇬🇧 В Великобритании проводят консультации по защите авторского права в сфере ИИ

Правительство Великобритании инициировало консультацию по разработке правовых рамок для обучения ИИ с использованием защищённого авторским правом материала. Предложены различные варианты будущего регулирования, которые могут значительно повлиять на индустрии ИИ и творчества:

1️⃣ Один из вариантов позволяет компаниям, разрабатывающим ИИ, использовать защищённые авторским правом материалы без разрешения правообладателей, даже в коммерческих целях, с минимальными ограничениями. Этот подход вызывает опасения среди представителей творческих индустрий.

2️⃣ Другие варианты предполагают системы отказа (opt-out) для правообладателей или ужесточение требований к лицензированию, но представители творческих индустрий считают, что и эти подходы недостаточно прозрачны и оставляют авторов без защиты.

Приём отзывов продлится до 25 февраля 2025 года.

#ИИ #АвторскоеПраво
🇪🇺 Европейский регулятор выпустил заключение в отношении защиты данных и моделей ИИ

Европейский регулятор (uropean Data Protection Board, EDPB) опубликовал Заключение 28/2024, которое затрагивает важные вопросы соблюдения требований GDPR при разработке и использовании моделей ИИ, среди которых:

Когда и при каких условиях модель ИИ можно считать «анонимной».
Обоснование "законного интереса" как правового основания обработки персональных данных на этапах разработки и внедрения.
Последствия незаконной обработки данных на этапе разработки для последующей эксплуатации модели.

Заключение фокусируется на соблюдении требований "законного интереса", при этом регулятор подчеркивает, что выполнение этого условия не освобождает компании от соблюдения других положений GDPR. Этот документ обязателен к изучению для всех, кто работает на пересечении ИИ и защиты данных в ЕС.

#ИИ #GDPR #AICompliance #EDPB
🇺🇸 В США подан иск в связи с использованием ИИ в вопросах предоставления убежища

Юридическая клиника Гарварда и Jenner & Block LLP подали иск от имени Refugees International, требуя раскрытия информации о применении искусственного интеллекта Министерством внутренней безопасности (Department of Homeland Security, DHS) США в процессе рассмотрения заявлений на предоставление убежища. Дело связано с запросом по закону о свободе информации (Freedom of Information Act, FOIA), поданным в 2022 году, который до сих пор остается без ответа.

Запрос касается инструмента Asylum Text Analytics (ATA), использующего машинное обучение для выявления «мошенничества на основе плагиата» в заявлениях на предоставление убежища. Вопросы вызывают методы обучения инструмента и его влияние на заявителей, особенно тех, кто не говорит на английском языке, а также обеспечивается ли справедливое рассмотрение заявлений, которые отмечены системой как сомнительные. Критики предупреждают, что неуправляемое использование ИИ рискует увеличить случаи предвзятости вместо того, чтобы гарантировать справедливость.

#ИИ #AIEthics
🇺🇸 Апелляционный суд Колорадо вынес предупреждение об использовании ИИ

Апелляционный суд Колорадо в своем решении обратил внимание на риски использования генеративного ИИ для составления юридических документов. В деле Al-Hamim v. Star Hearthstone, LLC истец подал ходатайство, содержащее вымышленные ссылки на законы, которые были созданы «галлюцинациями» ИИ. Хотя суд не стал применять санкции к истцу, он выступил с четким предупреждением: юристы и стороны процесса должны проявлять осторожность при использовании ИИ-инструментов.

#ИИ
🌐 Карта мирового лидерства в ИИ от Стэнфорда

Уважаемые подписчики, в последний день 2024 года представляем вам карту мирового лидерства в ИИ от Института HAI Стэнфордского университета: Global AI Vibrancy Tool — ресурс для сравнения развития ИИ в 36 странах. Этот интерактивный инструмент использует 42 показателя, сгруппированных в 8 категорий, чтобы оценивать прогресс стран в области искусственного интеллекта.

Инструмент выделяет центры передового опыта в области ИИ как в развитых, так и в развивающихся экономиках, а также предоставляет полезные данные для принятия стратегических решений.

Пользуясь случаем поздравляем всех подписчиков нашего канала с наступающим Новым годом! Благодаря вашему интересу ИИ&Право активно развивается, вас уже почти две с половиной тысячи👥. В уходящем году нам удалось поделиться с вами большим количеством уникальных материалов в области регулирования искусственного интеллекта, интересных кейсов и полезных документов.

Мы заметили, что наши находки и публикации активно используются другими каналами со схожей тематикой, к сожалению, часто без указания источника, но хотим по-прежнему делать так, чтобы материалы, которыми мы делимся, были доступны всем желающим. Поэтому пока мы уходим в небольшой новогодний отпуск, вы можете поддержать ИИ&Право:

✔️ Рассказывайте о нашем канале коллегам, которым он может быть интересен.

✔️Делайте репосты и пересылки полезных постов.

✔️ Поддержите нас донатом на карту 2203620321829927 или на бусти.

Желаем нашим подписчикам всего самого наилучшего и до встречи в 2025 году!
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸 Компания Anthropic достигла соглашения с музыкальными издателями о защите авторских прав при обучении ИИ

Компания Anthropic достигла соглашения с крупными музыкальными издателями, включая Universal Music Group и ABKCO, по делу о предполагаемом нарушении авторских прав её моделью Claude AI. Основой спора стали обвинения в том, что Claude была обучена на текстах более 500 защищённых песен и воспроизводила значительные части этих произведений без разрешения. Издатели заявили, что Anthropic обошла механизмы защиты авторских прав, используя данные с лицензионных платформ текстов песен.

В рамках соглашения Anthropic обязалась поддерживать и расширять существующие механизмы предотвращения нарушений авторских прав в будущих моделях. Компания также создала процесс для оперативного решения вопросов со стороны издателей.

#ИИ #ЭтикаИИ
🇰🇷 Южная Корея одобрила Закон об ИИ

Южная Корея стала второй страной после стран Европейского Союза, одобрившей закон об искусственном интеллекте. «Основной закон о развитии ИИ и создании доверия», получивший широкую поддержку в Национальной ассамблее, объединяет этические принципы с регулированием, основанным на оценке рисков.

Основные положения закона включают:

✔️ обязательную оценку рисков для высокоэффективных и генеративных ИИ,
✔️ требования к прозрачности для раскрытия результатов, созданных ИИ, и
✔️обязанность отличать виртуальные результаты от реальности.

Закон также наделяет Министра науки и ИКТ полномочиями расследовать нарушения и принимать меры для их устранения.

Заимствуя идеи из Закона ЕС об ИИ, правовая база Южной Кореи делает акцент на прозрачности, безопасности и этическом развитии ИИ.

#ИИ #ЮжнаяКорея
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸 Верховный суд штата Иллинойс выпустил спорную политику в отношении использования ИИ

Верховный суд Иллинойса представил официальную политику использования ИИ, которая вступит в силу 1 января 2025 года, заняв крайне мягкую позицию. Политика разрешает использование ИИ юристами и сотрудниками суда без обязательного раскрытия этого факта в судебных документах, при условии соблюдения общих «правовых и этических стандартов». При этом она поощряет использование ИИ в юридической практике, не устанавливая требований к прозрачности.

Это решение вызывает серьёзные опасения: использование ИИ в правовых процессах влияет на фундаментальные права, что требует усиленной прозрачности и подотчётности. Игнорируя такие принципы, как рекомендации ОЭСР по ИИ или требования прозрачности в Законе ЕС об ИИ (статья 50), данная политика рискует создать негативный прецедент для других юрисдикций.

#ИИ #LegalAI #Transparency #AIRegulation #EthicalAI
🇪🇺 В ЕС опубликован второй проект Кодекса практики для ИИ общего назначения

Опубликован второй проект Кодекса практики для ИИ общего назначения, который стал результатом масштабного сотрудничества почти 1000 участников, включая представителей государств-членов ЕС и международных наблюдателей. Этот проект учитывает замечания, полученные в ходе заседаний рабочих групп в ноябре 2024 года, интерактивных опросов и 354 письменных комментариев к первому проекту. Также был учтен вклад разработчиков моделей ИИ, собранный на специализированных семинарах, что позволило интегрировать отраслевую точку зрения.

Кодекс представляет собой руководство для разработчиков моделей общего назначения, которое помогает соблюдать требования Закона ЕС об ИИ на всех этапах жизненного цикла моделей. Следующие этапы разработки Кодекса включают заседания рабочих групп в январе 2025 года, на которых будут обсуждаться снижение технических рисков, прозрачность, управление и вопросы авторского права. Ожидается, что третий проект будет представлен к середине февраля 2025 года.

#ИИ
🇪🇺 Анализ Закона ЕС об ИИ от ведущих специалистов

Уважаемые коллеги, подобрали для вас несколько профессиональных работ, позволяющих разобраться в Законе ЕС об ИИ:

📥 The William Fry AI Guide (William Fry LLP)

📥 European Union Artificial Intelligence Act: a guide (Bird & Bird)

📥 EU AI Act A Pioneering Legal Framework On Artificial Intelligence - Practical Guide (Cuatrecasas)

📥 EU AI Act: Navigating a Brave New World (Latham & Watkins)

📥 Decoding the EU Artificial Intelligence Act (KPMG)

#EUAIAct #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸 Выпущен проект руководства FDA по ИИ в медицинских устройствах

Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) опубликовало проект руководства по медицинским устройствам на основе ИИ, устанавливающий новые стандарты управления жизненным циклом искусственного интеллекта.

Документ содержит требования к проектированию, управлению рисками, мониторингу производительности и прозрачности, направленные на обеспечение безопасности и справедливости в использовании ИИ в здравоохранении.

Основные положения включают:

✔️ подход к мониторингу на протяжении всего жизненного цикла продукта,
✔️стратегии снижения предвзятости и
✔️ протоколы прозрачности, позволяющие пользователям понять, как работает ИИ.

FDA также ожидает отзывы от общественности, особенно по вопросам генеративного ИИ и методов информирования пользователей. Комментарии принимаются до 7 апреля 2025 года, а 18 февраля 2025 года запланирован вебинар для обсуждения рекомендаций.

#ИИ #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Погрузитесь в регулирование программного обеспечения вместе с каналом Software & Law.

Канал ведет юрист SEAMLESS Legal (ex-CMS Russia) Шермет Курбанов. Он делится:

1️⃣ новостями о ПО
2️⃣ изменениями в законодательстве
3️⃣ обзорами судебной практики
4️⃣ советами и рекомендациями по юридическим аспектам работы с ПО

На канале вы найдете ежеквартальный дайджест с последними новостями в сфере цифрового права, базу знаний по регулированию ПО, а также множество аналитических постов по теме. Например:

▪️создание программы при помощи ИИ
▪️ограничение использования производного ПО
▪️правовые аспекты ухода зарубежных вендоров ПО

Заходите, делитесь своим мнением в комментариях и оставайтесь в курсе последних новостей регулирования ПО.
Meta* обвиняют в использовании пиратских данных для разработки ИИ

В новом деле Kadrey et al. vs. Meta* выдвинуты серьезные обвинения в отношении того, что компания использовала пиратские датасеты из теневой библиотеки LibGen при разработке своих ИИ-моделей. Истцы утверждают, что Meta* незаконно скачивала защищенные авторским правом произведения, удаляла информацию о правообладателях и использовала эти данные для обучения своих моделей Llama. Все это, по заявлению истцов, было одобрено высшим руководством компании, включая генерального директора Марка Цукерберга.

Внутренние документы, представленные в суд, демонстрируют обсуждения внутри компании об этических и правовых аспектах таких практик. Инженеры выражали обеспокоенность по поводу использования пиратских данных с корпоративных ноутбуков, и использования скриптов для систематического удаления указаний на авторские права, чтобы скрыть происхождение данных.

Для Meta* эти обвинения представляют не только юридические, но и репутационные риски, особенно на фоне стремления компании закрепиться в качестве лидера в области ИИ.

* организация, деятельность которой запрещена на территории РФ

#AI #АвторскоеПраво #Copyright
🇺🇸 Миссисипи готовится к регулированию ИИ

Губернатор штата Миссисипи Тейт Ривз подписал Исполнительный указ № 1584, поручив Департаменту интернет-технологий штата возглавить усилия по разработке политики в области искусственного интеллекта. Указ обязывает Департамент оценить текущее и планируемое использование ИИ в государственных учреждениях, а также предоставить рекомендации по политике регулирования ИИ для публичного и частного секторов.

Цель указа - обеспечить, чтобы системы ИИ были «справедливыми, безопасными, прозрачными, подотчетными, доступными, надёжными и ориентированными на защиту конфиденциальности». Указ требует, чтобы каждое государственное учреждение назначило координатора по вопросам ИИ.

#ИИ
🇺🇸 В Калифорнии выпущены юридические рекомендации по работе с ИИ

Калифорния опубликовала две подробных юридические рекомендации, посвященные регулированию искусственного интеллекта в целях правового контроля ИИ на уровне штата. Эти документы (📥 первый и второй) описывают конкретные практики, связанные с ИИ, которые могут быть признаны незаконными, и содержат меры по защите потребителей от обмана и вреда.

Рекомендации, среди прочего, предусматривают, что:

✔️ Ложное описание возможностей ИИ теперь под строгим контролем. Например, запрещены: ложная реклама о точности модели ИИ, утверждение о наличии человеческого участия, когда процесс полностью автоматизирован (или наоборот), или заявление о том, что система свободна от предвзятости, без предоставления доказательств.

✔️ Такие действия, как создание дипфейков, голосовых клонов или медиаконтента с использованием ИИ без раскрытия этого факта, могут быть признаны вводящими в заблуждение.

✔️ Запрещено использовать ИИ для имитации личности в целях мошенничества, нанесения вреда или выполнения обязанностей государственного служащего.

✔️ Применение ИИ, которое приводит к несправедливым, неэтичным или дискриминационным последствиям, даже если это не намеренно, может быть оспорено в суде в соответствии с законами штата.

Кроме того, вступившие в силу с 1 января 2025 года новые законы Калифорнии регулируют такие аспекты, как требования к раскрытию информации для бизнеса, несанкционированное использование изображения, применение ИИ в избирательных кампаниях и запрет на эксплуатирующее использование ИИ.

#ИИРегулирование #ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
🌐 Проект «Цифровая реальность» — это платформа, посвящённая актуальным вопросам цифровой политики, регулирования интернета и его развития в России и за рубежом.

🔵 Telegram-канал. Здесь публикуются новости, аналитика и информация о значимых событиях в сфере управления интернетом, а также анонсы мероприятий. Канал объединяет тех, кто интересуется перспективами цифрового мира, и предлагает возможности для участия в профильных форумах и дискуссиях.
🔵 Дискуссионный клуб. Открытые встречи с экспертами в Zoom для обсуждения значимых событий мира интернета и технологий: от технических и регуляторных проблем внедрения новых интернет-протоколов до ответственности интернет-платформ за публикуемый на них контент.
🔵 Подкаст. Каждую неделю обсуждаем самые интересные новости, обмениваемся мнениями и комментариями.
Please open Telegram to view this post
VIEW IN TELEGRAM
🇬🇧 Великобритания ищет «Третий путь» в регулировании ИИ

Премьер-министр Великобритании призвал сделать страну следующим глобальным центром ИИ, используя отличные от США и ЕС подходы к регулированию. С одной стороны - отказ от либерального подхода США, с другой - от жестких норм ЕС. Предложение Премьер-министра предполагает поиск «третьего пути». Однако эта идея выглядит проблематичной: почему инвесторы в ИИ выберут британскую модель, которая сочетает ограничения для инноваций без преимуществ доступа к рынкам ЕС или свободы действий, как в США?

В настоящее время в регулировании ИИ наблюдаются три основных тенденции:

1️⃣ Американская модель, где минимальные регуляторные барьеры ставят инновации на первый план.

2️⃣ Европейская модель, ориентированная на соблюдение стандартов и ответственность.

3️⃣ Китайская модель, сфокусированная на централизованном контроле в рамках авторитарных систем.

Какой новый подход выберет Великобритания, пока не ясно.

#ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/01/20 04:57:03
Back to Top
HTML Embed Code: