Уточнение определения ИИ: трехфакторный подход
Европейский институт права (European Law Institute, ELI) представил ответ на консультацию Европейской комиссии по определению искусственного интеллекта в Законе ЕС об ИИ (Статья 3(1)). Несмотря на соответствие текущего определения пересмотренной версии ОЭСР 2023 года, ELI отмечает его недостаточную четкость в разграничении ИИ-систем и традиционных ИТ-систем.
Для устранения этой неопределенности ELI предлагает «трехфакторный подход»:
1️⃣ Объем данных или специфических знаний, использованных при разработке.
2️⃣ Способность системы создавать новое «ноу-хау» в процессе работы.
3️⃣ Степень формальной неопределенности результатов.
Предложенная структура действует гибко: ИТ-система квалифицируется как ИИ, если она набирает "три плюса" по этим факторам. Такой подход сохраняет абстрактное определение Закона ЕС об ИИ, обеспечивая при этом техническую нейтральность и практическую точность в регулировании.
#AIRegulation #AIAct #LegalTech
Европейский институт права (European Law Institute, ELI) представил ответ на консультацию Европейской комиссии по определению искусственного интеллекта в Законе ЕС об ИИ (Статья 3(1)). Несмотря на соответствие текущего определения пересмотренной версии ОЭСР 2023 года, ELI отмечает его недостаточную четкость в разграничении ИИ-систем и традиционных ИТ-систем.
Для устранения этой неопределенности ELI предлагает «трехфакторный подход»:
1️⃣ Объем данных или специфических знаний, использованных при разработке.
2️⃣ Способность системы создавать новое «ноу-хау» в процессе работы.
3️⃣ Степень формальной неопределенности результатов.
Предложенная структура действует гибко: ИТ-система квалифицируется как ИИ, если она набирает "три плюса" по этим факторам. Такой подход сохраняет абстрактное определение Закона ЕС об ИИ, обеспечивая при этом техническую нейтральность и практическую точность в регулировании.
#AIRegulation #AIAct #LegalTech
Выпущено новое Руководство NIST по борьбе с рисками синтетического контента
Национальный институт стандартов и технологий США (U.S. National Institute of Standards and Technology, NIST) опубликовал отчет "Reducing Risks Posed by Synthetic Content", посвященный проблемам, связанным с deepfake-технологиями на основе ИИ. Документ рассматривает, в частности, следующие темы:
1️⃣ Отслеживание происхождения контента для проверки его источника и изменений.
2️⃣ Разработка инструментов для маркировки и идентификации материалов, созданных ИИ.
3️⃣ Борьба с ИИ-генерируемыми материалами CSAM (материалы сексуального насилия над детьми) и NCII (интимные изображения без согласия) реальных людей.
В отчете рассмотрен широкий спектр рисков синтетического контента: от личных угроз до масштабной дезинформации, затрагивающей общество. Особое внимание уделено кибербезопасности и мошенничеству, так как deepfake-технологии могут использоваться для взлома биометрических систем аутентификации или обмана через подделку голоса.
NIST отмечает, что эффективность методов борьбы с рисками зависит от их цели и аудитории. Такие меры, как отслеживание происхождения контента, могут повысить прозрачность для широкого круга пользователей, в то время как специализированные инструменты для обнаружения синтетического контента лучше подходят для аналитиков и платформ, чтобы оценивать риски и разрабатывать меры противодействия.
#Deepfakes #ЭтикаИИ #КонтрольКонтента #NIST
Национальный институт стандартов и технологий США (U.S. National Institute of Standards and Technology, NIST) опубликовал отчет "Reducing Risks Posed by Synthetic Content", посвященный проблемам, связанным с deepfake-технологиями на основе ИИ. Документ рассматривает, в частности, следующие темы:
1️⃣ Отслеживание происхождения контента для проверки его источника и изменений.
2️⃣ Разработка инструментов для маркировки и идентификации материалов, созданных ИИ.
3️⃣ Борьба с ИИ-генерируемыми материалами CSAM (материалы сексуального насилия над детьми) и NCII (интимные изображения без согласия) реальных людей.
В отчете рассмотрен широкий спектр рисков синтетического контента: от личных угроз до масштабной дезинформации, затрагивающей общество. Особое внимание уделено кибербезопасности и мошенничеству, так как deepfake-технологии могут использоваться для взлома биометрических систем аутентификации или обмана через подделку голоса.
NIST отмечает, что эффективность методов борьбы с рисками зависит от их цели и аудитории. Такие меры, как отслеживание происхождения контента, могут повысить прозрачность для широкого круга пользователей, в то время как специализированные инструменты для обнаружения синтетического контента лучше подходят для аналитиков и платформ, чтобы оценивать риски и разрабатывать меры противодействия.
#Deepfakes #ЭтикаИИ #КонтрольКонтента #NIST
NIST
Reducing Risks Posed by Synthetic Content An Overview of Technical Approaches to Digital Content Transparency
This report examines the existing standards, tools, methods, and practices, as well as the potential development of further science-backed standards and techniq
Уважаемые подписчики, сегодня хотим поделиться с вами еще одной подборкой интересных юридических каналов, в которых коллеги-юристы рассказывают о правовых нюансах в своих областях, делятся полезными материалами и лайфхаками:
Юрист в IT и онлайн-бизнесе - канал юриста, который рассказывает про правовые нюансы онлайн-бизнеса и IT-проектов, а также делится полезными материалами
Судебник | Стрюкова Юлия - канал начальника юр отдела крупной российской корпорации: про споры с торговыми центрами, о недвижимости по любви и о жизни в декрете.
Адвокат Яна Неповиннова - в своём блоге транслирует любовь к профессии, делится рабочими буднями молодой мамы, трудностями и радостями профессии, личным опытом становления в адвокатуре
Новгородский юрист - правовые новости Новгородской области (не спутайте с Нижегородской), взгляд юриста на происходящее в регионе. Субъективная и саркастическая оценка нормативных актов, судебных решений и прочего правоприменения.
ЧАК В ПРАВЕ - Канал социального и медицинского юриста Черняевой Анны, которая делится своей практикой по защите прав онкопациентов и другим вопросам медицинского права. Канал вошел в топ- 15 самых цитируемых и топ-20 самых больших каналов по версии компании Veta в номинации здравоохранения.
Валерия Рытвина - юриспруденция и PR
Успешно ведет дела звезд. Основатель Совета блогеров. Эксперт по общению со СМИ. Лайфстайл из жизни бизнес-леди
Ко всем сразу можно присоединиться по ссылке📥
Юрист в IT и онлайн-бизнесе - канал юриста, который рассказывает про правовые нюансы онлайн-бизнеса и IT-проектов, а также делится полезными материалами
Судебник | Стрюкова Юлия - канал начальника юр отдела крупной российской корпорации: про споры с торговыми центрами, о недвижимости по любви и о жизни в декрете.
Адвокат Яна Неповиннова - в своём блоге транслирует любовь к профессии, делится рабочими буднями молодой мамы, трудностями и радостями профессии, личным опытом становления в адвокатуре
Новгородский юрист - правовые новости Новгородской области (не спутайте с Нижегородской), взгляд юриста на происходящее в регионе. Субъективная и саркастическая оценка нормативных актов, судебных решений и прочего правоприменения.
ЧАК В ПРАВЕ - Канал социального и медицинского юриста Черняевой Анны, которая делится своей практикой по защите прав онкопациентов и другим вопросам медицинского права. Канал вошел в топ- 15 самых цитируемых и топ-20 самых больших каналов по версии компании Veta в номинации здравоохранения.
Валерия Рытвина - юриспруденция и PR
Успешно ведет дела звезд. Основатель Совета блогеров. Эксперт по общению со СМИ. Лайфстайл из жизни бизнес-леди
Ко всем сразу можно присоединиться по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Юрист в IT и онлайн-бизнесе 🌐
Меня зовут Кутаев Владимир и я являюсь юристом в области сопровождения онлайн-проектов и IT-стартапов
На канале Вы найдете:
🔸Обзоры изменений законодательства
🔸Полезные практические советы
🔸Истории из жизни юриста
Для связи: @kutaev1
На канале Вы найдете:
🔸Обзоры изменений законодательства
🔸Полезные практические советы
🔸Истории из жизни юриста
Для связи: @kutaev1
🇬🇧 В Великобритании проводят консультации по защите авторского права в сфере ИИ
Правительство Великобритании инициировало консультацию по разработке правовых рамок для обучения ИИ с использованием защищённого авторским правом материала. Предложены различные варианты будущего регулирования, которые могут значительно повлиять на индустрии ИИ и творчества:
1️⃣ Один из вариантов позволяет компаниям, разрабатывающим ИИ, использовать защищённые авторским правом материалы без разрешения правообладателей, даже в коммерческих целях, с минимальными ограничениями. Этот подход вызывает опасения среди представителей творческих индустрий.
2️⃣ Другие варианты предполагают системы отказа (opt-out) для правообладателей или ужесточение требований к лицензированию, но представители творческих индустрий считают, что и эти подходы недостаточно прозрачны и оставляют авторов без защиты.
Приём отзывов продлится до 25 февраля 2025 года.
#ИИ #АвторскоеПраво
Правительство Великобритании инициировало консультацию по разработке правовых рамок для обучения ИИ с использованием защищённого авторским правом материала. Предложены различные варианты будущего регулирования, которые могут значительно повлиять на индустрии ИИ и творчества:
1️⃣ Один из вариантов позволяет компаниям, разрабатывающим ИИ, использовать защищённые авторским правом материалы без разрешения правообладателей, даже в коммерческих целях, с минимальными ограничениями. Этот подход вызывает опасения среди представителей творческих индустрий.
2️⃣ Другие варианты предполагают системы отказа (opt-out) для правообладателей или ужесточение требований к лицензированию, но представители творческих индустрий считают, что и эти подходы недостаточно прозрачны и оставляют авторов без защиты.
Приём отзывов продлится до 25 февраля 2025 года.
#ИИ #АвторскоеПраво
GOV.UK
UK consults on proposals to give creative industries and AI developers clarity over copyright laws
This consultation seeks views on how the government can ensure the UK’s legal framework for AI and copyright supports the UK creative industries and AI sector together.
🇪🇺 Европейский регулятор выпустил заключение в отношении защиты данных и моделей ИИ
Европейский регулятор (uropean Data Protection Board, EDPB) опубликовал Заключение 28/2024, которое затрагивает важные вопросы соблюдения требований GDPR при разработке и использовании моделей ИИ, среди которых:
✅ Когда и при каких условиях модель ИИ можно считать «анонимной».
✅ Обоснование "законного интереса" как правового основания обработки персональных данных на этапах разработки и внедрения.
✅ Последствия незаконной обработки данных на этапе разработки для последующей эксплуатации модели.
Заключение фокусируется на соблюдении требований "законного интереса", при этом регулятор подчеркивает, что выполнение этого условия не освобождает компании от соблюдения других положений GDPR. Этот документ обязателен к изучению для всех, кто работает на пересечении ИИ и защиты данных в ЕС.
#ИИ #GDPR #AICompliance #EDPB
Европейский регулятор (uropean Data Protection Board, EDPB) опубликовал Заключение 28/2024, которое затрагивает важные вопросы соблюдения требований GDPR при разработке и использовании моделей ИИ, среди которых:
✅ Когда и при каких условиях модель ИИ можно считать «анонимной».
✅ Обоснование "законного интереса" как правового основания обработки персональных данных на этапах разработки и внедрения.
✅ Последствия незаконной обработки данных на этапе разработки для последующей эксплуатации модели.
Заключение фокусируется на соблюдении требований "законного интереса", при этом регулятор подчеркивает, что выполнение этого условия не освобождает компании от соблюдения других положений GDPR. Этот документ обязателен к изучению для всех, кто работает на пересечении ИИ и защиты данных в ЕС.
#ИИ #GDPR #AICompliance #EDPB
🇺🇸 В США подан иск в связи с использованием ИИ в вопросах предоставления убежища
Юридическая клиника Гарварда и Jenner & Block LLP подали иск от имени Refugees International, требуя раскрытия информации о применении искусственного интеллекта Министерством внутренней безопасности (Department of Homeland Security, DHS) США в процессе рассмотрения заявлений на предоставление убежища. Дело связано с запросом по закону о свободе информации (Freedom of Information Act, FOIA), поданным в 2022 году, который до сих пор остается без ответа.
Запрос касается инструмента Asylum Text Analytics (ATA), использующего машинное обучение для выявления «мошенничества на основе плагиата» в заявлениях на предоставление убежища. Вопросы вызывают методы обучения инструмента и его влияние на заявителей, особенно тех, кто не говорит на английском языке, а также обеспечивается ли справедливое рассмотрение заявлений, которые отмечены системой как сомнительные. Критики предупреждают, что неуправляемое использование ИИ рискует увеличить случаи предвзятости вместо того, чтобы гарантировать справедливость.
#ИИ #AIEthics
Юридическая клиника Гарварда и Jenner & Block LLP подали иск от имени Refugees International, требуя раскрытия информации о применении искусственного интеллекта Министерством внутренней безопасности (Department of Homeland Security, DHS) США в процессе рассмотрения заявлений на предоставление убежища. Дело связано с запросом по закону о свободе информации (Freedom of Information Act, FOIA), поданным в 2022 году, который до сих пор остается без ответа.
Запрос касается инструмента Asylum Text Analytics (ATA), использующего машинное обучение для выявления «мошенничества на основе плагиата» в заявлениях на предоставление убежища. Вопросы вызывают методы обучения инструмента и его влияние на заявителей, особенно тех, кто не говорит на английском языке, а также обеспечивается ли справедливое рассмотрение заявлений, которые отмечены системой как сомнительные. Критики предупреждают, что неуправляемое использование ИИ рискует увеличить случаи предвзятости вместо того, чтобы гарантировать справедливость.
#ИИ #AIEthics
🇺🇸 Апелляционный суд Колорадо вынес предупреждение об использовании ИИ
Апелляционный суд Колорадо в своем решении обратил внимание на риски использования генеративного ИИ для составления юридических документов. В деле Al-Hamim v. Star Hearthstone, LLC истец подал ходатайство, содержащее вымышленные ссылки на законы, которые были созданы «галлюцинациями» ИИ. Хотя суд не стал применять санкции к истцу, он выступил с четким предупреждением: юристы и стороны процесса должны проявлять осторожность при использовании ИИ-инструментов.
#ИИ
Апелляционный суд Колорадо в своем решении обратил внимание на риски использования генеративного ИИ для составления юридических документов. В деле Al-Hamim v. Star Hearthstone, LLC истец подал ходатайство, содержащее вымышленные ссылки на законы, которые были созданы «галлюцинациями» ИИ. Хотя суд не стал применять санкции к истцу, он выступил с четким предупреждением: юристы и стороны процесса должны проявлять осторожность при использовании ИИ-инструментов.
#ИИ
Уважаемые подписчики, в последний день 2024 года представляем вам карту мирового лидерства в ИИ от Института HAI Стэнфордского университета: Global AI Vibrancy Tool — ресурс для сравнения развития ИИ в 36 странах. Этот интерактивный инструмент использует 42 показателя, сгруппированных в 8 категорий, чтобы оценивать прогресс стран в области искусственного интеллекта.
Инструмент выделяет центры передового опыта в области ИИ как в развитых, так и в развивающихся экономиках, а также предоставляет полезные данные для принятия стратегических решений.
Пользуясь случаем поздравляем всех подписчиков нашего канала с наступающим Новым годом! Благодаря вашему интересу ИИ&Право активно развивается, вас уже почти две с половиной тысячи
Мы заметили, что наши находки и публикации активно используются другими каналами со схожей тематикой, к сожалению, часто без указания источника, но хотим по-прежнему делать так, чтобы материалы, которыми мы делимся, были доступны всем желающим. Поэтому пока мы уходим в небольшой новогодний отпуск, вы можете поддержать ИИ&Право:
Желаем нашим подписчикам всего самого наилучшего и до встречи в 2025 году!
Please open Telegram to view this post
VIEW IN TELEGRAM
Stanford HAI
Global AI Power Rankings: Stanford HAI Tool Ranks 36 Countries in AI
From patents to private funding, Stanford’s Global Vibrancy Tool aggregates 42 indicators to reveal which countries lead in AI – and why the U.S. holds a significant edge over other nations.
🇺🇸 Компания Anthropic достигла соглашения с музыкальными издателями о защите авторских прав при обучении ИИ
Компания Anthropic достигла соглашения с крупными музыкальными издателями, включая Universal Music Group и ABKCO, по делу о предполагаемом нарушении авторских прав её моделью Claude AI. Основой спора стали обвинения в том, что Claude была обучена на текстах более 500 защищённых песен и воспроизводила значительные части этих произведений без разрешения. Издатели заявили, что Anthropic обошла механизмы защиты авторских прав, используя данные с лицензионных платформ текстов песен.
В рамках соглашения Anthropic обязалась поддерживать и расширять существующие механизмы предотвращения нарушений авторских прав в будущих моделях. Компания также создала процесс для оперативного решения вопросов со стороны издателей.
#ИИ #ЭтикаИИ
Компания Anthropic достигла соглашения с крупными музыкальными издателями, включая Universal Music Group и ABKCO, по делу о предполагаемом нарушении авторских прав её моделью Claude AI. Основой спора стали обвинения в том, что Claude была обучена на текстах более 500 защищённых песен и воспроизводила значительные части этих произведений без разрешения. Издатели заявили, что Anthropic обошла механизмы защиты авторских прав, используя данные с лицензионных платформ текстов песен.
В рамках соглашения Anthropic обязалась поддерживать и расширять существующие механизмы предотвращения нарушений авторских прав в будущих моделях. Компания также создала процесс для оперативного решения вопросов со стороны издателей.
#ИИ #ЭтикаИИ
Scribd
stipulation
Concord v. Anthropic
🇰🇷 Южная Корея одобрила Закон об ИИ
Южная Корея стала второй страной после стран Европейского Союза, одобрившей закон об искусственном интеллекте. «Основной закон о развитии ИИ и создании доверия», получивший широкую поддержку в Национальной ассамблее, объединяет этические принципы с регулированием, основанным на оценке рисков.
Основные положения закона включают:
✔️ обязательную оценку рисков для высокоэффективных и генеративных ИИ,
✔️ требования к прозрачности для раскрытия результатов, созданных ИИ, и
✔️ обязанность отличать виртуальные результаты от реальности.
Закон также наделяет Министра науки и ИКТ полномочиями расследовать нарушения и принимать меры для их устранения.
Заимствуя идеи из Закона ЕС об ИИ, правовая база Южной Кореи делает акцент на прозрачности, безопасности и этическом развитии ИИ.
#ИИ #ЮжнаяКорея
Южная Корея стала второй страной после стран Европейского Союза, одобрившей закон об искусственном интеллекте. «Основной закон о развитии ИИ и создании доверия», получивший широкую поддержку в Национальной ассамблее, объединяет этические принципы с регулированием, основанным на оценке рисков.
Основные положения закона включают:
Закон также наделяет Министра науки и ИКТ полномочиями расследовать нарушения и принимать меры для их устранения.
Заимствуя идеи из Закона ЕС об ИИ, правовая база Южной Кореи делает акцент на прозрачности, безопасности и этическом развитии ИИ.
#ИИ #ЮжнаяКорея
Please open Telegram to view this post
VIEW IN TELEGRAM
Shinkim
National Assembly passes the AI Basic Act
On December 26, 2024, the National Assembly passed the Act on the Development of Artificial Intelligence and Establishment of Trust (AI Basic Act), a proposed legislation that establishes fundamental matters necessary to promote the sound development of artificial…
🇺🇸 Верховный суд штата Иллинойс выпустил спорную политику в отношении использования ИИ
Верховный суд Иллинойса представил официальную политику использования ИИ, которая вступит в силу 1 января 2025 года, заняв крайне мягкую позицию. Политика разрешает использование ИИ юристами и сотрудниками суда без обязательного раскрытия этого факта в судебных документах, при условии соблюдения общих «правовых и этических стандартов». При этом она поощряет использование ИИ в юридической практике, не устанавливая требований к прозрачности.
Это решение вызывает серьёзные опасения: использование ИИ в правовых процессах влияет на фундаментальные права, что требует усиленной прозрачности и подотчётности. Игнорируя такие принципы, как рекомендации ОЭСР по ИИ или требования прозрачности в Законе ЕС об ИИ (статья 50), данная политика рискует создать негативный прецедент для других юрисдикций.
#ИИ #LegalAI #Transparency #AIRegulation #EthicalAI
Верховный суд Иллинойса представил официальную политику использования ИИ, которая вступит в силу 1 января 2025 года, заняв крайне мягкую позицию. Политика разрешает использование ИИ юристами и сотрудниками суда без обязательного раскрытия этого факта в судебных документах, при условии соблюдения общих «правовых и этических стандартов». При этом она поощряет использование ИИ в юридической практике, не устанавливая требований к прозрачности.
Это решение вызывает серьёзные опасения: использование ИИ в правовых процессах влияет на фундаментальные права, что требует усиленной прозрачности и подотчётности. Игнорируя такие принципы, как рекомендации ОЭСР по ИИ или требования прозрачности в Законе ЕС об ИИ (статья 50), данная политика рискует создать негативный прецедент для других юрисдикций.
#ИИ #LegalAI #Transparency #AIRegulation #EthicalAI
🇪🇺 В ЕС опубликован второй проект Кодекса практики для ИИ общего назначения
Опубликован второй проект Кодекса практики для ИИ общего назначения, который стал результатом масштабного сотрудничества почти 1000 участников, включая представителей государств-членов ЕС и международных наблюдателей. Этот проект учитывает замечания, полученные в ходе заседаний рабочих групп в ноябре 2024 года, интерактивных опросов и 354 письменных комментариев к первому проекту. Также был учтен вклад разработчиков моделей ИИ, собранный на специализированных семинарах, что позволило интегрировать отраслевую точку зрения.
Кодекс представляет собой руководство для разработчиков моделей общего назначения, которое помогает соблюдать требования Закона ЕС об ИИ на всех этапах жизненного цикла моделей. Следующие этапы разработки Кодекса включают заседания рабочих групп в январе 2025 года, на которых будут обсуждаться снижение технических рисков, прозрачность, управление и вопросы авторского права. Ожидается, что третий проект будет представлен к середине февраля 2025 года.
#ИИ
Опубликован второй проект Кодекса практики для ИИ общего назначения, который стал результатом масштабного сотрудничества почти 1000 участников, включая представителей государств-членов ЕС и международных наблюдателей. Этот проект учитывает замечания, полученные в ходе заседаний рабочих групп в ноябре 2024 года, интерактивных опросов и 354 письменных комментариев к первому проекту. Также был учтен вклад разработчиков моделей ИИ, собранный на специализированных семинарах, что позволило интегрировать отраслевую точку зрения.
Кодекс представляет собой руководство для разработчиков моделей общего назначения, которое помогает соблюдать требования Закона ЕС об ИИ на всех этапах жизненного цикла моделей. Следующие этапы разработки Кодекса включают заседания рабочих групп в январе 2025 года, на которых будут обсуждаться снижение технических рисков, прозрачность, управление и вопросы авторского права. Ожидается, что третий проект будет представлен к середине февраля 2025 года.
#ИИ
Shaping Europe’s digital future
Second Draft of the General-Purpose AI Code of Practice published, written by independent experts
Independent experts present the second draft of the General-Purpose AI Code of Practice, based on the feedback received on the first draft, published on 14 November 2024.
🇪🇺 Анализ Закона ЕС об ИИ от ведущих специалистов
Уважаемые коллеги, подобрали для вас несколько профессиональных работ, позволяющих разобраться в Законе ЕС об ИИ:
📥 The William Fry AI Guide (William Fry LLP)
📥 European Union Artificial Intelligence Act: a guide (Bird & Bird)
📥 EU AI Act A Pioneering Legal Framework On Artificial Intelligence - Practical Guide (Cuatrecasas)
📥 EU AI Act: Navigating a Brave New World (Latham & Watkins)
📥 Decoding the EU Artificial Intelligence Act (KPMG)
#EUAIAct #AIRegulation
Уважаемые коллеги, подобрали для вас несколько профессиональных работ, позволяющих разобраться в Законе ЕС об ИИ:
#EUAIAct #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸 Выпущен проект руководства FDA по ИИ в медицинских устройствах
Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) опубликовало проект руководства по медицинским устройствам на основе ИИ, устанавливающий новые стандарты управления жизненным циклом искусственного интеллекта.
Документ содержит требования к проектированию, управлению рисками, мониторингу производительности и прозрачности, направленные на обеспечение безопасности и справедливости в использовании ИИ в здравоохранении.
Основные положения включают:
✔️ подход к мониторингу на протяжении всего жизненного цикла продукта,
✔️ стратегии снижения предвзятости и
✔️ протоколы прозрачности, позволяющие пользователям понять, как работает ИИ.
FDA также ожидает отзывы от общественности, особенно по вопросам генеративного ИИ и методов информирования пользователей. Комментарии принимаются до 7 апреля 2025 года, а 18 февраля 2025 года запланирован вебинар для обсуждения рекомендаций.
#ИИ #AI
Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) опубликовало проект руководства по медицинским устройствам на основе ИИ, устанавливающий новые стандарты управления жизненным циклом искусственного интеллекта.
Документ содержит требования к проектированию, управлению рисками, мониторингу производительности и прозрачности, направленные на обеспечение безопасности и справедливости в использовании ИИ в здравоохранении.
Основные положения включают:
FDA также ожидает отзывы от общественности, особенно по вопросам генеративного ИИ и методов информирования пользователей. Комментарии принимаются до 7 апреля 2025 года, а 18 февраля 2025 года запланирован вебинар для обсуждения рекомендаций.
#ИИ #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
U.S. Food and Drug Administration
Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products Draft…
Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products
Погрузитесь в регулирование программного обеспечения вместе с каналом Software & Law.
Канал ведет юрист SEAMLESS Legal (ex-CMS Russia) Шермет Курбанов. Он делится:
1️⃣ новостями о ПО
2️⃣ изменениями в законодательстве
3️⃣ обзорами судебной практики
4️⃣ советами и рекомендациями по юридическим аспектам работы с ПО
На канале вы найдете ежеквартальный дайджест с последними новостями в сфере цифрового права, базу знаний по регулированию ПО, а также множество аналитических постов по теме. Например:
▪️создание программы при помощи ИИ
▪️ограничение использования производного ПО
▪️правовые аспекты ухода зарубежных вендоров ПО
Заходите, делитесь своим мнением в комментариях и оставайтесь в курсе последних новостей регулирования ПО.
Канал ведет юрист SEAMLESS Legal (ex-CMS Russia) Шермет Курбанов. Он делится:
1️⃣ новостями о ПО
2️⃣ изменениями в законодательстве
3️⃣ обзорами судебной практики
4️⃣ советами и рекомендациями по юридическим аспектам работы с ПО
На канале вы найдете ежеквартальный дайджест с последними новостями в сфере цифрового права, базу знаний по регулированию ПО, а также множество аналитических постов по теме. Например:
▪️создание программы при помощи ИИ
▪️ограничение использования производного ПО
▪️правовые аспекты ухода зарубежных вендоров ПО
Заходите, делитесь своим мнением в комментариях и оставайтесь в курсе последних новостей регулирования ПО.
Meta* обвиняют в использовании пиратских данных для разработки ИИ
В новом деле Kadrey et al. vs. Meta* выдвинуты серьезные обвинения в отношении того, что компания использовала пиратские датасеты из теневой библиотеки LibGen при разработке своих ИИ-моделей. Истцы утверждают, что Meta* незаконно скачивала защищенные авторским правом произведения, удаляла информацию о правообладателях и использовала эти данные для обучения своих моделей Llama. Все это, по заявлению истцов, было одобрено высшим руководством компании, включая генерального директора Марка Цукерберга.
Внутренние документы, представленные в суд, демонстрируют обсуждения внутри компании об этических и правовых аспектах таких практик. Инженеры выражали обеспокоенность по поводу использования пиратских данных с корпоративных ноутбуков, и использования скриптов для систематического удаления указаний на авторские права, чтобы скрыть происхождение данных.
Для Meta* эти обвинения представляют не только юридические, но и репутационные риски, особенно на фоне стремления компании закрепиться в качестве лидера в области ИИ.
* организация, деятельность которой запрещена на территории РФ
#AI #АвторскоеПраво #Copyright
В новом деле Kadrey et al. vs. Meta* выдвинуты серьезные обвинения в отношении того, что компания использовала пиратские датасеты из теневой библиотеки LibGen при разработке своих ИИ-моделей. Истцы утверждают, что Meta* незаконно скачивала защищенные авторским правом произведения, удаляла информацию о правообладателях и использовала эти данные для обучения своих моделей Llama. Все это, по заявлению истцов, было одобрено высшим руководством компании, включая генерального директора Марка Цукерберга.
Внутренние документы, представленные в суд, демонстрируют обсуждения внутри компании об этических и правовых аспектах таких практик. Инженеры выражали обеспокоенность по поводу использования пиратских данных с корпоративных ноутбуков, и использования скриптов для систематического удаления указаний на авторские права, чтобы скрыть происхождение данных.
Для Meta* эти обвинения представляют не только юридические, но и репутационные риски, особенно на фоне стремления компании закрепиться в качестве лидера в области ИИ.
* организация, деятельность которой запрещена на территории РФ
#AI #АвторскоеПраво #Copyright
CourtListener
Brief – #377 in Kadrey v. Meta Platforms, Inc. (N.D. Cal., 3:23-cv-03417) – CourtListener.com
Brief re [346] Reply In Support of Motion to Amend/Correct (Unredacted Reply) filed byJacqueline Woodson, Richard Kadrey, Andrew Sean Greer, Rachel Louise Snyder, David Henry Hwang, Ta-Nehisi Coates, Laura Lippman, Matthew Klam, Junot Diaz, Sarah Silverman…
🇺🇸 Миссисипи готовится к регулированию ИИ
Губернатор штата Миссисипи Тейт Ривз подписал Исполнительный указ № 1584, поручив Департаменту интернет-технологий штата возглавить усилия по разработке политики в области искусственного интеллекта. Указ обязывает Департамент оценить текущее и планируемое использование ИИ в государственных учреждениях, а также предоставить рекомендации по политике регулирования ИИ для публичного и частного секторов.
Цель указа - обеспечить, чтобы системы ИИ были «справедливыми, безопасными, прозрачными, подотчетными, доступными, надёжными и ориентированными на защиту конфиденциальности». Указ требует, чтобы каждое государственное учреждение назначило координатора по вопросам ИИ.
#ИИ
Губернатор штата Миссисипи Тейт Ривз подписал Исполнительный указ № 1584, поручив Департаменту интернет-технологий штата возглавить усилия по разработке политики в области искусственного интеллекта. Указ обязывает Департамент оценить текущее и планируемое использование ИИ в государственных учреждениях, а также предоставить рекомендации по политике регулирования ИИ для публичного и частного секторов.
Цель указа - обеспечить, чтобы системы ИИ были «справедливыми, безопасными, прозрачными, подотчетными, доступными, надёжными и ориентированными на защиту конфиденциальности». Указ требует, чтобы каждое государственное учреждение назначило координатора по вопросам ИИ.
#ИИ
🇺🇸 В Калифорнии выпущены юридические рекомендации по работе с ИИ
Калифорния опубликовала две подробных юридические рекомендации, посвященные регулированию искусственного интеллекта в целях правового контроля ИИ на уровне штата. Эти документы (📥 первый и второй) описывают конкретные практики, связанные с ИИ, которые могут быть признаны незаконными, и содержат меры по защите потребителей от обмана и вреда.
Рекомендации, среди прочего, предусматривают, что:
✔️ Ложное описание возможностей ИИ теперь под строгим контролем. Например, запрещены: ложная реклама о точности модели ИИ, утверждение о наличии человеческого участия, когда процесс полностью автоматизирован (или наоборот), или заявление о том, что система свободна от предвзятости, без предоставления доказательств.
✔️ Такие действия, как создание дипфейков, голосовых клонов или медиаконтента с использованием ИИ без раскрытия этого факта, могут быть признаны вводящими в заблуждение.
✔️ Запрещено использовать ИИ для имитации личности в целях мошенничества, нанесения вреда или выполнения обязанностей государственного служащего.
✔️ Применение ИИ, которое приводит к несправедливым, неэтичным или дискриминационным последствиям, даже если это не намеренно, может быть оспорено в суде в соответствии с законами штата.
Кроме того, вступившие в силу с 1 января 2025 года новые законы Калифорнии регулируют такие аспекты, как требования к раскрытию информации для бизнеса, несанкционированное использование изображения, применение ИИ в избирательных кампаниях и запрет на эксплуатирующее использование ИИ.
#ИИРегулирование #ИИ
Калифорния опубликовала две подробных юридические рекомендации, посвященные регулированию искусственного интеллекта в целях правового контроля ИИ на уровне штата. Эти документы (
Рекомендации, среди прочего, предусматривают, что:
Кроме того, вступившие в силу с 1 января 2025 года новые законы Калифорнии регулируют такие аспекты, как требования к раскрытию информации для бизнеса, несанкционированное использование изображения, применение ИИ в избирательных кампаниях и запрет на эксплуатирующее использование ИИ.
#ИИРегулирование #ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🇬🇧 Великобритания ищет «Третий путь» в регулировании ИИ
Премьер-министр Великобритании призвал сделать страну следующим глобальным центром ИИ, используя отличные от США и ЕС подходы к регулированию. С одной стороны - отказ от либерального подхода США, с другой - от жестких норм ЕС. Предложение Премьер-министра предполагает поиск «третьего пути». Однако эта идея выглядит проблематичной: почему инвесторы в ИИ выберут британскую модель, которая сочетает ограничения для инноваций без преимуществ доступа к рынкам ЕС или свободы действий, как в США?
В настоящее время в регулировании ИИ наблюдаются три основных тенденции:
1️⃣ Американская модель, где минимальные регуляторные барьеры ставят инновации на первый план.
2️⃣ Европейская модель, ориентированная на соблюдение стандартов и ответственность.
3️⃣ Китайская модель, сфокусированная на централизованном контроле в рамках авторитарных систем.
Какой новый подход выберет Великобритания, пока не ясно.
#ИИ
Премьер-министр Великобритании призвал сделать страну следующим глобальным центром ИИ, используя отличные от США и ЕС подходы к регулированию. С одной стороны - отказ от либерального подхода США, с другой - от жестких норм ЕС. Предложение Премьер-министра предполагает поиск «третьего пути». Однако эта идея выглядит проблематичной: почему инвесторы в ИИ выберут британскую модель, которая сочетает ограничения для инноваций без преимуществ доступа к рынкам ЕС или свободы действий, как в США?
В настоящее время в регулировании ИИ наблюдаются три основных тенденции:
Какой новый подход выберет Великобритания, пока не ясно.
#ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
Ft
Britain doesn’t need to walk a US or EU path on AI
Going our own way will unleash national renewal