🇺🇸 Техас одобрил Закон о регулировании ИИ
Законодательное собрание Техаса приняло законопроект HB 149 — "Responsible Artificial Intelligence Governance Act". Документ вводит обязательные требования к порядку использования ИИ в коммерческом и государственном секторах и устанавливает гражданско-правовые санкции за нарушение норм.
Если губернатор подпишет закон, он вступит в силу 1 января 2026 года.
#ИИ
Законодательное собрание Техаса приняло законопроект HB 149 — "Responsible Artificial Intelligence Governance Act". Документ вводит обязательные требования к порядку использования ИИ в коммерческом и государственном секторах и устанавливает гражданско-правовые санкции за нарушение норм.
Если губернатор подпишет закон, он вступит в силу 1 января 2026 года.
#ИИ
🔥5🤔2
🇪🇺 EDPB выпустил практические пособия по защите данных в сфере ИИ
Европейский комитет по защите данных (European Data Protection Boardь EDPB) представил два новых отчёта в рамках инициативы Support Pool of Experts, направленных на приведение работы с ИИ в соответствие с законодательством о защите персональных данных. Эти материалы содержат практические инструменты для специалистов, работающих с системами ИИ, обрабатывающими персональные данные.
✔️ Fundamentals of Secure AI Systems with Personal Data: документ посвящён устранению текущих пробелов в компетенциях и безопасности ИИ.
✔️ Law & Compliance in AI Security & Data Protection: документ предлагает структуру обучающей программы для специалистов по защите данных (DPO), позволяющую системно подходить к управлению рисками, связанными с ИИ.
#AI #GDPR #ИИ
Европейский комитет по защите данных (European Data Protection Boardь EDPB) представил два новых отчёта в рамках инициативы Support Pool of Experts, направленных на приведение работы с ИИ в соответствие с законодательством о защите персональных данных. Эти материалы содержат практические инструменты для специалистов, работающих с системами ИИ, обрабатывающими персональные данные.
#AI #GDPR #ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🤔3👍2
📖 ИИ и дети
Выпущен новый отчёт Института имени Алана Тьюринга "Understanding the Impacts of Generative AI Use on Children". В документе выявлен критически важный пробел в регулировании ИИ: отсутствие защиты прав детей. Интересы детей практически не учитывают при разработке и принятии решений в сфере ИИ, хотя именно дети, вероятно, окажутся наиболее затронутыми новыми технологиями на протяжении своей жизни.
Исследование призывает законодателей и разработчиков вовлекать детей в процесс оценки рисков при создании и контроле систем ИИ. .
#AI #ИИ
Выпущен новый отчёт Института имени Алана Тьюринга "Understanding the Impacts of Generative AI Use on Children". В документе выявлен критически важный пробел в регулировании ИИ: отсутствие защиты прав детей. Интересы детей практически не учитывают при разработке и принятии решений в сфере ИИ, хотя именно дети, вероятно, окажутся наиболее затронутыми новыми технологиями на протяжении своей жизни.
Исследование призывает законодателей и разработчиков вовлекать детей в процесс оценки рисков при создании и контроле систем ИИ. .
#AI #ИИ
❤8👍2
📖 Новое исследование MIT показало, что использование ChatGPT может ослаблять интеллектуальные способности студентов
MIT выпустили новое исследование, согласно которому студенты, использующие ChatGPT при написании эссе, продемонстрировали значительно более низкую мозговую активность и способность к запоминанию, чем те, кто писал свои работы без помощи ИИ или использовал обычные поисковые системы.
В течение четырёх месяцев у группы с ChatGPT наблюдались более слабые нейронные связи и ухудшение способностей к креативности, анализу информации и памяти.
#ИИ #ChatGPT #ИИЭтика
MIT выпустили новое исследование, согласно которому студенты, использующие ChatGPT при написании эссе, продемонстрировали значительно более низкую мозговую активность и способность к запоминанию, чем те, кто писал свои работы без помощи ИИ или использовал обычные поисковые системы.
В течение четырёх месяцев у группы с ChatGPT наблюдались более слабые нейронные связи и ухудшение способностей к креативности, анализу информации и памяти.
#ИИ #ChatGPT #ИИЭтика
👍7😡2❤1🤔1
🇺🇸 Калифорния представила ключевые принципы регулирования ИИ систем
Калифорния опубликовала доклад о политике в области ИИ "The California Report on Frontier AI Policy", сформулировав базовые принципы ответственного регулирования искусственного интеллекта. В документе указано на необходимость принятия решений на основе эмпирических данных и оценки как рисков, так и пользы от технологий. В докладе много внимания посвящено прозрачности, подотчетности и научной обоснованности. Среди рекомендаций авторов — защита информаторов (whistleblowers), проведение внешних аудитов и установление систем отчетности о негативных инцидентах.
#РегулированиеИИ
Калифорния опубликовала доклад о политике в области ИИ "The California Report on Frontier AI Policy", сформулировав базовые принципы ответственного регулирования искусственного интеллекта. В документе указано на необходимость принятия решений на основе эмпирических данных и оценки как рисков, так и пользы от технологий. В докладе много внимания посвящено прозрачности, подотчетности и научной обоснованности. Среди рекомендаций авторов — защита информаторов (whistleblowers), проведение внешних аудитов и установление систем отчетности о негативных инцидентах.
#РегулированиеИИ
👍6👏3
📖 Организации по надзору за ИИ опубликовали OpenAI Files
Две ведущие организации по надзору за ИИ: The Midas Project и Tech Oversight Project опубликовали архив документов "OpenAI Files", с целью повышения прозрачности информации в отношении одной из самых влиятельных ИИ-компаний в мире. Архив раскрывает потенциальные конфликты интересов, пробелы в вопросах безопасности и прозрачности, а также проблемы, связанные с реорганизацией и внутренним управлением в OpenAI.
#AI #OpenAI #ИИ
Две ведущие организации по надзору за ИИ: The Midas Project и Tech Oversight Project опубликовали архив документов "OpenAI Files", с целью повышения прозрачности информации в отношении одной из самых влиятельных ИИ-компаний в мире. Архив раскрывает потенциальные конфликты интересов, пробелы в вопросах безопасности и прозрачности, а также проблемы, связанные с реорганизацией и внутренним управлением в OpenAI.
#AI #OpenAI #ИИ
www.openaifiles.org
The OpenAI Files
The OpenAI Files is the most comprehensive collection to date of documented concerns with governance practices, leadership integrity, and organizational culture at OpenAI.
👍5🤔1
Недавно анонсированное партнёрство Mattel с OpenAI вызвало критику со стороны правозащитной организация Public Citizen. Организация предупреждает, что интеграция генеративного ИИ в детские игрушки может стать опасным социальным экспериментом. Хотя Mattel пока не раскрывает, каким будет их первый продукт с ИИ, активисты требуют немедленной прозрачности и четких мер предосторожности.
Сопредседатель Public Citizen Роберт Вайсман призвал Mattel отказаться от планов встраивать системы вроде ChatGPT в игрушки, подчеркнув угрозу для социального развития и неспособность детей полностью отличать реальность от игры. Он настаивает на том, что родители не должны быть застигнуты врасплох, и до появления таких продуктов на рынке следует установить чёткие этические границы.
#ИИ #ИИЭтика
Please open Telegram to view this post
VIEW IN TELEGRAM
Public Citizen
Mattel’s Open AI Collaboration Is Dangerous for Children - Public Citizen
WASHINGTON, D.C. — Children’s toy company Mattel recently announced it will partner with Open AI to support “AI-powered products and experiences” for…
👍5❤1
🇺🇸 Anthropic выиграл дело о добросовестном использовании авторских материалов, но вопросы о пиратстве остаются
В США судья Уильям Алсап постановил, что использование компанией Anthropic "законно приобретённых" бумажных книг для обучения своих моделей ИИ подпадает под концепцию «добросовестного использования» (fair use). Суд указал, что оцифровка этих книг и их применение для обучения больших языковых моделей было «достаточно трансформирующим», тем самым подтвердив право ИИ-компаний на обучение своих моделей на данных, полученных законным путем.
Вместе с тем, суд также постановил, что Anthropic должна предстать перед судом за предполагаемое использование миллионов "пиратских" книг. По словам судьи, добросовестное использование не распространяется на материалы, полученные незаконным путём, особенно когда была возможность купить их легально. Отдельное судебное разбирательство определит степень ответственности компании и размер возможного ущерба.
#ИИ #АвторскоеПраво #IP
В США судья Уильям Алсап постановил, что использование компанией Anthropic "законно приобретённых" бумажных книг для обучения своих моделей ИИ подпадает под концепцию «добросовестного использования» (fair use). Суд указал, что оцифровка этих книг и их применение для обучения больших языковых моделей было «достаточно трансформирующим», тем самым подтвердив право ИИ-компаний на обучение своих моделей на данных, полученных законным путем.
Вместе с тем, суд также постановил, что Anthropic должна предстать перед судом за предполагаемое использование миллионов "пиратских" книг. По словам судьи, добросовестное использование не распространяется на материалы, полученные незаконным путём, особенно когда была возможность купить их легально. Отдельное судебное разбирательство определит степень ответственности компании и размер возможного ущерба.
#ИИ #АвторскоеПраво #IP
www.documentcloud.org
Authors v Anthropic ruling
🤔7🔥1🎉1
🇺🇸 Надзорный орган требует от Microsoft изменить свою рекламу ИИ
Национальное рекламное подразделение (National Advertising Division) рекомендовало компании Microsoft пересмотреть или прекратить использование некоторых заявлений о продуктивности основанного на ИИ Microsoft 365 Copilot, в связи с отсутствием объективных доказательств верности заявлений. Несмотря на то что Microsoft ссылается на впечатляющие данные восприятия пользователей — например, 70% сообщили об увеличении продуктивности — регулятор считает, что этих данных недостаточно для обоснования конкретных рекламных утверждений.
Помимо цифр, регулятор указал на путаницу в брендинге. Название "Copilot" используется в разных продуктах, включая Business Chat, и пользователи могут не понимать, на что действительно способен этот инструмент. Надзорный орган призвал Microsoft ясно раскрывать ограничения функций и не смешивать разные сервисы под одним именем. Таким образом регулятор реализует политику прозрачности в рекламе ИИ-продуктов.
#AI#MicrosoftCopilot #РекламаИИ #ИИЭтика
Национальное рекламное подразделение (National Advertising Division) рекомендовало компании Microsoft пересмотреть или прекратить использование некоторых заявлений о продуктивности основанного на ИИ Microsoft 365 Copilot, в связи с отсутствием объективных доказательств верности заявлений. Несмотря на то что Microsoft ссылается на впечатляющие данные восприятия пользователей — например, 70% сообщили об увеличении продуктивности — регулятор считает, что этих данных недостаточно для обоснования конкретных рекламных утверждений.
Помимо цифр, регулятор указал на путаницу в брендинге. Название "Copilot" используется в разных продуктах, включая Business Chat, и пользователи могут не понимать, на что действительно способен этот инструмент. Надзорный орган призвал Microsoft ясно раскрывать ограничения функций и не смешивать разные сервисы под одним именем. Таким образом регулятор реализует политику прозрачности в рекламе ИИ-продуктов.
#AI#MicrosoftCopilot #РекламаИИ #ИИЭтика
bbbprograms.org
NAD Finds Certain Microsoft Copilot Claims Supported
The National Advertising Division found Microsoft supported certain Copilot functionality claims.
👍3🤔2
🇺🇸 Meta* выиграла дело о нарушении авторских прав при обучении ИИ, но судебные битвы только начинаются
Meta* одержала победу в судебном деле по защите авторских прав, инициированном несколькими писателями. Однако при этом судья Винс Чабрия дал ясно понять, что данная победа не означает, что использование авторских текстов для обучения ИИ законно. Решение в пользу ответчика было вынесено в связи с недостаточностью доказательств наличия ущерба, а не на признании законности действий Meta*. По словам судьи, истцы «выдвинули неправильные аргументы».
Более того, суд отметил, что использование защищённых авторским правом произведений для обучения больших языковых моделей во «многих случаях» будет незаконным. Он назвал аргумент Meta* о защите общественных интересов «чепухой» и признал реальный риск того, что ИИ-инструменты способны бесконечно воспроизводить конкурирующий контент на основе оригинальных произведений авторов.
* Meta признана в России экстремистской организацией и запрещена
#АвторскоеПраво #ИИ #IP
Meta* одержала победу в судебном деле по защите авторских прав, инициированном несколькими писателями. Однако при этом судья Винс Чабрия дал ясно понять, что данная победа не означает, что использование авторских текстов для обучения ИИ законно. Решение в пользу ответчика было вынесено в связи с недостаточностью доказательств наличия ущерба, а не на признании законности действий Meta*. По словам судьи, истцы «выдвинули неправильные аргументы».
Более того, суд отметил, что использование защищённых авторским правом произведений для обучения больших языковых моделей во «многих случаях» будет незаконным. Он назвал аргумент Meta* о защите общественных интересов «чепухой» и признал реальный риск того, что ИИ-инструменты способны бесконечно воспроизводить конкурирующий контент на основе оригинальных произведений авторов.
* Meta признана в России экстремистской организацией и запрещена
#АвторскоеПраво #ИИ #IP
CourtListener
Order – #598 in Kadrey v. Meta Platforms, Inc. (N.D. Cal., 3:23-cv-03417) – CourtListener.com
ORDER Denying the Plaintiffs' 482 Motion for Partial Summary Judgment and Granting Meta's 501 Cross-Motion for Partial Summary Judgment. Signed by Judge Vince Chhabria on 6/25/2025. (vclc1, COURT STAFF) (Filed on 6/25/2025) (Entered: 06/25/2025)
👍7🤔1
📖 Новый отчет об управлении ИИ-агентами от Center for AI Policy
Вышел интересный отчет от Центра по политике в сфере ИИ - AI Agents: Governing Autonomy in the Digital Age. Отчет посвящен ИИ-агентам, то есть таким системам, которые могут выполнять разнообразные сложные задачи с минимальным надзором человека.
В документе выделены три ключевые угрозы: возможное злоупотребление из-за уязвимостей в безопасности, постепенная утрата контроля со стороны человека и вытеснение квалифицированных работников в результате автоматизации.
Для снижения рисков предлагается ввести «паспорт автономии» — обязательную регистрацию агентных ИИ с описанием их возможностей и ограничений, создать систему постоянного надзора, установить требование экспертного подтверждения в критически важных сферах (медицина, финансы, инфраструктура), а также отслеживать влияние на рынок труда и адаптировать политику в реальном времени.
#AI #ИИ
Вышел интересный отчет от Центра по политике в сфере ИИ - AI Agents: Governing Autonomy in the Digital Age. Отчет посвящен ИИ-агентам, то есть таким системам, которые могут выполнять разнообразные сложные задачи с минимальным надзором человека.
В документе выделены три ключевые угрозы: возможное злоупотребление из-за уязвимостей в безопасности, постепенная утрата контроля со стороны человека и вытеснение квалифицированных работников в результате автоматизации.
Для снижения рисков предлагается ввести «паспорт автономии» — обязательную регистрацию агентных ИИ с описанием их возможностей и ограничений, создать систему постоянного надзора, установить требование экспертного подтверждения в критически важных сферах (медицина, финансы, инфраструктура), а также отслеживать влияние на рынок труда и адаптировать политику в реальном времени.
#AI #ИИ
❤2🤔2
📖 Искусственный интеллект или искусственное невежество?
Social Science Research Network опубликовали интересную статью по названием «AI as Artificial Ignorance». Автор статьи, профессор Бент Флюгберг, обращает внимание на то, что современные генеративные ИИ, несмотря на их эффективность, часто подменяют правду умением убеждать. Не обладая критериями истины, такие системы, как ChatGPT, по мнению автора, «ближе к чепухе, чем к истине», так как они умеют гладко излагать, но являются ненадежными в предоставлении фактов.
Флюгберг задается вопросом о том, служит ли итоге развитие искусственного интеллекта прогрессу человеческих знаний, или их утратой. Автор приходит к выводу, что пока ИИ не научится действительно знать, а не просто звучать убедительно, человечество рискует по видом прогресса масштабировать невежество.
#ИИЭтика
Social Science Research Network опубликовали интересную статью по названием «AI as Artificial Ignorance». Автор статьи, профессор Бент Флюгберг, обращает внимание на то, что современные генеративные ИИ, несмотря на их эффективность, часто подменяют правду умением убеждать. Не обладая критериями истины, такие системы, как ChatGPT, по мнению автора, «ближе к чепухе, чем к истине», так как они умеют гладко излагать, но являются ненадежными в предоставлении фактов.
Флюгберг задается вопросом о том, служит ли итоге развитие искусственного интеллекта прогрессу человеческих знаний, или их утратой. Автор приходит к выводу, что пока ИИ не научится действительно знать, а не просто звучать убедительно, человечество рискует по видом прогресса масштабировать невежество.
#ИИЭтика
Ssrn
AI as Artificial Ignorance
AI and bullshit (in the strong philosophical sense of Harry Frankfurt) are similar in the sense that both prioritize rhetoric over truth. They mix true, false,
👍5🤔2😡1
🇪🇺 Открытое письмо Европейской комиссии о регулировании ИИ общего назначения в интересах людей, а не технологических платформ
Коалиция исследователей ИИ, защитников гражданских прав и ученых, включая ряд нобелевских лауреатов, призвала Европейскую комиссию не отступать от регулирования ИИ общего назначения ИИ. В открытом письме к Урсуле фон дер Ляйен авторы настаивают на том, что ЕС не должен поддаваться давлению со стороны технологических лоббистов, а инновации и защита прав человека не должны противоречить друг другу.
Авторы письма поддерживают разработанный за последние девять месяцев Кодекс практики как реалистичный инструмент регулирования — он затрагивает лишь 5–15 крупнейших компаний и соответствует существующим подходам к управлению рисками. Среди ключевых рекомендаций: обязательное внешнее тестирование моделей системного риска, гибкие механизмы пересмотра в ответ на новые угрозы и значительное усиление европейского офиса по ИИ, с увеличением штата до 300 человек, включая ведущих экспертов по безопасности ИИ.
#ИИ #GPAI
Коалиция исследователей ИИ, защитников гражданских прав и ученых, включая ряд нобелевских лауреатов, призвала Европейскую комиссию не отступать от регулирования ИИ общего назначения ИИ. В открытом письме к Урсуле фон дер Ляйен авторы настаивают на том, что ЕС не должен поддаваться давлению со стороны технологических лоббистов, а инновации и защита прав человека не должны противоречить друг другу.
Авторы письма поддерживают разработанный за последние девять месяцев Кодекс практики как реалистичный инструмент регулирования — он затрагивает лишь 5–15 крупнейших компаний и соответствует существующим подходам к управлению рисками. Среди ключевых рекомендаций: обязательное внешнее тестирование моделей системного риска, гибкие механизмы пересмотра в ответ на новые угрозы и значительное усиление европейского офиса по ИИ, с увеличением штата до 300 человек, включая ведущих экспертов по безопасности ИИ.
#ИИ #GPAI
❤4👍2😡1
🇫🇷 Франция запускает PANAME: инструменты для аудита конфиденциальности ИИ
Французская CNIL (Национальная комиссия по информатике и свободам) объявила о запуске PANAME (Privacy Auditing of AI Models) — совместной инициативы с другими национальными цифровыми регуляторами и исследовательскими организациями. Цель проекта — разработка инструментов для аудита систем ИИ, обученных на персональных данных, и оценка их способности обеспечивать конфиденциальность. Ожидается, что каталог этих инструментов будет полностью или частично доступен в открытом исходном коде.
Цель проекта - разработать конкретные и проверяемые инструменты оценки рисков конфиденциальности. CNIL предлагает Европе не просто декларировать принципы, а внедрять механизмы их соблюдения.
#ИИ #AICompliance #PrivacyByDesign #CNIL
Французская CNIL (Национальная комиссия по информатике и свободам) объявила о запуске PANAME (Privacy Auditing of AI Models) — совместной инициативы с другими национальными цифровыми регуляторами и исследовательскими организациями. Цель проекта — разработка инструментов для аудита систем ИИ, обученных на персональных данных, и оценка их способности обеспечивать конфиденциальность. Ожидается, что каталог этих инструментов будет полностью или частично доступен в открытом исходном коде.
Цель проекта - разработать конкретные и проверяемые инструменты оценки рисков конфиденциальности. CNIL предлагает Европе не просто декларировать принципы, а внедрять механизмы их соблюдения.
#ИИ #AICompliance #PrivacyByDesign #CNIL
CNIL
PANAME: a partnership for privacy auditing of AI models
Audit models for compliance The opinion adopted by the European Data Protection Board (EDPB) in December 2024 states that the GDPR applies, in many cases, to AI models trained on personal data, due to their memorization capabilities (see LINC article
👍6❤3
🇺🇸 Калифорния утвердила правила против дискриминации при найме на работу с использованием ИИ
В Калифорнии окончательно утверждены правила, направленные на борьбу с алгоритмической дискриминацией в сфере занятости. Согласно новым положениям Совета по гражданским правам, использование автоматизированных систем принятия решений (automated decision-making technologies, ADMT) может считаться нарушением закона штата, если оно наносит ущерб кандидатам или сотрудникам в виде расовой, гендерной или иной дискриминации.
Регламент не запрещает использование ADMT полностью, но требует наличие подотчетности. Работодатели будут обязаны хранить связанные с ними кадровые данные как минимум четыре года.
#AI #AIBias #ADMT
В Калифорнии окончательно утверждены правила, направленные на борьбу с алгоритмической дискриминацией в сфере занятости. Согласно новым положениям Совета по гражданским правам, использование автоматизированных систем принятия решений (automated decision-making technologies, ADMT) может считаться нарушением закона штата, если оно наносит ущерб кандидатам или сотрудникам в виде расовой, гендерной или иной дискриминации.
Регламент не запрещает использование ADMT полностью, но требует наличие подотчетности. Работодатели будут обязаны хранить связанные с ними кадровые данные как минимум четыре года.
#AI #AIBias #ADMT
calcivilrights.ca.gov
Civil Rights Council Secures Approval for Regulations to Protect Against Employment Discrimination Related to Artificial Intelligence…
State of California
👍7
📖 "Потемкинское понимание" искусственного интеллекта
"Потемкинское понимание" - новый термин, который использовали авторы исследования MIT, Гарварда и Чикагского университета для обозначения критического сбоя в работе больших языковых моделей. Исследование показало, что языковые модели успешно проходят концептуальные тесты, но не обладают пониманием понятий, которыми оперируют. В отличие от «галлюцинаций» — фактических ошибок, — «потемкинское понимание» означает имитацию когнитивной глубины: модель формирует правдоподобное объяснение, но сама не способна применить его на практике.
Это открытие ставит под сомнение ключевой инструмент оценки эффективности ИИ — бенчмарки. Например, модель GPT-4o может правильно объяснить строение рифмы в стихотворении (например, схема ABAB), но при этом не может ее применить при написании стихов.
В другом эксперименте модели точно распознавали концепции (94,2%), но проваливались в задачах на классификацию (ошибка 55%), генерацию и редактирование (по 40%). Как отмечает соавтор исследования Кейон Ваафа, поведение, которое у человека означает понимание, у ИИ — лишь создание видимости.
#AI #ИИЭтика
"Потемкинское понимание" - новый термин, который использовали авторы исследования MIT, Гарварда и Чикагского университета для обозначения критического сбоя в работе больших языковых моделей. Исследование показало, что языковые модели успешно проходят концептуальные тесты, но не обладают пониманием понятий, которыми оперируют. В отличие от «галлюцинаций» — фактических ошибок, — «потемкинское понимание» означает имитацию когнитивной глубины: модель формирует правдоподобное объяснение, но сама не способна применить его на практике.
Это открытие ставит под сомнение ключевой инструмент оценки эффективности ИИ — бенчмарки. Например, модель GPT-4o может правильно объяснить строение рифмы в стихотворении (например, схема ABAB), но при этом не может ее применить при написании стихов.
В другом эксперименте модели точно распознавали концепции (94,2%), но проваливались в задачах на классификацию (ошибка 55%), генерацию и редактирование (по 40%). Как отмечает соавтор исследования Кейон Ваафа, поведение, которое у человека означает понимание, у ИИ — лишь создание видимости.
#AI #ИИЭтика
arXiv.org
Potemkin Understanding in Large Language Models
Large language models (LLMs) are regularly evaluated using benchmark datasets. But what justifies making inferences about an LLM's capabilities based on its answers to a curated set of questions?...
👍5🎉1😡1
🇺🇸 Очередной штраф за некорректное использование ИИ в суде
В США на 6 000 долларов оштрафованы два адвоката, представлявших в суде CEO MyPillow Майка Линделла. Санкция введена за подачу в суд документа с ложными цитатами и вымышленными судебными прецедентами, сгенерированными с помощью искусственного интеллекта. Окружной судья США Нина Ван постановила, что адвокаты Кристофер Качурофф и Дженнифер ДеМастер нарушили "Правило 11", так как не убедились, что их правовые аргументы основаны на существующем законодательстве. Судья также отметила, что аналогичные ошибки адвокаты допустили в другом деле всего несколькими днями ранее.
Юристы утверждали, что ошибочно отправили в суд черновик, однако суд обнаружил серьезные ошибки и в «исправленной» версии. Суд квалифицировал штраф как «наименее строгое наказание, достаточное для пресечения и предупреждения» некорректного использования ИИ в судебной практике.
#ИИ #LegalTech
В США на 6 000 долларов оштрафованы два адвоката, представлявших в суде CEO MyPillow Майка Линделла. Санкция введена за подачу в суд документа с ложными цитатами и вымышленными судебными прецедентами, сгенерированными с помощью искусственного интеллекта. Окружной судья США Нина Ван постановила, что адвокаты Кристофер Качурофф и Дженнифер ДеМастер нарушили "Правило 11", так как не убедились, что их правовые аргументы основаны на существующем законодательстве. Судья также отметила, что аналогичные ошибки адвокаты допустили в другом деле всего несколькими днями ранее.
Юристы утверждали, что ошибочно отправили в суд черновик, однако суд обнаружил серьезные ошибки и в «исправленной» версии. Суд квалифицировал штраф как «наименее строгое наказание, достаточное для пресечения и предупреждения» некорректного использования ИИ в судебной практике.
#ИИ #LegalTech
CourtListener
Order – #383 in Coomer v. Lindell (D. Colo., 1:22-cv-01129) – CourtListener.com
ORDER For the reasons set forth herein. The Order to Show Cause [Doc. 309 ] is MADE ABSOLUTE. The Court hereby SANCTIONS Christopher I. Kachouroff and the law firm of McSweeney Cynkar & Kachouroff PLLC, jointly and severally, in the amount of $3,000 pursuant…
👍4🤔3
🇺🇸 Дипфейки добрались до Марко Рубио
По сообщениям СМИ, секретный дипломатический канал США раскрыл информацию о том, что неизвестный злоумышленник использовал генеративный ИИ для имитации личности госсекретаря США Марко Рубио в мессенджере Signal. Целью атаки стали как минимум пять высокопоставленных лиц, включая трех министров иностранных дел, губернатора одного из штатов и члена Конгресса. Целью кампании было получение доступа к конфиденциальной информации или аккаунтам.
Киберпреступники использовали ИИ для создания фейковых сообщений, голосовых записей и e-mail от имени высокопоставленных представителей США. Госдепартамент США начал внутреннее расследование и предупредил свои зарубежные представительства о риске подобных атак.
#ИИ #Кибербезопасность
По сообщениям СМИ, секретный дипломатический канал США раскрыл информацию о том, что неизвестный злоумышленник использовал генеративный ИИ для имитации личности госсекретаря США Марко Рубио в мессенджере Signal. Целью атаки стали как минимум пять высокопоставленных лиц, включая трех министров иностранных дел, губернатора одного из штатов и члена Конгресса. Целью кампании было получение доступа к конфиденциальной информации или аккаунтам.
Киберпреступники использовали ИИ для создания фейковых сообщений, голосовых записей и e-mail от имени высокопоставленных представителей США. Госдепартамент США начал внутреннее расследование и предупредил свои зарубежные представительства о риске подобных атак.
#ИИ #Кибербезопасность
CNN
Someone using AI to impersonate Marco Rubio contacted at least five people including foreign ministers, cable says
Someone using artificial intelligence to impersonate Secretary of State Marco Rubio contacted at least five people, including three foreign ministers, a US governor, and a member of Congress, “with the goal of gaining access to information or accounts,” a…
👍1
Где искать юриста
Когда сталкиваешься с юридической задачей — хочется одного: найти человека, который точно знает, что делать.
Чтобы не тратить время на опросы знакомых и бесконечные поиски, мы собрали для вас подборку телеграм-каналов юристов по разным направлениям.
⚡️ Сохраняйте папку себе и делитесь — может пригодиться не сегодня, так завтра.
А может, и не вам, а подруге, которая делит имущество, или другу, которому пришла повестка из суда.
Когда сталкиваешься с юридической задачей — хочется одного: найти человека, который точно знает, что делать.
Не просто «юриста», а того, кому можно доверить свою ситуацию.
Чтобы не тратить время на опросы знакомых и бесконечные поиски, мы собрали для вас подборку телеграм-каналов юристов по разным направлениям.
А может, и не вам, а подруге, которая делит имущество, или другу, которому пришла повестка из суда.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍2❤1🙏1
🇪🇺 Лидеры европейской индустрии призвали приостановить внедрение Закона ЕС об ИИ
46 руководителей крупнейших европейских компаний, таких как Airbus, ASML, TotalEnergies, Lufthansa и Mistral, опубликовали открытое письмо с просьбой отложить вступление в силу Закона ЕС об ИИ на два года. По их мнению, ключевые положения закона, особенно в части регулирования ИИ общего назначения и ИИ систем высокого риска, страдают от регуляторной неопределённости. Это, как они утверждают, подрывает инновационную активность и конкурентоспособность Европы.
Обращение прозвучало на фоне обсуждений в Брюсселе о необходимости сбалансировать экономический рост и цифровое регулирование. Комиссар ЕС Хенна Вирккунен заявила, что примет решение о возможной «остановке часов» к августу, если стандарты внедрения не будут готовы.
#EUAIAct #ИИ
46 руководителей крупнейших европейских компаний, таких как Airbus, ASML, TotalEnergies, Lufthansa и Mistral, опубликовали открытое письмо с просьбой отложить вступление в силу Закона ЕС об ИИ на два года. По их мнению, ключевые положения закона, особенно в части регулирования ИИ общего назначения и ИИ систем высокого риска, страдают от регуляторной неопределённости. Это, как они утверждают, подрывает инновационную активность и конкурентоспособность Европы.
Обращение прозвучало на фоне обсуждений в Брюсселе о необходимости сбалансировать экономический рост и цифровое регулирование. Комиссар ЕС Хенна Вирккунен заявила, что примет решение о возможной «остановке часов» к августу, если стандарты внедрения не будут готовы.
#EUAIAct #ИИ
EU AI Champions Initiative
Unlock Europe’s Full Potential in AI
👍4