Компания IBM опубликовала новый видеоматериал, посвящённый киберрискам, связанным с ИИ-агентами. По оценке компании, ИИ-агенты создают новые уязвимости: их можно использовать для автоматизации и масштабирования кибератак с беспрецедентной эффективностью. Кроме того, злоумышленники могут применять ИИ для обхода традиционных защитных механизмов.
Вместе с тем, ИИ-агенты способны укрепить защиту, самостоятельно выявляя угрозы, координируя ответные меры и быстро адаптируясь.
#ИИ #Кибербезопасность
Please open Telegram to view this post
VIEW IN TELEGRAM
Ibm
Listen to episode 2, season 2 of AI in Action
Listen to latest episode of AI in Action: Agentic AI: The emerging challenge in cybersecurity. AI in Action–an Think podcast. #AIIA #AIInAction #IBM
В продолжение обсуждения подготовили для вас список полезных ссылок с материалами по регулированию ИИ.
1. Трекеры законодательства в разных странах и блоги юридических фирм:
- Global AI Regulation Tracker
- White & Case
- IAPP
- Akin Gump Strauss Hauer & Feld
- Inside Tech Law
- Burges Salmon
- Baker & Hostetler
2. Международные принципы и стандарты, практические руководства и учебные материалы:
- UNESCO Principles
- OECD AI Principles
- NIST AI RMF
- PDPC Model AI Governance Framework
- AI learning hub (Microsoft)
- CNIL
- ГОСТ Р ИСО/МЭК 42001-2024 «Искусственный интеллект. Система менеджмента»
- ГОСТ Р 71476-2024 (ИСО/МЭК 22989:2022) – «Концепции и терминология искусственного интеллекта»
Ну и, конечно же, наше руководство по самооценке рисков ИИ.
1. Трекеры законодательства в разных странах и блоги юридических фирм:
- Global AI Regulation Tracker
- White & Case
- IAPP
- Akin Gump Strauss Hauer & Feld
- Inside Tech Law
- Burges Salmon
- Baker & Hostetler
2. Международные принципы и стандарты, практические руководства и учебные материалы:
- UNESCO Principles
- OECD AI Principles
- NIST AI RMF
- PDPC Model AI Governance Framework
- AI learning hub (Microsoft)
- CNIL
- ГОСТ Р ИСО/МЭК 42001-2024 «Искусственный интеллект. Система менеджмента»
- ГОСТ Р 71476-2024 (ИСО/МЭК 22989:2022) – «Концепции и терминология искусственного интеллекта»
Ну и, конечно же, наше руководство по самооценке рисков ИИ.
⚖️ Reddit подал иск против Anthropic за несанкционированный сбор данных с платформы для обучения моделей ИИ
Reddit подал в суд на Anthropic, обвинив стартап в несанкционированном сборе данных с платформы для обучения моделей ИИ. Согласно иску, боты Anthropic обращались к серверам Reddit более 100 000 раз — даже после того, как доступ был официально заблокирован. Переговоры о лицензионном соглашении, аналогичном тем, что Reddit уже заключил с OpenAI и Google, не увенчались успехом.
Это один из первых случаев, когда крупная технологическая платформа официально оспаривает использование своих данных для обучения генеративного ИИ. Учитывая, что Anthropic ранее признавал факт обучения на данных Reddit, а модель Claude регулярно ссылается на материалы с субреддитов, дело может задать прецедент для правовых споров о доступе к данным.
#ИИ #Reddit
Reddit подал в суд на Anthropic, обвинив стартап в несанкционированном сборе данных с платформы для обучения моделей ИИ. Согласно иску, боты Anthropic обращались к серверам Reddit более 100 000 раз — даже после того, как доступ был официально заблокирован. Переговоры о лицензионном соглашении, аналогичном тем, что Reddit уже заключил с OpenAI и Google, не увенчались успехом.
Это один из первых случаев, когда крупная технологическая платформа официально оспаривает использование своих данных для обучения генеративного ИИ. Учитывая, что Anthropic ранее признавал факт обучения на данных Reddit, а модель Claude регулярно ссылается на материалы с субреддитов, дело может задать прецедент для правовых споров о доступе к данным.
#ИИ #Reddit
🇺🇸 В США подготовили правительственный доклад, используя сгенерированные ИИ фейковые цитаты
Журналисты обнаружили множество несуществующих ссылок и библиографических ошибок в правительственном докладе о здоровье детей, представленном министром здравоохранения Робертом Ф. Кеннеди-младшим. Многие из фейковых цитат, по всей вероятности, были сгенерированы ИИ.
Учёные, указанные как авторы некоторых цитируемых исследований, опровергли само существование этих работ. Другие заявили, что их настоящие исследования были искажены в тексте доклада. В свое оправдание чиновники сослались на «ошибки форматирования» и отказались сообщить, использовался ли генеративный ИИ при его подготовке.
#ИИ #ИИЭтика
Журналисты обнаружили множество несуществующих ссылок и библиографических ошибок в правительственном докладе о здоровье детей, представленном министром здравоохранения Робертом Ф. Кеннеди-младшим. Многие из фейковых цитат, по всей вероятности, были сгенерированы ИИ.
Учёные, указанные как авторы некоторых цитируемых исследований, опровергли само существование этих работ. Другие заявили, что их настоящие исследования были искажены в тексте доклада. В свое оправдание чиновники сослались на «ошибки форматирования» и отказались сообщить, использовался ли генеративный ИИ при его подготовке.
#ИИ #ИИЭтика
Science
Trump officials downplay fake citations in high-profile report on children’s health
References to phantom studies comes after White House pledge to practice “gold standard” science
🇺🇸 Музыкальные лейблы договариваются с ИИ-компаниями о лицензиях
Крупнейшие звукозаписывающие компании — Universal, Sony и Warner — начали переговоры с музыкальными ИИ-стартапами Udio и Suno о лицензировании и возможном получении долей в этих компаниях. Целью переговоров является урегулирование текущих исков о нарушении авторских прав, а также разработка модели компенсации артистам, чьи работы использовались для обучения генеративных моделей ИИ. По сообщениям СМИ, лейблы настаивают как на лицензионных выплатах, так и на получении доли в капитале компаний.
Если соглашения будут заключены, они могут задать стандарты защиты авторских прав при обучении моделей ИИ.
#ИИ #АвторскоеПраво
Крупнейшие звукозаписывающие компании — Universal, Sony и Warner — начали переговоры с музыкальными ИИ-стартапами Udio и Suno о лицензировании и возможном получении долей в этих компаниях. Целью переговоров является урегулирование текущих исков о нарушении авторских прав, а также разработка модели компенсации артистам, чьи работы использовались для обучения генеративных моделей ИИ. По сообщениям СМИ, лейблы настаивают как на лицензионных выплатах, так и на получении доли в капитале компаний.
Если соглашения будут заключены, они могут задать стандарты защиты авторских прав при обучении моделей ИИ.
#ИИ #АвторскоеПраво
Bloomberg.com
Record Labels in Talks to License Music to AI Firms Udio, Suno
Music companies would settle lawsuits with startups they accused of copyright infringement
📖 GPT-4 превосходит людей в умении убеждать
Новое исследование "On the Conversational Persuasiveness of GPT-4" показало, что персонализированный GPT-4 в 64,4% случаев оказался убедительнее живых оппонентов. Причём для персонализации использовались лишь базовые демографические данные — пол, возраст, политические взгляды и т.д. И даже без персонализации GPT-4 выступал наравне с людьми.
Результаты исследования подтверждают, что персонализация ИИ, надо которой сейчас активно работают крупнейшие технологические компании, может сделать LLM-модели мощными инструментами влияния. Если такие модели будут недобросовестно нацеленно использовать психологические особенности людей, это может привести к масштабным манипуляциям общественного мнения. Есть о чем задуматься регуляторам во всем мире.
#ИИ #ИИЭтика
Новое исследование "On the Conversational Persuasiveness of GPT-4" показало, что персонализированный GPT-4 в 64,4% случаев оказался убедительнее живых оппонентов. Причём для персонализации использовались лишь базовые демографические данные — пол, возраст, политические взгляды и т.д. И даже без персонализации GPT-4 выступал наравне с людьми.
Результаты исследования подтверждают, что персонализация ИИ, надо которой сейчас активно работают крупнейшие технологические компании, может сделать LLM-модели мощными инструментами влияния. Если такие модели будут недобросовестно нацеленно использовать психологические особенности людей, это может привести к масштабным манипуляциям общественного мнения. Есть о чем задуматься регуляторам во всем мире.
#ИИ #ИИЭтика
Nature
On the conversational persuasiveness of GPT-4
Nature Human Behaviour - Salvi et al. find that GPT-4 outperforms humans in debates when given basic sociodemographic data. With personalization, GPT-4 had 81.2% higher odds of post-debate...
🇨🇳 Китай приостановил работу ИИ-инструментов на время вступительных экзаменов
Китайские технологические гиганты, ByteDance, Tencent и Alibaba, временно отключили ключевые функции ИИ во время национального вступительного экзамена в вузы — гаокао. С 7 по 10 июня такие инструменты, как Doubao, Yuanbao и Kimi, отказывались обрабатывать экзаменационные запросы в попытке предотвратить потенциальные злоупотребления со стороны более чем 13 миллионов учащихся, борющихся за места в университетах.
Это решение сопровождалось и другими мерами: китайские государственные органы задействовали ИИ для наблюдения за поведением в аудиториях — не чтобы помочь студентам, а чтобы выявлять подозрительную активность.
#ИИ #ИИЭтика
Китайские технологические гиганты, ByteDance, Tencent и Alibaba, временно отключили ключевые функции ИИ во время национального вступительного экзамена в вузы — гаокао. С 7 по 10 июня такие инструменты, как Doubao, Yuanbao и Kimi, отказывались обрабатывать экзаменационные запросы в попытке предотвратить потенциальные злоупотребления со стороны более чем 13 миллионов учащихся, борющихся за места в университетах.
Это решение сопровождалось и другими мерами: китайские государственные органы задействовали ИИ для наблюдения за поведением в аудиториях — не чтобы помочь студентам, а чтобы выявлять подозрительную активность.
#ИИ #ИИЭтика
the Guardian
Chinese tech firms freeze AI tools in crackdown on exam cheats
Suspension comes as 13m students take four-day gaokao tests for limited spots at country’s universities
🇺🇸🎬 Голливуд идет в суд против Midjourney
Disney, Universal, Marvel и другие гиганты киноиндустрии подали иск против Midjourney, утверждая, что ее модели искусственного интеллекта построены на масштабном нарушении авторских прав.
Киностудии обвиняют Midjourney в том, что компания использует визуальный контент, защищенный авторским правом, и позволяет пользователям генерировать неавторизованные версии культовых персонажей - от Йоды до Шрека.
Это первый крупный судебный иск Голливуда, направленный против компании-разработчика генеративного ИИ. Как сказал адвокат Disney: «Пиратство есть пиратство».
#Midjourney #ИИ #IPLaw
Disney, Universal, Marvel и другие гиганты киноиндустрии подали иск против Midjourney, утверждая, что ее модели искусственного интеллекта построены на масштабном нарушении авторских прав.
Киностудии обвиняют Midjourney в том, что компания использует визуальный контент, защищенный авторским правом, и позволяет пользователям генерировать неавторизованные версии культовых персонажей - от Йоды до Шрека.
Это первый крупный судебный иск Голливуда, направленный против компании-разработчика генеративного ИИ. Как сказал адвокат Disney: «Пиратство есть пиратство».
#Midjourney #ИИ #IPLaw
Scribd
1 - 2025.06.11 - Complaint w Exhibits[63]
Scribd is the world's largest social reading and publishing site.
🇬🇧 Британский законопроект об использовании данных застопорился из-за конфликта вокруг авторских прав при обучении ИИ
Палата лордов Великобритании выступила против положений, позволяющих разработчикам ИИ обучать модели на защищённых авторским правом материалах без раскрытия используемых данных. Палата внесла поправку в проект закона об использовании данных (Data Use and Access Bill), требующую обязательного раскрытия информации об обучающих датасетах. При этом правительство Великобритании выступает против такой поправки.
Теперь законопроект проходит процесс парламентского обсуждения между палатами и, если не удастся достичь согласия, не исключено, что закон может быть отклонён.
#AI #ИИ #АвторскиеПрава
Палата лордов Великобритании выступила против положений, позволяющих разработчикам ИИ обучать модели на защищённых авторским правом материалах без раскрытия используемых данных. Палата внесла поправку в проект закона об использовании данных (Data Use and Access Bill), требующую обязательного раскрытия информации об обучающих датасетах. При этом правительство Великобритании выступает против такой поправки.
Теперь законопроект проходит процесс парламентского обсуждения между палатами и, если не удастся достичь согласия, не исключено, что закон может быть отклонён.
#AI #ИИ #АвторскиеПрава
the Guardian
Peers vote to defy government over copyright threat from AI
Government suffers fifth defeat in House of Lords over plans to allow AI companies to use copyrighted material
🇺🇸 ИИ компания или 700 человек, делающих работу?
Стартап BuilderAI, поддерживаемый Microsoft и позиционирующий себя как «AI-first» компанию, якобы создающую приложения с помощью искусственного интеллекта, объявил о банкротстве. Как выяснилось, за обещанной автоматизацией стояла команда из 700 человек в Индии, вручную выполнявших работу, которую компания приписывала искусственному интеллекту.
Этот случай - хорошая иллюстрация так называемого "AI-washing", когда технологии ИИ используются скорее как маркетинговый инструмент, чем как реальная инновация.
#ИИ #ИИЭтика
Стартап BuilderAI, поддерживаемый Microsoft и позиционирующий себя как «AI-first» компанию, якобы создающую приложения с помощью искусственного интеллекта, объявил о банкротстве. Как выяснилось, за обещанной автоматизацией стояла команда из 700 человек в Индии, вручную выполнявших работу, которую компания приписывала искусственному интеллекту.
Этот случай - хорошая иллюстрация так называемого "AI-washing", когда технологии ИИ используются скорее как маркетинговый инструмент, чем как реальная инновация.
#ИИ #ИИЭтика
The Express Tribune
Microsoft-backed Builder.ai bankrupt after ‘AI’ powered by 700 Indian engineers
Builder.ai, an AI startup backed by Microsoft, goes bankrupt after it’s revealed that over 700 engineers were behind its ‘AI’ app-building platform.
🇺🇸 Техас одобрил Закон о регулировании ИИ
Законодательное собрание Техаса приняло законопроект HB 149 — "Responsible Artificial Intelligence Governance Act". Документ вводит обязательные требования к порядку использования ИИ в коммерческом и государственном секторах и устанавливает гражданско-правовые санкции за нарушение норм.
Если губернатор подпишет закон, он вступит в силу 1 января 2026 года.
#ИИ
Законодательное собрание Техаса приняло законопроект HB 149 — "Responsible Artificial Intelligence Governance Act". Документ вводит обязательные требования к порядку использования ИИ в коммерческом и государственном секторах и устанавливает гражданско-правовые санкции за нарушение норм.
Если губернатор подпишет закон, он вступит в силу 1 января 2026 года.
#ИИ
🇪🇺 EDPB выпустил практические пособия по защите данных в сфере ИИ
Европейский комитет по защите данных (European Data Protection Boardь EDPB) представил два новых отчёта в рамках инициативы Support Pool of Experts, направленных на приведение работы с ИИ в соответствие с законодательством о защите персональных данных. Эти материалы содержат практические инструменты для специалистов, работающих с системами ИИ, обрабатывающими персональные данные.
✔️ Fundamentals of Secure AI Systems with Personal Data: документ посвящён устранению текущих пробелов в компетенциях и безопасности ИИ.
✔️ Law & Compliance in AI Security & Data Protection: документ предлагает структуру обучающей программы для специалистов по защите данных (DPO), позволяющую системно подходить к управлению рисками, связанными с ИИ.
#AI #GDPR #ИИ
Европейский комитет по защите данных (European Data Protection Boardь EDPB) представил два новых отчёта в рамках инициативы Support Pool of Experts, направленных на приведение работы с ИИ в соответствие с законодательством о защите персональных данных. Эти материалы содержат практические инструменты для специалистов, работающих с системами ИИ, обрабатывающими персональные данные.
#AI #GDPR #ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
📖 ИИ и дети
Выпущен новый отчёт Института имени Алана Тьюринга "Understanding the Impacts of Generative AI Use on Children". В документе выявлен критически важный пробел в регулировании ИИ: отсутствие защиты прав детей. Интересы детей практически не учитывают при разработке и принятии решений в сфере ИИ, хотя именно дети, вероятно, окажутся наиболее затронутыми новыми технологиями на протяжении своей жизни.
Исследование призывает законодателей и разработчиков вовлекать детей в процесс оценки рисков при создании и контроле систем ИИ. .
#AI #ИИ
Выпущен новый отчёт Института имени Алана Тьюринга "Understanding the Impacts of Generative AI Use on Children". В документе выявлен критически важный пробел в регулировании ИИ: отсутствие защиты прав детей. Интересы детей практически не учитывают при разработке и принятии решений в сфере ИИ, хотя именно дети, вероятно, окажутся наиболее затронутыми новыми технологиями на протяжении своей жизни.
Исследование призывает законодателей и разработчиков вовлекать детей в процесс оценки рисков при создании и контроле систем ИИ. .
#AI #ИИ
📖 Новое исследование MIT показало, что использование ChatGPT может ослаблять интеллектуальные способности студентов
MIT выпустили новое исследование, согласно которому студенты, использующие ChatGPT при написании эссе, продемонстрировали значительно более низкую мозговую активность и способность к запоминанию, чем те, кто писал свои работы без помощи ИИ или использовал обычные поисковые системы.
В течение четырёх месяцев у группы с ChatGPT наблюдались более слабые нейронные связи и ухудшение способностей к креативности, анализу информации и памяти.
#ИИ #ChatGPT #ИИЭтика
MIT выпустили новое исследование, согласно которому студенты, использующие ChatGPT при написании эссе, продемонстрировали значительно более низкую мозговую активность и способность к запоминанию, чем те, кто писал свои работы без помощи ИИ или использовал обычные поисковые системы.
В течение четырёх месяцев у группы с ChatGPT наблюдались более слабые нейронные связи и ухудшение способностей к креативности, анализу информации и памяти.
#ИИ #ChatGPT #ИИЭтика
🇺🇸 Калифорния представила ключевые принципы регулирования ИИ систем
Калифорния опубликовала доклад о политике в области ИИ "The California Report on Frontier AI Policy", сформулировав базовые принципы ответственного регулирования искусственного интеллекта. В документе указано на необходимость принятия решений на основе эмпирических данных и оценки как рисков, так и пользы от технологий. В докладе много внимания посвящено прозрачности, подотчетности и научной обоснованности. Среди рекомендаций авторов — защита информаторов (whistleblowers), проведение внешних аудитов и установление систем отчетности о негативных инцидентах.
#РегулированиеИИ
Калифорния опубликовала доклад о политике в области ИИ "The California Report on Frontier AI Policy", сформулировав базовые принципы ответственного регулирования искусственного интеллекта. В документе указано на необходимость принятия решений на основе эмпирических данных и оценки как рисков, так и пользы от технологий. В докладе много внимания посвящено прозрачности, подотчетности и научной обоснованности. Среди рекомендаций авторов — защита информаторов (whistleblowers), проведение внешних аудитов и установление систем отчетности о негативных инцидентах.
#РегулированиеИИ
📖 Организации по надзору за ИИ опубликовали OpenAI Files
Две ведущие организации по надзору за ИИ: The Midas Project и Tech Oversight Project опубликовали архив документов "OpenAI Files", с целью повышения прозрачности информации в отношении одной из самых влиятельных ИИ-компаний в мире. Архив раскрывает потенциальные конфликты интересов, пробелы в вопросах безопасности и прозрачности, а также проблемы, связанные с реорганизацией и внутренним управлением в OpenAI.
#AI #OpenAI #ИИ
Две ведущие организации по надзору за ИИ: The Midas Project и Tech Oversight Project опубликовали архив документов "OpenAI Files", с целью повышения прозрачности информации в отношении одной из самых влиятельных ИИ-компаний в мире. Архив раскрывает потенциальные конфликты интересов, пробелы в вопросах безопасности и прозрачности, а также проблемы, связанные с реорганизацией и внутренним управлением в OpenAI.
#AI #OpenAI #ИИ
www.openaifiles.org
The OpenAI Files
The OpenAI Files is the most comprehensive collection to date of documented concerns with governance practices, leadership integrity, and organizational culture at OpenAI.
Точка банк в числе победителей премии The Department. by Legal Insight.
Юридическая команда банка Точка забрала сразу две награды на премии «The Department. Лучшие юридические департаменты России — 2025» от Legal Insight:
🥇 1 место в номинации «Лучший юридический проект»
🥉 3 место в номинации «Эффективная правовая работа по защите персональных данных»
Премия отмечает сильнейшие юридические департаменты страны — тех, кто задаёт стандарты и приносит большой вклад в развитие отрасли.
Поздравляем команду с заслуженной победой!
Юридическая команда банка Точка забрала сразу две награды на премии «The Department. Лучшие юридические департаменты России — 2025» от Legal Insight:
🥇 1 место в номинации «Лучший юридический проект»
🥉 3 место в номинации «Эффективная правовая работа по защите персональных данных»
Премия отмечает сильнейшие юридические департаменты страны — тех, кто задаёт стандарты и приносит большой вклад в развитие отрасли.
Поздравляем команду с заслуженной победой!
Недавно анонсированное партнёрство Mattel с OpenAI вызвало критику со стороны правозащитной организация Public Citizen. Организация предупреждает, что интеграция генеративного ИИ в детские игрушки может стать опасным социальным экспериментом. Хотя Mattel пока не раскрывает, каким будет их первый продукт с ИИ, активисты требуют немедленной прозрачности и четких мер предосторожности.
Сопредседатель Public Citizen Роберт Вайсман призвал Mattel отказаться от планов встраивать системы вроде ChatGPT в игрушки, подчеркнув угрозу для социального развития и неспособность детей полностью отличать реальность от игры. Он настаивает на том, что родители не должны быть застигнуты врасплох, и до появления таких продуктов на рынке следует установить чёткие этические границы.
#ИИ #ИИЭтика
Please open Telegram to view this post
VIEW IN TELEGRAM
Public Citizen
Mattel’s Open AI Collaboration Is Dangerous for Children - Public Citizen
WASHINGTON, D.C. — Children’s toy company Mattel recently announced it will partner with Open AI to support “AI-powered products and experiences” for…