Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
😆 Новое видео от IBM об ИИ-агентах и кибербезопасности

Компания IBM опубликовала новый видеоматериал, посвящённый киберрискам, связанным с ИИ-агентами. По оценке компании, ИИ-агенты создают новые уязвимости: их можно использовать для автоматизации и масштабирования кибератак с беспрецедентной эффективностью. Кроме того, злоумышленники могут применять ИИ для обхода традиционных защитных механизмов.

Вместе с тем, ИИ-агенты способны укрепить защиту, самостоятельно выявляя угрозы, координируя ответные меры и быстро адаптируясь.

#ИИ #Кибербезопасность
Please open Telegram to view this post
VIEW IN TELEGRAM
Live stream started
Live stream finished (1 hour)
В продолжение обсуждения подготовили для вас список полезных ссылок с материалами по регулированию ИИ.

1. Трекеры законодательства в разных странах и блоги юридических фирм:

- Global AI Regulation Tracker
- White & Case
- IAPP
- Akin Gump Strauss Hauer & Feld
- Inside Tech Law
- Burges Salmon
- Baker & Hostetler

2. Международные принципы и стандарты, практические руководства и учебные материалы:

- UNESCO Principles
- OECD AI Principles
- NIST AI RMF 
- PDPC Model AI Governance Framework
- AI learning hub (Microsoft)
- CNIL
- ГОСТ Р ИСО/МЭК 42001-2024 «Искусственный интеллект. Система менеджмента»
- ГОСТ Р 71476-2024 (ИСО/МЭК 22989:2022) – «Концепции и терминология искусственного интеллекта»


Ну и, конечно же, наше руководство по самооценке рисков ИИ.
⚖️ Reddit подал иск против Anthropic за несанкционированный сбор данных с платформы для обучения моделей ИИ

Reddit подал в суд на Anthropic, обвинив стартап в несанкционированном сборе данных с платформы для обучения моделей ИИ. Согласно иску, боты Anthropic обращались к серверам Reddit более 100 000 раз — даже после того, как доступ был официально заблокирован. Переговоры о лицензионном соглашении, аналогичном тем, что Reddit уже заключил с OpenAI и Google, не увенчались успехом.

Это один из первых случаев, когда крупная технологическая платформа официально оспаривает использование своих данных для обучения генеративного ИИ. Учитывая, что Anthropic ранее признавал факт обучения на данных Reddit, а модель Claude регулярно ссылается на материалы с субреддитов, дело может задать прецедент для правовых споров о доступе к данным.

#ИИ #Reddit
🇺🇸 В США подготовили правительственный доклад, используя сгенерированные ИИ фейковые цитаты

Журналисты обнаружили множество несуществующих ссылок и библиографических ошибок в правительственном докладе о здоровье детей, представленном министром здравоохранения Робертом Ф. Кеннеди-младшим. Многие из фейковых цитат, по всей вероятности, были сгенерированы ИИ.

Учёные, указанные как авторы некоторых цитируемых исследований, опровергли само существование этих работ. Другие заявили, что их настоящие исследования были искажены в тексте доклада. В свое оправдание чиновники сослались на «ошибки форматирования» и отказались сообщить, использовался ли генеративный ИИ при его подготовке.

#ИИ #ИИЭтика
🇺🇸 Музыкальные лейблы договариваются с ИИ-компаниями о лицензиях

Крупнейшие звукозаписывающие компании — Universal, Sony и Warner — начали переговоры с музыкальными ИИ-стартапами Udio и Suno о лицензировании и возможном получении долей в этих компаниях. Целью переговоров является урегулирование текущих исков о нарушении авторских прав, а также разработка модели компенсации артистам, чьи работы использовались для обучения генеративных моделей ИИ. По сообщениям СМИ, лейблы настаивают как на лицензионных выплатах, так и на получении доли в капитале компаний.

Если соглашения будут заключены, они могут задать стандарты защиты авторских прав при обучении моделей ИИ.

#ИИ #АвторскоеПраво
📖 GPT-4 превосходит людей в умении убеждать

Новое исследование "On the Conversational Persuasiveness of GPT-4" показало, что персонализированный GPT-4 в 64,4% случаев оказался убедительнее живых оппонентов. Причём для персонализации использовались лишь базовые демографические данные — пол, возраст, политические взгляды и т.д. И даже без персонализации GPT-4 выступал наравне с людьми.

Результаты исследования подтверждают, что персонализация ИИ, надо которой сейчас активно работают крупнейшие технологические компании, может сделать LLM-модели мощными инструментами влияния. Если такие модели будут недобросовестно нацеленно использовать психологические особенности людей, это может привести к масштабным манипуляциям общественного мнения. Есть о чем задуматься регуляторам во всем мире.

#ИИ #ИИЭтика
🇨🇳 Китай приостановил работу ИИ-инструментов на время вступительных экзаменов

Китайские технологические гиганты, ByteDance, Tencent и Alibaba, временно отключили ключевые функции ИИ во время национального вступительного экзамена в вузы — гаокао. С 7 по 10 июня такие инструменты, как Doubao, Yuanbao и Kimi, отказывались обрабатывать экзаменационные запросы в попытке предотвратить потенциальные злоупотребления со стороны более чем 13 миллионов учащихся, борющихся за места в университетах.

Это решение сопровождалось и другими мерами: китайские государственные органы задействовали ИИ для наблюдения за поведением в аудиториях — не чтобы помочь студентам, а чтобы выявлять подозрительную активность.

#ИИ #ИИЭтика
🇺🇸🎬 Голливуд идет в суд против Midjourney

Disney, Universal, Marvel и другие гиганты киноиндустрии подали иск против Midjourney, утверждая, что ее модели искусственного интеллекта построены на масштабном нарушении авторских прав.

Киностудии обвиняют Midjourney в том, что компания использует визуальный контент, защищенный авторским правом, и позволяет пользователям генерировать неавторизованные версии культовых персонажей - от Йоды до Шрека.

Это первый крупный судебный иск Голливуда, направленный против компании-разработчика генеративного ИИ. Как сказал адвокат Disney: «Пиратство есть пиратство».

#Midjourney #ИИ #IPLaw
🇬🇧 Британский законопроект об использовании данных застопорился из-за конфликта вокруг авторских прав при обучении ИИ

Палата лордов Великобритании выступила против положений, позволяющих разработчикам ИИ обучать модели на защищённых авторским правом материалах без раскрытия используемых данных. Палата внесла поправку в проект закона об использовании данных (Data Use and Access Bill), требующую обязательного раскрытия информации об обучающих датасетах. При этом правительство Великобритании выступает против такой поправки.

Теперь законопроект проходит процесс парламентского обсуждения между палатами и, если не удастся достичь согласия, не исключено, что закон может быть отклонён.

#AI #ИИ #АвторскиеПрава
🇺🇸 ИИ компания или 700 человек, делающих работу?

Стартап BuilderAI, поддерживаемый Microsoft и позиционирующий себя как «AI-first» компанию, якобы создающую приложения с помощью искусственного интеллекта, объявил о банкротстве. Как выяснилось, за обещанной автоматизацией стояла команда из 700 человек в Индии, вручную выполнявших работу, которую компания приписывала искусственному интеллекту.

Этот случай - хорошая иллюстрация так называемого "AI-washing", когда технологии ИИ используются скорее как маркетинговый инструмент, чем как реальная инновация.

#ИИ #ИИЭтика
🇺🇸 Техас одобрил Закон о регулировании ИИ

Законодательное собрание Техаса приняло законопроект HB 149 — "Responsible Artificial Intelligence Governance Act". Документ вводит обязательные требования к порядку использования ИИ в коммерческом и государственном секторах и устанавливает гражданско-правовые санкции за нарушение норм.

Если губернатор подпишет закон, он вступит в силу 1 января 2026 года.

#ИИ
🇪🇺 EDPB выпустил практические пособия по защите данных в сфере ИИ

Европейский комитет по защите данных (European Data Protection Boardь EDPB) представил два новых отчёта в рамках инициативы Support Pool of Experts, направленных на приведение работы с ИИ в соответствие с законодательством о защите персональных данных. Эти материалы содержат практические инструменты для специалистов, работающих с системами ИИ, обрабатывающими персональные данные.

✔️ Fundamentals of Secure AI Systems with Personal Data: документ посвящён устранению текущих пробелов в компетенциях и безопасности ИИ.

✔️ Law & Compliance in AI Security & Data Protection: документ предлагает структуру обучающей программы для специалистов по защите данных (DPO), позволяющую системно подходить к управлению рисками, связанными с ИИ.

#AI #GDPR #ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
📖 ИИ и дети

Выпущен новый отчёт Института имени Алана Тьюринга "Understanding the Impacts of Generative AI Use on Children". В документе выявлен критически важный пробел в регулировании ИИ: отсутствие защиты прав детей. Интересы детей практически не учитывают при разработке и принятии решений в сфере ИИ, хотя именно дети, вероятно, окажутся наиболее затронутыми новыми технологиями на протяжении своей жизни.

Исследование призывает законодателей и разработчиков вовлекать детей в процесс оценки рисков при создании и контроле систем ИИ. .

#AI #ИИ
📖 Новое исследование MIT показало, что использование ChatGPT может ослаблять интеллектуальные способности студентов

MIT выпустили новое исследование, согласно которому студенты, использующие ChatGPT при написании эссе, продемонстрировали значительно более низкую мозговую активность и способность к запоминанию, чем те, кто писал свои работы без помощи ИИ или использовал обычные поисковые системы.

В течение четырёх месяцев у группы с ChatGPT наблюдались более слабые нейронные связи и ухудшение способностей к креативности, анализу информации и памяти.

#ИИ #ChatGPT #ИИЭтика
🇺🇸 Калифорния представила ключевые принципы регулирования ИИ систем

Калифорния опубликовала доклад о политике в области ИИ "The California Report on Frontier AI Policy", сформулировав базовые принципы ответственного регулирования искусственного интеллекта. В документе указано на необходимость принятия решений на основе эмпирических данных и оценки как рисков, так и пользы от технологий. В докладе много внимания посвящено прозрачности, подотчетности и научной обоснованности. Среди рекомендаций авторов — защита информаторов (whistleblowers), проведение внешних аудитов и установление систем отчетности о негативных инцидентах.

#РегулированиеИИ
📖 Организации по надзору за ИИ опубликовали OpenAI Files

Две ведущие организации по надзору за ИИ: The Midas Project и Tech Oversight Project опубликовали архив документов "OpenAI Files", с целью повышения прозрачности информации в отношении одной из самых влиятельных ИИ-компаний в мире. Архив раскрывает потенциальные конфликты интересов, пробелы в вопросах безопасности и прозрачности, а также проблемы, связанные с реорганизацией и внутренним управлением в OpenAI.

#AI #OpenAI #ИИ
Точка банк в числе победителей премии The Department. by Legal Insight.

Юридическая команда банка Точка забрала сразу две награды на премии «The Department. Лучшие юридические департаменты России — 2025» от Legal Insight:

🥇 1 место в номинации «Лучший юридический проект»
🥉 3 место в номинации «Эффективная правовая работа по защите персональных данных»

Премия отмечает сильнейшие юридические департаменты страны — тех, кто задаёт стандарты и приносит большой вклад в развитие отрасли.

Поздравляем команду с заслуженной победой!
❗️Планы Mattel по выпуску игрушек с ИИ названы «Рискованным социальным экспериментом над детьми»

Недавно анонсированное партнёрство Mattel с OpenAI вызвало критику со стороны правозащитной организация Public Citizen. Организация предупреждает, что интеграция генеративного ИИ в детские игрушки может стать опасным социальным экспериментом. Хотя Mattel пока не раскрывает, каким будет их первый продукт с ИИ, активисты требуют немедленной прозрачности и четких мер предосторожности.

Сопредседатель Public Citizen Роберт Вайсман призвал Mattel отказаться от планов встраивать системы вроде ChatGPT в игрушки, подчеркнув угрозу для социального развития и неспособность детей полностью отличать реальность от игры. Он настаивает на том, что родители не должны быть застигнуты врасплох, и до появления таких продуктов на рынке следует установить чёткие этические границы.

#ИИ #ИИЭтика
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/26 01:29:07
Back to Top
HTML Embed Code: