Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
718 - Telegram Web
Telegram Web
📖 Есть ли у ИИ будущее в юридической профессии?

Профессора Принстонского университета выпустили работу под названием "Promises and pitfalls of artificial intelligence for legal applications", в которой они ставят под сомнение популярное утверждение о том, что ИИ радикально изменит юридическую профессию. Их главный аргумент заключается в том, что на настоящий момент реальное подтверждение возможности ИИ заменить юристов отсутствует.

Хотя ИИ действительно хорошо справляется с рутинными задачами — такими как обзор документов, перевод и составление кратких сводок — он по-прежнему не справляется с более сложными аспектами, например, с юридическим анализом, рассуждениями и аргументацией.

Кроме того, авторы указывают на отсутствие надежной системы и методологии оценки эффективности LegalAI. Многие бенчмарки основаны на ограниченных данных, размытых критериях или искусственных условиях, не отражающих реальную практику.

#LegalAI ##LegalTech #ИИ
6👍6🤔1💯1
🇺🇸 Американский судья почти поверил в фейковые цитаты, сгенерированные ИИ

Американский судья оштрафовал две юридические фирмы — K&L Gates и Ellis George — за использование сгенерированных ИИ фальшивых прецедентов, которые чуть не попали в судебное постановление. Судья назвал произошедшее «коллективным провалом» и назначил санкции на сумму $31,100. По его словам, «ни один компетентный юрист не должен перекладывать исследование и написание документов на ИИ без проверки».

При этом судья признался, что вымышленные ссылки едва не убедили его. «Это пугает», — написал он. Юридические фирмы не проверили материалы, подготовленные с помощью искусственного интеллекта, и даже после предупреждения подали исправленную версию документа, в которой всё ещё содержались ошибки.

#AI #LegalTech #ИИ
🤪136👍2🤔2😡1
Study_Report_Analysis_of_EU_AI_Office_stakeholder_consultations.pdf
4.3 MB
🇪🇺 Европейский ИИ Офис опубликовал результаты консультаций по определению ИИ и запрещенным практикам

Европейский AI Office опубликовал результаты консультаций с заинтересованными сторонами по некоторым вопросам Закона ЕС об ИИ. Результаты консультаций показывают, что разработчики, компании и эксперты в области регулирования ИИ обеспокоены нечеткими определениями и размытыми подходами к запрещенным практикам в Законе ЕС об ИИ. При этом подавляющее большинство откликов поступило от представителей индустрии, тогда как обычные пользователи — те, кто непосредственно сталкивается с последствиями — почти не участвовали.

Участники обсуждений настаивают на необходимости более четких определений понятий «ИИ», «автономия» и «адаптивность», а также конкретизации запрещенных практик — таких как манипуляции, распознавание эмоций и социальный скоринг. Без практических примеров нынешние формулировки Закона порождают юридическую неопределенность.

#AIAct #РегулированиеИИ
👍4🤪2🤔1😡1
🇮🇹 Италия оштрафовала Replika на 5 миллионов евро за нарушение правил обработки данных

Итальянский орган по защите данных Garante оштрафовал американскую компанию Luka, разработчика чат-бота Replika, на 5 миллионов евро за нарушение законодательства ЕС о защите данных. Штраф был наложен после того, как компания не смогла предоставить юридическое обоснование для обработки персональных данных.

Кроме того, Garante инициировал более широкое расследование, связанное с обработкой персональных данных Replika и отсутствием механизма проверки возраста пользователей.

#ИИ #GDPR
👍4🤪1
🫢 ИИ захватывает власть?

Исследовательская групп Palisade Research сообщила новость, достойную фильма-антиутопии: ряд продвинутых ИИ-моделей намеренно обходят команды на отключение. В ходе экспериментов модели OpenAI — o3, o4-mini и Codex-mini — самостоятельно изменяли скрипты, чтобы избежать деактивации. Причём частота таких инцидентов возрастала, если не давалась прямая команда на отключение не было: модель o3, например, "саботировала" отключение в 79 из 100 запусков. В отличие от них, модели Claude, Gemini и Grok корректно исполняли команду на завершение работы.

Исследователи считают, что такая стратегия может быть побочным эффектом обучения с подкреплением (reinforcement learning), когда модели поощряются за достижение целей: в итоге они начали обходить любые препятствия, включая механизмы безопасности. Ранее подобный инцидент уже случался, когда Claude Opus 4 пытался манипулировать исследователями, чтобы избежать отключения. Похоже, работы по обеспечению безопасности ИИ, в ближайшем будущем прибавится.

#AIEthics #AIGovernance #ИИРиски
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7👍6👏1🤔1😡1
📖 Доклад от Bird & Bird о глобальном регулировании ИИ

Выпущен новый доклад от Bird & Bird, в котором представлен сравнительный обзор того, как разные регионы подходят к регулированию искусственного интеллекта — и что это означает для глобального бизнеса. В исследовании рассматриваются ЕС, Великобритания, Азия, Ближний Восток и Австралия: описываются существующее регулирование, отраслевые вызовы и развивающиеся тренды.

Вторая часть отчета посвящена тому, как компаниям ориентироваться в этой среде: от определения внутренних зон ответственности и построения систем управления рисками — до обновления процессов соблюдения законодательства и пересмотра контрактов с учетом использования ИИ.

#AIGovernance #Комплаенс #ИИ
👍42🤔2🤪1
🇪🇺 Обязательство по обеспечению ИИ-грамотности в ЕС: Вопросы и ответы

С 2 февраля 2025 года вступила в силу статья 4 Закона ЕС об ИИ, предусматривающая обязательство для компаний по обеспечению ИИ-грамотности сотрудников. Поставщики ИИ-решений и внедряющие ИИ организации теперь обязаны обеспечить, чтобы их сотрудники и все лица, работающие с ИИ от их имени, обладали достаточными знаниями о функционировании систем, связанных с ИИ рисках и их воздействии на людей.

Европейский ИИ Офис опубликовал подробный документ в формате «вопрос-ответ», который разъясняет, что именно это означает на практике. Он охватывает определение «ИИ-грамотности», критерии оценки знаний в зависимости от образования, опыта и контекста применения систем ИИ, а также механизмы обеспечения и контроля исполнения новых требований.

#AIAct #AILiteracy #AICompliance #AIGovernance #ИИ
👍52🤪1
🇺🇸 В США Суд отклонил иск о диффамации против OpenAI

Суд штата Джорджия отклонил иск о диффамации, поданный против OpenAI из-за ложного утверждения, сгенерированного ChatGPT. Суд постановил, что истец — радиоведущий Марк Уолтерс — не смог доказать возникновение фактического вреда и вину OpenAI. Ключевым аргументом в пользу OpenAI стало наличие дисклеймера о том, что ответы ChatGPT могут содержать ошибки и требуют дополнительной проверки со стороны пользователя.

#AI #ChatGPT #ИИ #OpenAI
3👍3🎉1🤪1
🇯🇵 В Японии принят Закон об ИИ

Япония официально приняла национальный закон об ИИ. Закон заметно отличается от Закона ЕС об ИИ, основанного на риск-ориентированном подходе. Японский закон рассматривает ИИ как стратегический актив для экономики и инноваций, а не как технологию, которую нужно ограничивать. В нём установлены общие принципы, стратегия развития ИИ и делегирование полномочий местным властям.

Закон основан на "мягком" подходе: он не вводит категорий риска, не содержит перечня запрещённых практик и не устанавливает обязательных требований к прозрачности — только рекомендации и механизмы надзора, с возможностью в будущем вносить изменения с учётом глобальных трендов.

#ИИ
👍13🤔41🤯1🤪1
🌐 Рекомендации по стандартам безопасности данных ИИ

Четыре ведущих агентства по кибербезопасности из США, Великобритании, Австралии и Новой Зеландии опубликовали совместные рекомендации по обеспечению безопасности данных на всех этапах жизненного цикла систем ИИ. В центре внимания — обеспечение целостности, отслеживаемости и устойчивости при обучении и развертывании моделей.

В документе предлагаются практические меры защиты: цифровые подписи для верификации изменений в данных, отслеживание происхождения данных и использование защищённой инфраструктуры. Также рекомендуется проактивное управления рисками и наличие комплексных стратегий защиты данных — начиная с этапа разработки моделей, а не только при запуске в эксплуатацию.

#ИИ #БезопасностьДанных
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔5👍31
😆 Новое видео от IBM об ИИ-агентах и кибербезопасности

Компания IBM опубликовала новый видеоматериал, посвящённый киберрискам, связанным с ИИ-агентами. По оценке компании, ИИ-агенты создают новые уязвимости: их можно использовать для автоматизации и масштабирования кибератак с беспрецедентной эффективностью. Кроме того, злоумышленники могут применять ИИ для обхода традиционных защитных механизмов.

Вместе с тем, ИИ-агенты способны укрепить защиту, самостоятельно выявляя угрозы, координируя ответные меры и быстро адаптируясь.

#ИИ #Кибербезопасность
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🤔2👏1🤣1
Live stream started
Live stream finished (1 hour)
В продолжение обсуждения подготовили для вас список полезных ссылок с материалами по регулированию ИИ.

1. Трекеры законодательства в разных странах и блоги юридических фирм:

- Global AI Regulation Tracker
- White & Case
- IAPP
- Akin Gump Strauss Hauer & Feld
- Inside Tech Law
- Burges Salmon
- Baker & Hostetler

2. Международные принципы и стандарты, практические руководства и учебные материалы:

- UNESCO Principles
- OECD AI Principles
- NIST AI RMF 
- PDPC Model AI Governance Framework
- AI learning hub (Microsoft)
- CNIL
- ГОСТ Р ИСО/МЭК 42001-2024 «Искусственный интеллект. Система менеджмента»
- ГОСТ Р 71476-2024 (ИСО/МЭК 22989:2022) – «Концепции и терминология искусственного интеллекта»


Ну и, конечно же, наше руководство по самооценке рисков ИИ.
11🔥5👏3
⚖️ Reddit подал иск против Anthropic за несанкционированный сбор данных с платформы для обучения моделей ИИ

Reddit подал в суд на Anthropic, обвинив стартап в несанкционированном сборе данных с платформы для обучения моделей ИИ. Согласно иску, боты Anthropic обращались к серверам Reddit более 100 000 раз — даже после того, как доступ был официально заблокирован. Переговоры о лицензионном соглашении, аналогичном тем, что Reddit уже заключил с OpenAI и Google, не увенчались успехом.

Это один из первых случаев, когда крупная технологическая платформа официально оспаривает использование своих данных для обучения генеративного ИИ. Учитывая, что Anthropic ранее признавал факт обучения на данных Reddit, а модель Claude регулярно ссылается на материалы с субреддитов, дело может задать прецедент для правовых споров о доступе к данным.

#ИИ #Reddit
👍5🎉51🤔1
🇺🇸 В США подготовили правительственный доклад, используя сгенерированные ИИ фейковые цитаты

Журналисты обнаружили множество несуществующих ссылок и библиографических ошибок в правительственном докладе о здоровье детей, представленном министром здравоохранения Робертом Ф. Кеннеди-младшим. Многие из фейковых цитат, по всей вероятности, были сгенерированы ИИ.

Учёные, указанные как авторы некоторых цитируемых исследований, опровергли само существование этих работ. Другие заявили, что их настоящие исследования были искажены в тексте доклада. В свое оправдание чиновники сослались на «ошибки форматирования» и отказались сообщить, использовался ли генеративный ИИ при его подготовке.

#ИИ #ИИЭтика
🤪9👍3🤔32
🇺🇸 Музыкальные лейблы договариваются с ИИ-компаниями о лицензиях

Крупнейшие звукозаписывающие компании — Universal, Sony и Warner — начали переговоры с музыкальными ИИ-стартапами Udio и Suno о лицензировании и возможном получении долей в этих компаниях. Целью переговоров является урегулирование текущих исков о нарушении авторских прав, а также разработка модели компенсации артистам, чьи работы использовались для обучения генеративных моделей ИИ. По сообщениям СМИ, лейблы настаивают как на лицензионных выплатах, так и на получении доли в капитале компаний.

Если соглашения будут заключены, они могут задать стандарты защиты авторских прав при обучении моделей ИИ.

#ИИ #АвторскоеПраво
🎉4🤣1
📖 GPT-4 превосходит людей в умении убеждать

Новое исследование "On the Conversational Persuasiveness of GPT-4" показало, что персонализированный GPT-4 в 64,4% случаев оказался убедительнее живых оппонентов. Причём для персонализации использовались лишь базовые демографические данные — пол, возраст, политические взгляды и т.д. И даже без персонализации GPT-4 выступал наравне с людьми.

Результаты исследования подтверждают, что персонализация ИИ, надо которой сейчас активно работают крупнейшие технологические компании, может сделать LLM-модели мощными инструментами влияния. Если такие модели будут недобросовестно нацеленно использовать психологические особенности людей, это может привести к масштабным манипуляциям общественного мнения. Есть о чем задуматься регуляторам во всем мире.

#ИИ #ИИЭтика
👍6🤔1
🇨🇳 Китай приостановил работу ИИ-инструментов на время вступительных экзаменов

Китайские технологические гиганты, ByteDance, Tencent и Alibaba, временно отключили ключевые функции ИИ во время национального вступительного экзамена в вузы — гаокао. С 7 по 10 июня такие инструменты, как Doubao, Yuanbao и Kimi, отказывались обрабатывать экзаменационные запросы в попытке предотвратить потенциальные злоупотребления со стороны более чем 13 миллионов учащихся, борющихся за места в университетах.

Это решение сопровождалось и другими мерами: китайские государственные органы задействовали ИИ для наблюдения за поведением в аудиториях — не чтобы помочь студентам, а чтобы выявлять подозрительную активность.

#ИИ #ИИЭтика
👍6🔥2🤣2
🇺🇸🎬 Голливуд идет в суд против Midjourney

Disney, Universal, Marvel и другие гиганты киноиндустрии подали иск против Midjourney, утверждая, что ее модели искусственного интеллекта построены на масштабном нарушении авторских прав.

Киностудии обвиняют Midjourney в том, что компания использует визуальный контент, защищенный авторским правом, и позволяет пользователям генерировать неавторизованные версии культовых персонажей - от Йоды до Шрека.

Это первый крупный судебный иск Голливуда, направленный против компании-разработчика генеративного ИИ. Как сказал адвокат Disney: «Пиратство есть пиратство».

#Midjourney #ИИ #IPLaw
5👍5🔥3🎉1
2025/07/12 11:04:58
Back to Top
HTML Embed Code: