PERSDATA Telegram 7759
Forwarded from РоскомнадZор
🤖 В Роскомнадзоре прошло заседание Экспертного совета по искусственному интеллекту Главного радиочастотного центра. Собрали для вас главные высказывания 👇

Андрей Липов, руководитель Роскомнадзора:

💬 Сегодня важно возрождать советскую школу искусственного интеллекта, которая появилась еще в 1960-х годах. Современные ИИ-модели стремительно развиваются, и необходимо понимать, как они устроены. У используемой в GPT информации есть четыре важных критерия: полнота, достоверность, актуальность и легальность. Манипулируя этими параметрами, разработчики кода могут управлять восприятием, объемом знаний и в итоге самим человеком. Параллельно есть риск потери навыков критического мышления, самостоятельного поиска и анализа информации и получения знаний, в первую очередь молодежью. У нас только один путь — создавать собственные технологии и сервисы в сфере ИИ.

Евгения Рыжова, советник генерального директора ГРЧЦ по научно-техническому развитию:

💬 С помощью технологий управления эмоциями злоумышленники могут собирать информацию об интересах и потребностях людей, выявлять слабые места и, используя эти сведения, влиять на их выбор, подчинять своим интересам. Чтобы этого избежать, необходимо ввести регулирование сценариев применения ИИ на уровне федерального закона: установить стандарты безопасности искусственного интеллекта и ввести ответственность за нарушение требований и причинение вреда с использованием технологий ИИ.

Виктор Наумов, главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН:

💬 В числе рисков развития ИИ — отсутствие идентификации и маркировки этих технологий, злоупотребление доверием пользователей и радикальная концентрация власти в руках производителей ИИ. Еще одна угроза — деградация творческих и коммуникационных способностей человека в условиях построения отношений с безальтернативным использованием ИИ.

Инна Ямбулатова, помощник руководителя московского отделения «Союза православных женщин»:

💬 Соблюдение духовно-нравственных и моральных ограничений и правил перед внедрением искусственного интеллекта поможет не попасть в зависимость от технологий, которые способны поработить человеческую личность. Внедрение этических принципов при разработке систем ИИ и запрет на наделение их человеческими качествами защитит, прежде всего, несовершеннолетних граждан страны.
Please open Telegram to view this post
VIEW IN TELEGRAM



tgoop.com/Persdata/7759
Create:
Last Update:

🤖 В Роскомнадзоре прошло заседание Экспертного совета по искусственному интеллекту Главного радиочастотного центра. Собрали для вас главные высказывания 👇

Андрей Липов, руководитель Роскомнадзора:

💬 Сегодня важно возрождать советскую школу искусственного интеллекта, которая появилась еще в 1960-х годах. Современные ИИ-модели стремительно развиваются, и необходимо понимать, как они устроены. У используемой в GPT информации есть четыре важных критерия: полнота, достоверность, актуальность и легальность. Манипулируя этими параметрами, разработчики кода могут управлять восприятием, объемом знаний и в итоге самим человеком. Параллельно есть риск потери навыков критического мышления, самостоятельного поиска и анализа информации и получения знаний, в первую очередь молодежью. У нас только один путь — создавать собственные технологии и сервисы в сфере ИИ.

Евгения Рыжова, советник генерального директора ГРЧЦ по научно-техническому развитию:

💬 С помощью технологий управления эмоциями злоумышленники могут собирать информацию об интересах и потребностях людей, выявлять слабые места и, используя эти сведения, влиять на их выбор, подчинять своим интересам. Чтобы этого избежать, необходимо ввести регулирование сценариев применения ИИ на уровне федерального закона: установить стандарты безопасности искусственного интеллекта и ввести ответственность за нарушение требований и причинение вреда с использованием технологий ИИ.

Виктор Наумов, главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН:

💬 В числе рисков развития ИИ — отсутствие идентификации и маркировки этих технологий, злоупотребление доверием пользователей и радикальная концентрация власти в руках производителей ИИ. Еще одна угроза — деградация творческих и коммуникационных способностей человека в условиях построения отношений с безальтернативным использованием ИИ.

Инна Ямбулатова, помощник руководителя московского отделения «Союза православных женщин»:

💬 Соблюдение духовно-нравственных и моральных ограничений и правил перед внедрением искусственного интеллекта поможет не попасть в зависимость от технологий, которые способны поработить человеческую личность. Внедрение этических принципов при разработке систем ИИ и запрет на наделение их человеческими качествами защитит, прежде всего, несовершеннолетних граждан страны.

BY Персональные_данные




Share with your friend now:
tgoop.com/Persdata/7759

View MORE
Open in Telegram


Telegram News

Date: |

Those being doxxed include outgoing Chief Executive Carrie Lam Cheng Yuet-ngor, Chung and police assistant commissioner Joe Chan Tung, who heads police's cyber security and technology crime bureau. Invite up to 200 users from your contacts to join your channel The administrator of a telegram group, "Suck Channel," was sentenced to six years and six months in prison for seven counts of incitement yesterday. 2How to set up a Telegram channel? (A step-by-step tutorial) Commenting about the court's concerns about the spread of false information related to the elections, Minister Fachin noted Brazil is "facing circumstances that could put Brazil's democracy at risk." During the meeting, the information technology secretary at the TSE, Julio Valente, put forward a list of requests the court believes will disinformation.
from us


Telegram Персональные_данные
FROM American