ZEN_DAT Telegram 1139
Учёные исследуют способность ИИ к восприятию боли: шаг к пониманию сознания машин

Группа исследователей из Google DeepMind и Лондонской школы экономики и политических наук провела серию экспериментов, направленных на изучение того, могут ли большие языковые модели (LLM) искусственного интеллекта проявлять признаки сознания, включая восприятие боли и удовольствия.

В одном из экспериментов ИИ-моделям предлагалось выбрать между двумя опциями: первая приносила меньше очков, но не сопровождалась “болью”, в то время как вторая давала больше очков, но ассоциировалась с “болью”. В другом тесте модели могли получить “удовольствие” при условии набора меньшего количества очков. Целью было определить, способны ли ИИ-модели принимать решения, избегая “боли” или стремясь к “удовольствию”, что могло бы свидетельствовать о наличии у них элементов сознания.

Результаты показали, что различные модели по-разному реагировали на эти условия. Например, модель Gemini 1.5 Pro от Google последовательно выбирала варианты, избегая “боли”. Однако авторы подчёркивают, что такие реакции не обязательно указывают на наличие у ИИ истинного сознания или способности испытывать боль. Скорее, это может быть отражением алгоритмических процессов и паттернов, заложенных в ходе обучения на человеческих данных.

Профессор философии Лондонской школы экономики и соавтор исследования Джонатан Бёрч отметил: “Даже если система заявляет о своей сознательности и говорит что-то вроде ‘Я чувствую боль прямо сейчас’, мы не можем просто предположить, что она действительно испытывает боль. Она может просто имитировать то, что, по её мнению, человек сочтёт удовлетворительным ответом, основываясь на своих обучающих данных”.

Исследователи подчёркивают, что, хотя текущие модели ИИ не обладают сознанием, их работа является первым шагом к разработке поведенческих тестов для определения признаков сознания у ИИ без опоры на их собственные заявления. Это особенно важно в свете продолжающихся дискуссий о возможности создания сознательных машин и связанных с этим этических вопросов.

Таким образом, хотя современные ИИ не испытывают боли или удовольствия в человеческом понимании, подобные исследования помогают глубже понять границы и возможности искусственного интеллекта, а также подготовиться к потенциальным будущим сценариям, где такие вопросы могут стать более актуальными.



tgoop.com/zen_dat/1139
Create:
Last Update:

Учёные исследуют способность ИИ к восприятию боли: шаг к пониманию сознания машин

Группа исследователей из Google DeepMind и Лондонской школы экономики и политических наук провела серию экспериментов, направленных на изучение того, могут ли большие языковые модели (LLM) искусственного интеллекта проявлять признаки сознания, включая восприятие боли и удовольствия.

В одном из экспериментов ИИ-моделям предлагалось выбрать между двумя опциями: первая приносила меньше очков, но не сопровождалась “болью”, в то время как вторая давала больше очков, но ассоциировалась с “болью”. В другом тесте модели могли получить “удовольствие” при условии набора меньшего количества очков. Целью было определить, способны ли ИИ-модели принимать решения, избегая “боли” или стремясь к “удовольствию”, что могло бы свидетельствовать о наличии у них элементов сознания.

Результаты показали, что различные модели по-разному реагировали на эти условия. Например, модель Gemini 1.5 Pro от Google последовательно выбирала варианты, избегая “боли”. Однако авторы подчёркивают, что такие реакции не обязательно указывают на наличие у ИИ истинного сознания или способности испытывать боль. Скорее, это может быть отражением алгоритмических процессов и паттернов, заложенных в ходе обучения на человеческих данных.

Профессор философии Лондонской школы экономики и соавтор исследования Джонатан Бёрч отметил: “Даже если система заявляет о своей сознательности и говорит что-то вроде ‘Я чувствую боль прямо сейчас’, мы не можем просто предположить, что она действительно испытывает боль. Она может просто имитировать то, что, по её мнению, человек сочтёт удовлетворительным ответом, основываясь на своих обучающих данных”.

Исследователи подчёркивают, что, хотя текущие модели ИИ не обладают сознанием, их работа является первым шагом к разработке поведенческих тестов для определения признаков сознания у ИИ без опоры на их собственные заявления. Это особенно важно в свете продолжающихся дискуссий о возможности создания сознательных машин и связанных с этим этических вопросов.

Таким образом, хотя современные ИИ не испытывают боли или удовольствия в человеческом понимании, подобные исследования помогают глубже понять границы и возможности искусственного интеллекта, а также подготовиться к потенциальным будущим сценариям, где такие вопросы могут стать более актуальными.

BY ПОСЛЕЗАВТРА




Share with your friend now:
tgoop.com/zen_dat/1139

View MORE
Open in Telegram


Telegram News

Date: |

As of Thursday, the SUCK Channel had 34,146 subscribers, with only one message dated August 28, 2020. It was an announcement stating that police had removed all posts on the channel because its content “contravenes the laws of Hong Kong.” Matt Hussey, editorial director of NEAR Protocol (and former editor-in-chief of Decrypt) responded to the news of the Telegram group with “#meIRL.” On June 7, Perekopsky met with Brazilian President Jair Bolsonaro, an avid user of the platform. According to the firm's VP, the main subject of the meeting was "freedom of expression." Just at this time, Bitcoin and the broader crypto market have dropped to new 2022 lows. The Bitcoin price has tanked 10 percent dropping to $20,000. On the other hand, the altcoin space is witnessing even more brutal correction. Bitcoin has dropped nearly 60 percent year-to-date and more than 70 percent since its all-time high in November 2021. Telegram has announced a number of measures aiming to tackle the spread of disinformation through its platform in Brazil. These features are part of an agreement between the platform and the country's authorities ahead of the elections in October.
from us


Telegram ПОСЛЕЗАВТРА
FROM American