Notice: file_put_contents(): Write of 4241 bytes failed with errno=28 No space left on device in /var/www/tgoop/post.php on line 50

Warning: file_put_contents(): Only 8192 of 12433 bytes written, possibly out of free disk space in /var/www/tgoop/post.php on line 50
Беседин@phil_besedin P.353
PHIL_BESEDIN Telegram 353
«Сознание у искусственного интеллекта: инсайты науки о сознании»: методология
В статье Батлина и соавторов реализован довольно простой и интуитивно ясный подход: давайте возьмем конкретные системы искусственного интеллекта, наши лучшие научные теории сознания и применим вторые к первым. Таким образом мы получим ответ на вопрос какие типы ИИ обладают сознанием.

Даже не вдаваясь в детали методологии авторов статьи (я вдамся, но чуть ниже), уже на этом самом общем уровне описания можно задать им пару уточняющих вопросов.
1. Этот подход предполагает, что мы исследуем системы ИИ приблизительно так же, как мы исследовали бы, например, животных: мы обнаруживаем объект в окружающей среде в готовом виде и применяем к нему имеющиеся у нас теории. Но случай ИИ существенно отличается от случая животных: мы не обнаруживаем ИИ в готовом виде, а сами его создаем. Должны ли мы исследовать системы ИИ как объекты, данные в готовом виде, или как предмет для моделирования? На этот вопрос Батлину и соавторам ответить будет, как я полагаю, достаточно легко: они рассматривают системы ИИ так, как если бы они были даны им готовыми. В развитии ИИ можно увидеть своего рода парадокс. Ещё лет двадцать назад, когда уровень ИИ был на порядки ниже сегодняшнего, исследователи пытались реализовать когнитивные функции и сознание в искусственных системах. Примерами могут быть проекты LIDA и CogAff. В наши дни наиболее развитыми являются системы ИИ, не пытающиеся моделировать когнитивные процессы и сознание, а направленные на решение конкретных задач. Парадокс же можно усмотреть в том, что шансов обнаружить сознание в таких системах, кажется, больше, чем в тех, которые изначально создавались как моделирующие сознание. Вполне возможно, что это особенность только современного этапа развития ИИ. Но авторы статьи, на мой взгляд, совершенно правы в том, что рассматривают системы ИИ как готовые объекты. В конце концов, даже если мы сосредоточимся на тех моделях, которые были специально созданы для реализации когнитивных функций и сознания, мы всё равно можем исследовать их, как если бы они были готовыми объектами. Мы тогда возьмём на себя роль тестировщиков, в отличие от инженеров.
2. Должны ли мы рассматривать только физически имплементированные системы ИИ, или также те, которые существуют только на бумаге? Батлин и соавторы обсуждают и то, и другое. Это кажется мне изъяном их методологии. Здесь можно опять провести параллель с животными. Представим себе, что у нас есть только довольно общее описание некоторого животного. Можем ли мы на основании одного лишь описания сделать вывод о том, обладает ли оно сознанием? Ничего подобного! Нам нужно исследовать особь этого вида (желательно, не одну). То же и с системами ИИ. Мы не можем предсказать все свойства системы заранее: например, те свойства, которые могут препятствовать реализации системой какой-то из её функций.



tgoop.com/phil_besedin/353
Create:
Last Update:

«Сознание у искусственного интеллекта: инсайты науки о сознании»: методология
В статье Батлина и соавторов реализован довольно простой и интуитивно ясный подход: давайте возьмем конкретные системы искусственного интеллекта, наши лучшие научные теории сознания и применим вторые к первым. Таким образом мы получим ответ на вопрос какие типы ИИ обладают сознанием.

Даже не вдаваясь в детали методологии авторов статьи (я вдамся, но чуть ниже), уже на этом самом общем уровне описания можно задать им пару уточняющих вопросов.
1. Этот подход предполагает, что мы исследуем системы ИИ приблизительно так же, как мы исследовали бы, например, животных: мы обнаруживаем объект в окружающей среде в готовом виде и применяем к нему имеющиеся у нас теории. Но случай ИИ существенно отличается от случая животных: мы не обнаруживаем ИИ в готовом виде, а сами его создаем. Должны ли мы исследовать системы ИИ как объекты, данные в готовом виде, или как предмет для моделирования? На этот вопрос Батлину и соавторам ответить будет, как я полагаю, достаточно легко: они рассматривают системы ИИ так, как если бы они были даны им готовыми. В развитии ИИ можно увидеть своего рода парадокс. Ещё лет двадцать назад, когда уровень ИИ был на порядки ниже сегодняшнего, исследователи пытались реализовать когнитивные функции и сознание в искусственных системах. Примерами могут быть проекты LIDA и CogAff. В наши дни наиболее развитыми являются системы ИИ, не пытающиеся моделировать когнитивные процессы и сознание, а направленные на решение конкретных задач. Парадокс же можно усмотреть в том, что шансов обнаружить сознание в таких системах, кажется, больше, чем в тех, которые изначально создавались как моделирующие сознание. Вполне возможно, что это особенность только современного этапа развития ИИ. Но авторы статьи, на мой взгляд, совершенно правы в том, что рассматривают системы ИИ как готовые объекты. В конце концов, даже если мы сосредоточимся на тех моделях, которые были специально созданы для реализации когнитивных функций и сознания, мы всё равно можем исследовать их, как если бы они были готовыми объектами. Мы тогда возьмём на себя роль тестировщиков, в отличие от инженеров.
2. Должны ли мы рассматривать только физически имплементированные системы ИИ, или также те, которые существуют только на бумаге? Батлин и соавторы обсуждают и то, и другое. Это кажется мне изъяном их методологии. Здесь можно опять провести параллель с животными. Представим себе, что у нас есть только довольно общее описание некоторого животного. Можем ли мы на основании одного лишь описания сделать вывод о том, обладает ли оно сознанием? Ничего подобного! Нам нужно исследовать особь этого вида (желательно, не одну). То же и с системами ИИ. Мы не можем предсказать все свойства системы заранее: например, те свойства, которые могут препятствовать реализации системой какой-то из её функций.

BY Беседин


Share with your friend now:
tgoop.com/phil_besedin/353

View MORE
Open in Telegram


Telegram News

Date: |

Invite up to 200 users from your contacts to join your channel Telegram offers a powerful toolset that allows businesses to create and manage channels, groups, and bots to broadcast messages, engage in conversations, and offer reliable customer support via bots. Private channels are only accessible to subscribers and don’t appear in public searches. To join a private channel, you need to receive a link from the owner (administrator). A private channel is an excellent solution for companies and teams. You can also use this type of channel to write down personal notes, reflections, etc. By the way, you can make your private channel public at any moment. Some Telegram Channels content management tips Telegram Android app: Open the chats list, click the menu icon and select “New Channel.”
from us


Telegram Беседин
FROM American