Forwarded from Казань философская
На нашем ютуб-канале стала доступна запись подкаста с Артемом Бесединым о ценности изучения истории философии. Из этого подкаста вы сможете узнать, есть ли прогресс в философии, существуют ли в философии свои "научные революции" и может ли философия быть не историчной. В скором времени аудио версия будет доступна на яндекс музыке.
А уже сегодня мы встречаемся в 18:00 (как обычно в Смене) для обсуждения цифровой антропологии с Региной Пеннер.
Всех ждем!
А уже сегодня мы встречаемся в 18:00 (как обычно в Смене) для обсуждения цифровой антропологии с Региной Пеннер.
Всех ждем!
YouTube
Артём Беседин | Ценность изучения истории философии
Тема подкаста — ценность изучения истории философии. Обсудим, есть ли прогресс в философии, существуют ли в философии свои "научные революции" и может ли философия быть не историчной.
Приглашенный гость — Артём Беседин, кандидат философских наук, доцент…
Приглашенный гость — Артём Беседин, кандидат философских наук, доцент…
Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.
Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:
• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?
Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.
Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:
• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?
Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.
Forwarded from Книжный магазин «Фаланстер»
Константин Фролов, Андрей Пономарев. Аналитическая философия восприятия: традиция и современность
Издательство «Алетейя». 966 р.
Настоящая работа посвящена исследованию природы чувственного восприятия с позиций современной аналитической философии. К числу
основных проблем данной области относятся: проблема онтологического статуса содержания чувственного восприятия; проблема установления того, в какой мере это содержание является концептуализируемым (выразимым в понятиях); проблема связи чувственного восприятия со знанием, что предполагает ответ на вызовы скептицизма.
В представленном исследовании обозначенные проблемы разбиты на две части. Первая часть преимущественно посвящена сюжетам, относящимся к предыстории и истории аналитической философии восприятия. Второй раздел книги посвящен современному состоянию теоретического осмысления природы восприятия.
Монография адресована широкому кругу читателей, интересующихся проблемами философии восприятия, философии сознания и философскими проблемами познания в целом. Также она может представлять интерес для тех, кого волнуют перспективы и формы взаимодействия между философией и естественными науками.
Заказать книгу с доставкой: [email protected]
Издательство «Алетейя». 966 р.
Настоящая работа посвящена исследованию природы чувственного восприятия с позиций современной аналитической философии. К числу
основных проблем данной области относятся: проблема онтологического статуса содержания чувственного восприятия; проблема установления того, в какой мере это содержание является концептуализируемым (выразимым в понятиях); проблема связи чувственного восприятия со знанием, что предполагает ответ на вызовы скептицизма.
В представленном исследовании обозначенные проблемы разбиты на две части. Первая часть преимущественно посвящена сюжетам, относящимся к предыстории и истории аналитической философии восприятия. Второй раздел книги посвящен современному состоянию теоретического осмысления природы восприятия.
Монография адресована широкому кругу читателей, интересующихся проблемами философии восприятия, философии сознания и философскими проблемами познания в целом. Также она может представлять интерес для тех, кого волнуют перспективы и формы взаимодействия между философией и естественными науками.
Заказать книгу с доставкой: [email protected]
Интервью с Н.А. Ястреб о вологодской философии и этике искусственного интеллекта
Конференция в Вологде закончилась. Спасибо всем организаторам за это прекрасное мероприятие! Особенно хочется поблагодарить директора института социальных наук Вологодского университета Наталью Андреевну Ястреб не только за организацию конференции, но и за очень интересное интервью.
Артём Беседин: Здравствуйте, Наталья Андреевна! Спасибо за организацию этой замечательной конференции. Очень важное событие. Итак, Вологда. Наверное, последнее, что ассоциируется с этим городом, это … философия. Что такое вологодская философия? Она существует?
Наталья Ястреб: Нужно начать с истории, потому что, наверное, самый значимый период в истории Вологды, связанный именно с философией, – когда она стала ассоциироваться с философией – это примерно 1900-1905 годы. Вологда – это место ссылки, ее называли столичной Сибирью, потому что мы не так далеко от Москвы, 450 километров, и сюда ссылали тех гуманитариев, которые чем-то прогневали своими вольными идеями власть, но при этом не настолько, чтобы ссылать их в Сибирь. Поэтому здесь очень многие философы отбывали ссылки. В 1900 году в Вологде сложился уникальный тандем: здесь одновременно в ссылке находились Богданов Александр Александрович (работал у нас в психиатрической лечебнице врачом), Николай Александрович Бердяев, дальше к ним же присоединились Луначарский и Ремизов. Здесь работал очень интересный книжный магазин. Его роль очень велика, потому что хозяин книжного магазина выписывал для них литературу не только из Москвы и Петербурга, но и из Европы. «Вопросы философии» здесь читали, обсуждали. Здесь постоянно проводили дискуссии, было две формы их институционализации – рефераты и банкеты. Они обсуждали доклады друг друга, вели очень жаркие споры. Банкеты – это что-то наподобие круглых столов. В эти годы (особенно важен 1902-й) стали Вологду называть «Северными Афинами». Материалы этих дискуссий публиковались «Вопросах философии и психологии». Они печатали там критические заметки друг о друге. Был такой философский всплеск. Потом уехал Бердяев (у него изменилось место ссылки), потом Богданов. Власти стали разговаривать с философами более жестко, и волна чуть-чуть снизилась.
Ту школу, которая сейчас существует в нашем университете, сформировала научный руководитель моей кандидатской Галина Николаевна Батурова, очень яркий организатор, сама очень интересующийся всеми новинками философии, человек очень разносторонний. Сама она была специалистом по мифу, но при этом она собирала вокруг себя плеяду разных учеников. Мы, все её ученики, продолжаем её дело. У меня получилось внести в это региональное сообщество тематику, связанную с техникой и с искусственным интеллектом. Наши аспиранты это продолжают. Нас, в целом, здесь мало по количеству. Но при этом несколько докторов наук есть, в том числе молодых. И можно сказать, что философия в Вологде есть. Возможно, мы не занимаем какого-то заметного места в российских масштабах. Но для провинциального города и тем более для провинциального вуза философ — это очень важная составляющая. Здесь мы, конечно, очень востребованы: и в различных мероприятиях, и в обсуждении общественных проектов. Здесь проявляется третья миссия университета. Университет – это градообразующий фактор, а философия составляет рефлексивное ядро.
АБ: То есть, судьба философии в Вологде напоминает философию в Томске в каком-то роде?
НЯ: Я сама, собственно, в Томске докторскую защищала, и сейчас учусь там в магистратуре. У нас с Томском очень тесные связи. И ссыльная история нас объединяет, и интерес к аналитической философии, и в целом дружеские, партнёрские взаимоотношения.
АБ: Какие темы наиболее популярны среди студентов, аспирантов, исследователей?
Конференция в Вологде закончилась. Спасибо всем организаторам за это прекрасное мероприятие! Особенно хочется поблагодарить директора института социальных наук Вологодского университета Наталью Андреевну Ястреб не только за организацию конференции, но и за очень интересное интервью.
Артём Беседин: Здравствуйте, Наталья Андреевна! Спасибо за организацию этой замечательной конференции. Очень важное событие. Итак, Вологда. Наверное, последнее, что ассоциируется с этим городом, это … философия. Что такое вологодская философия? Она существует?
Наталья Ястреб: Нужно начать с истории, потому что, наверное, самый значимый период в истории Вологды, связанный именно с философией, – когда она стала ассоциироваться с философией – это примерно 1900-1905 годы. Вологда – это место ссылки, ее называли столичной Сибирью, потому что мы не так далеко от Москвы, 450 километров, и сюда ссылали тех гуманитариев, которые чем-то прогневали своими вольными идеями власть, но при этом не настолько, чтобы ссылать их в Сибирь. Поэтому здесь очень многие философы отбывали ссылки. В 1900 году в Вологде сложился уникальный тандем: здесь одновременно в ссылке находились Богданов Александр Александрович (работал у нас в психиатрической лечебнице врачом), Николай Александрович Бердяев, дальше к ним же присоединились Луначарский и Ремизов. Здесь работал очень интересный книжный магазин. Его роль очень велика, потому что хозяин книжного магазина выписывал для них литературу не только из Москвы и Петербурга, но и из Европы. «Вопросы философии» здесь читали, обсуждали. Здесь постоянно проводили дискуссии, было две формы их институционализации – рефераты и банкеты. Они обсуждали доклады друг друга, вели очень жаркие споры. Банкеты – это что-то наподобие круглых столов. В эти годы (особенно важен 1902-й) стали Вологду называть «Северными Афинами». Материалы этих дискуссий публиковались «Вопросах философии и психологии». Они печатали там критические заметки друг о друге. Был такой философский всплеск. Потом уехал Бердяев (у него изменилось место ссылки), потом Богданов. Власти стали разговаривать с философами более жестко, и волна чуть-чуть снизилась.
Ту школу, которая сейчас существует в нашем университете, сформировала научный руководитель моей кандидатской Галина Николаевна Батурова, очень яркий организатор, сама очень интересующийся всеми новинками философии, человек очень разносторонний. Сама она была специалистом по мифу, но при этом она собирала вокруг себя плеяду разных учеников. Мы, все её ученики, продолжаем её дело. У меня получилось внести в это региональное сообщество тематику, связанную с техникой и с искусственным интеллектом. Наши аспиранты это продолжают. Нас, в целом, здесь мало по количеству. Но при этом несколько докторов наук есть, в том числе молодых. И можно сказать, что философия в Вологде есть. Возможно, мы не занимаем какого-то заметного места в российских масштабах. Но для провинциального города и тем более для провинциального вуза философ — это очень важная составляющая. Здесь мы, конечно, очень востребованы: и в различных мероприятиях, и в обсуждении общественных проектов. Здесь проявляется третья миссия университета. Университет – это градообразующий фактор, а философия составляет рефлексивное ядро.
АБ: То есть, судьба философии в Вологде напоминает философию в Томске в каком-то роде?
НЯ: Я сама, собственно, в Томске докторскую защищала, и сейчас учусь там в магистратуре. У нас с Томском очень тесные связи. И ссыльная история нас объединяет, и интерес к аналитической философии, и в целом дружеские, партнёрские взаимоотношения.
АБ: Какие темы наиболее популярны среди студентов, аспирантов, исследователей?
НЯ: Их несколько. Ведущая тема заведующей кафедры философии Натальи Викторовны Дрянных — это проблемы научной рациональности. Соответственно, ее ученики работают в этом направлении. Профессор Игорь Никифорович Тяпин занимается критическим подходом, проблемами антиморали, критики современного общества. Есть плеяда студентов, которым нравятся эти темы. Я в целом занимаюсь философией науки и искусственным интеллектом. Мои ученики занимаются этим же. Есть и другие интересные направления. Например, моя аспирантка изучает аудиальные практики коммуникации в научном сообществе. Вот это интервью выйдет в тексте, но говорим мы все равно вживую. И вот вопрос: какую роль эти голосовые, аудиальные взаимодействия играют в науке? На самом деле, у нас исследуется очень разнообразная проблематика. Конечно, мы не заставляем всех заниматься только, например, искусственным интеллектом или рациональностью. Мы в этом плане очень открыты.
АБ: Давайте перейдем от внешней темы философии в Вологде, собственно, к философской теме искусственного интеллекта. Вы его уже неоднократно упоминали. И Ваш доклад на пленарном заседании был посвящен этике искусственного интеллекта. Вы говорили, что относительно недавно заинтересовалась проблематикой этики искусственного интеллекта. Почему это важно? Почему эта тема стала важна для Вас? Уровень развития ИИ стал таким, что стала бросаться в глаза эта проблема, или какова причина?
НЯ: Причина – простое возмущение, чисто эмоциональная реакция, потому что я всё время занималась эпистемологическими проблемами, это моя профессиональная сфера. И в какой-то момент я обратила внимание на всплеск всевозможных документов, которые регулируют этические вопросы в сфере искусственного интеллекта. При этом мы понимаем, что в их разработке не участвовали философы: в лучшем случае биоэтики. Биоэтику привлекали, был осуществлён трансфер методологии. Но понятно, что он невозможен буквально. Это меня и возмутило. Юристы, биологи и программисты, бизнесмены, они разрабатывают этику. И, соответственно, возник вопрос, почему это всё происходит, почему философы не привлекаются. Я даже в Совете Федерации выступала с этим вопросом, мы там подискутировали с разработчиками этического кодекса. И поэтому я взялась изучить эту тему, посмотреть, что здесь происходит, что могут предложить философы, какие существуют подходы. И поскольку у меня инструментальный тип мышления, я и ищу подходы, которые дадут какие-то практические инструменты, с которыми можно будет работать в этой сфере.
АБ: В докладе Вы упоминали подход, основанный на кодексах, на принципах, и, как я понял, из доклада, Вы очень критически к нему подходите. Между тем, действительно, количество кодексов растёт не по дням, а по часам. Почему многие идут по этому пути, почему этот путь востребован, кажется, со стороны корпораций и государства, и почему этот путь плох?
НЯ: Сами эти документы – это все-таки шаг вперед. То, что они появились, это в целом хорошо. Это, по крайней мере, означает, что эта проблема для всех важна, что ее не игнорируют в буквальном смысле. То есть он плох не потому, что бизнесмены создают кодексы: они обеспечивают этим свои интересы, им нужно развиваться, им нужно получать прибыль. Если мы сейчас все запретим, все зарегистрируем, то у нас не будет никакого дальнейшего развития. Он плох тем, что за ним не стоят методологические основания, и как раз философский анализ показывает, что они не будут работать буквально. То есть, если мы говорим о том, что мы подписали кодекс, поэтому наши технологии этичные, поэтому всё тут хорошо, то мы понимаем, что так это не работает. Такой кодекс нужно разбирать на уровне философской рефлексии и выбирать оттуда то, что действительно важно и стоит оставлять, и насыщать, и добавлять конкретные инструменты, которые позволят на практике реализовывать изложенные принципы. Я не возражаю против принципов. Мне хочется добавить к этим принципам работающую методологию. Вот в чём, собственно, мой подход.
АБ: А как заставить их работать? В чём эта методология?
АБ: Давайте перейдем от внешней темы философии в Вологде, собственно, к философской теме искусственного интеллекта. Вы его уже неоднократно упоминали. И Ваш доклад на пленарном заседании был посвящен этике искусственного интеллекта. Вы говорили, что относительно недавно заинтересовалась проблематикой этики искусственного интеллекта. Почему это важно? Почему эта тема стала важна для Вас? Уровень развития ИИ стал таким, что стала бросаться в глаза эта проблема, или какова причина?
НЯ: Причина – простое возмущение, чисто эмоциональная реакция, потому что я всё время занималась эпистемологическими проблемами, это моя профессиональная сфера. И в какой-то момент я обратила внимание на всплеск всевозможных документов, которые регулируют этические вопросы в сфере искусственного интеллекта. При этом мы понимаем, что в их разработке не участвовали философы: в лучшем случае биоэтики. Биоэтику привлекали, был осуществлён трансфер методологии. Но понятно, что он невозможен буквально. Это меня и возмутило. Юристы, биологи и программисты, бизнесмены, они разрабатывают этику. И, соответственно, возник вопрос, почему это всё происходит, почему философы не привлекаются. Я даже в Совете Федерации выступала с этим вопросом, мы там подискутировали с разработчиками этического кодекса. И поэтому я взялась изучить эту тему, посмотреть, что здесь происходит, что могут предложить философы, какие существуют подходы. И поскольку у меня инструментальный тип мышления, я и ищу подходы, которые дадут какие-то практические инструменты, с которыми можно будет работать в этой сфере.
АБ: В докладе Вы упоминали подход, основанный на кодексах, на принципах, и, как я понял, из доклада, Вы очень критически к нему подходите. Между тем, действительно, количество кодексов растёт не по дням, а по часам. Почему многие идут по этому пути, почему этот путь востребован, кажется, со стороны корпораций и государства, и почему этот путь плох?
НЯ: Сами эти документы – это все-таки шаг вперед. То, что они появились, это в целом хорошо. Это, по крайней мере, означает, что эта проблема для всех важна, что ее не игнорируют в буквальном смысле. То есть он плох не потому, что бизнесмены создают кодексы: они обеспечивают этим свои интересы, им нужно развиваться, им нужно получать прибыль. Если мы сейчас все запретим, все зарегистрируем, то у нас не будет никакого дальнейшего развития. Он плох тем, что за ним не стоят методологические основания, и как раз философский анализ показывает, что они не будут работать буквально. То есть, если мы говорим о том, что мы подписали кодекс, поэтому наши технологии этичные, поэтому всё тут хорошо, то мы понимаем, что так это не работает. Такой кодекс нужно разбирать на уровне философской рефлексии и выбирать оттуда то, что действительно важно и стоит оставлять, и насыщать, и добавлять конкретные инструменты, которые позволят на практике реализовывать изложенные принципы. Я не возражаю против принципов. Мне хочется добавить к этим принципам работающую методологию. Вот в чём, собственно, мой подход.
АБ: А как заставить их работать? В чём эта методология?
НЯ: Я пошла здесь не только аналитическим путём, но и путём эмпирического исследования. Я активно обсуждаю это с разработчиками. Особенно интересно, когда удаётся с топовыми разработчиками пообщаться. Мы анализируем, как в реальности они это делают. Им же надо, чтобы это работало. И оказывается, что за витриной этических кодексов стоят все-таки другие инструменты. И здесь, мне кажется, мы философы и даже эпистемологи можем помочь. Например, критический подход — это просто способ проблематизации. Как понять, что может выдавать большая лингвистическая модель в ответе на запрос, а что не надо выпускать? Вот первая этическая дилемма. Или какие данные человека и в каких ситуациях корректно использовать, а в каких ситуациях некорректно? Ведь нельзя просто запретить использование персональных данных. Вот где этот водораздел? И мы начинаем задавать эти вопросы, углубляясь, углубляясь, и ищем эти водоразделы, которые позволят нам правильно принимать решения.
АБ: Критический подход – это, с Вашей точки зрения, предпочтительная методология, как я понимаю?
НЯ: Это одна из методологий, которая может помочь.
АБ: Ваше изложение критического подхода в докладе вызывает у меня такое возражение. Критический подход предполагает, что единственными моральными субъектами являются люди. Мы оцениваем искусственный интеллект только как инструмент, который влияет определённым образом на нас. И получается, что искусственный интеллект – это нечто такое, что только лишь масштабирует или искажает, даёт нам в неузнаваемом виде те моральные проблемы, которые у нас и так уже есть. Почему это вообще подход к этике искусственного интеллекта? Почему мы отказываемся говорить о возможном ИИ как моральном агенте? То есть, не выплёскиваем ли мы здесь самое интересное, что есть в этике искусственного интеллекта?
НЯ: Не выплёскиваем ребёнка с водой? Ну, смотрите, здесь надо сделать несколько базовых методологических уточнений. Сейчас мы принимаем основную установку, что у современных систем нет субъектности. Можно отдельно, кстати, поговорить о том что мы сейчас понимаем, как сделать вычислительный эксперимент по моделированию сознания. Вот еще пять лет назад мы не понимали. Но это отдельно сейчас мы исходим из того, что у них нет субъектности в том смысле что они не осознают себя и не имеют феноменального сознания. Я не придерживаюсь теории вложения ценностей в ее радикальном виде. Это моя позиция. Теория вложения ценностей считает, что при конструировании сама форма реализации технического объекта позволяет закладывать в него определенные ценности. Я считаю, что в таком сильном виде это не работает, только в мягком варианте. Они могут способствовать реализации в большей степени одних ценностей и не способствовать реализации других. Они оказывают влияние и могут усиливать определенные виды деятельности человека, а другие ослаблять. Вот таким образом они оказывают влияние. И поэтому мы подключаем критический подход, то есть наша задача посмотреть, как они влияют, чему они способствуют, чему они препятствуют. Выявляя вот эту динамику, мы можем оценивать их воздействие на человека в целом. Я, наверное, не скажу, что мы вообще не должны направлять этический подход на сами систему искусственного интеллекта: зачем нам себя ограничивать? Просто, на мой взгляд, сейчас все этим и занимаются. Мы хотим приписать этику системам у которых пока нет субъектности. Мы хотим приписать моральные ценности им вместо того, чтобы посмотреть на то, как люди с ними взаимодействую. Я как раз и предлагаю такой подход. Он может быть одним из этапов или дополнением, если не основным подходом, который смотрит на человека в рамках двухстороннего взаимодействия с ИИ.
АБ: Продолжая то, что Вы сейчас сказали. Каковы Ваши прогнозы, с одной стороны, относительно будущего ИИ, и какие глубинные воздействия окажет развитие этих технологий на нас? И каковы перспективы развития этики искусственного интеллекта?
АБ: Критический подход – это, с Вашей точки зрения, предпочтительная методология, как я понимаю?
НЯ: Это одна из методологий, которая может помочь.
АБ: Ваше изложение критического подхода в докладе вызывает у меня такое возражение. Критический подход предполагает, что единственными моральными субъектами являются люди. Мы оцениваем искусственный интеллект только как инструмент, который влияет определённым образом на нас. И получается, что искусственный интеллект – это нечто такое, что только лишь масштабирует или искажает, даёт нам в неузнаваемом виде те моральные проблемы, которые у нас и так уже есть. Почему это вообще подход к этике искусственного интеллекта? Почему мы отказываемся говорить о возможном ИИ как моральном агенте? То есть, не выплёскиваем ли мы здесь самое интересное, что есть в этике искусственного интеллекта?
НЯ: Не выплёскиваем ребёнка с водой? Ну, смотрите, здесь надо сделать несколько базовых методологических уточнений. Сейчас мы принимаем основную установку, что у современных систем нет субъектности. Можно отдельно, кстати, поговорить о том что мы сейчас понимаем, как сделать вычислительный эксперимент по моделированию сознания. Вот еще пять лет назад мы не понимали. Но это отдельно сейчас мы исходим из того, что у них нет субъектности в том смысле что они не осознают себя и не имеют феноменального сознания. Я не придерживаюсь теории вложения ценностей в ее радикальном виде. Это моя позиция. Теория вложения ценностей считает, что при конструировании сама форма реализации технического объекта позволяет закладывать в него определенные ценности. Я считаю, что в таком сильном виде это не работает, только в мягком варианте. Они могут способствовать реализации в большей степени одних ценностей и не способствовать реализации других. Они оказывают влияние и могут усиливать определенные виды деятельности человека, а другие ослаблять. Вот таким образом они оказывают влияние. И поэтому мы подключаем критический подход, то есть наша задача посмотреть, как они влияют, чему они способствуют, чему они препятствуют. Выявляя вот эту динамику, мы можем оценивать их воздействие на человека в целом. Я, наверное, не скажу, что мы вообще не должны направлять этический подход на сами систему искусственного интеллекта: зачем нам себя ограничивать? Просто, на мой взгляд, сейчас все этим и занимаются. Мы хотим приписать этику системам у которых пока нет субъектности. Мы хотим приписать моральные ценности им вместо того, чтобы посмотреть на то, как люди с ними взаимодействую. Я как раз и предлагаю такой подход. Он может быть одним из этапов или дополнением, если не основным подходом, который смотрит на человека в рамках двухстороннего взаимодействия с ИИ.
АБ: Продолжая то, что Вы сейчас сказали. Каковы Ваши прогнозы, с одной стороны, относительно будущего ИИ, и какие глубинные воздействия окажет развитие этих технологий на нас? И каковы перспективы развития этики искусственного интеллекта?
НЯ: И эксперты оценивают в 2029–2030 году, что вычислительно мощность самых крупных моделей может стать сопоставимой с человеческим мозгом. Если этих моделей будет несколько, то мы можем поставить вычислительный эксперимент. Сознание предполагает наличие картины другого и соотнесение себя с другим. Оно возникает у коллективных существ. Если мы поставим задачу моделям таким образом, что они должны составить внутри себя модель другой модели и, таким образом, при достаточной сложности самой системы создать собственную модель как модель другой системы, то в целом мы можем ожидать определённой эмерджентности. Это не значит, что этот эксперимент точно будет успешным, но как эксперимент это возможно. И вот это, мне кажется, будет самое интересное. Будем ждать развития событий. По крайней мере, вариант такого эксперимента обсуждается разработчиками. Если говорить о людях, очень сложно что-то прогнозировать. Мне кажется, мы всё время готовимся к прошедшей войне, и мы просто пытаемся экстраполировать то, что уже с нами происходит. Нам кажется, что в будущем это всё будет только ярче, красивее и веселее. Поэтому я с оптимизмом, но с недоумением смотрю в будущее, а также с интересом. По поводу этики: точно будет развиваться кейс-метод. Кейсы уже набираются, это даёт свой результат, они будут накапливаться, обобщаться, анализироваться. Постепенно, я думаю, будут вырабатываться более универсальные правила. И от ста кодексов, которые есть в мире, мы потихонечку будем приходить к неким общим методологическим подходам. Надеюсь, добавится хорошая экспертиза в образовании. После того, как GPT открыли к своей модели, система образования столкнулась с вызовом. И здесь тоже вырабатываются определенные политики. От этого индуктивного многообразия мы будем приходить, наверное, к более дедуктивным подходам, когда мы из неких общих таких правил будем выстраивать модели поведения в конкретных ситуациях.
АБ: Спасибо. Это был очень интересный разговор.
АБ: Спасибо. Это был очень интересный разговор.
Если вы собираетесь в Вологду и хотите новых впечатлений и острых ощущений с самого начала, воспользуйтесь услугами "Вологодского авиапредприятия". Мы с коллегами туда и обратно именно летели, а не ехали. Гвоздь программы — самолёт Як-40. Их вообще-то перестали строить в 1981 году. У нашего самолета ещё и интерьер сохранился с советских времён. Опыт полёта весьма положительный: очень мягкие взлёт и посадка. На 32 пассажира одна стюардесса, предлагают холодные и горячие напитки, конфеты и вологодский зефир. Правда, когда меняется звук работы двигателя, в самолёте пятидесятилетней давности чувствуешь себя как-то менее комфортно, чем в современном. К тому же, когда мы летели назад и уже приземлились в Москве, увидели новость, что у самолёта Вологодского авиапредприятия при посадке во Внуково утром в пятницу лопнула шина. ("С 1975 года работала! Кто мог подумать, что такое случится?" Антон Кузнецов (с)). Хорошо, что мы об этом узнали, когда выходили из самолёта. В общем, если вы хотите полетать на Як-40, пока их все не попилили на металл, слетайте в Вологду. Непередаваемые ощущения.
Вологодский аэропорт по уровню впечатлений не уступает воздушному судну, на котором мы туда прилетели. Ощущение такое, как будто попадаешь в какую-то параллельную реальность: советские стойки регистрации, вывески, багажные весы (действующие), табло с ярко-оранжевыми цифрами (номер рейса)... Там сейчас идет ремонт. Надеюсь, что все эти атрибуты воздушной гавани советской эпохи не будут уничтожены.