НЯ: Я пошла здесь не только аналитическим путём, но и путём эмпирического исследования. Я активно обсуждаю это с разработчиками. Особенно интересно, когда удаётся с топовыми разработчиками пообщаться. Мы анализируем, как в реальности они это делают. Им же надо, чтобы это работало. И оказывается, что за витриной этических кодексов стоят все-таки другие инструменты. И здесь, мне кажется, мы философы и даже эпистемологи можем помочь. Например, критический подход — это просто способ проблематизации. Как понять, что может выдавать большая лингвистическая модель в ответе на запрос, а что не надо выпускать? Вот первая этическая дилемма. Или какие данные человека и в каких ситуациях корректно использовать, а в каких ситуациях некорректно? Ведь нельзя просто запретить использование персональных данных. Вот где этот водораздел? И мы начинаем задавать эти вопросы, углубляясь, углубляясь, и ищем эти водоразделы, которые позволят нам правильно принимать решения.
АБ: Критический подход – это, с Вашей точки зрения, предпочтительная методология, как я понимаю?
НЯ: Это одна из методологий, которая может помочь.
АБ: Ваше изложение критического подхода в докладе вызывает у меня такое возражение. Критический подход предполагает, что единственными моральными субъектами являются люди. Мы оцениваем искусственный интеллект только как инструмент, который влияет определённым образом на нас. И получается, что искусственный интеллект – это нечто такое, что только лишь масштабирует или искажает, даёт нам в неузнаваемом виде те моральные проблемы, которые у нас и так уже есть. Почему это вообще подход к этике искусственного интеллекта? Почему мы отказываемся говорить о возможном ИИ как моральном агенте? То есть, не выплёскиваем ли мы здесь самое интересное, что есть в этике искусственного интеллекта?
НЯ: Не выплёскиваем ребёнка с водой? Ну, смотрите, здесь надо сделать несколько базовых методологических уточнений. Сейчас мы принимаем основную установку, что у современных систем нет субъектности. Можно отдельно, кстати, поговорить о том что мы сейчас понимаем, как сделать вычислительный эксперимент по моделированию сознания. Вот еще пять лет назад мы не понимали. Но это отдельно сейчас мы исходим из того, что у них нет субъектности в том смысле что они не осознают себя и не имеют феноменального сознания. Я не придерживаюсь теории вложения ценностей в ее радикальном виде. Это моя позиция. Теория вложения ценностей считает, что при конструировании сама форма реализации технического объекта позволяет закладывать в него определенные ценности. Я считаю, что в таком сильном виде это не работает, только в мягком варианте. Они могут способствовать реализации в большей степени одних ценностей и не способствовать реализации других. Они оказывают влияние и могут усиливать определенные виды деятельности человека, а другие ослаблять. Вот таким образом они оказывают влияние. И поэтому мы подключаем критический подход, то есть наша задача посмотреть, как они влияют, чему они способствуют, чему они препятствуют. Выявляя вот эту динамику, мы можем оценивать их воздействие на человека в целом. Я, наверное, не скажу, что мы вообще не должны направлять этический подход на сами систему искусственного интеллекта: зачем нам себя ограничивать? Просто, на мой взгляд, сейчас все этим и занимаются. Мы хотим приписать этику системам у которых пока нет субъектности. Мы хотим приписать моральные ценности им вместо того, чтобы посмотреть на то, как люди с ними взаимодействую. Я как раз и предлагаю такой подход. Он может быть одним из этапов или дополнением, если не основным подходом, который смотрит на человека в рамках двухстороннего взаимодействия с ИИ.
АБ: Продолжая то, что Вы сейчас сказали. Каковы Ваши прогнозы, с одной стороны, относительно будущего ИИ, и какие глубинные воздействия окажет развитие этих технологий на нас? И каковы перспективы развития этики искусственного интеллекта?
НЯ: Я пошла здесь не только аналитическим путём, но и путём эмпирического исследования. Я активно обсуждаю это с разработчиками. Особенно интересно, когда удаётся с топовыми разработчиками пообщаться. Мы анализируем, как в реальности они это делают. Им же надо, чтобы это работало. И оказывается, что за витриной этических кодексов стоят все-таки другие инструменты. И здесь, мне кажется, мы философы и даже эпистемологи можем помочь. Например, критический подход — это просто способ проблематизации. Как понять, что может выдавать большая лингвистическая модель в ответе на запрос, а что не надо выпускать? Вот первая этическая дилемма. Или какие данные человека и в каких ситуациях корректно использовать, а в каких ситуациях некорректно? Ведь нельзя просто запретить использование персональных данных. Вот где этот водораздел? И мы начинаем задавать эти вопросы, углубляясь, углубляясь, и ищем эти водоразделы, которые позволят нам правильно принимать решения.
АБ: Критический подход – это, с Вашей точки зрения, предпочтительная методология, как я понимаю?
НЯ: Это одна из методологий, которая может помочь.
АБ: Ваше изложение критического подхода в докладе вызывает у меня такое возражение. Критический подход предполагает, что единственными моральными субъектами являются люди. Мы оцениваем искусственный интеллект только как инструмент, который влияет определённым образом на нас. И получается, что искусственный интеллект – это нечто такое, что только лишь масштабирует или искажает, даёт нам в неузнаваемом виде те моральные проблемы, которые у нас и так уже есть. Почему это вообще подход к этике искусственного интеллекта? Почему мы отказываемся говорить о возможном ИИ как моральном агенте? То есть, не выплёскиваем ли мы здесь самое интересное, что есть в этике искусственного интеллекта?
НЯ: Не выплёскиваем ребёнка с водой? Ну, смотрите, здесь надо сделать несколько базовых методологических уточнений. Сейчас мы принимаем основную установку, что у современных систем нет субъектности. Можно отдельно, кстати, поговорить о том что мы сейчас понимаем, как сделать вычислительный эксперимент по моделированию сознания. Вот еще пять лет назад мы не понимали. Но это отдельно сейчас мы исходим из того, что у них нет субъектности в том смысле что они не осознают себя и не имеют феноменального сознания. Я не придерживаюсь теории вложения ценностей в ее радикальном виде. Это моя позиция. Теория вложения ценностей считает, что при конструировании сама форма реализации технического объекта позволяет закладывать в него определенные ценности. Я считаю, что в таком сильном виде это не работает, только в мягком варианте. Они могут способствовать реализации в большей степени одних ценностей и не способствовать реализации других. Они оказывают влияние и могут усиливать определенные виды деятельности человека, а другие ослаблять. Вот таким образом они оказывают влияние. И поэтому мы подключаем критический подход, то есть наша задача посмотреть, как они влияют, чему они способствуют, чему они препятствуют. Выявляя вот эту динамику, мы можем оценивать их воздействие на человека в целом. Я, наверное, не скажу, что мы вообще не должны направлять этический подход на сами систему искусственного интеллекта: зачем нам себя ограничивать? Просто, на мой взгляд, сейчас все этим и занимаются. Мы хотим приписать этику системам у которых пока нет субъектности. Мы хотим приписать моральные ценности им вместо того, чтобы посмотреть на то, как люди с ними взаимодействую. Я как раз и предлагаю такой подход. Он может быть одним из этапов или дополнением, если не основным подходом, который смотрит на человека в рамках двухстороннего взаимодействия с ИИ.
АБ: Продолжая то, что Вы сейчас сказали. Каковы Ваши прогнозы, с одной стороны, относительно будущего ИИ, и какие глубинные воздействия окажет развитие этих технологий на нас? И каковы перспективы развития этики искусственного интеллекта?
Just at this time, Bitcoin and the broader crypto market have dropped to new 2022 lows. The Bitcoin price has tanked 10 percent dropping to $20,000. On the other hand, the altcoin space is witnessing even more brutal correction. Bitcoin has dropped nearly 60 percent year-to-date and more than 70 percent since its all-time high in November 2021. “Hey degen, are you stressed? Just let it all out,” he wrote, along with a link to join the group. Hui said the time period and nature of some offences “overlapped” and thus their prison terms could be served concurrently. The judge ordered Ng to be jailed for a total of six years and six months. 5Telegram Channel avatar size/dimensions Telegram message that reads: "Bear Market Screaming Therapy Group. You are only allowed to send screaming voice notes. Everything else = BAN. Text pics, videos, stickers, gif = BAN. Anything other than screaming = BAN. You think you are smart = BAN.
from us