Warning: mkdir(): No space left on device in /var/www/tgoop/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/chernopsy/--): Failed to open stream: No such file or directory in /var/www/tgoop/post.php on line 50
Черномырдин нашей психологии@chernopsy P.879
CHERNOPSY Telegram 879
Про большие языковые модели.
Часть 2. Понимание


Я хочу сделать два поинта. Первый поинт будет про понимание. Часто звучит высказывание о том, что LMM на самом деле ничего не понимают. На мой взгляд, будучи моделями, обученными, продолжать словесные последовательности, LLM демонстрируют только один из множество аспектов того, что мы называем в человеке пониманием. Ниже привожу текст, который я написал в виде комментария в одной дискуссии.

Некоторые говорят, что наука не очень хорошо знает, что такое смысл и понимание у человека. И я соглашусь с этим. Современная когнитивная нейронаука этот вопрос игнорирует. Занимаются им гуманитарные ветви психологии и, вероятно, классическая лингвистика. Я также согласен с мнением, что если ты говоришь, что GPT чего-то не понимает, то будь добр, объясни, что именно ты под этим имеешь в виду.

Смысл проще всего определить через выбор одного значения стимула (слова, высказывания) в бесконечном количестве альтернативных возможных значений (интерпретаций). Это я пишу на основе классической лингвистики в её интерпретации советской психологией (психологический анализ смысла - это одна из немногих тем, которые были глубоко разработаны).

Человек отбрасывает альтернативные значения через контекст. Лингвистически - это фраза или весь разговор. Если речь об огороде и упоминается лук - речь не об оружии.

Но есть и другие контексты: история взаимодействия с этим человеком, знания о нем, ситуация общения. Есть еще личностные контексты: моя мотивация и цель участия в разговоре, моя история взаимодействия с предметом разговора. Есть прагматические контексты - что я собираюсь делать с полученным ответом. Есть ожидания: что произойдет, если я скажу ту или иную вещь.

Вот на переплетении всех этих контекстов определяется конкретный смысл отдельного стимула (слова, высказывания). Наделение смыслом можно назвать пониманием.

ChatGPT определяет значение ТОЛЬКО по лингвистическому контексту. Вспомним, что GPT-3 обучена продолжать словесные последовательности. Модель обучена на огромном количестве контекстов, поэтому хорошо их обобщает и выдает «понимающие» ответы на очень многие вопросы. Это можно назвать пониманием, но в очень ограниченном (по сравнению с человеком) смысле.

Можно сказать, что за определение лингвистического контекста у каждого из нас отвечает собственная внутренняя GPT-3. Ее работу в изоляции можно увидеть в специфических ситуациях, например:
- у маленьких детей (ассоциации сильнее влияют на ход разговора, чем его изначальная цель);
- когда мы отвлечены (пьяны /спим /под наркозом) и отвечаем на автомате;
- в клинических ситуациях типа бреда или шизофазии (яркий пример сохранной лексики и синтаксиса при полной потере смыла, т.е. всех остальных контекстов).

Можно ли сказать, что если обучить сложную нейросеть на куче пересекающихся контекстов, то будет человеческое понимаете? Все-таки думаю, что нет. Будет понимание, но не человеческое. Потому что комбинация разных контекстов у человека происходит как-то очень интересно, возможно, через всякие внутренние переменные, которые вовлекают эмоции и субъективные ощущения. То есть смоделировать это на компьютерах, какими мы знаем их сегодня - может не получиться. Грубо говоря, то, как понимает человек, обусловлено его биологической природой, и эффективное понимаете в машинах может быть в итоге достигнуто по-другому.

В качестве ссылки на авторитет, приведу недавнее высказывание Яна ЛеКуна, который тоже говорит, что человеческое мышление в большей части невербальное (то, что я выше назвал не-лингвистическими контекстами), и эту большую часть человеческого мышления LMM игнорируют.

Это был пост про понимание. Завтра будет продолжение. Stay tuned!



tgoop.com/chernopsy/879
Create:
Last Update:

Про большие языковые модели.
Часть 2. Понимание


Я хочу сделать два поинта. Первый поинт будет про понимание. Часто звучит высказывание о том, что LMM на самом деле ничего не понимают. На мой взгляд, будучи моделями, обученными, продолжать словесные последовательности, LLM демонстрируют только один из множество аспектов того, что мы называем в человеке пониманием. Ниже привожу текст, который я написал в виде комментария в одной дискуссии.

Некоторые говорят, что наука не очень хорошо знает, что такое смысл и понимание у человека. И я соглашусь с этим. Современная когнитивная нейронаука этот вопрос игнорирует. Занимаются им гуманитарные ветви психологии и, вероятно, классическая лингвистика. Я также согласен с мнением, что если ты говоришь, что GPT чего-то не понимает, то будь добр, объясни, что именно ты под этим имеешь в виду.

Смысл проще всего определить через выбор одного значения стимула (слова, высказывания) в бесконечном количестве альтернативных возможных значений (интерпретаций). Это я пишу на основе классической лингвистики в её интерпретации советской психологией (психологический анализ смысла - это одна из немногих тем, которые были глубоко разработаны).

Человек отбрасывает альтернативные значения через контекст. Лингвистически - это фраза или весь разговор. Если речь об огороде и упоминается лук - речь не об оружии.

Но есть и другие контексты: история взаимодействия с этим человеком, знания о нем, ситуация общения. Есть еще личностные контексты: моя мотивация и цель участия в разговоре, моя история взаимодействия с предметом разговора. Есть прагматические контексты - что я собираюсь делать с полученным ответом. Есть ожидания: что произойдет, если я скажу ту или иную вещь.

Вот на переплетении всех этих контекстов определяется конкретный смысл отдельного стимула (слова, высказывания). Наделение смыслом можно назвать пониманием.

ChatGPT определяет значение ТОЛЬКО по лингвистическому контексту. Вспомним, что GPT-3 обучена продолжать словесные последовательности. Модель обучена на огромном количестве контекстов, поэтому хорошо их обобщает и выдает «понимающие» ответы на очень многие вопросы. Это можно назвать пониманием, но в очень ограниченном (по сравнению с человеком) смысле.

Можно сказать, что за определение лингвистического контекста у каждого из нас отвечает собственная внутренняя GPT-3. Ее работу в изоляции можно увидеть в специфических ситуациях, например:
- у маленьких детей (ассоциации сильнее влияют на ход разговора, чем его изначальная цель);
- когда мы отвлечены (пьяны /спим /под наркозом) и отвечаем на автомате;
- в клинических ситуациях типа бреда или шизофазии (яркий пример сохранной лексики и синтаксиса при полной потере смыла, т.е. всех остальных контекстов).

Можно ли сказать, что если обучить сложную нейросеть на куче пересекающихся контекстов, то будет человеческое понимаете? Все-таки думаю, что нет. Будет понимание, но не человеческое. Потому что комбинация разных контекстов у человека происходит как-то очень интересно, возможно, через всякие внутренние переменные, которые вовлекают эмоции и субъективные ощущения. То есть смоделировать это на компьютерах, какими мы знаем их сегодня - может не получиться. Грубо говоря, то, как понимает человек, обусловлено его биологической природой, и эффективное понимаете в машинах может быть в итоге достигнуто по-другому.

В качестве ссылки на авторитет, приведу недавнее высказывание Яна ЛеКуна, который тоже говорит, что человеческое мышление в большей части невербальное (то, что я выше назвал не-лингвистическими контекстами), и эту большую часть человеческого мышления LMM игнорируют.

Это был пост про понимание. Завтра будет продолжение. Stay tuned!

BY Черномырдин нашей психологии


Share with your friend now:
tgoop.com/chernopsy/879

View MORE
Open in Telegram


Telegram News

Date: |

The administrator of a telegram group, "Suck Channel," was sentenced to six years and six months in prison for seven counts of incitement yesterday. But a Telegram statement also said: "Any requests related to political censorship or limiting human rights such as the rights to free speech or assembly are not and will not be considered." Add the logo from your device. Adjust the visible area of your image. Congratulations! Now your Telegram channel has a face Click “Save”.! 6How to manage your Telegram channel? To upload a logo, click the Menu icon and select “Manage Channel.” In a new window, hit the Camera icon.
from us


Telegram Черномырдин нашей психологии
FROM American