tgoop.com/chernopsy/879
Last Update:
Про большие языковые модели.
Часть 2. Понимание
Я хочу сделать два поинта. Первый поинт будет про понимание. Часто звучит высказывание о том, что LMM на самом деле ничего не понимают. На мой взгляд, будучи моделями, обученными, продолжать словесные последовательности, LLM демонстрируют только один из множество аспектов того, что мы называем в человеке пониманием. Ниже привожу текст, который я написал в виде комментария в одной дискуссии.
Некоторые говорят, что наука не очень хорошо знает, что такое смысл и понимание у человека. И я соглашусь с этим. Современная когнитивная нейронаука этот вопрос игнорирует. Занимаются им гуманитарные ветви психологии и, вероятно, классическая лингвистика. Я также согласен с мнением, что если ты говоришь, что GPT чего-то не понимает, то будь добр, объясни, что именно ты под этим имеешь в виду.
Смысл проще всего определить через выбор одного значения стимула (слова, высказывания) в бесконечном количестве альтернативных возможных значений (интерпретаций). Это я пишу на основе классической лингвистики в её интерпретации советской психологией (психологический анализ смысла - это одна из немногих тем, которые были глубоко разработаны).
Человек отбрасывает альтернативные значения через контекст. Лингвистически - это фраза или весь разговор. Если речь об огороде и упоминается лук - речь не об оружии.
Но есть и другие контексты: история взаимодействия с этим человеком, знания о нем, ситуация общения. Есть еще личностные контексты: моя мотивация и цель участия в разговоре, моя история взаимодействия с предметом разговора. Есть прагматические контексты - что я собираюсь делать с полученным ответом. Есть ожидания: что произойдет, если я скажу ту или иную вещь.
Вот на переплетении всех этих контекстов определяется конкретный смысл отдельного стимула (слова, высказывания). Наделение смыслом можно назвать пониманием.
ChatGPT определяет значение ТОЛЬКО по лингвистическому контексту. Вспомним, что GPT-3 обучена продолжать словесные последовательности. Модель обучена на огромном количестве контекстов, поэтому хорошо их обобщает и выдает «понимающие» ответы на очень многие вопросы. Это можно назвать пониманием, но в очень ограниченном (по сравнению с человеком) смысле.
Можно сказать, что за определение лингвистического контекста у каждого из нас отвечает собственная внутренняя GPT-3. Ее работу в изоляции можно увидеть в специфических ситуациях, например:
- у маленьких детей (ассоциации сильнее влияют на ход разговора, чем его изначальная цель);
- когда мы отвлечены (пьяны /спим /под наркозом) и отвечаем на автомате;
- в клинических ситуациях типа бреда или шизофазии (яркий пример сохранной лексики и синтаксиса при полной потере смыла, т.е. всех остальных контекстов).
Можно ли сказать, что если обучить сложную нейросеть на куче пересекающихся контекстов, то будет человеческое понимаете? Все-таки думаю, что нет. Будет понимание, но не человеческое. Потому что комбинация разных контекстов у человека происходит как-то очень интересно, возможно, через всякие внутренние переменные, которые вовлекают эмоции и субъективные ощущения. То есть смоделировать это на компьютерах, какими мы знаем их сегодня - может не получиться. Грубо говоря, то, как понимает человек, обусловлено его биологической природой, и эффективное понимаете в машинах может быть в итоге достигнуто по-другому.
В качестве ссылки на авторитет, приведу недавнее высказывание Яна ЛеКуна, который тоже говорит, что человеческое мышление в большей части невербальное (то, что я выше назвал не-лингвистическими контекстами), и эту большую часть человеческого мышления LMM игнорируют.
Это был пост про понимание. Завтра будет продолжение. Stay tuned!
BY Черномырдин нашей психологии
Share with your friend now:
tgoop.com/chernopsy/879