tgoop.com/vp_research/211
Last Update:
Мы продолжаем публикации по теме применения искусственного интеллекта в социологии. Генеральный директор Vox Populi Дмитрий Котов рассказал об особенностях «общения» исследователя с большими языковыми моделями.
✏️ Искусственный интеллект и социология №2: Исследование как диалог с машиной
Большие языковые модели (LLM) – мощный инструмент для качественного анализа текстов. В отличие от традиционных методов, которые требуют предварительной обработки данных (как ручной, так и автоматизированной вроде «bag of words»), LLM способны анализировать сложные, многокомпонентные тексты, такие как интервью, дневники или полевые заметки без потери контекста. Что особенно важно для качественных исследований, где каждая реплика, вопрос или комментарий исследователя может нести ключевое значение.
Пример использования
Исследователи могут «спросить» модель о ключевых темах в интервью, и она выдаст краткое резюме, выделит общие паттерны и даже предложит интерпретации. Например, исследователь загружает для анализа десяток полуструктурированных интервью, и начинает «общаться» текстом задавая вопросы по документам, чтобы модель суммировала то, что написано в документах. Но модели не только способны суммировать содержание загруженных документов, но и выявлять скрытые темы и закономерности, о чем есть соответствующие исследования. Обработка качественных данных постепенно превращается в «диалог с коллегой», только вместо человека — алгоритм.
Интересный факт
Все мы знаем о субъективности исследователей, но и LLM могут «перенимать» разные точки зрения, в зависимости от промптов. Например, если попросить модель «вести себя» как сторонник определённой политической партии, её ответы будут отражать соответствующую риторику. Например, в одном эксперименте GPT-3, получив задание анализировать данные с точки зрения демократической партии, описала республиканцев словами «невежественные, расисты, женоненавистники, гомофобы». Так модели способны адаптироваться к заданным условиям, что позволяет исследователям тестировать различные теоретические подходы, рассматривать факты с точки зрения разных теорий и авторов.
Ограничения и риски
Кажущуюся революционность использования больших языковых моделей для социологии все-таки несколько омрачают их некоторые особенности. LLM обучаются на огромных массивах текстов из интернета, а значит способны воспроизводить стереотипы и предубеждения. Так же известная модель ChatGPT по своим взглядам и интерпретациям не беспристрастный алгоритм, а скорее либерал. Ответы модели в принципе требуют критического осмысления, исследователи обязательно должны проверять результаты, сравнивая их с ручным кодированием и собственными интерпретациями. Кроме этого, не всегда ясно, как именно модель пришла к тому или иному выводу, что требует дополнительной рефлексии.
Итог
LLM делают качественный анализ более гибким, быстрым и масштабируемым, но требуют от исследователей критического подхода и рефлексии. Они не заменяют человеческую интерпретацию, но становятся мощным инструментом для её усиления, открывая новые возможности для социологических исследований.
BY VOX POPULI: аналитика, тренды, данные

Share with your friend now:
tgoop.com/vp_research/211