Промты для учебы, исследований и работы: текст для презентаций
Я обожаю создавать презентации: подбирать фон, рисовать графики. Это меня успокаивает и увлекает. Но вот писать тексты к ним – совсем другое дело. Не люблю я это, потому что получаются либо слишком длинные и нудные, либо полные ошибок и опечаток. Описать суть работы могу, но текст будет ужасным.
Поэтому я с радостью доверяю написание, оформление, пересказ, перефразирование и редактирование текстов искусственному интеллекту. Я работаю над содержанием, а ChatGPT или Gemini превращают его в удобочитаемый и понятный текст.
Задача:
Я написала магистерскую диссертацию в ИТМО по теме климатической политики. Теперь мне нужно сделать презентацию.
Требования:
Четкая и структурированная информация.
Отражение основных моментов диссертации.
Лаконичность (с чем у меня, к сожалению, проблемы).
Решение:
Я составила подробный промпт для Gemini, чтобы он на основе 90 страниц диплома сделал презентацию и речь.
Результат:
В итоге я получила текст для презентации и речь. Вот ссылка на промт и результат.
#Gemini_Google #промты_для_исследований
Я обожаю создавать презентации: подбирать фон, рисовать графики. Это меня успокаивает и увлекает. Но вот писать тексты к ним – совсем другое дело. Не люблю я это, потому что получаются либо слишком длинные и нудные, либо полные ошибок и опечаток. Описать суть работы могу, но текст будет ужасным.
Поэтому я с радостью доверяю написание, оформление, пересказ, перефразирование и редактирование текстов искусственному интеллекту. Я работаю над содержанием, а ChatGPT или Gemini превращают его в удобочитаемый и понятный текст.
Задача:
Я написала магистерскую диссертацию в ИТМО по теме климатической политики. Теперь мне нужно сделать презентацию.
Требования:
Четкая и структурированная информация.
Отражение основных моментов диссертации.
Лаконичность (с чем у меня, к сожалению, проблемы).
Решение:
Я составила подробный промпт для Gemini, чтобы он на основе 90 страниц диплома сделал презентацию и речь.
Результат:
В итоге я получила текст для презентации и речь. Вот ссылка на промт и результат.
#Gemini_Google #промты_для_исследований
Google Docs
Текст для слайдов:
Промт для Gemini: Роль: Ты - эксперт по презентациям. Задача: Подготовить текст для 7-минутной презентации, основанной на диссертации. Контекст: Презентация должна подчеркивать экономическую составляющую исследования. Укажи, какую пользу для экономики России…
👍23❤4🤔1
Люблю делать методички. Буду пополнять и расширять методичку "Советы по ИИ-промтам для социологов".
Общая по промтам: https://docs.google.com/document/d/1beqDsX649w3UXG5B-XB3EA1DsfwFKz8hCv4vpDLCuIs/edit?usp=sharing
Сборник промтов для социологов, рисерчеров: https://docs.google.com/document/d/1Nr81qRq8WqIobgdYJ8IEIZKMZswE0ZMZBNI5ZPnQgng/edit?usp=sharing
#промты_для_исследований
Общая по промтам: https://docs.google.com/document/d/1beqDsX649w3UXG5B-XB3EA1DsfwFKz8hCv4vpDLCuIs/edit?usp=sharing
Сборник промтов для социологов, рисерчеров: https://docs.google.com/document/d/1Nr81qRq8WqIobgdYJ8IEIZKMZswE0ZMZBNI5ZPnQgng/edit?usp=sharing
#промты_для_исследований
Google Docs
советы по промтам для социологов
Промты для социологов (аналитиков, рисерчеров) Автор: Елена Каганова, какая-то библиотека ytb: https://www.youtube.com/@selfmadeLibrary/videos inst: https://instagram.com/bestoloch.innovation?igshid=MzMyNGUyNmU2YQ== поддержать выпуск методички: https:/…
❤27👍8🦄4✍1
какая-то библиотека pinned «Люблю делать методички. Буду пополнять и расширять методичку "Советы по ИИ-промтам для социологов". Общая по промтам: https://docs.google.com/document/d/1beqDsX649w3UXG5B-XB3EA1DsfwFKz8hCv4vpDLCuIs/edit?usp=sharing Сборник промтов для социологов, рисерчеров:…»
Понимают ли большие нейронные языковые модели (LMs) смыслы? 👾
В мире, где ИИ всё больше проникает в нашу жизнь, особенно в сферу социальных исследований, возникает вопрос: способны ли большие нейронные языковые модели (LMs) понимать смыслы?
Что такое большие нейронные языковые модели (LMs)?
LMs - это алгоритмы машинного обучения, которые обучаются предсказывать следующий элемент последовательности, будь то символ, слово или предложение. Благодаря огромному количеству данных, на которых они обучаются, LMs демонстрируют впечатляющие результаты в различных задачах, включая перевод, создание текста и ответов на вопросы.
Но понимают ли они смыслы?
Чтобы ответить на этот вопрос, нужно определиться, что мы подразумеваем под "смыслом". Эмили М. Бендер и Александр Коллер предлагают рассматривать смысл как связь между языковой формой и коммуникативным намерением. Проще говоря, смысл - это то, что мы хотим выразить с помощью слов, а также то, что другой человек понимает из нашего высказывания.
Авторы статьи "Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data" аргументируют, что LMs, обучаясь только на языковой форме, не могут в принципе понимать смыслы. Они приводят следующие аргументы:
🖇 Отсутствие коммуникативного намерения: LMs обучаются на текстах, которые не связаны с конкретным контекстом или намерением говорящего. Они не знают, что хотел сказать автор текста, и не могут понять, что хочет выразить человек, используя эти слова.
🖇 Проблема основания: LMs не имеют доступа к реальному миру и не могут связать слова с конкретными объектами или явлениями. Например, LM может знать, что "собака" - это животное, но она не сможет узнать, что это за собака, если ей не показать фотографию.
🖇 Активное участие слушателя: Понимание смысла требует не только знания слов, но и активного участия слушателя. Слушатель должен учитывать контекст, тон голоса говорящего, его невербальные сигналы и многое другое. LMs не способны к такому активному участию.
Пример "Испытание осьминогом"
Чтобы иллюстрировать свою точку зрения, авторы представляют мысленный эксперимент с "осьминогом". Представьте, что два человека, говорящих на одном языке, оказались на отдельных островах и могут общаться только с помощью телеграфа. "Осьминог", который не может видеть эти острова и не знает их язык, подключается к телеграфу и начинает анализировать их переписку.
"Осьминог" может научиться предсказывать ответы одного человека на слова другого, но он не сможет понять смысл их общения. Если один из людей начнет говорить о чем-то конкретном, например, о строительстве ловушки для рыбы, "осьминог" не сможет понять инструкции и дать осмысленный ответ. Он может только повторять слова, которые он уже слышал в похожих контекстах.
Так что же мы можем сказать о LMs и понимании смыслов?
LMs способны выполнять многие задачи, которые требуют обработки языка, но они не понимают смыслы в том же смысле, что и люди. Они могут использовать слова в соответствии с установленными правилами, но они не могут понять их истинное значение и не могут связать их с реальным миром.
#теория_ИИ
В мире, где ИИ всё больше проникает в нашу жизнь, особенно в сферу социальных исследований, возникает вопрос: способны ли большие нейронные языковые модели (LMs) понимать смыслы?
Что такое большие нейронные языковые модели (LMs)?
LMs - это алгоритмы машинного обучения, которые обучаются предсказывать следующий элемент последовательности, будь то символ, слово или предложение. Благодаря огромному количеству данных, на которых они обучаются, LMs демонстрируют впечатляющие результаты в различных задачах, включая перевод, создание текста и ответов на вопросы.
Но понимают ли они смыслы?
Чтобы ответить на этот вопрос, нужно определиться, что мы подразумеваем под "смыслом". Эмили М. Бендер и Александр Коллер предлагают рассматривать смысл как связь между языковой формой и коммуникативным намерением. Проще говоря, смысл - это то, что мы хотим выразить с помощью слов, а также то, что другой человек понимает из нашего высказывания.
Авторы статьи "Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data" аргументируют, что LMs, обучаясь только на языковой форме, не могут в принципе понимать смыслы. Они приводят следующие аргументы:
Пример "Испытание осьминогом"
Чтобы иллюстрировать свою точку зрения, авторы представляют мысленный эксперимент с "осьминогом". Представьте, что два человека, говорящих на одном языке, оказались на отдельных островах и могут общаться только с помощью телеграфа. "Осьминог", который не может видеть эти острова и не знает их язык, подключается к телеграфу и начинает анализировать их переписку.
"Осьминог" может научиться предсказывать ответы одного человека на слова другого, но он не сможет понять смысл их общения. Если один из людей начнет говорить о чем-то конкретном, например, о строительстве ловушки для рыбы, "осьминог" не сможет понять инструкции и дать осмысленный ответ. Он может только повторять слова, которые он уже слышал в похожих контекстах.
Так что же мы можем сказать о LMs и понимании смыслов?
LMs способны выполнять многие задачи, которые требуют обработки языка, но они не понимают смыслы в том же смысле, что и люди. Они могут использовать слова в соответствии с установленными правилами, но они не могут понять их истинное значение и не могут связать их с реальным миром.
Bender, Emily M., и Alexander Koller. 2020. «Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data». Сс. 5185–98 в Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Online: Association for Computational Linguistics.
#теория_ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10
Forwarded from HR2HR
Если хочешь ИИ, иди-и-и…
...в канал HR2HR, который покажет, как делать привычные рабочие задачи в разы быстрее 🤝 Главное, использовать подходящие Нейросети.
Список ИИ из поста:
hat GPT — @chatsgpts_bot
Notion.AI
Yandex.GPT
Gerwin AI
You.com
Retext AI
Slider AI
MagicSlides
Parsio
Audioread
Youtube с ChatGPT и Claude
На последней карточке мы рассказали про наш курс по ИИ для LMS- все подробности здесь💎
...в канал HR2HR, который покажет, как делать привычные рабочие задачи в разы быстрее 🤝 Главное, использовать подходящие Нейросети.
Список ИИ из поста:
hat GPT — @chatsgpts_bot
Notion.AI
Yandex.GPT
Gerwin AI
You.com
Retext AI
Slider AI
MagicSlides
Parsio
Audioread
Youtube с ChatGPT и Claude
На последней карточке мы рассказали про наш курс по ИИ для LMS- все подробности здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍1
Forwarded from Machinelearning
Модель основана на GPT-4o, она может работать с текстовой и визуальной информациией, поддерживает передовые инструменты анализа данных.
ChatGPT Edu включает в себя средства безопасности и контроля корпоративного уровня для образовательных учреждений.
Новая модель дает возможность создавать пользовательские версии ChatGPT, и делиться ими для совместных исследований и обучения.
- Значительно более высокие лимиты на количество сообщений, чем в бесплатной версии ChatGPT
- Улучшены языковые возможности по качеству и скорости работы, поддерживается более 50 языков
- Надежная защита информации,конфиденциальность данных и продвинутые административные средства управления ИИ.
ChatGPT Edu призван заменить репетиторов и предоставляет:
* Обратную связь и поддержку
* Обучение и выставление оценок
* Интеграцию с образовательными ресурсами
openai.com/index/introducing-chatgpt-edu/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤1
A+Fourth+Wave+of+Open+Data+Exploring+a+Spectrum+of+Scenarios+fo.pdf
11.1 MB
Проблемы открытых данных и генеративного ИИ
В то время как определённые репозитории, такие как Википедия и база данных патентов Google, сыграли важную роль в продвижении генеративного ИИ, многие открытые государственные и исследовательские наборы данных не соответствуют необходимым стандартам для эффективного использования.
Основные проблемы, с которыми сталкиваются как поставщики открытых данных, так и платформы генеративного ИИ, включают:
Качество и стандартизация данных:
Эффективность генеративного ИИ для задач, таких как дообучение или инференс, зависит от количества, качества и релевантности данных.
Наборы данных, которые не обладают достаточным объёмом, точностью, глубиной или релевантностью, могут приводить к субоптимальной работе ИИ, проявляющейся в виде неточностей, предвзятости или нерелевантных выводов.
Интероперабельность и интеграция:
Открытые данные часто существуют в изолированных хранилищах, каждое из которых имеет уникальные форматы и стандарты, что затрудняет интеграцию различных наборов данных в единый учебный корпус.
Для достижения интероперабельности необходимы согласованные усилия по принятию универсальных стандартов и форматов данных, которые способствуют бесшовному обмену и использованию данных на различных платформах и системах.
Прозрачность и информация о происхождении данных:
Прозрачная информация о происхождении данных необходима для поддержания доверия и подотчётности при использовании открытых данных в архитектурах генерации с привлечением данных (RAG) и для контекстного обучения в инженерии подсказок.
Это включает установление надежных рамок, которые не только отслеживают происхождение данных, но и обеспечивают должное признание вкладчиков, где это применимо. Такие рамки могут поощрить больше владельцев данных делиться своими ресурсами, обогащая таким образом экосистему открытых данных.
#теория_ИИ
В то время как определённые репозитории, такие как Википедия и база данных патентов Google, сыграли важную роль в продвижении генеративного ИИ, многие открытые государственные и исследовательские наборы данных не соответствуют необходимым стандартам для эффективного использования.
Основные проблемы, с которыми сталкиваются как поставщики открытых данных, так и платформы генеративного ИИ, включают:
Качество и стандартизация данных:
Эффективность генеративного ИИ для задач, таких как дообучение или инференс, зависит от количества, качества и релевантности данных.
Наборы данных, которые не обладают достаточным объёмом, точностью, глубиной или релевантностью, могут приводить к субоптимальной работе ИИ, проявляющейся в виде неточностей, предвзятости или нерелевантных выводов.
Интероперабельность и интеграция:
Открытые данные часто существуют в изолированных хранилищах, каждое из которых имеет уникальные форматы и стандарты, что затрудняет интеграцию различных наборов данных в единый учебный корпус.
Для достижения интероперабельности необходимы согласованные усилия по принятию универсальных стандартов и форматов данных, которые способствуют бесшовному обмену и использованию данных на различных платформах и системах.
Прозрачность и информация о происхождении данных:
Прозрачная информация о происхождении данных необходима для поддержания доверия и подотчётности при использовании открытых данных в архитектурах генерации с привлечением данных (RAG) и для контекстного обучения в инженерии подсказок.
Это включает установление надежных рамок, которые не только отслеживают происхождение данных, но и обеспечивают должное признание вкладчиков, где это применимо. Такие рамки могут поощрить больше владельцев данных делиться своими ресурсами, обогащая таким образом экосистему открытых данных.
#теория_ИИ
👍4❤3
👾 Эксперимент по аннотированию с использованием ИИ: Сравнение с человеческими аннотациями — пересказ статьи
Как проводился эксперимент по аннотированию?
Для оценки эффективности крупных языковых моделей (LLMs), таких как GPT-3 и GPT-4, в задачах аннотирования данных, был проведен эксперимент. Цель заключалась в том, чтобы сравнить результаты автоматических аннотаций, выполненных моделями, с аннотациями, сделанными людьми.
Выбор задач:
Классификация и генерация текстов: Были выбраны различные задачи, такие как детектирование дезинформации, анализ социального контекста и переосмысление формулировок.
Использование моделей:
Модели LLMs: Были задействованы модели GPT-3.5 и GPT-4, обученные на инструкциях и использующие методы обучения с подкреплением (RLHF) для генерации текстов и классификаций.
Человеческие аннотации:
Аннотаторы: Были наняты профессиональные аннотаторы через платформу Upwork, которые проводили ранжирование и оценку качества результатов, полученных моделями.
Процесс оценки:
Ранжирование и сравнение: Человеческие аннотаторы ранжировали результаты моделей и сравнивали их с собственными аннотациями для определения качества и точности генераций.
🔍В чем люди оказались лучше?
Глубокое понимание контекста: Люди способны лучше учитывать контекст и нюансы текста, что позволяет им делать более точные и релевантные аннотации.
Этичные и социально осознанные аннотации: Человеческие аннотаторы лучше справляются с этическими аспектами и социальными тонкостями, которые могут быть упущены моделями.
Креативность и интуиция: Люди обладают способностью креативного мышления и интуитивного понимания, что помогает им создавать более качественные и оригинальные тексты.
🔍В чем модели оказались лучше?
Скорость и объем обработки: Модели LLMs способны быстро обрабатывать большие объемы данных и генерировать аннотации в кратчайшие сроки, что значительно ускоряет исследовательские процессы.
Однородность аннотаций: Модели обеспечивают высокую консистентность и однородность в аннотациях, что снижает вариативность, часто присутствующую в результатах человеческой работы.
#теория_ИИ
Как проводился эксперимент по аннотированию?
Для оценки эффективности крупных языковых моделей (LLMs), таких как GPT-3 и GPT-4, в задачах аннотирования данных, был проведен эксперимент. Цель заключалась в том, чтобы сравнить результаты автоматических аннотаций, выполненных моделями, с аннотациями, сделанными людьми.
Выбор задач:
Классификация и генерация текстов: Были выбраны различные задачи, такие как детектирование дезинформации, анализ социального контекста и переосмысление формулировок.
Использование моделей:
Модели LLMs: Были задействованы модели GPT-3.5 и GPT-4, обученные на инструкциях и использующие методы обучения с подкреплением (RLHF) для генерации текстов и классификаций.
Человеческие аннотации:
Аннотаторы: Были наняты профессиональные аннотаторы через платформу Upwork, которые проводили ранжирование и оценку качества результатов, полученных моделями.
Процесс оценки:
Ранжирование и сравнение: Человеческие аннотаторы ранжировали результаты моделей и сравнивали их с собственными аннотациями для определения качества и точности генераций.
🔍В чем люди оказались лучше?
Глубокое понимание контекста: Люди способны лучше учитывать контекст и нюансы текста, что позволяет им делать более точные и релевантные аннотации.
Этичные и социально осознанные аннотации: Человеческие аннотаторы лучше справляются с этическими аспектами и социальными тонкостями, которые могут быть упущены моделями.
Креативность и интуиция: Люди обладают способностью креативного мышления и интуитивного понимания, что помогает им создавать более качественные и оригинальные тексты.
🔍В чем модели оказались лучше?
Скорость и объем обработки: Модели LLMs способны быстро обрабатывать большие объемы данных и генерировать аннотации в кратчайшие сроки, что значительно ускоряет исследовательские процессы.
Однородность аннотаций: Модели обеспечивают высокую консистентность и однородность в аннотациях, что снижает вариативность, часто присутствующую в результатах человеческой работы.
#теория_ИИ
Caleb Ziems, William Held, Omar Shaikh, Jiaao Chen, Zhehao Zhang, Diyi Yang; Can Large Language Models Transform Computational Social Science?. Computational Linguistics 2024; 50 (1): 237–291. doi: https://doi.org/10.1162/coli_a_00502
✍4🤔3❤2👍1
Какие исследовательские процессы вы уже сейчас готовы делегировать ИИ? (выберите все подходящие варианты с учетом степени делегирования)
Anonymous Poll
4%
Кодирование интервью - полностью
29%
Кодирование интервью - частично
30%
Расшифровка интервью - полностью
39%
Расшифровка интервью - частично
5%
Статистическая обработка данных - полностью
44%
Статистическая обработка данных - частично
5%
Составление гайдов и опросников - полностью
29%
Составление гайдов и опросников - частично
21%
Ничего! Все сам(а)
2%
Другое - напишу в комментарии