NEURAL_CAT Telegram 62
⚡️ GPT-3.5 Fine-tuning

OpenAI объявили, что теперь можно дообучать GPT-3.5 (a.k.a. ChatGPT). GPT4 можно будет дообучать уже этой осенью.

😀 Проблема: API OpenAI плохо работает на моем домене и prompt engineering не помогает. Также не помогает few-shot prompting

🦈 Решение: дообучить модель OpenAI на своем домене

Шаг 1. Собираем датасет в multi-turn формате (system prompt, user, assistant)
Шаг 2. Тулой OpenAI загружаем данные на их серваки (они утверждают, что эти данные ими никак не будут использоваться)
Шаг 3. Выбираем количество эпох
Шаг 4. Запускаем обучение

Я уже пробовал дообучать davinci на своих данных. Понравилось, что у них есть валидация датасета, на котором ты обучаешься. Я там забыл добавить какой-то специальный токен и меня об этом предупредили :) Из минусов — качество получилось плохое, поэтому деньги были потрачены зря.

По деньгам:
- Генерировать токены в 3-6 раз дороже с вашей дообученной моделью
- На 5к примерах длиной ~500 токенов дообучиться будет стоить около $20, что дешево!

📰 Новость
👏2



tgoop.com/neural_cat/62
Create:
Last Update:

⚡️ GPT-3.5 Fine-tuning

OpenAI объявили, что теперь можно дообучать GPT-3.5 (a.k.a. ChatGPT). GPT4 можно будет дообучать уже этой осенью.

😀 Проблема: API OpenAI плохо работает на моем домене и prompt engineering не помогает. Также не помогает few-shot prompting

🦈 Решение: дообучить модель OpenAI на своем домене

Шаг 1. Собираем датасет в multi-turn формате (system prompt, user, assistant)
Шаг 2. Тулой OpenAI загружаем данные на их серваки (они утверждают, что эти данные ими никак не будут использоваться)
Шаг 3. Выбираем количество эпох
Шаг 4. Запускаем обучение

Я уже пробовал дообучать davinci на своих данных. Понравилось, что у них есть валидация датасета, на котором ты обучаешься. Я там забыл добавить какой-то специальный токен и меня об этом предупредили :) Из минусов — качество получилось плохое, поэтому деньги были потрачены зря.

По деньгам:
- Генерировать токены в 3-6 раз дороже с вашей дообученной моделью
- На 5к примерах длиной ~500 токенов дообучиться будет стоить около $20, что дешево!

📰 Новость

BY Нейронный Кот




Share with your friend now:
tgoop.com/neural_cat/62

View MORE
Open in Telegram


Telegram News

Date: |

With the “Bear Market Screaming Therapy Group,” we’ve now transcended language. Ng Man-ho, a 27-year-old computer technician, was convicted last month of seven counts of incitement charges after he made use of the 100,000-member Chinese-language channel that he runs and manages to post "seditious messages," which had been shut down since August 2020. How to Create a Private or Public Channel on Telegram? ‘Ban’ on Telegram With the administration mulling over limiting access to doxxing groups, a prominent Telegram doxxing group apparently went on a "revenge spree."
from us


Telegram Нейронный Кот
FROM American