PPPROMPT Telegram 2124
Вчера Дарио Амодей (CEO Anthropic) опубликовал эссе на тему нашумевшего DeepSeek и экспортного контроля в США.
Вот некоторые цитаты оттуда:

1/ DeepSeek создали модель, близкую по производительности к американским моделям, выпущенным 7–10 месяцев назад, за гораздо меньшую стоимость.

2/ Claude 3.5 Sonnet — это mid-sized модель, обучение которой обошлось в несколько десятков миллионов долларов. Кроме того, вопреки некоторым слухам, 3.5 Sonnet не обучалась при помощи более крупных или дорогих моделей.

3/ DeepSeek-V3 — это не уникальный прорыв или что-то, что кардинально меняет экономику LLM; это ожидаемая точка на пути снижения затрат. На этот раз отличие в том, что компания, которая первой продемонстрировала ожидаемое снижение затрат, была китайской.

4/ Модель R1 от DeepSeek, которая была представлена на прошлой неделе и привлекла много общественного внимания (включая снижение стоимости акций Nvidia примерно на 17%), гораздо менее интересна с точки зрения инноваций или инженерии, чем модель V3.

5/ Инновации в области эффективности, разработанные DeepSeek, вскоре будут применяться как в американских, так и в китайских лабораториях для обучения многомиллиардных моделей.

6/ Создание ИИ, который будет умнее почти всех людей почти во всем (вероятно речь про AGI), потребует миллионов чипов, десятков миллиардов долларов (как минимум) и, скорее всего, произойдет в 2026-2027 годах.

В итоге все сводится к тому, что в 2026-2027 годах он видит 2 развития событий: двуполярный мир, где и у США и у Китая будут мощные модели ИИ, которые приведут к чрезвычайно быстрому прогрессу в науке и технологиях. Или однополярный мир (если Китай не сможет получить миллионы чипов), где только у США и их союзников есть эти модели.

Ваши мысли?

Эссе тут: https://darioamodei.com/on-deepseek-and-export-controls

@ppprompt



tgoop.com/ppprompt/2124
Create:
Last Update:

Вчера Дарио Амодей (CEO Anthropic) опубликовал эссе на тему нашумевшего DeepSeek и экспортного контроля в США.
Вот некоторые цитаты оттуда:

1/ DeepSeek создали модель, близкую по производительности к американским моделям, выпущенным 7–10 месяцев назад, за гораздо меньшую стоимость.

2/ Claude 3.5 Sonnet — это mid-sized модель, обучение которой обошлось в несколько десятков миллионов долларов. Кроме того, вопреки некоторым слухам, 3.5 Sonnet не обучалась при помощи более крупных или дорогих моделей.

3/ DeepSeek-V3 — это не уникальный прорыв или что-то, что кардинально меняет экономику LLM; это ожидаемая точка на пути снижения затрат. На этот раз отличие в том, что компания, которая первой продемонстрировала ожидаемое снижение затрат, была китайской.

4/ Модель R1 от DeepSeek, которая была представлена на прошлой неделе и привлекла много общественного внимания (включая снижение стоимости акций Nvidia примерно на 17%), гораздо менее интересна с точки зрения инноваций или инженерии, чем модель V3.

5/ Инновации в области эффективности, разработанные DeepSeek, вскоре будут применяться как в американских, так и в китайских лабораториях для обучения многомиллиардных моделей.

6/ Создание ИИ, который будет умнее почти всех людей почти во всем (вероятно речь про AGI), потребует миллионов чипов, десятков миллиардов долларов (как минимум) и, скорее всего, произойдет в 2026-2027 годах.

В итоге все сводится к тому, что в 2026-2027 годах он видит 2 развития событий: двуполярный мир, где и у США и у Китая будут мощные модели ИИ, которые приведут к чрезвычайно быстрому прогрессу в науке и технологиях. Или однополярный мир (если Китай не сможет получить миллионы чипов), где только у США и их союзников есть эти модели.

Ваши мысли?

Эссе тут: https://darioamodei.com/on-deepseek-and-export-controls

@ppprompt

BY Ppprompt | Sexy AI Prompts & Experiments | by @ponchiknews




Share with your friend now:
tgoop.com/ppprompt/2124

View MORE
Open in Telegram


Telegram News

Date: |

Members can post their voice notes of themselves screaming. Interestingly, the group doesn’t allow to post anything else which might lead to an instant ban. As of now, there are more than 330 members in the group. Users are more open to new information on workdays rather than weekends. Invite up to 200 users from your contacts to join your channel Choose quality over quantity. Remember that one high-quality post is better than five short publications of questionable value. You can invite up to 200 people from your contacts to join your channel as the next step. Select the users you want to add and click “Invite.” You can skip this step altogether.
from us


Telegram Ppprompt | Sexy AI Prompts & Experiments | by @ponchiknews
FROM American