Все, nvidia теперь топ-1 по рыночной капитализации
https://www.cnbc.com/2024/06/18/nvidia-passes-microsoft-in-market-cap-is-most-valuable-public-company.html
https://www.cnbc.com/2024/06/18/nvidia-passes-microsoft-in-market-cap-is-most-valuable-public-company.html
CNBC
Nvidia passes Microsoft in market cap to become most valuable public company
Nvidia shares have multiplied by more than nine-fold since the end of 2022, and the chipmaker surpassed Microsoft to become the most valuable public company.
Forwarded from Сиолошная
Что-то все модели выпускают, а от Mistral🇫🇷 давно новостей не было. Сегодня они выпустили две модели, одна заточена на математику, другая — на написание кода.
MathΣtral — компактная модель размера 7B, по архитектуре эквивалентная ранним релизам компании. Её доучили на решение сложных математических задач, требующих комплексных, многосутпенчатых логических рассуждений.
На MMLU модель показывает прирост более чем в 10% в отдельных под-категориях, и целых 15% в элементарной математике, физических задачах старшей школы/колледжей и, внезапно, машинном обучении.
Модель справилась с 2мя задачами из 30 на American Invitational Mathematics Examination (AIME). Это второй из трёх этапов отбора команды на международную олимпиаду по математике в США — тут задачки уже поинтереснее, но всё ещё не как на финалах. Кажется, что 2 задачи это мало, но из моделей сопоставимого размера лишь китайский Qwen 2 7B тоже решает 2; большинство остальных — нуль.
Проценты решений задач других олимпиад можете увидеть на картинке
Модель уже доступна на HF (не торрент!). Её, кстати, делали совместно с Project Numina — это проект, члены которого также недавно выиграли соревнование AIMO по решению олимпиадных задач LLMками (писал тут). Там победное решение использовало DeepSeek Math 7B (вторая строчка в таблице). Так что при следующем запуске соревнования можно ожидать, что результат первого места ещё подскочит вверх — просто за счёт смены одной модели на другую, чуть более мощную.
Для справки: maj@16 означает, что модель независимо генерирует 16 решений на задачу, после чего проводится голосование большинством, и выбирается тот ответ, который чаще попадался. Важно понимать, что это не означает, что система даёт 16 ответов с 16 попыток — попытка одна, а maj позволяет выбрать один ответ, который модели кажется наиболее правильным.
MathΣtral — компактная модель размера 7B, по архитектуре эквивалентная ранним релизам компании. Её доучили на решение сложных математических задач, требующих комплексных, многосутпенчатых логических рассуждений.
На MMLU модель показывает прирост более чем в 10% в отдельных под-категориях, и целых 15% в элементарной математике, физических задачах старшей школы/колледжей и, внезапно, машинном обучении.
Модель справилась с 2мя задачами из 30 на American Invitational Mathematics Examination (AIME). Это второй из трёх этапов отбора команды на международную олимпиаду по математике в США — тут задачки уже поинтереснее, но всё ещё не как на финалах. Кажется, что 2 задачи это мало, но из моделей сопоставимого размера лишь китайский Qwen 2 7B тоже решает 2; большинство остальных — нуль.
Проценты решений задач других олимпиад можете увидеть на картинке
Модель уже доступна на HF (не торрент!). Её, кстати, делали совместно с Project Numina — это проект, члены которого также недавно выиграли соревнование AIMO по решению олимпиадных задач LLMками (писал тут). Там победное решение использовало DeepSeek Math 7B (вторая строчка в таблице). Так что при следующем запуске соревнования можно ожидать, что результат первого места ещё подскочит вверх — просто за счёт смены одной модели на другую, чуть более мощную.
Для справки: maj@16 означает, что модель независимо генерирует 16 решений на задачу, после чего проводится голосование большинством, и выбирается тот ответ, который чаще попадался. Важно понимать, что это не означает, что система даёт 16 ответов с 16 попыток — попытка одна, а maj позволяет выбрать один ответ, который модели кажется наиболее правильным.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня хочу порекомендовать канал @dlinnlp, на который сам давно подписан
В нем есть и годные короткие разборы выходящих папиров по МЛ и просто фановые мемы.
Тем, кто заинтересован машинкой и ИИ в целом советую также папку авторских каналов, собранную @boris_again (за что ему большой респект, потому что подобрать хорошие каналы по мл и отсеять мусорные во время хайпа нейронок это большой труд)
В нем есть и годные короткие разборы выходящих папиров по МЛ и просто фановые мемы.
Тем, кто заинтересован машинкой и ИИ в целом советую также папку авторских каналов, собранную @boris_again (за что ему большой респект, потому что подобрать хорошие каналы по мл и отсеять мусорные во время хайпа нейронок это большой труд)
Telegram
Авторский ИИ
Dr. Борис invites you to add the folder “Авторский ИИ”, which includes 30 chats.
Forwarded from эйай ньюз
Дешёвые, как грязь, LLM
API-провайдеры невероятно быстро снижают стоимость использования своих LLM. При отсутствии ярко выраженного лидера по качеству моделей, главным аргументом становится цена.
➖ Google с 12 августа дропает цены на Gemini Flash на 80%. Вот и реакция на GPT-4o mini, спустя две недели после релиза. Вот бы то же самое сделали с Pro 1.5.
➖ Новая версия GPT-4o упала в цене до $2.5 input/$10 output за миллион токенов, прошлые версии стоили $5 input/$15 output за миллион токенов. Последний месяц Claude 3.5 Sonnet и Llama 3.1 405B сильно поджимали OpenAI по цене, пришлось отвечать.
➖Deepseek релизит обещанный месяц назад Context Caching. Цены поражают: стоимость токенов при попадании в кэш падает не в 2x, как у гугла, а в 10x, при этом с бесплатным хранением. DeepSeek V2 и так произвёл эффект разорвавшейся бомбы на китайском рынке три месяца назад: модель была в разы дешевле конкурентов, при лучшем качестве. А сейчас нанесли добивающий удар.
С такими темпами цена за миллион токенов станет меньше цента менее чем через год. И будем мы мерять цены в долларах за миллиард токенов.
А помните, цены на GPT-4 доходили до $60 input/$120 output?
@ai_newz
API-провайдеры невероятно быстро снижают стоимость использования своих LLM. При отсутствии ярко выраженного лидера по качеству моделей, главным аргументом становится цена.
➖ Google с 12 августа дропает цены на Gemini Flash на 80%. Вот и реакция на GPT-4o mini, спустя две недели после релиза. Вот бы то же самое сделали с Pro 1.5.
➖ Новая версия GPT-4o упала в цене до $2.5 input/$10 output за миллион токенов, прошлые версии стоили $5 input/$15 output за миллион токенов. Последний месяц Claude 3.5 Sonnet и Llama 3.1 405B сильно поджимали OpenAI по цене, пришлось отвечать.
➖Deepseek релизит обещанный месяц назад Context Caching. Цены поражают: стоимость токенов при попадании в кэш падает не в 2x, как у гугла, а в 10x, при этом с бесплатным хранением. DeepSeek V2 и так произвёл эффект разорвавшейся бомбы на китайском рынке три месяца назад: модель была в разы дешевле конкурентов, при лучшем качестве. А сейчас нанесли добивающий удар.
С такими темпами цена за миллион токенов станет меньше цента менее чем через год. И будем мы мерять цены в долларах за миллиард токенов.
А помните, цены на GPT-4 доходили до $60 input/$120 output?
@ai_newz
Forwarded from Futuris (Anton)
This media is not supported in your browser
VIEW IN TELEGRAM
Ai видео выходят на новый уровень 🌚 взял отсюда
https://www.reddit.com/r/singularity/s/ZJDFkIUDC6
Если что это Runway
https://www.reddit.com/r/singularity/s/ZJDFkIUDC6
Если что это Runway
Forwarded from Ivan Begtin (Ivan Begtin)
На фоне "новости" о том что бигтехи следят за нами прослушивая микрофон непрерывно, не могу не напомнить про прекрасный проект https://trackthis.link/ по обману рекламодателей через открытие сотни табов в браузере. Там, правда, не было обновлений за 5 лет и часть открываемых ссылок уже протухли, но не все. Лично я регулярно пользуюсь профилем Doomsday Prepper и ни о чём не жалею!
#privacy #mozilla #humour
#privacy #mozilla #humour
Forwarded from Пресидский залив (ex Надя пробует) (Nadia ズエバ)
Ну тут я не могла пройти мимо такого названия 😂😂
Почему? Можно посмотреть по хэштегу #o1 в моем канале
TLDR: вышла новая версия chat GPT с рассуждениями (complex reasoning)
По словам OpenAI, модель o1 анимает 89-й процентиль на Codeforces, входит в число 500 лучших студентов США в отборочном туре на математическую олимпиаду США (AIME) и превосходит точность человека с PhD по ряду задач по физике, биологии и химии ⚡
💡 Идея: перед тем как выдать результат модель прорабатывает несколько сценариев-цепочек и выбирает наиболее подходящий для решения задачи. В своей работе с API LLM я делала похоже трюки, заставляя ту же обычную gpt-4o объяснять все результаты, даже если мне нужно только число.
Теперь модель улучшили насчет внутренних рассуждений перед выдачей решения. Сами рассуждения полностью доступны не будут, но вы за них будете платить при использовании по API🥲
По API модель сейчас доступна только части пользователей, у платных - есть в интерфейсе☕️
TLDR: вышла новая версия chat GPT с рассуждениями (complex reasoning)
По словам OpenAI, модель o1 анимает 89-й процентиль на Codeforces, входит в число 500 лучших студентов США в отборочном туре на математическую олимпиаду США (AIME) и превосходит точность человека с PhD по ряду задач по физике, биологии и химии ⚡
Теперь модель улучшили насчет внутренних рассуждений перед выдачей решения. Сами рассуждения полностью доступны не будут, но вы за них будете платить при использовании по API
По API модель сейчас доступна только части пользователей, у платных - есть в интерфейсе
Please open Telegram to view this post
VIEW IN TELEGRAM
Openai
Learning to reason with LLMs
We are introducing OpenAI o1, a new large language model trained with reinforcement learning to perform complex reasoning. o1 thinks before it answers—it can produce a long internal chain of thought before responding to the user.
Три дня назад Сэм Альтман выпустил оптимистичный манифест (скорее просто эссе) со своим видением будущего с умным ИИ (конечно же, прекрасным, а как еще)
https://ia.samaltman.com/
Меня все-таки смущает его чересчур радужный взгляд на все это
https://ia.samaltman.com/
Меня все-таки смущает его чересчур радужный взгляд на все это
Samaltman
The Intelligence Age
In the next couple of decades, we will be able to do things that would have seemed like magic to our grandparents.
Нобелевку по физике дали... машинлернерам Хинтону и Хопфилду
https://www.interfax.ru/world/985736
https://www.interfax.ru/world/985736
Интерфакс
Нобелевскую премию по физике присудили за машинное обучение
Лауреатами Нобелевской премии по физике за 2024 год стали американский ученый Джон Хопфилд и британо-канадский ученый Джеффри Хинтон за "основополагающие открытия и изобретения, которые сделали возможным машинное обучение с использованием искусственных нейросетей".
Forwarded from Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🔉 Мимо всех прошёл новый генератор ультра-реалистичной речи — Cartesia озвучивает любой текст на 14 языках быстрее, чем Elevenlabs! Русский поддерживается.
Сервис клонирует любой голос за 15 секунд для озвучки или дубляжа контента. Можно выбрать язык, уже готовый голос, скорость, акценты и даже эмоции. Бесплатно дают озвучку 10,000 знаков.
У Elevenlabs мощный конкурент — тут.
@notboring_tech
Сервис клонирует любой голос за 15 секунд для озвучки или дубляжа контента. Можно выбрать язык, уже готовый голос, скорость, акценты и даже эмоции. Бесплатно дают озвучку 10,000 знаков.
У Elevenlabs мощный конкурент — тут.
@notboring_tech
что если бы весь контент на реддите был сгенерирован, и все юзеры были ботами?
посмотрите https://deaddit.xyz/
когда уже все в интернете будет завалено сгенеренным контентом, и сюда можно будет перестать заходить?
посмотрите https://deaddit.xyz/
когда уже все в интернете будет завалено сгенеренным контентом, и сюда можно будет перестать заходить?
Forwarded from Сиолошная
Вчера увидел, что мой твит с комментарием по уходу из OpenAI Bob McGrew, VP of Research, лайкнул сам Bob. А потом случайно на ютубе наткнулся на его интервью годовой давности, и решил послушать между делом.
В целом не так много интересного, если активно следите за AI, но решил пересказать одну часть с историей про появление ChatGPT (вот таймкод):
— к середине осени 2022-го уже была натренирована GPT-4 (по официальным данным, тренировка закончилась в августе); в компании знали, что если они смогут придумать, как использовать модель на полную, то это будет невероятно. Вся компания пыталась придумать, что же с ней делать.
— John Shulman, глава команды, занимавшейся Reinforcement Learning (ныне ушёл в Anthropic), предложил сделать модель «разговорчивой», чтобы она могла вести диалог; для тех, кто не застал 2020-2022 годы в LLM: тогда модели просто дописывали текст по шаблону. В 2022м году их уже можно было промптить, давая какую-то задачу, примеры, но и всё.
— ещё до этого было ясно, что в будущем роль AI можно будет описать как «ассистент», но казалось, что модели ещё не достигли нужного уровня, чтобы помогать реальным людям в реальных задачах; поэтому даже не думали о подобном. К тому моменту GPT-3.5 уже около полугода была доступна в публичном API, и никто не сделал прото-ChatGPT.
— John сказал: «да, модели неидеальны, и мы знаем, что GPT-4 будет лучше, но давайте попробуем просто взять, обучить и выложить диалоговую модель в интернет. Может мы наберём хотя бы 10000 пользователей, и они помогут нам понять, где LLM плоха, и мы сможем начать итерироваться и улучшать её»
— Команда немного подумала, так как казалось, что это требует большого количества работы, но в итоге решили сделать и уложиться в НЕДЕЛЮ (ранее об этом писали, кажется, в WSJ, но ссылку за декабрь 22-го не буду искать). По сути, это был сайд-проект компании, они называли его «low key research preview», не было никакого медиа-освещения, не было рекламы. Были минимальные ожидания.
— Но по итогу всё полетело, и через 2 месяца ChatGPT оказался самым быстрорастущим продуктом из всех, достигнув планки в 100 миллионов пользователей. В это время многие сотрудники вообще другим занимались, но пришлось активно впрягаться и поддерживать проект; особенно активными были следующие 6 месяцев.
Вот такой вот урок по истории получился🤓
🥸
===
Сделать ChatGPT с нуля: неделя
Добавить поиск по чатам: 2 года😦
В целом не так много интересного, если активно следите за AI, но решил пересказать одну часть с историей про появление ChatGPT (вот таймкод):
— к середине осени 2022-го уже была натренирована GPT-4 (по официальным данным, тренировка закончилась в августе); в компании знали, что если они смогут придумать, как использовать модель на полную, то это будет невероятно. Вся компания пыталась придумать, что же с ней делать.
— John Shulman, глава команды, занимавшейся Reinforcement Learning (ныне ушёл в Anthropic), предложил сделать модель «разговорчивой», чтобы она могла вести диалог; для тех, кто не застал 2020-2022 годы в LLM: тогда модели просто дописывали текст по шаблону. В 2022м году их уже можно было промптить, давая какую-то задачу, примеры, но и всё.
— ещё до этого было ясно, что в будущем роль AI можно будет описать как «ассистент», но казалось, что модели ещё не достигли нужного уровня, чтобы помогать реальным людям в реальных задачах; поэтому даже не думали о подобном. К тому моменту GPT-3.5 уже около полугода была доступна в публичном API, и никто не сделал прото-ChatGPT.
— John сказал: «да, модели неидеальны, и мы знаем, что GPT-4 будет лучше, но давайте попробуем просто взять, обучить и выложить диалоговую модель в интернет. Может мы наберём хотя бы 10000 пользователей, и они помогут нам понять, где LLM плоха, и мы сможем начать итерироваться и улучшать её»
— Команда немного подумала, так как казалось, что это требует большого количества работы, но в итоге решили сделать и уложиться в НЕДЕЛЮ (ранее об этом писали, кажется, в WSJ, но ссылку за декабрь 22-го не буду искать). По сути, это был сайд-проект компании, они называли его «low key research preview», не было никакого медиа-освещения, не было рекламы. Были минимальные ожидания.
— Но по итогу всё полетело, и через 2 месяца ChatGPT оказался самым быстрорастущим продуктом из всех, достигнув планки в 100 миллионов пользователей. В это время многие сотрудники вообще другим занимались, но пришлось активно впрягаться и поддерживать проект; особенно активными были следующие 6 месяцев.
Вот такой вот урок по истории получился
===
Сделать ChatGPT с нуля: неделя
Добавить поиск по чатам: 2 года
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Я сначала увидел в твиттере и не поверил, подумал, что это шутка.
В США с 2000-го года существует United States–China Economic and Security Review Commission. В комиссии 12 членов, сама комиссия подчиняется только Конгрессу и не является частью никакого агентства или департамента. Каждый год до 1-го декабря комиссия публикует отчёт, в котором в том числе даёт рекомендации Конгрессу.
Свежий отчёт опубликовали час назад, и в нём первым пунктом в блоке ключевых рекомендаций идёт...
«Учредить и профинансировать программу, подобную Манхэттенскому проекту, направленную на разработку и использование возможностей искусственного интеллекта общего назначения (AGI)»
😐 😐 😐
===
Спросил у ChatGPT, насколько важна эта Комиссия и как часто Конгресс прислушивается к рекомендациям. Не ручаюсь за правильность оценки, но нейронка сказала, что в целом к рекомендациям прислушиваются, хоть и не все исполняют.
Идём перечитывать SITUATIONAL AWARENESS и/или пересматривать интервью с Leopold'ом из OpenAI
В США с 2000-го года существует United States–China Economic and Security Review Commission. В комиссии 12 членов, сама комиссия подчиняется только Конгрессу и не является частью никакого агентства или департамента. Каждый год до 1-го декабря комиссия публикует отчёт, в котором в том числе даёт рекомендации Конгрессу.
Свежий отчёт опубликовали час назад, и в нём первым пунктом в блоке ключевых рекомендаций идёт...
«Учредить и профинансировать программу, подобную Манхэттенскому проекту, направленную на разработку и использование возможностей искусственного интеллекта общего назначения (AGI)»
===
Спросил у ChatGPT, насколько важна эта Комиссия и как часто Конгресс прислушивается к рекомендациям. Не ручаюсь за правильность оценки, но нейронка сказала, что в целом к рекомендациям прислушиваются, хоть и не все исполняют.
Идём перечитывать SITUATIONAL AWARENESS и/или пересматривать интервью с Leopold'ом из OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from addmeto (Grigory Bakunov)
Google официально анонсировали Gemini 2.0, это попытка конкурировать с OpenAI, причем судя по первым тестам на арене - весьма неплохая. Обратите внимание на людей, которые официально пишут пост в этот блог гугла. Тема гонки AI настолько важна, что пишет сам Сундар Пичай, а дополняют оба руководителя Google DeepMind.
https://blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024/#ceo-message
https://blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024/#ceo-message
Google
Introducing Gemini 2.0: our new AI model for the agentic era
Today, we’re announcing Gemini 2.0, our most capable AI model yet.
Forwarded from эйай ньюз
OpenAI показали Operator - своего первого агента
Он может полноценно пользоваться браузером и заказывать билеты, еду, столики и т.д. Выглядит это как отдельный сайт на поддомене чатгпт, где к обычному интерфейсу прилепили окно браузера, которое стримится одновременно и пользователю и оператору. Пользователь в любой момент может перехватить контроль, более того, для чувствительных действий, вроде платежей, вмешательство пользователя необходимо.
Это всё напоминает мне про стартап Mighty, который создавал облачный браузер, но пивотнулся в генерацию изображений пару лет назад (теперь они Playground). Он проходил Y Combinator как раз когда Альтман ещё был там главой совета директоров, возможно OpenAI выкупили IP.
Работает это всё на основе CUA (Computer-Using Agent), нового тюна GPT-4o, который совмещает ризонинг с пониманием изображений. Она бьёт Sonnet 3.6 (2024-10-22) по computer use, с аналогичной моделью Google не сравнивают - там разрыв куда меньше и доступа публичного пока что нету. Заметьте, как OpenAI всё больше и больше в презентациях похожи на Apple - в табличке упоминают модель как "Previous SOTA", а то что это Sonnet 3.6 можно узнать только из сносок.
Anthropic и Google показывали демки и запускали API на несколько месяцев раньше, но OpenAI всё равно первыми запустили консьюмерский продукт, что показывает разницу приоритетов. Operator уже раскатывают на пользователей Pro подписки (кстати, а вы знали что она убыточна?), через подписку Plus и API оно будет доступно через несколько недель.
operator.chatgpt.com (доступно Pro пользователям из США, под впном пускает)
@ai_newz
Он может полноценно пользоваться браузером и заказывать билеты, еду, столики и т.д. Выглядит это как отдельный сайт на поддомене чатгпт, где к обычному интерфейсу прилепили окно браузера, которое стримится одновременно и пользователю и оператору. Пользователь в любой момент может перехватить контроль, более того, для чувствительных действий, вроде платежей, вмешательство пользователя необходимо.
Это всё напоминает мне про стартап Mighty, который создавал облачный браузер, но пивотнулся в генерацию изображений пару лет назад (теперь они Playground). Он проходил Y Combinator как раз когда Альтман ещё был там главой совета директоров, возможно OpenAI выкупили IP.
Работает это всё на основе CUA (Computer-Using Agent), нового тюна GPT-4o, который совмещает ризонинг с пониманием изображений. Она бьёт Sonnet 3.6 (2024-10-22) по computer use, с аналогичной моделью Google не сравнивают - там разрыв куда меньше и доступа публичного пока что нету. Заметьте, как OpenAI всё больше и больше в презентациях похожи на Apple - в табличке упоминают модель как "Previous SOTA", а то что это Sonnet 3.6 можно узнать только из сносок.
Anthropic и Google показывали демки и запускали API на несколько месяцев раньше, но OpenAI всё равно первыми запустили консьюмерский продукт, что показывает разницу приоритетов. Operator уже раскатывают на пользователей Pro подписки (кстати, а вы знали что она убыточна?), через подписку Plus и API оно будет доступно через несколько недель.
operator.chatgpt.com (доступно Pro пользователям из США, под впном пускает)
@ai_newz
Forwarded from Futuris (Anton)
DeepSeek наносит ответный удар, за сегодня американский айти рынок уже потерял 1 трлн долларов и начал DDOS атаку на дипсик, а тут от них новая модель генерации картинок Janus-Pro-7B, которая бьёт DALL-E 3 и Stable Diffusion 🤯
https://huggingface.co/deepseek-ai/Janus-Pro-7B
https://huggingface.co/deepseek-ai/Janus-Pro-7B