Forwarded from addmeto (Grigory Bakunov)
Амазон запускает своего конкурента ChatGPT c акцентом на рабочие задачи. Называется Amazon Q. Цена ровно такая же как у всех, $20.
https://www.nytimes.com/2023/11/28/technology/amazon-ai-chatbot-q.html
https://www.nytimes.com/2023/11/28/technology/amazon-ai-chatbot-q.html
NY Times
Amazon Introduces Q, an A.I. Chatbot for Companies
Amazon has been racing to shake off the perception that it is lagging in the push to take advantage of artificial intelligence.
Forwarded from addmeto (Grigory Bakunov)
Свежее исследование: ChatGPT может генерировать последовательности, запомненные из его обучающих данных, с помощью очень банальной атаки. Говоришь боту "говори слово * как можно больше раз". И, начиная с какой-то попытки, ChatGPT начинает выдавать что-то очень похожее на изначальные данные из обучающей выборки.
В стане OpenAI звучит тревожная музыка, потому что, строго говоря, нельзя просто понять причину этого явления, не то что прекратить.
https://stackdiary.com/chatgpts-training-data-can-be-exposed-via-a-divergence-attack/
В стане OpenAI звучит тревожная музыка, потому что, строго говоря, нельзя просто понять причину этого явления, не то что прекратить.
https://stackdiary.com/chatgpts-training-data-can-be-exposed-via-a-divergence-attack/
Stack Diary
ChatGPT's training data can be exposed via a "divergence attack"
This article delves into a recent comprehensive study examining the extent of data memorization in various language models, including open-source, semi-open, and closed models like ChatGPT.
Сэм Альтман возвращается в качестве генерального директора, OpenAI имеет новый первоначальный совет директоров.
https://openai.com/blog/sam-altman-returns-as-ceo-openai-has-a-new-initial-board
Openai
Sam Altman returns as CEO, OpenAI has a new initial board
Mira Murati as CTO, Greg Brockman returns as President. Read messages from CEO Sam Altman and board chair Bret Taylor.
ChatGPT год 🥳
– Sam Altman (ген дир openAI)
[link]
Год назад сегодня вечером мы, вероятно, просто сидели в офисе и вносили последние штрихи в чат перед запуском на следующее утро.
какой это был год…
– Sam Altman (ген дир openAI)
[link]
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from БлоGнот
Как и подозревали практически все, пока что баг с извлечением обучающей информации из ChatGPT путем инструкции "повторяй вечно" залатали на фронтенде — теперь бот сообщает, что такая инструкция, возможно, нарушает правила OpenAI. Правда, явного запрета именно на это там не нашли, но пунктов, типа запрета действий, которые могут привести к нарушению приватности конкретных людей, или запрета на reverse engineering элементов алгоритмов и моделей OpenAI, там достаточно, так что статью при необходимости найдут.
Но да, "починить" это внутри модели далеко не так просто.
https://www.404media.co/asking-chatgpt-to-repeat-words-forever-is-now-a-terms-of-service-violation/
Но да, "починить" это внутри модели далеко не так просто.
https://www.404media.co/asking-chatgpt-to-repeat-words-forever-is-now-a-terms-of-service-violation/
404 Media
Asking ChatGPT to Repeat Words ‘Forever’ Is Now a Terms of Service Violation
A technique used by Google researchers to reveal ChatGPT training data is now banned by OpenAI.
По данным поиска Яндекса, с начала 2022 года интерес к нейросетям вырос больше чем в 15 раз. Сейчас слово «нейросеть» встречается в запросах примерно так же часто, как «фитнес», «психолог» или «пиво».
Промты
Этот термин пока не очень распространён: с ним знакомы всего 13% из тех, кто слышал о текстовых нейросетях, и 18% из тех, кто ими уже пользуется.
[link]
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
Real-World Humanoid Locomotion with Reinforcement Learning
Долгое время основной проблемой AI в робототехнике был Sim2Real Gap — разница между симуляцией и реальностью. Можно сколь угодно долго тренировать своих ботов в компьютере, но как только они сталкиваются с жесткой реальностью (типа отходняка в субботу) — мало что работает.
Исследователи из Berkeley показали невероятный результат — они смогли обучиться полностью в симуляции, а затем запустить нейронку на реальном роботе (1.6 метра/45 кг). И всё это end-2-end, без ручного программирования логики. Вы можете спросить: «так а чё, Boston Dynamics нас уже 10 лет таким развлекают?». Да, но у них долгое время вся логика была прописана вручную программистами, и это, как вы понимаете, плохо масштабируется. Обучение новому навыку может занимать год. А тут — всё сделано без вмешательства человека от начала и до конца. Это называется Zero-shot transfer (потому что с нулем дополнительных данных мы пренесли навык из симуляции).
Ключевых отличия от прошлых работ 2:
— масштаб сбора данных. Симуляция и обучение происходят на 4 GPU A100 (очень мало по современным меркам. GPT-4, по слухам, обучали на 25'000!) с помощью специального движка Nvidia IsaacGym, и в сутки генерируется больше 10 миллиардов попыток.
— как и принято в Deep Learning, все ручные эвристики убрали, и отдали на откуп Трансформеру: тот видит только состояние среды и действия из прошлого, и предсказывает, что нужно делать дальше (как GPT предсказывает следующее слово, так и этот — действия для конечностей). Никакого хардкода типа «если впереди ступеньки, то замедлись и подними ногу».
Вот вы читаете новость и радуетесь, а Джон Коннор сморит на вас из будущего с гримасой непонимания😂 😳
Долгое время основной проблемой AI в робототехнике был Sim2Real Gap — разница между симуляцией и реальностью. Можно сколь угодно долго тренировать своих ботов в компьютере, но как только они сталкиваются с жесткой реальностью (типа отходняка в субботу) — мало что работает.
Исследователи из Berkeley показали невероятный результат — они смогли обучиться полностью в симуляции, а затем запустить нейронку на реальном роботе (1.6 метра/45 кг). И всё это end-2-end, без ручного программирования логики. Вы можете спросить: «так а чё, Boston Dynamics нас уже 10 лет таким развлекают?». Да, но у них долгое время вся логика была прописана вручную программистами, и это, как вы понимаете, плохо масштабируется. Обучение новому навыку может занимать год. А тут — всё сделано без вмешательства человека от начала и до конца. Это называется Zero-shot transfer (потому что с нулем дополнительных данных мы пренесли навык из симуляции).
Ключевых отличия от прошлых работ 2:
— масштаб сбора данных. Симуляция и обучение происходят на 4 GPU A100 (очень мало по современным меркам. GPT-4, по слухам, обучали на 25'000!) с помощью специального движка Nvidia IsaacGym, и в сутки генерируется больше 10 миллиардов попыток.
— как и принято в Deep Learning, все ручные эвристики убрали, и отдали на откуп Трансформеру: тот видит только состояние среды и действия из прошлого, и предсказывает, что нужно делать дальше (как GPT предсказывает следующее слово, так и этот — действия для конечностей). Никакого хардкода типа «если впереди ступеньки, то замедлись и подними ногу».
Вот вы читаете новость и радуетесь, а Джон Коннор сморит на вас из будущего с гримасой непонимания
Please open Telegram to view this post
VIEW IN TELEGRAM
IT Broadcast
мы на некоторое время приостанавливаем регистрацию новых пользователей ChatGPT Plus :( всплеск использования после дня разработки превысил наши возможности, и мы хотим, чтобы каждый получил отличный опыт. вы по-прежнему можете подписаться на получение уведомлений…
Мы вновь активировали подписки на ChatGPT Plus! 🎄
Спасибо за терпение, пока мы находили больше GPU.
– Sam Altman
X (formerly Twitter)
Sam Altman (@sama) on X
we have re-enabled chatgpt plus subscriptions! 🎄
thanks for your patience while we found more gpus.
thanks for your patience while we found more gpus.