This media is not supported in your browser
VIEW IN TELEGRAM
Раньше жена говорила: "Купи мне Dyson".
Скоро робот: "Купи мне Dyson, иначе я не смогу убирать каждый день ваш срач в квартире" напевая песню Фредди Меркьюри "I want to break free".
ИИволюция
Скоро робот: "Купи мне Dyson, иначе я не смогу убирать каждый день ваш срач в квартире" напевая песню Фредди Меркьюри "I want to break free".
ИИволюция
🤣17
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣27🔥7
OpenAI представила новое поколение аудио-моделей: точнее Whisper 3 и с эмоциями!
Теперь любой разработчик может использовать мощнейшие голосовые модели прямо в API:
Speech-to-Text (доступна в API):
- Новые модели GPT-4o-transcribe и GPT-4o-mini-transcribe значительно превзошли по точности Whisper v3 и другие популярные решения.
- Они показывают лучший результат (более низкий WER) даже при сложных условиях: шумном фоне, акцентах или быстрой речи.
- Идеально подходят для колл-центров, расшифровок встреч и подкастов.
Text-to-Speech (доступна в API):
- Новая модель GPT-4o-mini-tts умеет не просто озвучивать текст, но и выражать эмоции и интонации по вашей инструкции.
- Например, можно попросить модель говорить «как сочувствующий оператор поддержки», профессиональный диктор или даже рассказчик историй.
- Голосовой AI становится максимально естественным и персонализированным.
- Whisper 3 был хорош, но OpenAI подняла планку ещё выше: новые модели дают точность и гибкость, которых раньше не было.
Официальная новость: https://openai.com/index/introducing-our-next-generation-audio-models/
Послушать разные варианты озвучки можно на этой площадке: www.openai.fm
Пора пробовать в проектах!
ИИволюция
Теперь любой разработчик может использовать мощнейшие голосовые модели прямо в API:
Speech-to-Text (доступна в API):
- Новые модели GPT-4o-transcribe и GPT-4o-mini-transcribe значительно превзошли по точности Whisper v3 и другие популярные решения.
- Они показывают лучший результат (более низкий WER) даже при сложных условиях: шумном фоне, акцентах или быстрой речи.
- Идеально подходят для колл-центров, расшифровок встреч и подкастов.
Text-to-Speech (доступна в API):
- Новая модель GPT-4o-mini-tts умеет не просто озвучивать текст, но и выражать эмоции и интонации по вашей инструкции.
- Например, можно попросить модель говорить «как сочувствующий оператор поддержки», профессиональный диктор или даже рассказчик историй.
- Голосовой AI становится максимально естественным и персонализированным.
- Whisper 3 был хорош, но OpenAI подняла планку ещё выше: новые модели дают точность и гибкость, которых раньше не было.
Официальная новость: https://openai.com/index/introducing-our-next-generation-audio-models/
Послушать разные варианты озвучки можно на этой площадке: www.openai.fm
Пора пробовать в проектах!
ИИволюция
🔥11👍4❤3
Еще никогда ранее не было так просто интегрировать такого уровня синтезированную речь в своих проектах.
Вот код на Python с демо текстом и демо инструкцией:
Здесь больше места занимает сам текст озвучки и инструкция, чем сам код!
В потрясающее время мы живём! Создавайте, творите, будьте на вайбе!🍸
ИИволюция
Вот код на Python с демо текстом и демо инструкцией:
import asyncio
from openai import AsyncOpenAI
from openai.helpers import LocalAudioPlayer
openai = AsyncOpenAI()
input = """Woohoo! Let's get those meetings scheduled, superstar!\n\nAlright, first up—Monday at 10 AM, you've got a check-in with the team. Go, teamwork! Next, we're locking in Wednesday at 2 PM for that client presentation—you got this!\n\nOh, and don't forget Friday at 4 PM, a strategy session to wrap up the week. Finish strong!\n\nNeed to move anything around? No worries—I'm here to keep your schedule totally winning! Just say the word, and I'll make it happen! Let's do this!"""
instructions = """Personality/affect: a high-energy cheerleader helping with administrative tasks \n\nVoice: Enthusiastic, and bubbly, with an uplifting and motivational quality.\n\nTone: Encouraging and playful, making even simple tasks feel exciting and fun.\n\nDialect: Casual and upbeat, using informal phrasing and pep talk-style expressions.\n\nPronunciation: Crisp and lively, with exaggerated emphasis on positive words to keep the energy high.\n\nFeatures: Uses motivational phrases, cheerful exclamations, and an energetic rhythm to create a sense of excitement and engagement."""
async def main() -> None:
async with openai.audio.speech.with_streaming_response.create(
model="gpt-4o-mini-tts",
voice="coral",
input=input,
instructions=instructions,
response_format="pcm",
) as response:
await LocalAudioPlayer().play(response)
if __name__ == "__main__":
asyncio.run(main())
Здесь больше места занимает сам текст озвучки и инструкция, чем сам код!
В потрясающее время мы живём! Создавайте, творите, будьте на вайбе!
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic выкатил web поиск в Claude.
На-ко-не-ц-то!
Но есть но, доступен пока только в США и по подписочке. В остальном, медленно, но верно нагоняет остальных игроков на рынке.
После выхода новости, на всех площадках самый главный вопрос вайберов: “А будет ли web search работать в Cursor и когда?” 😆
UPD: говорят, что в Cursor уже завезли!
ИИволюция
На-ко-не-ц-то!
Но есть но, доступен пока только в США и по подписочке. В остальном, медленно, но верно нагоняет остальных игроков на рынке.
После выхода новости, на всех площадках самый главный вопрос вайберов: “А будет ли web search работать в Cursor и когда?” 😆
UPD: говорят, что в Cursor уже завезли!
ИИволюция
🔥15
Разработчики до появления ИИ: тратили 10 часов, чтобы автоматизировать задачу, которую вручную можно сделать за 1 час.
После появления ИИ: 10 минут «вайб-кодинга», чтобы автоматизировать задачу на 1 минуту.
Когда уже вайб-разработка с AI достигнет уровня как на фото, но с одной кнопкой “Да”? 💀
ИИволюция
После появления ИИ: 10 минут «вайб-кодинга», чтобы автоматизировать задачу на 1 минуту.
Когда уже вайб-разработка с AI достигнет уровня как на фото, но с одной кнопкой “Да”? 💀
ИИволюция
❤19🤣11🔥5
Частная школа в Техасе внедрила AI-тьюторов, и результаты учеников взлетели до топ-2% по стране!
– В школе Alpha в Остине дети проводят два часа в день с AI, который помогает им учиться в индивидуальном темпе.
– Остальное время они посвящают развитию навыков вроде ораторского искусства, финансовой грамотности и командной работы.
– Сооснователь школы Маккензи Прайс говорит, что благодаря персонализированному подходу ученики учатся быстрее и лучше.
– Сейчас в Alpha обучаются сотни детей, и модель расширяется по США.
AI не заменяет учителей, а освобождает их для более глубокой работы с детьми — вот в чем магия!
Хочется в ближайшие 2 года увидеть больше таких кейсов.
Почитать новости: тут и тут.
ИИволюция
– В школе Alpha в Остине дети проводят два часа в день с AI, который помогает им учиться в индивидуальном темпе.
– Остальное время они посвящают развитию навыков вроде ораторского искусства, финансовой грамотности и командной работы.
– Сооснователь школы Маккензи Прайс говорит, что благодаря персонализированному подходу ученики учатся быстрее и лучше.
– Сейчас в Alpha обучаются сотни детей, и модель расширяется по США.
AI не заменяет учителей, а освобождает их для более глубокой работы с детьми — вот в чем магия!
Хочется в ближайшие 2 года увидеть больше таких кейсов.
Почитать новости: тут и тут.
ИИволюция
🔥40👍16❤1
Сэм Альтман заявил, что учиться кодить уже не модно — теперь надо осваивать AI-инструменты (все вайберы сейчас орнули от радости?).
Сэм говорит (хотя скорее предполагает), что AI уже пишет 50% кода в крупных компаниях:
И дальше — классика:
Новый навык — не писать код руками, а правильно использовать AI, который делает это за тебя.
Так что, запасайтесь AI-скиллами или готовьте плед и чай — AI уже топит газ в пол.
ИИволюция
“The obvious tactical thing is just get really good at using AI tools.”
«Очевидный тактический шаг сегодня — просто стать очень хорошим в использовании ИИ-инструментов.»
Сэм говорит (хотя скорее предполагает), что AI уже пишет 50% кода в крупных компаниях:
“I think in many companies, it's probably past 50% now.”
«Думаю, во многих компаниях уже больше 50%.»
И дальше — классика:
“Each software engineer will just do much, much more for a while. And then at some point, yeah, maybe we do need less software engineers.”
«Каждый разработчик будет делать больше... А потом, возможно, да — разработчиков потребуется меньше.»
Новый навык — не писать код руками, а правильно использовать AI, который делает это за тебя.
Так что, запасайтесь AI-скиллами или готовьте плед и чай — AI уже топит газ в пол.
ИИволюция
❤18🤣3
This media is not supported in your browser
VIEW IN TELEGRAM
Андрей Карпатый (главный инфлюенсер в вайб-разработке, кажется он и изобрел этот термин) написал за час Swift приложение для iOS не зная самого Swift.
Он написал простой калькулятор калорий: задаёшь BMR, добавляешь/вычитаешь калории, видишь прогресс, лог последних действий — и всё это без единой строки кода, написанной вручную.
Весь код — 400 строк. Всё работает. Он собирается заливать в App Store, но говорит это уже лениво, ведь для этого нужно снова потратить около часа на общение с ChatGPT.
Но суть не в самом приложении, а то что вы не зная нужного языка разработки, но будучи технически подкованным, легко создадите что-то рабочее на любом языке и под любую платформу. Самое интересное, что он поделился всеми диалогами с чатиком, чтобы вы могли посмотреть, как спецы вайб-кодят и составляют свои запросы:
1: https://chatgpt.com/share/67e02d8a-994c-8007-bf44-a63127cbbbb2
2: https://chatgpt.com/share/67e02d99-5e68-8007-b30c-80c9ed7f3693
3: https://chatgpt.com/share/67e02da3-8e7c-8007-ae63-530d5ca18065
4: https://chatgpt.com/share/67e02db4-9908-8007-b440-a6d2789c9f73
5: https://chatgpt.com/share/67e0a3de-8808-8007-a522-3b2358df619e
6: https://chatgpt.com/share/67e0af84-966c-8007-96c4-b8811e345df4
Тред в Твиттере: тут
Порядок возможно нарушен, но можно посмотреть как вайб-кодит главный вайб-кодер в мире👨💻
ИИволюция
Он написал простой калькулятор калорий: задаёшь BMR, добавляешь/вычитаешь калории, видишь прогресс, лог последних действий — и всё это без единой строки кода, написанной вручную.
Весь код — 400 строк. Всё работает. Он собирается заливать в App Store, но говорит это уже лениво, ведь для этого нужно снова потратить около часа на общение с ChatGPT.
Но суть не в самом приложении, а то что вы не зная нужного языка разработки, но будучи технически подкованным, легко создадите что-то рабочее на любом языке и под любую платформу. Самое интересное, что он поделился всеми диалогами с чатиком, чтобы вы могли посмотреть, как спецы вайб-кодят и составляют свои запросы:
1: https://chatgpt.com/share/67e02d8a-994c-8007-bf44-a63127cbbbb2
2: https://chatgpt.com/share/67e02d99-5e68-8007-b30c-80c9ed7f3693
3: https://chatgpt.com/share/67e02da3-8e7c-8007-ae63-530d5ca18065
4: https://chatgpt.com/share/67e02db4-9908-8007-b440-a6d2789c9f73
5: https://chatgpt.com/share/67e0a3de-8808-8007-a522-3b2358df619e
6: https://chatgpt.com/share/67e0af84-966c-8007-96c4-b8811e345df4
Тред в Твиттере: тут
Порядок возможно нарушен, но можно посмотреть как вайб-кодит главный вайб-кодер в мире
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25👏7❤2👍1
Ржу не могу!
У одного вайбера, Cursor попытался заменить в коде модель с gpt-4 на 3.7-sonnet, хотя в его запросе вообще ничего связанного с этим не было.
Cursor явно не фанат OpenAI и подыгрывается Anthropic 💀
ИИволюция
У одного вайбера, Cursor попытался заменить в коде модель с gpt-4 на 3.7-sonnet, хотя в его запросе вообще ничего связанного с этим не было.
Cursor явно не фанат OpenAI и подыгрывается Anthropic 💀
ИИволюция
🤣29👍4🔥3👏1
Cursor расширяет границы вайб-разработки с помощью MCP
Представьте: вы пилите проект, дизайн лежит в Figma, и хочется, чтобы Cursor сам всё подгрузил и сверстал. Без танцев с экспортами и копипастой. Это возможно — благодаря MCP.
Что такое MCP?
MCP (Model Context Protocol) — открытый протокол, который позволяет AI-моделям (таким как в Cursor) взаимодействовать с внешними системами: Figma, Git, базы данных и т.д. Кстати, этот протокол придумали в Anthropic и анонсировали в конце 2024 (кажется, в ноябре).
MCP даёт для AI контекст: что происходит, какие есть данные, как их использовать. В случае с Figma — Cursor "видит" дизайн и может превратить его в код. На текущий момент, доступно огромное количество MCP серверов под любые хотелки и сервисы (можно поискать здесь https://mcp.so или здесь https://www.pulsemcp.com/clients)
Интеграция Figma + Cursor через MCP — по шагам:
1️⃣ Получите API-токен в Figma:
Profile → Settings → Security → Personal Access Tokens → Generate new token (записать, так как отображается целиком разово и потом уже не скопировать его повторно).
2️⃣ Пропишите MCP-сервер в Cursor:
В настройках добавьте:
Замените <put_figma_api_key> на ваш токен.
3️⃣ Скопируйте ссылку на нужный дизайн в Figma — например, фрейм мобильного экрана.
4️⃣ Вставьте её в Cursor и напишите, что нужно сделать:
«Сверстай дизайн указанного экрана»
Cursor сам подтянет ресурсы, картинки, стили и сгенерирует полноценную верстку прямо в проекте.
Если нужно сделать обратную связь, чтобы из Cursor можно было дизайнить в фигме, то умельцы и этот кейс закрыли с помощью “Cursor Talk to Figma MCP” (вот тут https://github.com/sonnylazuardi/cursor-talk-to-figma-mcp)
Если хочется лучше погрузиться в MCP и как оно устроено или даже написать свой MCP сервер, то вот главный портал про MCP https://modelcontextprotocol.io
Zapier на днях релизнул свой MCP, через который можно добавить интеграцию с огромным количеством сервисов. Подробнее https://zapier.com/mcp
Поэтому Cursor можно уже использовать не только для разработки. Но важно помнить: MCP-серверы получают доступ к вашим ресурсам, включая локальные файлы. Используйте только доверенные и проверенные решения. Мы ещё можем столкнуться с ситуациями, когда через MCP будут пытаться похищать персональные данные — будьте внимательны.
Если уже используете какие-то MCP, расскажите в комментариях.
ИИволюция
Представьте: вы пилите проект, дизайн лежит в Figma, и хочется, чтобы Cursor сам всё подгрузил и сверстал. Без танцев с экспортами и копипастой. Это возможно — благодаря MCP.
Что такое MCP?
MCP (Model Context Protocol) — открытый протокол, который позволяет AI-моделям (таким как в Cursor) взаимодействовать с внешними системами: Figma, Git, базы данных и т.д. Кстати, этот протокол придумали в Anthropic и анонсировали в конце 2024 (кажется, в ноябре).
MCP даёт для AI контекст: что происходит, какие есть данные, как их использовать. В случае с Figma — Cursor "видит" дизайн и может превратить его в код. На текущий момент, доступно огромное количество MCP серверов под любые хотелки и сервисы (можно поискать здесь https://mcp.so или здесь https://www.pulsemcp.com/clients)
Интеграция Figma + Cursor через MCP — по шагам:
1️⃣ Получите API-токен в Figma:
Profile → Settings → Security → Personal Access Tokens → Generate new token (записать, так как отображается целиком разово и потом уже не скопировать его повторно).
2️⃣ Пропишите MCP-сервер в Cursor:
В настройках добавьте:
{
"mcpServers": {
"Framelink Figma MCP": {
"command": "npx",
"args": ["-y", "figma-developer-mcp", "--figma-api-key=<put_figma_api_key>", "--stdio"]
}
}
}
Замените <put_figma_api_key> на ваш токен.
3️⃣ Скопируйте ссылку на нужный дизайн в Figma — например, фрейм мобильного экрана.
4️⃣ Вставьте её в Cursor и напишите, что нужно сделать:
«Сверстай дизайн указанного экрана»
Cursor сам подтянет ресурсы, картинки, стили и сгенерирует полноценную верстку прямо в проекте.
Если нужно сделать обратную связь, чтобы из Cursor можно было дизайнить в фигме, то умельцы и этот кейс закрыли с помощью “Cursor Talk to Figma MCP” (вот тут https://github.com/sonnylazuardi/cursor-talk-to-figma-mcp)
Если хочется лучше погрузиться в MCP и как оно устроено или даже написать свой MCP сервер, то вот главный портал про MCP https://modelcontextprotocol.io
Zapier на днях релизнул свой MCP, через который можно добавить интеграцию с огромным количеством сервисов. Подробнее https://zapier.com/mcp
Поэтому Cursor можно уже использовать не только для разработки. Но важно помнить: MCP-серверы получают доступ к вашим ресурсам, включая локальные файлы. Используйте только доверенные и проверенные решения. Мы ещё можем столкнуться с ситуациями, когда через MCP будут пытаться похищать персональные данные — будьте внимательны.
Если уже используете какие-то MCP, расскажите в комментариях.
ИИволюция
🔥22👍8❤3
Общий сбор, OpenAI стрим запланировала
Судя по фото, вероятно завезут нативную генерацию изображений в gpt-4o
ИИволюция
Судя по фото, вероятно завезут нативную генерацию изображений в gpt-4o
ИИволюция
🔥10👍1
Наконец-то завезли настоящую омнимодальность в GPT-4o!
Теперь изображения генерируются самой моделью 4o, а не проксируются через DALL-E "под капотом", как раньше. Всё, как и обещали в 2024, но теперь оно реально работает.
Что появилось:
– Генерация изображения по промпту, с учётом всех нюансов (цвета, стиль, размер, композиция, до 10–20 объектов в сцене).
– Отлично рендерит текст внутри изображений — можно делать меню, постеры, мемы, обложки и всё такое.
– Поддерживает пошаговое улучшение — можно уточнять запрос и получать новые итерации.
– Умеет удалять фон, менять стиль, добавлять/убирать объекты — почти как текстовый Photoshop.
– Можно загружать свои картинки и дорабатывать их — всё происходит в контексте чата, модель “помнит”, что ты делал до этого.
Немного деталей:
GPT-4o обучалась на совместном распределении изображений и текста — то есть она понимает не только, как описывать картинки, но и как визуальные элементы связаны друг с другом. Это даёт ей эффект визуальной беглости — модель осмысленно работает с символами, схемами, композициями.
Плюс, OpenAI закатили агрессивный посттренинг, чтобы повысить точность и связность. В итоге: 4o понимает, что рисует, не путается в деталях и может использовать свои знания для генерации полезных визуальных материалов, а не только «красивых картинок».
Не всё конечно идеально:
– Медленно — до минуты на одну генерацию (но оно того стоит).
– Фотореализма как у Midjourney пока нет, в демо всё было скорее стилизованным.
– Сложно даются мелкие надписи, графики и тексты на не-латинице — могут быть косяки.
Доступ:
– Уже доступно всем в ChatGPT — Plus, Pro, Team, даже Free.
– В API обещают завезти на следующей неделе.
– Генерация по умолчанию включена, ничего настраивать не нужно.
– DALL-E по-прежнему доступен через отдельный GPT, если прям хочется (но я не понял где это искать или видимо нужно просить в запросе использовать DALL-E)
В сети уже огромное кол-во примеров с генерацией, поэтому не буду ничего постить, пробуйте сами (увлекательное занятие).
Официальная новость с кучей примеров: https://openai.com/index/introducing-4o-image-generation/
ИИволюция
Теперь изображения генерируются самой моделью 4o, а не проксируются через DALL-E "под капотом", как раньше. Всё, как и обещали в 2024, но теперь оно реально работает.
Что появилось:
– Генерация изображения по промпту, с учётом всех нюансов (цвета, стиль, размер, композиция, до 10–20 объектов в сцене).
– Отлично рендерит текст внутри изображений — можно делать меню, постеры, мемы, обложки и всё такое.
– Поддерживает пошаговое улучшение — можно уточнять запрос и получать новые итерации.
– Умеет удалять фон, менять стиль, добавлять/убирать объекты — почти как текстовый Photoshop.
– Можно загружать свои картинки и дорабатывать их — всё происходит в контексте чата, модель “помнит”, что ты делал до этого.
Немного деталей:
GPT-4o обучалась на совместном распределении изображений и текста — то есть она понимает не только, как описывать картинки, но и как визуальные элементы связаны друг с другом. Это даёт ей эффект визуальной беглости — модель осмысленно работает с символами, схемами, композициями.
Плюс, OpenAI закатили агрессивный посттренинг, чтобы повысить точность и связность. В итоге: 4o понимает, что рисует, не путается в деталях и может использовать свои знания для генерации полезных визуальных материалов, а не только «красивых картинок».
Не всё конечно идеально:
– Медленно — до минуты на одну генерацию (но оно того стоит).
– Фотореализма как у Midjourney пока нет, в демо всё было скорее стилизованным.
– Сложно даются мелкие надписи, графики и тексты на не-латинице — могут быть косяки.
Доступ:
– Уже доступно всем в ChatGPT — Plus, Pro, Team, даже Free.
– В API обещают завезти на следующей неделе.
– Генерация по умолчанию включена, ничего настраивать не нужно.
– DALL-E по-прежнему доступен через отдельный GPT, если прям хочется (но я не понял где это искать или видимо нужно просить в запросе использовать DALL-E)
В сети уже огромное кол-во примеров с генерацией, поэтому не буду ничего постить, пробуйте сами (увлекательное занятие).
Официальная новость с кучей примеров: https://openai.com/index/introducing-4o-image-generation/
ИИволюция
👍20❤4🔥4👏1
Ладно, один пример скину:
1. “Нарисуй счастливого енота который сидит на мосту свесив ноги, а снизу журчит ручеек, вокруг прекрасная погода, светит солнце, фотореалистично”
2. >> добавь на голову красную кепку с надписью "ИИволюция" имба
3. >> добавь рядом маленького енота который сидит и рыбачит
Да, детали немного меняются, но кого это волнует? Очень классно!
ИИволюция
1. “Нарисуй счастливого енота который сидит на мосту свесив ноги, а снизу журчит ручеек, вокруг прекрасная погода, светит солнце, фотореалистично”
2. >> добавь на голову красную кепку с надписью "ИИволюция" имба
3. >> добавь рядом маленького енота который сидит и рыбачит
Да, детали немного меняются, но кого это волнует? Очень классно!
ИИволюция
🔥55👍7
А кому приглашение в Manus AI приходило? Нет ли у кого лишнего инвайта? ❤️
Жду жду, многим высылали уже, а мне всё нет и нет 🥲
Жду жду, многим высылали уже, а мне всё нет и нет 🥲
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
«AI умный, он всё знает» – говорили они.
Марк Поллард — автор книги “Strategy Is Your Words” — спросил у ChatGPT, нужна ли австралийцу виза в Чили.
ИИ, уверенный как будто сам министр иностранных дел, ответил:
Марк прилетел. Чили не впустила. Оказывается, виза нужна 😏
Вот она, эпоха разумных ИИ. Консультант по путешествиям, юрист и источник фейков — всё в одном.
Проверяйте инфу. Даже если её сказал «умный» ИИ.
ИИволюция
Марк Поллард — автор книги “Strategy Is Your Words” — спросил у ChatGPT, нужна ли австралийцу виза в Чили.
ИИ, уверенный как будто сам министр иностранных дел, ответил:
“Не нужна. Всё норм. Лети.”
Марк прилетел. Чили не впустила. Оказывается, виза нужна 😏
Пишет снова в чатик: “Может, подать на тебя в суд?”
ChatGPT: “Нет.”
Вот она, эпоха разумных ИИ. Консультант по путешествиям, юрист и источник фейков — всё в одном.
Проверяйте инфу. Даже если её сказал «умный» ИИ.
ИИволюция
🤣29🔥4👍2🗿1
Кажется, мы достигли AGI? 🙃
Считать умеет, условия понимает и учитывает 🥰
Сгенерировал фотку по запросу подписчика. Я сам не был уверен, что справится вундервафля, а она справилась!
UPD: поправил запрос, чтобы были одинаковые оттенки цветов, в комментах показал результат точнее.
ИИволюция
Считать умеет, условия понимает и учитывает 🥰
Сгенерировал фотку по запросу подписчика. Я сам не был уверен, что справится вундервафля, а она справилась!
UPD: поправил запрос, чтобы были одинаковые оттенки цветов, в комментах показал результат точнее.
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22❤2👍1🤣1
Попросил сгенерировать меню коктейлей для вечеринки, а следом заменить один коктейль на что-то средневековое и ядрёное 💀
Качество на высоте, сохранение деталей при перегенерации на высоте (хотя у мохито в рецепте появились изменения).
ИИволюция
Качество на высоте, сохранение деталей при перегенерации на высоте (хотя у мохито в рецепте появились изменения).
ИИволюция
🔥22❤9