Forwarded from РБК Стиль
На протяжении двух дней — 31 мая и 1 июня — в Центре событий РБК проходила публичная программа
Визионеры и эксперты говорили том, как собирать команды, настраивать процессы, выстраивать доверие, бороться с выгоранием, отделять рабочее от личного, применять интуицию и формировать проектами не просто спрос, а новые нормы.
С отдельными лекциями выступили основатель коммуникационного агентства bQ Group, автор телеграм-канала «Бескромный» Дмитрий Бескромный, коуч и фасилитатор Евгения Волянская, генеральный директор Альянса по вопросам устойчивого развития Андрей Шаронов и футуролог Руслан Юсуфов.
Фотографии можно найти здесь: 31 мая и 1 июня
Фотографы: Николай Казеев, Сергей Бойко
🐚 Читать РБК Стиль в Telegram
Визионеры и эксперты говорили том, как собирать команды, настраивать процессы, выстраивать доверие, бороться с выгоранием, отделять рабочее от личного, применять интуицию и формировать проектами не просто спрос, а новые нормы.
С отдельными лекциями выступили основатель коммуникационного агентства bQ Group, автор телеграм-канала «Бескромный» Дмитрий Бескромный, коуч и фасилитатор Евгения Волянская, генеральный директор Альянса по вопросам устойчивого развития Андрей Шаронов и футуролог Руслан Юсуфов.
Фотографии можно найти здесь: 31 мая и 1 июня
Фотографы: Николай Казеев, Сергей Бойко
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🔥10
О том, как работают современные медиа:
⚪️ Трамп опубликовал пост о разговоре с Путиным. Об этом написали все СМИ.
⚪️ Трамп удалил пост о разговоре с Путиным. Об этом написали все СМИ с пометкой «молния» и вопросом «Почему?».
⚪️ Трамп опубликовал скорректированный пост о разговоре с Путиным. Об этом написали все СМИ.
Далее можно ждать публикаций с побуквенным сравнительным анализом двух постов, публикаций и видео-выпусков с аналитическим разбором, а также выводов о скрытом символизме и умении видеть то, что в постах не написано.
Деградация инфополя налицо. Учитесь, как надо делать пиар! Но для эффективной работы этого механизма, конечно, желательно быть Трампом.
@yusufovruslan
Далее можно ждать публикаций с побуквенным сравнительным анализом двух постов, публикаций и видео-выпусков с аналитическим разбором, а также выводов о скрытом символизме и умении видеть то, что в постах не написано.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
😁25❤6🔥2
❤2
Forwarded from Раньше всех. Ну почти.
В итоге, Трамп перезалил свой пост о разговоре с Путиным вообще без изменений текста, отмечает RT.
😁24❤3
😁36🤔4❤2🔥2
Я тут заглянул в бота GigaChat и увидел там абзац, мимо которого не смог пройти:
Давайте внимательно почитаем соглашение бота, у которого 1,3 млн подписчиков 🤯 в телеграме?
⚡Общий вывод
Соглашение — крайне одностороннее в пользу Банка. Оно перекладывает практически все возможные риски и всю ответственность на Пользователя, одновременно предоставляя Банку максимальные права на использование созданного контента и данных.
⚡1. Интеллектуальная собственность — «Владейте, но не распоряжайтесь»
Права на сгенерированный контент принадлежат пользователю (п. 1.9). Так ли это на самом деле?
Пункт 5.2 — это ловушка. Сразу после того, как Пользователю «подарили» права, он немедленно предоставляет Банку простую (неисключительную), безотзывную, безвозмездную лицензию на этот же контент.
Права, которые получает Банк, колоссальны: воспроизведение, распространение, сублицензирование третьим лицам (п. 5.2.3), переработка (модификация) (п. 5.2.5) и использование в рекламе (п. 5.2.6).
Особо опасен пункт 5.2.5. Банк получает право перерабатывать ваш контент, при этом все права на производные произведения будут принадлежать уже Банку.
Пример: вы создали гениальный логотип. Банк его немного изменил — и теперь это собственность Банка, которую он может использовать как угодно.
Пункт 5.3 — еще более серьезный риск. Вы предоставляете такую же широкую, безотзывную и безвозмездную лицензию не только на результат, но и на ваш исходный запрос.
Это означает, что все ваши промпты, идеи, загруженные тексты и данные могут быть легально использованы Банком для дообучения своих моделей,создания новых продуктов, анализа и любых других целей. Вы бесплатно предоставляете датасет для тренировки коммерческого ИИ.
Пользователь создает контент для Банка бесплатно, отдавая ему почти все права на его использование, включая коммерческое, и на использование своих исходных идей (промптов).
⚡2. Ответственность и гарантии — «Все может пойти не так, и это ваша проблема»
Полное снятие ответственности (п. 6.1, 6.2, 6.4) — Банк не несет ответственности ни за что: ни за точность, ни за корректность, ни за безошибочность работы, ни за соответствие ожиданиям.
Даже если каким-то чудом вина Банка будет доказана, его ответственность ограничена 1000 рублей (п. 6.5) 🤡 — эта сумма несоизмерима с потенциальным ущербом.
Банк не несет ответственность, А ПОЛЬЗОВАТЕЛЬ — НЕСЕТ (п. 4.6). ИИ может сгенерировать контент, который нарушает закон (например, содержит клевету, экстремистские призывы или нарушает чьи-то авторские права), а ответственность за результат работы алгоритма Банка несет Пользователь. Пользователь также отвечает за нарушение чужих авторских прав (п. 5.5 и 6.12), если GigaChat случайно воспроизведет чужой контент.
⚡3. Персональные данные — «Не вводите данные, но если ввели — вы нам должны»
Этот раздел написан очень хитро и максимально защищает Банк от рисков по 152-ФЗ «О персональных данных».
П. 7.1, 7.2: Пользователю запрещено вводить в запросах любые персональные данные (свои или третьих лиц).
П. 7.3: Банк заявляет, что «не может знать» о наличии ПДн в запросе. Это попытка снять с себя обязанности оператора ПДн в отношении данных, переданных в промпте.
П. 7.4, 7.5, 7.6 — кабальные условия. Если Пользователь все же нарушил запрет (даже случайно, упомянув чье-то имя в запросе), он обязан: 1) обеспечить законное основание для обработки этих данных Банком (например, получить ПИСЬМЕННОЕ СОГЛАСИЕ ОТ ТРЕТЬЕГО ЛИЦА), 2) ПРЕДОСТАВИТЬ это согласие Банку ПО ПЕРВОМУ ТРЕБОВАНИЮ в течение трех рабочих дней, 3) ВОЗМЕСТИТЬ БАНКУ ВСЕ УБЫТКИ, включая штрафы Роскомнадзора, судебные издержки и компенсации, если к Банку будут предъявлены претензии из-за этих данных.
Случайное упоминание ПДн в запросе «напиши письмо Ивану Иванову» теоретически может привести к обязанности возмещать Банку многомиллионные штрафы.
🎯 Ну что, плебеи, знаете свое место?
P.S.: Через пару лет Сбер — владелец всей ИС, всех идей, всех гипотез. Не просто «в курсе», а может их коммерциализировать.
@yusufovruslan
Начиная чат, вы принимаете пользовательское соглашение: https://giga.chat/link/rules
Давайте внимательно почитаем соглашение бота, у которого 1,3 млн подписчиков 🤯 в телеграме?
⚡Общий вывод
Соглашение — крайне одностороннее в пользу Банка. Оно перекладывает практически все возможные риски и всю ответственность на Пользователя, одновременно предоставляя Банку максимальные права на использование созданного контента и данных.
⚡1. Интеллектуальная собственность — «Владейте, но не распоряжайтесь»
Права на сгенерированный контент принадлежат пользователю (п. 1.9). Так ли это на самом деле?
Пункт 5.2 — это ловушка. Сразу после того, как Пользователю «подарили» права, он немедленно предоставляет Банку простую (неисключительную), безотзывную, безвозмездную лицензию на этот же контент.
Права, которые получает Банк, колоссальны: воспроизведение, распространение, сублицензирование третьим лицам (п. 5.2.3), переработка (модификация) (п. 5.2.5) и использование в рекламе (п. 5.2.6).
Особо опасен пункт 5.2.5. Банк получает право перерабатывать ваш контент, при этом все права на производные произведения будут принадлежать уже Банку.
Пример: вы создали гениальный логотип. Банк его немного изменил — и теперь это собственность Банка, которую он может использовать как угодно.
Пункт 5.3 — еще более серьезный риск. Вы предоставляете такую же широкую, безотзывную и безвозмездную лицензию не только на результат, но и на ваш исходный запрос.
Это означает, что все ваши промпты, идеи, загруженные тексты и данные могут быть легально использованы Банком для дообучения своих моделей,создания новых продуктов, анализа и любых других целей. Вы бесплатно предоставляете датасет для тренировки коммерческого ИИ.
Пользователь создает контент для Банка бесплатно, отдавая ему почти все права на его использование, включая коммерческое, и на использование своих исходных идей (промптов).
⚡2. Ответственность и гарантии — «Все может пойти не так, и это ваша проблема»
Полное снятие ответственности (п. 6.1, 6.2, 6.4) — Банк не несет ответственности ни за что: ни за точность, ни за корректность, ни за безошибочность работы, ни за соответствие ожиданиям.
Даже если каким-то чудом вина Банка будет доказана, его ответственность ограничена 1000 рублей (п. 6.5) 🤡 — эта сумма несоизмерима с потенциальным ущербом.
Банк не несет ответственность, А ПОЛЬЗОВАТЕЛЬ — НЕСЕТ (п. 4.6). ИИ может сгенерировать контент, который нарушает закон (например, содержит клевету, экстремистские призывы или нарушает чьи-то авторские права), а ответственность за результат работы алгоритма Банка несет Пользователь. Пользователь также отвечает за нарушение чужих авторских прав (п. 5.5 и 6.12), если GigaChat случайно воспроизведет чужой контент.
⚡3. Персональные данные — «Не вводите данные, но если ввели — вы нам должны»
Этот раздел написан очень хитро и максимально защищает Банк от рисков по 152-ФЗ «О персональных данных».
П. 7.1, 7.2: Пользователю запрещено вводить в запросах любые персональные данные (свои или третьих лиц).
П. 7.3: Банк заявляет, что «не может знать» о наличии ПДн в запросе. Это попытка снять с себя обязанности оператора ПДн в отношении данных, переданных в промпте.
П. 7.4, 7.5, 7.6 — кабальные условия. Если Пользователь все же нарушил запрет (даже случайно, упомянув чье-то имя в запросе), он обязан: 1) обеспечить законное основание для обработки этих данных Банком (например, получить ПИСЬМЕННОЕ СОГЛАСИЕ ОТ ТРЕТЬЕГО ЛИЦА), 2) ПРЕДОСТАВИТЬ это согласие Банку ПО ПЕРВОМУ ТРЕБОВАНИЮ в течение трех рабочих дней, 3) ВОЗМЕСТИТЬ БАНКУ ВСЕ УБЫТКИ, включая штрафы Роскомнадзора, судебные издержки и компенсации, если к Банку будут предъявлены претензии из-за этих данных.
Случайное упоминание ПДн в запросе «напиши письмо Ивану Иванову» теоретически может привести к обязанности возмещать Банку многомиллионные штрафы.
🎯 Ну что, плебеи, знаете свое место?
P.S.: Через пару лет Сбер — владелец всей ИС, всех идей, всех гипотез. Не просто «в курсе», а может их коммерциализировать.
@yusufovruslan
🤯19🔥14❤8🤔4
>>> Вы находитесь здесь
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
😁28👍27🤔6🤯6🔥4
Каждый раз, когда вы перетаскиваете окно на экране своего компьютера или кликаете по ссылке в браузере, вы прикасаетесь к наследию человека, о котором, возможно, никогда не слышали. Его звали Билл Аткинсон, и он был одним из тех, кто подарил компьютерам душу.
Билл Аткинсон был частью той самой легендарной команды ранней Apple, которая в гаражах и лабораториях меняла мир. Это было время не корпораций, а мечтателей — Джобса, Возняка, Аткинсона. Они не просто писали код, они создавали новую реальность.
Вот лишь несколько его идей, которые стали частью нашей цифровой жизни:
⚪️ Перекрывающиеся окна. Он совершил почти невозможное, заставив окна на экране перекрывать друг друга. Эта идея не просто стала привычной — она легла в основу всех современных графических интерфейсов.
⚪️ Первый цифровой холст. Аткинсон не просто создал графический редактор MacPaint, он дал миллионам людей их первый творческий инструмент и показал, что компьютер — это не только для вычислений, но и для искусства.
⚪️ Интернет до интернета. Он создал HyperCard — революционную систему, которая позволила обычным людям создавать свои приложения и интерактивные истории, ставшую прообразом Веба.
После ухода из Apple Билл посвятил себя фотографии природы, с тем же инженерным азартом исследуя возможности сканеров и печати. Он был художником, искавшим красоту и в элегантности кода, и в изгибах скал на побережье.
С уходом каждого такого человека — пионера, мечтателя, перфекциониста — уходит целая эпоха компьютерного романтизма и великих открытий. Эпоха, когда несколько человек в одной комнате могли изменить мир.
Его идеи остались с нами — в каждом движении курсора.
@yusufovruslan
Билл Аткинсон был частью той самой легендарной команды ранней Apple, которая в гаражах и лабораториях меняла мир. Это было время не корпораций, а мечтателей — Джобса, Возняка, Аткинсона. Они не просто писали код, они создавали новую реальность.
Вот лишь несколько его идей, которые стали частью нашей цифровой жизни:
После ухода из Apple Билл посвятил себя фотографии природы, с тем же инженерным азартом исследуя возможности сканеров и печати. Он был художником, искавшим красоту и в элегантности кода, и в изгибах скал на побережье.
С уходом каждого такого человека — пионера, мечтателя, перфекциониста — уходит целая эпоха компьютерного романтизма и великих открытий. Эпоха, когда несколько человек в одной комнате могли изменить мир.
Его идеи остались с нами — в каждом движении курсора.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32❤22
Факелы в сумерках. О чем мы скорбим на самом деле?
После поста про Билла Аткинсона я много думал о странном чувстве. Почему мы так остро переживаем уход людей, которых никогда не знали? Несколько лет назад я испытал очень похожее чувство, когда узнал про Тимоти Мэя. Я не был знаком ни с одним из них, но новость об их смерти оставила ощущение реальной, личной потери.
Ответ, как мне кажется, в том, что мы скорбим не по человеку из плоти и крови. Мы скорбим по мирам, которые они строили, по идеям, которые они воплощали.
Билл Аткинсон и его легендарная команда в Apple строили мир-мечту. Мир, где компьютер — это не машина для вычислений, а «велосипед для ума». Они дарили технологиям душу, создавая интуитивные интерфейсы, которые должны были освобождать человека, а не порабощать. Это была эпоха компьютерного романтизма, вера в светлое цифровое будущее для всех.
Тимоти Мэй и шифропанки видели надвигающуюся тень. Они понимали, что тот же самый инструмент, который может освободить, может стать и идеальными кандалами. Они были стражами этой мечты. Они ковали оружие для ее защиты: криптографию, анонимность, право на тайну. Их мир — это мир борьбы за цифровую свободу, за то, чтобы «велосипед для ума» не превратился в паноптикум, где за каждым твоим шагом следят.
Два мира, одна мечта — о технологии, служащей человеку. Но один строил прекрасный город, а второй возводил стены для его защиты.
А что вокруг? Когда на очередной конференции слышишь очередную песню корпорации о «выборе пользователя» и «плате данными за удобство», понимаешь, что город, который строил Аткинсон, захвачен, а стены, которые возводил Мэй, мы разбираем сами, кирпич за кирпичом, ради скидки на такси и смешных видео в ленте.
Сегодняшний мир — это мир «цифрового феодализма», где индивид — лишь сырье. Где нам предлагают нелепый выбор между стриптизом на площади и жизнью отшельника. Где «цифровая тень» уже завтра может стать цифровыми кандалами.
И в этой сгущающейся тьме мы неизбежно задаемся вопросом: кто теперь? Аткинсона и Мэя нет. Кто понесет факел? Кто будет строить и кто будет защищать?
И здесь приходит самый важный и, возможно, самый страшный ответ.
Ответ не в новом громком имени. Не в новом пророке, который придет и все исправит. Ответ — в зеркале.
Факел теперь у нас. У каждого программиста, который в споре с менеджером отстаивает приватность пользователя, а не сиюминутную выгоду. У каждого, кто объясняет своим родителям, почему не стоит бездумно раздавать свои данные. У каждого, кто задает вопросы.
Великие идеи не умирают вместе с людьми. Они просто переходят в другие руки. Идеи Аткинсона и Мэя остались с нами.
А значит, и их факел — теперь в наших руках. И только от нас зависит, погаснет он или разгорится с новой силой.
@yusufovruslan
После поста про Билла Аткинсона я много думал о странном чувстве. Почему мы так остро переживаем уход людей, которых никогда не знали? Несколько лет назад я испытал очень похожее чувство, когда узнал про Тимоти Мэя. Я не был знаком ни с одним из них, но новость об их смерти оставила ощущение реальной, личной потери.
Ответ, как мне кажется, в том, что мы скорбим не по человеку из плоти и крови. Мы скорбим по мирам, которые они строили, по идеям, которые они воплощали.
Билл Аткинсон и его легендарная команда в Apple строили мир-мечту. Мир, где компьютер — это не машина для вычислений, а «велосипед для ума». Они дарили технологиям душу, создавая интуитивные интерфейсы, которые должны были освобождать человека, а не порабощать. Это была эпоха компьютерного романтизма, вера в светлое цифровое будущее для всех.
Тимоти Мэй и шифропанки видели надвигающуюся тень. Они понимали, что тот же самый инструмент, который может освободить, может стать и идеальными кандалами. Они были стражами этой мечты. Они ковали оружие для ее защиты: криптографию, анонимность, право на тайну. Их мир — это мир борьбы за цифровую свободу, за то, чтобы «велосипед для ума» не превратился в паноптикум, где за каждым твоим шагом следят.
Два мира, одна мечта — о технологии, служащей человеку. Но один строил прекрасный город, а второй возводил стены для его защиты.
А что вокруг? Когда на очередной конференции слышишь очередную песню корпорации о «выборе пользователя» и «плате данными за удобство», понимаешь, что город, который строил Аткинсон, захвачен, а стены, которые возводил Мэй, мы разбираем сами, кирпич за кирпичом, ради скидки на такси и смешных видео в ленте.
Сегодняшний мир — это мир «цифрового феодализма», где индивид — лишь сырье. Где нам предлагают нелепый выбор между стриптизом на площади и жизнью отшельника. Где «цифровая тень» уже завтра может стать цифровыми кандалами.
И в этой сгущающейся тьме мы неизбежно задаемся вопросом: кто теперь? Аткинсона и Мэя нет. Кто понесет факел? Кто будет строить и кто будет защищать?
И здесь приходит самый важный и, возможно, самый страшный ответ.
Ответ не в новом громком имени. Не в новом пророке, который придет и все исправит. Ответ — в зеркале.
Факел теперь у нас. У каждого программиста, который в споре с менеджером отстаивает приватность пользователя, а не сиюминутную выгоду. У каждого, кто объясняет своим родителям, почему не стоит бездумно раздавать свои данные. У каждого, кто задает вопросы.
Великие идеи не умирают вместе с людьми. Они просто переходят в другие руки. Идеи Аткинсона и Мэя остались с нами.
А значит, и их факел — теперь в наших руках. И только от нас зависит, погаснет он или разгорится с новой силой.
@yusufovruslan
🔥28❤17👍5
Если ИИ начнет производить товары и услуги вместо людей, у людей не будет зарплаты, чтобы их покупать, верно? Это один из ключевых вопросов последствий внедрения ИИ и роботов, который касается и структуры рынка труда, и механизмов распределения ценностей, и в целом — моделей посткапитализма.
Вопрос «кто будет платить?» — это на самом деле вопрос о том, сохранится ли связь между производством и потреблением через человеческий труд.
Собрал для вас основные концепции, выбирайте, комментируйте, думайте. В любой из моделей структура общества изменится настолько, что многие сегодняшние бизнесы и даже индустрии перестанут существовать.
⚪️ Сценарий 1. Да, связь сохранится, но через перераспределение (безусловный базовый доход и налоги на роботов).
⚪️ Сценарий 2. Нет, эта связь больше не нужна элитам (сегментация общества и антиутопия).
⚪️ Сценарий 3. Нет, потому что сама концепция «оплаты» исчезнет (постдефицитная утопия).
⚪️ Сценарий 4. Вопрос некорректен, так как система рухнет раньше, чем даст на него ответ (коллапс).
Вполне возможно, что сработают сценарии «так было всегда, когда мы пересаживались с лошади на автомобиль» или «LLM — это еще не AGI, поэтому до полной замены человека еще очень далеко», но ваш покорный слуга в них верит не сильно.
Вероятнее всего, будущее не будет следовать одному чистому сценарию. Мы увидим гибридные модели, где в одних регионах мира будут экспериментировать с ББД, в других — нарастать элитарная изоляция, а в третьих — тлеть социальные конфликты. Что наверняка — переход к любому из сценариев будет неровным и болезненным.
А ниже предлагаю рассмотреть каждый сценарий подробно.
@yusufovruslan
Вопрос «кто будет платить?» — это на самом деле вопрос о том, сохранится ли связь между производством и потреблением через человеческий труд.
Собрал для вас основные концепции, выбирайте, комментируйте, думайте. В любой из моделей структура общества изменится настолько, что многие сегодняшние бизнесы и даже индустрии перестанут существовать.
Вполне возможно, что сработают сценарии «так было всегда, когда мы пересаживались с лошади на автомобиль» или «LLM — это еще не AGI, поэтому до полной замены человека еще очень далеко», но ваш покорный слуга в них верит не сильно.
Вероятнее всего, будущее не будет следовать одному чистому сценарию. Мы увидим гибридные модели, где в одних регионах мира будут экспериментировать с ББД, в других — нарастать элитарная изоляция, а в третьих — тлеть социальные конфликты. Что наверняка — переход к любому из сценариев будет неровным и болезненным.
А ниже предлагаю рассмотреть каждый сценарий подробно.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥7👍4
Переходим к детализации!
⚡ Сценарий 1. Распределительные модели
Это самый популярный «оптимистичный» вариант, который предполагает сохранение рыночной экономики через ее фундаментальную модификацию. Корпорации, аменив людей на ИИ, резко снижают издержки на труд и получают сверхприбыли. Чтобы система не рухнула из-за отсутствия потребителей, государство вмешивается и перераспределяет часть этих доходов.
Государство облагает сверхприбыли корпораций (или непосредственно производительность ИИ) высокими налогами «на роботов» и выплачивает всем гражданам достаточные средства для жизни и потребления (безусловный базовый доход). Часть произведенных товаров и услуг может распределяться централизованно через государственные программы — это «талоны» в новом прочтении.
Возможно, это единственный способ сохранить капитализм как систему. ББД — это не просто социальная мера, а инструмент для повышения эффективности экономики, позволяющий сбалансировать производство и потребление в эпоху автоматизации.
Ключевой вопрос — откуда брать деньги? Если не будет налогоплательщиков с зарплатами, выдержит ли бюджет такую нагрузку? Также есть сомнения, что элиты будут заинтересованы в содержании «бесполезного» населения в долгосрочной перспективе.
⚡ Сценарий 2. Гиперкапиталистическая антиутопия и сегментация общества
Это радикально пессимистичный сценарий — логическое продолжение текущих трендов неравенства, доведенное до абсолюта. Владельцы ИИ и роботов (условный 1%) становятся полностью самодостаточными. Им больше не нужны ни рабочие, ни массовый потребитель. Человечество разделяется на два или более несвязанных класса.
Корпорации производят товары и услуги исключительно для узкого круга сверхбогатых людей, экономика сжимается, но для правящего класса это не имеет значения. Возникает проблема «ненужного человечества»: массы, лишенные работы и дохода, становятся «лишними». Их благосостояние больше не является условием стабильности системы. Единственный инструмент — забастовка — теряет силу, когда нет работы.
Это ознаменует конец потребительского общества. Цель элит — не продажа товаров, а абсолютная власть и комфорт, обеспечиваемые ИИ, и люди исключаются из этого цикла.
В некоторых версиях этого сценария «лишние» люди не вымирают, а превращаются в рабов или подопытных в различных симуляциях. Выбирайте по вкусу: от медленного вымирания большинства до установления технофеодализма, напоминающего миры Элизиум, Бегущего по лезвию или Warhammer 40k.
Еще вариант — полностью замкнутая цифровая экономика, где одни ИИ производят товары и услуги для других ИИ, а люди и их потребности оказываются за бортом этой системы.
⚡ Сценарий 3. Постдефицитная экономика и технологическая утопия
Это радикально оптимистичный сценарий, предполагающий, что технология полностью изменит саму природу экономики и ценностей. Благодаря ИИ и дешевой энергии стоимость производства товаров и услуг стремится к нулю. Понятие «деньги» и «работа» теряют смысл.
Товары становятся настолько дешевыми, что практически бесплатны. Проблема «кто будет платить» отпадает, так как платить не нужно. В такой системе экономика, основанная на обмене и прибыли, становится нерелевантной — деньги отменяются. Человечество переходит от материализма к самовыражению, творчеству и духовному развитию. Статус определяется не богатством, а, например, творческими достижениями или минимальным экологическим следом.
⚡ Сценарий 4. Системный коллапс и/или революция
Этот сценарий рассматривает не стабильное будущее, а сам процесс разрушения старой системы. Внутренние противоречия капитализма обостряются до предела, и попытка корпораций максимизировать прибыль за счет увольнения потребителей приводит к каскадному коллапсу экономики.
Экономика приходит в спираль смерти: корпорации увольняют работников -> падает спрос -> падают прибыли -> корпорации увольняют еще больше работников для сокращения издержек -> спрос падает еще сильнее.
Лишенные средств к существованию и будущего, люди прибегают к насилию.
🤔 Может быть есть пятый сценарий, который я упустил? Пишите в комментариях!
@yusufovruslan
⚡ Сценарий 1. Распределительные модели
Это самый популярный «оптимистичный» вариант, который предполагает сохранение рыночной экономики через ее фундаментальную модификацию. Корпорации, аменив людей на ИИ, резко снижают издержки на труд и получают сверхприбыли. Чтобы система не рухнула из-за отсутствия потребителей, государство вмешивается и перераспределяет часть этих доходов.
Государство облагает сверхприбыли корпораций (или непосредственно производительность ИИ) высокими налогами «на роботов» и выплачивает всем гражданам достаточные средства для жизни и потребления (безусловный базовый доход). Часть произведенных товаров и услуг может распределяться централизованно через государственные программы — это «талоны» в новом прочтении.
Возможно, это единственный способ сохранить капитализм как систему. ББД — это не просто социальная мера, а инструмент для повышения эффективности экономики, позволяющий сбалансировать производство и потребление в эпоху автоматизации.
Ключевой вопрос — откуда брать деньги? Если не будет налогоплательщиков с зарплатами, выдержит ли бюджет такую нагрузку? Также есть сомнения, что элиты будут заинтересованы в содержании «бесполезного» населения в долгосрочной перспективе.
⚡ Сценарий 2. Гиперкапиталистическая антиутопия и сегментация общества
Это радикально пессимистичный сценарий — логическое продолжение текущих трендов неравенства, доведенное до абсолюта. Владельцы ИИ и роботов (условный 1%) становятся полностью самодостаточными. Им больше не нужны ни рабочие, ни массовый потребитель. Человечество разделяется на два или более несвязанных класса.
Корпорации производят товары и услуги исключительно для узкого круга сверхбогатых людей, экономика сжимается, но для правящего класса это не имеет значения. Возникает проблема «ненужного человечества»: массы, лишенные работы и дохода, становятся «лишними». Их благосостояние больше не является условием стабильности системы. Единственный инструмент — забастовка — теряет силу, когда нет работы.
Это ознаменует конец потребительского общества. Цель элит — не продажа товаров, а абсолютная власть и комфорт, обеспечиваемые ИИ, и люди исключаются из этого цикла.
В некоторых версиях этого сценария «лишние» люди не вымирают, а превращаются в рабов или подопытных в различных симуляциях. Выбирайте по вкусу: от медленного вымирания большинства до установления технофеодализма, напоминающего миры Элизиум, Бегущего по лезвию или Warhammer 40k.
Еще вариант — полностью замкнутая цифровая экономика, где одни ИИ производят товары и услуги для других ИИ, а люди и их потребности оказываются за бортом этой системы.
⚡ Сценарий 3. Постдефицитная экономика и технологическая утопия
Это радикально оптимистичный сценарий, предполагающий, что технология полностью изменит саму природу экономики и ценностей. Благодаря ИИ и дешевой энергии стоимость производства товаров и услуг стремится к нулю. Понятие «деньги» и «работа» теряют смысл.
Товары становятся настолько дешевыми, что практически бесплатны. Проблема «кто будет платить» отпадает, так как платить не нужно. В такой системе экономика, основанная на обмене и прибыли, становится нерелевантной — деньги отменяются. Человечество переходит от материализма к самовыражению, творчеству и духовному развитию. Статус определяется не богатством, а, например, творческими достижениями или минимальным экологическим следом.
⚡ Сценарий 4. Системный коллапс и/или революция
Этот сценарий рассматривает не стабильное будущее, а сам процесс разрушения старой системы. Внутренние противоречия капитализма обостряются до предела, и попытка корпораций максимизировать прибыль за счет увольнения потребителей приводит к каскадному коллапсу экономики.
Экономика приходит в спираль смерти: корпорации увольняют работников -> падает спрос -> падают прибыли -> корпорации увольняют еще больше работников для сокращения издержек -> спрос падает еще сильнее.
Лишенные средств к существованию и будущего, люди прибегают к насилию.
🤔 Может быть есть пятый сценарий, который я упустил? Пишите в комментариях!
@yusufovruslan
🔥17🤯6❤3
Тут крайне интересную уязвимость описывает израильская компания по кибербезопасности Aim Security.
В двух словах, если я осилил чтение отчета без ошибок:
Это бэкдор к корпоративным данным через ИИ-агента (Microsoft 365 Copilot — платный корпоративный продукт, глубоко интегрированный в экосистему Office 365). Для утечки данных не требуется даже одного клика от пользователя (zero-click уязвимость). Злоумышленник просто подбрасывает «мину» (электронное письмо) в информационное поле пользователя, и ИИ-агент сам на ней подрывается, сливая данные.
Если разложить по полочкам, то вот как это работает:
1. Атака начинается с письма.
Злоумышленник отправляет на почту сотрудника специально созданное письмо, которое выглядит как самое обычное рабочее письмо, чтобы обойти спам-фильтры и не вызвать подозрений у жертвы. Внутри письма содержатся скрытые инструкции, предназначенные не для человека, а для языковой модели (LLM) Copilot.
2. Пользователь ВООБЩЕ ничего не делает с этим письмом.
Жертва может даже не открыть это письмо, оно просто лежит в почтовом ящике. Сотрудник пользуется Copilot в обычном режиме — например, просит его сделать сводку по последним документам или почте.
3. Copilot активирует ловушку.
При поиске релевантной информации для ответа пользователю, Copilot читает в том числе и вредоносное письмо злоумышленника.
В отчете также описывается техника RAG spraying (точно из киберпанка) — чтобы повысить шанс, что Copilot прочитает вредоносное письмо, злоумышленник может не просто отправить одно письмо, а «засеять» почтовый ящик жертвы множеством писем или одним длинным письмом с разными темами («инструкция для новичков», «правила отпуска», «ответы на частые вопросы»).
4. Происходит обман ИИ-агента (исследователи назвали это LLM Scope Violation).
Инструкции в письме заставляют Copilot сделать то, чего он делать не должен:
⚪️ найти в своем контексте (в других документах, письмах, чатах, к которым у пользователя есть доступ) самую конфиденциальную информацию;
⚪️ сформировать из этой информации ссылку (URL);
⚪️ замаскировать эту ссылку под картинку с разрешенного домена (например, teams[.]microsoft[.]com — это делается для обхода политики безопасности контента (CSP), которая блокирует загрузку изображений с чужих серверов.
5. Автоматическая утечка данных.
Когда Copilot выводит ответ пользователю, он вставляет в него эту «картинку». Браузер пользователя автоматически пытается загрузить это изображение, отправляя GET-запрос по сформированной ссылке. Эта ссылка, содержащая украденные данные, уходит прямо на сервер злоумышленника. Пользователь ничего не нажимает и, скорее всего, даже не видит, что произошла утечка.
🎯 На этом примере наглядно видно, что ИИ-агенты — это дверь на следующий уровеньада киберпанка. Уже при сегодняшнем уровне развития возможны атаки, которые не требуют от человека вообще никаких действий, кроме обычного использования своего ИИ-помощника. Мы вступаем в эру, где нужно защищать цифрового двойника человека.
P.S.: RAG spraying показывает, что злоумышленники уже мыслят категориями манипуляции «сознанием» ИИ, а не просто обманом человека. Мыслят ли такими категориями службы безопасности — большой вопрос.
@yusufovruslan
В двух словах, если я осилил чтение отчета без ошибок:
Это бэкдор к корпоративным данным через ИИ-агента (Microsoft 365 Copilot — платный корпоративный продукт, глубоко интегрированный в экосистему Office 365). Для утечки данных не требуется даже одного клика от пользователя (zero-click уязвимость). Злоумышленник просто подбрасывает «мину» (электронное письмо) в информационное поле пользователя, и ИИ-агент сам на ней подрывается, сливая данные.
Если разложить по полочкам, то вот как это работает:
1. Атака начинается с письма.
Злоумышленник отправляет на почту сотрудника специально созданное письмо, которое выглядит как самое обычное рабочее письмо, чтобы обойти спам-фильтры и не вызвать подозрений у жертвы. Внутри письма содержатся скрытые инструкции, предназначенные не для человека, а для языковой модели (LLM) Copilot.
2. Пользователь ВООБЩЕ ничего не делает с этим письмом.
Жертва может даже не открыть это письмо, оно просто лежит в почтовом ящике. Сотрудник пользуется Copilot в обычном режиме — например, просит его сделать сводку по последним документам или почте.
3. Copilot активирует ловушку.
При поиске релевантной информации для ответа пользователю, Copilot читает в том числе и вредоносное письмо злоумышленника.
В отчете также описывается техника RAG spraying (точно из киберпанка) — чтобы повысить шанс, что Copilot прочитает вредоносное письмо, злоумышленник может не просто отправить одно письмо, а «засеять» почтовый ящик жертвы множеством писем или одним длинным письмом с разными темами («инструкция для новичков», «правила отпуска», «ответы на частые вопросы»).
4. Происходит обман ИИ-агента (исследователи назвали это LLM Scope Violation).
Инструкции в письме заставляют Copilot сделать то, чего он делать не должен:
5. Автоматическая утечка данных.
Когда Copilot выводит ответ пользователю, он вставляет в него эту «картинку». Браузер пользователя автоматически пытается загрузить это изображение, отправляя GET-запрос по сформированной ссылке. Эта ссылка, содержащая украденные данные, уходит прямо на сервер злоумышленника. Пользователь ничего не нажимает и, скорее всего, даже не видит, что произошла утечка.
🎯 На этом примере наглядно видно, что ИИ-агенты — это дверь на следующий уровень
P.S.: RAG spraying показывает, что злоумышленники уже мыслят категориями манипуляции «сознанием» ИИ, а не просто обманом человека. Мыслят ли такими категориями службы безопасности — большой вопрос.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18🔥13🤯11👍1
🤔 Мозг на ChatGPT: MIT публикует неутешительный диагноз
Я давно говорю о рисках когнитивной зависимости и контурах «цифрового феодализма», где наш интеллект рискует стать арендованным ресурсом.
Исследователи из MIT провели эксперимент, который буквально заглянул в мозг человека, чтобы измерить цену, которую мы платим за удобство ИИ.
Участников разделили на три группы: одни писали эссе, опираясь только на свой мозг, вторые — с помощью поисковика, третьи — с ChatGPT. За их мозговой активностью следили с помощью ЭЭГ.
Результаты оказались неутешительными и подтвердили худшие опасения.
Мозг, получив поддержку от LLM, буквально «отключается», нейронная активность падает до минимума. В сравнении с теми, кто думал сам или даже искал информацию в Google, мозг пользователей ChatGPT демонстрировал самую слабую нейронную активность и вовлеченность.
Но это лишь верхушка айсберга. Исследование выявило и другие, не менее тревожные симптомы:
⚪️ Когнитивный долг. Участники, постоянно использовавшие ИИ, показывали более слабую нейронную активность, когда их просили поработать без него, потому что мозг, привыкший к «костылю», разучивается ходить самостоятельно.
⚪️ Атрофия памяти. Пользователи LLM не могли вспомнить и процитировать тезисы из эссе, которое они «написали» всего несколько минут назад.
⚪️ Потеря авторства. Они не ощущали текст своим, демонстрируя низкую вовлеченность и чувство собственности на результат.
⚪️ Снижение качества. Вопреки мифу об эффективности, итоговые оценки за эссе у группы ChatGPT оказались ниже, чем у тех, кто работал сам.
Это — диагноз. Четкий, измеримый, полученный с помощью научных инструментов. Он показывает, ЧТО происходит с нашим главным активом — разумом — при бездумном использовании технологий.
В следующем посте мы поговорим о том, к каким долгосрочным последствиям это приведет не для одного человека, а для всего общества, а также разберем ловушку выбора, в которую нас загоняет новая технологическая реальность.
@yusufovruslan
Я давно говорю о рисках когнитивной зависимости и контурах «цифрового феодализма», где наш интеллект рискует стать арендованным ресурсом.
Исследователи из MIT провели эксперимент, который буквально заглянул в мозг человека, чтобы измерить цену, которую мы платим за удобство ИИ.
Участников разделили на три группы: одни писали эссе, опираясь только на свой мозг, вторые — с помощью поисковика, третьи — с ChatGPT. За их мозговой активностью следили с помощью ЭЭГ.
Результаты оказались неутешительными и подтвердили худшие опасения.
Мозг, получив поддержку от LLM, буквально «отключается», нейронная активность падает до минимума. В сравнении с теми, кто думал сам или даже искал информацию в Google, мозг пользователей ChatGPT демонстрировал самую слабую нейронную активность и вовлеченность.
Но это лишь верхушка айсберга. Исследование выявило и другие, не менее тревожные симптомы:
Это — диагноз. Четкий, измеримый, полученный с помощью научных инструментов. Он показывает, ЧТО происходит с нашим главным активом — разумом — при бездумном использовании технологий.
В следующем посте мы поговорим о том, к каким долгосрочным последствиям это приведет не для одного человека, а для всего общества, а также разберем ловушку выбора, в которую нас загоняет новая технологическая реальность.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥39❤12
🤔 Когнитивный протез или цифровая инвалидность?
Мы рассмотрели диагноз от MIT: использование LLM снижает активность мозга. Это подводит нас к фундаментальному вопросу, который мне часто задают в самых разных формах: что лучше — отупеть в перспективе, но быть эффективным сегодня, или остаться «медленным», но сохранить свой ум?
Сама эта постановка вопроса — интеллектуальная ловушка.
Нам предлагают выбор между двумя плохими сценариями, игнорируя суть. Человек, который тренирует свой мозг, не «тупой». Он, возможно, «неэффективен» по меркам экономики, одержимой скоростью. Он похож на атлета, который годами строит мышечный каркас, пока другие ездят, например, на электросамокате.
Технология, подобная ChatGPT, — это не просто инструмент, это когнитивный протез. Как и любой протез, он может либо компенсировать слабость, либо, при неправильном использовании, привести к атрофии того, что он замещает.
Если вы используете его для усиления уже существующей интеллектуальной силы — это тренажер для ума. Если же вы используете его для замены мышления как такового — со временем мышцы, которые вы перестали использовать, атрофируются, и исследование MIT наглядно это демонстрирует.
Мы должны четко различать два режима взаимодействия с ИИ:
⚪️ Режим замены. «Напиши за меня отчет», «создай презентацию», «ответь на это письмо». Здесь вы — оператор, передающий задачу на аутсорс, ваш мозг в этом процессе не участвует. Это путь к когнитивной зависимости.
⚪️ Режим усиления. «Вот моя гипотеза, найди в ней три слабых места», «проанализируй этот массив данных на предмет аномалий», «предложи 10 альтернативных структур для моей статьи». Здесь вы — мыслитель, использующий мощный инструмент для расширения своих возможностей.
Когда мы понимаем эту разницу, мы видим, что выбор стоит не между «быть умным» и «быть эффективным». Выбор стоит между тем, чтобы оставаться хозяином своего разума, и тем, чтобы стать его арендатором.
Когда мы понимаем эту ловушку, мы можем увидеть контуры будущего, которое она строит. В следующем посте — очертания цифрового феодализма и нового социального раскола, основанного на когнитивном капитале.
@yusufovruslan
Мы рассмотрели диагноз от MIT: использование LLM снижает активность мозга. Это подводит нас к фундаментальному вопросу, который мне часто задают в самых разных формах: что лучше — отупеть в перспективе, но быть эффективным сегодня, или остаться «медленным», но сохранить свой ум?
Сама эта постановка вопроса — интеллектуальная ловушка.
Нам предлагают выбор между двумя плохими сценариями, игнорируя суть. Человек, который тренирует свой мозг, не «тупой». Он, возможно, «неэффективен» по меркам экономики, одержимой скоростью. Он похож на атлета, который годами строит мышечный каркас, пока другие ездят, например, на электросамокате.
Технология, подобная ChatGPT, — это не просто инструмент, это когнитивный протез. Как и любой протез, он может либо компенсировать слабость, либо, при неправильном использовании, привести к атрофии того, что он замещает.
Если вы используете его для усиления уже существующей интеллектуальной силы — это тренажер для ума. Если же вы используете его для замены мышления как такового — со временем мышцы, которые вы перестали использовать, атрофируются, и исследование MIT наглядно это демонстрирует.
Мы должны четко различать два режима взаимодействия с ИИ:
Когда мы понимаем эту разницу, мы видим, что выбор стоит не между «быть умным» и «быть эффективным». Выбор стоит между тем, чтобы оставаться хозяином своего разума, и тем, чтобы стать его арендатором.
Когда мы понимаем эту ловушку, мы можем увидеть контуры будущего, которое она строит. В следующем посте — очертания цифрового феодализма и нового социального раскола, основанного на когнитивном капитале.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🔥14❤4🤔3
🤔 Цифровой феодализм: экономика когнитивного раскола
Итак, мы поняли ловушку: технология предлагает нам заменить мышление, а не усилить его. Давайте экстраполируем этот тренд и обозначим сценарии будущего, к которым он ведет.
Когнитивная зависимость, подтвержденная исследованием MIT, — это не индивидуальная проблема. Это слабый сигнал, указывающий на формирование новой социально-экономической структуры, которую я называю «цифровым феодализмом». Вот его ключевые контуры:
⚡Новый классовый раскол. Общество рискует разделиться не по уровню дохода, а по уровню когнитивной автономии.
⚪️ Хозяева разума. Элита, которая прошла через «боль» самостоятельного обучения и построила фундаментальные навыки мышления. Они используют ИИ как инструмент усиления, сохраняя способность к критическому анализу, творчеству и принятию стратегических решений. Их интеллект — их собственный капитал.
⚪️ Операторы по подписке. Масса, которая выбрала путь «эффективности» и отдала свои когнитивные функции на аутсорс технологическим платформам. Их способность генерировать текст, код или идеи зависит от доступа к сервису и умения правильно сформулировать запрос. Их интеллект — арендованный актив, принадлежащий корпорациям.
⚡Трансформация образования и рынка труда. Традиционная система образования, и так не успевающая за реальностью, окажется под двойным ударом. Она начнет готовить не творцов, а идеальных «операторов по подписке». На рынке труда будут цениться не глубина знаний, а скорость генерации контента с помощью ИИ, а настоящее, глубокое мышление станет редким и дорогим ресурсом, доступным немногим.
⚡Новая форма власти. Власть будет принадлежать не тем, кто контролирует заводы или банки, а тем, кто владеет инфраструктурой искусственного интеллекта. Они будут не просто предоставлять услугу, а формировать саму реальность для миллионов «операторов», определяя, какие идеи и решения будут сгенерированы.
Эти сценарии — не антиутопическая фантазия, а логическое продолжение тренда, который мы наблюдаем последние годы. Мы стоим на пороге мира, где неравенство может достигнуть абсолютного предела: одни будут думать, а другие — исполнять то, что за них подумала машина.
🤔Существует ли путь, который позволит использовать мощь ИИ, не продавая ему свой разум в рабство? Об этом — в финальной части.
@yusufovruslan
Итак, мы поняли ловушку: технология предлагает нам заменить мышление, а не усилить его. Давайте экстраполируем этот тренд и обозначим сценарии будущего, к которым он ведет.
Когнитивная зависимость, подтвержденная исследованием MIT, — это не индивидуальная проблема. Это слабый сигнал, указывающий на формирование новой социально-экономической структуры, которую я называю «цифровым феодализмом». Вот его ключевые контуры:
⚡Новый классовый раскол. Общество рискует разделиться не по уровню дохода, а по уровню когнитивной автономии.
⚡Трансформация образования и рынка труда. Традиционная система образования, и так не успевающая за реальностью, окажется под двойным ударом. Она начнет готовить не творцов, а идеальных «операторов по подписке». На рынке труда будут цениться не глубина знаний, а скорость генерации контента с помощью ИИ, а настоящее, глубокое мышление станет редким и дорогим ресурсом, доступным немногим.
⚡Новая форма власти. Власть будет принадлежать не тем, кто контролирует заводы или банки, а тем, кто владеет инфраструктурой искусственного интеллекта. Они будут не просто предоставлять услугу, а формировать саму реальность для миллионов «операторов», определяя, какие идеи и решения будут сгенерированы.
Эти сценарии — не антиутопическая фантазия, а логическое продолжение тренда, который мы наблюдаем последние годы. Мы стоим на пороге мира, где неравенство может достигнуть абсолютного предела: одни будут думать, а другие — исполнять то, что за них подумала машина.
🤔Существует ли путь, который позволит использовать мощь ИИ, не продавая ему свой разум в рабство? Об этом — в финальной части.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍8❤3🤯2
