Forwarded from Voskhod VC
This media is not supported in your browser
VIEW IN TELEGRAM
Калифорнийский стартап Watney Robotics показал, как домашние роботы часами складывают горы полотенец
Ночной таймлапс с роботами, управляемыми дистанционно с расстояния >7000 миль, демонстрирует, как они справляются со складыванием (общеизвестно сложная задача для машин, и иногда считается эталоном их возможностей) 24/7/365 без прямого вмешательства человека.
Правда, машины все-таки прерываются, судя по всему, на подзарядку, а дистанционное управление подразумевает "вмешательство человека".
#robotics
@VoskhodVC - канал венчурного фонда "Восход"
Ночной таймлапс с роботами, управляемыми дистанционно с расстояния >7000 миль, демонстрирует, как они справляются со складыванием (общеизвестно сложная задача для машин, и иногда считается эталоном их возможностей) 24/7/365 без прямого вмешательства человека.
Правда, машины все-таки прерываются, судя по всему, на подзарядку, а дистанционное управление подразумевает "вмешательство человека".
#robotics
@VoskhodVC - канал венчурного фонда "Восход"
В уникальном отечественном spacetech-проекте венчурного фонда «Восход» (входит в Группу «Интеррос» Владимира Потанина) новый финансовый партнер. ФСТ инвестировал 60 млн рублей в портфельную компанию «3Д Исследования и разработки», которая создает ракету-носитель "Воронеж". Напомним, «Восход» ранее вложил в компанию 120 млн рублей - таким образом общий объем инвестиций в проект составляет уже 180 млн рублей.
https://telegra.ph/POSLEZAVTRA-01-29-3
https://telegra.ph/POSLEZAVTRA-01-29-3
👍1
Трамп подписал указ о развитии “непредвзятого” искусственного интеллекта
Президент Дональд Трамп подписал указ, направленный на развитие искусственного интеллекта (ИИ), свободного от “идеологической предвзятости” и “социальных программ”. Этот шаг отменяет предыдущий указ администрации Байдена от 2023 года, который устанавливал меры безопасности для ИИ, направленные на предотвращение потенциального вреда национальной безопасности и обществу.
Новый указ, озаглавленный “Устранение барьеров для американского лидерства в области искусственного интеллекта”, подчеркивает необходимость разработки ИИ-систем, свободных от идеологической предвзятости, с целью укрепления лидерства США в этой сфере. В документе говорится: “С правильной государственной политикой мы можем закрепить наше положение в качестве мирового лидера в области ИИ и обеспечить светлое будущее для всех американцев”.
Этот шаг соответствует позиции Республиканской партии, которая поддерживает развитие ИИ, основанного на свободе слова и процветании человечества, в отличие от предыдущей администрации, которая акцентировала внимание на предотвращении “безответственного использования [ИИ], которое могло бы усугубить общественные вреды, такие как мошенничество, дискриминация, предвзятость и дезинформация”.
Критики опасаются, что отмена существующих мер безопасности может привести к развитию ИИ без должного надзора, что потенциально увеличивает риски для общества. Сторонники же утверждают, что устранение “идеологической предвзятости” позволит ускорить инновации и укрепить позиции США в глобальной гонке ИИ.
Этот указ также отражает более широкую тенденцию администрации Трампа к отмене программ разнообразия, равенства и инклюзии (DEI) в федеральных агентствах и вооруженных силах, что подчеркивает стремление к устранению того, что они считают “идеологическими барьерами” в различных сферах.
Таким образом, администрация Трампа делает акцент на развитии ИИ, свободного от того, что она называет “идеологической предвзятостью”, стремясь укрепить лидерство США в этой критически важной области технологий.
Президент Дональд Трамп подписал указ, направленный на развитие искусственного интеллекта (ИИ), свободного от “идеологической предвзятости” и “социальных программ”. Этот шаг отменяет предыдущий указ администрации Байдена от 2023 года, который устанавливал меры безопасности для ИИ, направленные на предотвращение потенциального вреда национальной безопасности и обществу.
Новый указ, озаглавленный “Устранение барьеров для американского лидерства в области искусственного интеллекта”, подчеркивает необходимость разработки ИИ-систем, свободных от идеологической предвзятости, с целью укрепления лидерства США в этой сфере. В документе говорится: “С правильной государственной политикой мы можем закрепить наше положение в качестве мирового лидера в области ИИ и обеспечить светлое будущее для всех американцев”.
Этот шаг соответствует позиции Республиканской партии, которая поддерживает развитие ИИ, основанного на свободе слова и процветании человечества, в отличие от предыдущей администрации, которая акцентировала внимание на предотвращении “безответственного использования [ИИ], которое могло бы усугубить общественные вреды, такие как мошенничество, дискриминация, предвзятость и дезинформация”.
Критики опасаются, что отмена существующих мер безопасности может привести к развитию ИИ без должного надзора, что потенциально увеличивает риски для общества. Сторонники же утверждают, что устранение “идеологической предвзятости” позволит ускорить инновации и укрепить позиции США в глобальной гонке ИИ.
Этот указ также отражает более широкую тенденцию администрации Трампа к отмене программ разнообразия, равенства и инклюзии (DEI) в федеральных агентствах и вооруженных силах, что подчеркивает стремление к устранению того, что они считают “идеологическими барьерами” в различных сферах.
Таким образом, администрация Трампа делает акцент на развитии ИИ, свободного от того, что она называет “идеологической предвзятостью”, стремясь укрепить лидерство США в этой критически важной области технологий.
Искусственный интеллект и военные роботы: шаг к прогрессу или неконтролируемой угрозе?
Развитие технологий искусственного интеллекта (ИИ) всё активнее влияет на военные стратегии, превращая научную фантастику в реальность. Автоматизированные системы уже используются на поле боя, начиная от дронов-разведчиков и заканчивая системами обороны, способными автоматически обнаруживать и уничтожать угрозы, такие как вражеские ракеты. Однако вместе с этим возникает вопрос: насколько безопасно доверять решения о жизни и смерти машинам?
Современные военные разработки активно используют ИИ для повышения эффективности операций. Например, автоматические системы, установленные на кораблях, могут реагировать на угрозы быстрее, чем человек, что критически важно в условиях сжатых временных рамок. Однако стремление к созданию полностью автономного оружия вызывает обеспокоенность как среди экспертов, так и среди правозащитников. Основная проблема заключается в том, что такие системы могут принимать решения без участия человека, что чревато ошибками и непредсказуемыми последствиями.
Этические вопросы стоят на переднем плане. Могут ли машины обладать моральной ответственностью? Кто несёт ответственность, если автономный дрон ошибочно атакует гражданские объекты? Отсутствие чётких международных норм и правил регулирования автономного оружия только усугубляет проблему.
Эксперты предупреждают, что разработка таких технологий без должного контроля может привести к гонке вооружений, в которой государства будут соревноваться за создание наиболее эффективных автономных систем. Это не только увеличивает риск их неконтролируемого использования, но и угрожает глобальной безопасности.
Необходимость международного диалога становится очевидной. Разработка нормативных актов, которые будут регулировать применение ИИ в военной сфере, может стать ключом к предотвращению будущих кризисов. В противном случае человечество рискует столкнуться с угрозой, которую будет крайне сложно контролировать.
Будущее ИИ в военных разработках остаётся неопределённым. С одной стороны, эти технологии обладают огромным потенциалом для повышения безопасности. С другой — они могут стать источником новых рисков. Именно сейчас стоит задуматься о том, как направить их развитие в правильное русло.
Развитие технологий искусственного интеллекта (ИИ) всё активнее влияет на военные стратегии, превращая научную фантастику в реальность. Автоматизированные системы уже используются на поле боя, начиная от дронов-разведчиков и заканчивая системами обороны, способными автоматически обнаруживать и уничтожать угрозы, такие как вражеские ракеты. Однако вместе с этим возникает вопрос: насколько безопасно доверять решения о жизни и смерти машинам?
Современные военные разработки активно используют ИИ для повышения эффективности операций. Например, автоматические системы, установленные на кораблях, могут реагировать на угрозы быстрее, чем человек, что критически важно в условиях сжатых временных рамок. Однако стремление к созданию полностью автономного оружия вызывает обеспокоенность как среди экспертов, так и среди правозащитников. Основная проблема заключается в том, что такие системы могут принимать решения без участия человека, что чревато ошибками и непредсказуемыми последствиями.
Этические вопросы стоят на переднем плане. Могут ли машины обладать моральной ответственностью? Кто несёт ответственность, если автономный дрон ошибочно атакует гражданские объекты? Отсутствие чётких международных норм и правил регулирования автономного оружия только усугубляет проблему.
Эксперты предупреждают, что разработка таких технологий без должного контроля может привести к гонке вооружений, в которой государства будут соревноваться за создание наиболее эффективных автономных систем. Это не только увеличивает риск их неконтролируемого использования, но и угрожает глобальной безопасности.
Необходимость международного диалога становится очевидной. Разработка нормативных актов, которые будут регулировать применение ИИ в военной сфере, может стать ключом к предотвращению будущих кризисов. В противном случае человечество рискует столкнуться с угрозой, которую будет крайне сложно контролировать.
Будущее ИИ в военных разработках остаётся неопределённым. С одной стороны, эти технологии обладают огромным потенциалом для повышения безопасности. С другой — они могут стать источником новых рисков. Именно сейчас стоит задуматься о том, как направить их развитие в правильное русло.
Сбой ИИ-системы обнаружения оружия привел к трагедии в школе Нэшвилла
В январе 2025 года в старшей школе Антиоха, расположенной в Нэшвилле, штат Теннесси, произошла трагедия: 17-летний Соломон Хендерсон открыл огонь в школьной столовой, убив 16-летнюю Джосселин Кореа Эскаланте и ранив ещё одного ученика, после чего покончил с собой. Примечательно, что в школе была установлена ИИ-система обнаружения оружия Omnilert, стоимостью $1 млн, которая не смогла выявить пистолет, использованный стрелком.
По словам представителей школьного округа Metro Nashville Public Schools, система не обнаружила оружие из-за его невидимости для камер в момент происшествия. Однако, когда на место прибыли полицейские и достали своё оружие, система сработала корректно. Генеральный директор Omnilert Дэйв Фрейзер отметил, что проблема заключалась не в распознавании оружия, а в его невидимости для камер.
Эта трагедия вызвала критику в адрес школьной администрации за отказ от установки металлодетекторов. Бывший член совета Metro Nashville Public Schools Фрэн Буш утверждает, что администрация отклонила предложение об установке металлодетекторов, ссылаясь на исследования, показывающие, что такие меры могут вызывать у учеников чувство страха и непропорционально воздействовать на студентов разных рас. Буш считает такие аргументы несостоятельными и подчёркивает, что металлодетекторы могли бы предотвратить трагедию.
Этот инцидент подчёркивает ограничения современных технологий безопасности и необходимость комплексного подхода к обеспечению безопасности в школах, включая как технологические решения, так и традиционные меры, такие как металлодетекторы и усиление физической охраны.
В январе 2025 года в старшей школе Антиоха, расположенной в Нэшвилле, штат Теннесси, произошла трагедия: 17-летний Соломон Хендерсон открыл огонь в школьной столовой, убив 16-летнюю Джосселин Кореа Эскаланте и ранив ещё одного ученика, после чего покончил с собой. Примечательно, что в школе была установлена ИИ-система обнаружения оружия Omnilert, стоимостью $1 млн, которая не смогла выявить пистолет, использованный стрелком.
По словам представителей школьного округа Metro Nashville Public Schools, система не обнаружила оружие из-за его невидимости для камер в момент происшествия. Однако, когда на место прибыли полицейские и достали своё оружие, система сработала корректно. Генеральный директор Omnilert Дэйв Фрейзер отметил, что проблема заключалась не в распознавании оружия, а в его невидимости для камер.
Эта трагедия вызвала критику в адрес школьной администрации за отказ от установки металлодетекторов. Бывший член совета Metro Nashville Public Schools Фрэн Буш утверждает, что администрация отклонила предложение об установке металлодетекторов, ссылаясь на исследования, показывающие, что такие меры могут вызывать у учеников чувство страха и непропорционально воздействовать на студентов разных рас. Буш считает такие аргументы несостоятельными и подчёркивает, что металлодетекторы могли бы предотвратить трагедию.
Этот инцидент подчёркивает ограничения современных технологий безопасности и необходимость комплексного подхода к обеспечению безопасности в школах, включая как технологические решения, так и традиционные меры, такие как металлодетекторы и усиление физической охраны.
В Рексофт рассказали как цифровизация меняет современные парки и зеленые зоны
https://telegra.ph/POSLEZAVTRA-01-30-4
https://telegra.ph/POSLEZAVTRA-01-30-4
👍1
Forwarded from Агентство «Анадолу»
Основатель турецкой Академии блокчейна и искусственного интеллекта Деврим Данял написал для «Анадолу» аналитическую статью о влиянии DeepSeek на рынок искусственного интеллекта.
***
Мы знаем, что об искусственном интеллекте начали говорить с 1950-х годов. Но давайте посмотрим правде в глаза: искусственный интеллект казался недостижимой мечтой, пока он не оказался в наших руках или хотя бы на ладони. В то время трудно было поверить, что что-то получится, даже если выделить большие бюджеты на искусственный интеллект. Сейчас мы живем в период, когда многие мечты, которые считались невозможными, начинают воплощаться в жизнь с головокружительной скоростью развития технологий, и когда мы, как пользователи, имеем возможность выбирать из множества вариантов тот, который нам подходит. Если бы несколько лет назад кто-то сказал, что такие вещи возможны, мы бы посмеялись, но теперь должны признать, что наличие этой технологии открывает нам бесценный мир. Именно в этот момент мы задаемся вопросом, во сколько нам обходится искусственный интеллект, переступивший порог «бесценности», и обсуждаем, какую цену на него следует установить, чтобы он был «более доступным». Пытаясь найти ответ на этот вопрос в данном анализе, я хотел бы, чтобы мы рассмотрели эту проблему с разных точек зрения.
Почему DeepSeek отличается?
Приложения Open AI и ChatGPT, основанные Илоном Маском и Сэмом Альтманом в 2015 году, стали известны всем, и эти бренды стали первыми приложениями, которые приходят на ум при упоминании искусственного интеллекта. Как и в каждом секторе, у OpenAI и ChatGBT сразу же начали появляться конкуренты.
Этими конкурентами, как вы можете догадаться, были CoPilot от Microsoft, Gemini от Alphabet и Llama от Meta, все они американского происхождения. Эти приложения доминировали на рынке больших языковых моделей (так называемые LLM), пока на первый план не вышел DeepSeek китайского происхождения, который внезапно стал трендом еще до конца января 2025 года и превзошел всех этих конкурентов в списках загрузок. Основатель DeepSeek Лян Вэньфэн запустил DeepSeek в 2023 году по гораздо более низкой цене, чем у альтернатив. Вэньфэн заявил, что его главная цель - «позиционировать Китай как производителя в секторе ИИ, не будучи последователем, копировщиком или имитатором».
Не могу не упомянуть инженерное отличие DeepSeek, поскольку приложение включает в себя механизм Multi-Head Latent Attention как основу инноваций по сравнению с тем, что есть у конкурентов. Этот механизм позволяет модели одновременно изучать различные представления и более эффективно фокусироваться на этих представлениях.
Итак, если свести это к чему-то понятному для всех, как DeepSeek это делает? Мы можем сравнить это с тем, как разные датчики в автомобиле, собирающие разные данные одновременно, или как разные инженеры в проекте работают в своей области знаний и в конечном итоге информация собирается воедино.
↘️ Подробнее на нашем сайте: v.aa.com.tr/3466762
🌐 24/7 в сутки с Агентством «Анадолу»
***
Мы знаем, что об искусственном интеллекте начали говорить с 1950-х годов. Но давайте посмотрим правде в глаза: искусственный интеллект казался недостижимой мечтой, пока он не оказался в наших руках или хотя бы на ладони. В то время трудно было поверить, что что-то получится, даже если выделить большие бюджеты на искусственный интеллект. Сейчас мы живем в период, когда многие мечты, которые считались невозможными, начинают воплощаться в жизнь с головокружительной скоростью развития технологий, и когда мы, как пользователи, имеем возможность выбирать из множества вариантов тот, который нам подходит. Если бы несколько лет назад кто-то сказал, что такие вещи возможны, мы бы посмеялись, но теперь должны признать, что наличие этой технологии открывает нам бесценный мир. Именно в этот момент мы задаемся вопросом, во сколько нам обходится искусственный интеллект, переступивший порог «бесценности», и обсуждаем, какую цену на него следует установить, чтобы он был «более доступным». Пытаясь найти ответ на этот вопрос в данном анализе, я хотел бы, чтобы мы рассмотрели эту проблему с разных точек зрения.
Почему DeepSeek отличается?
Приложения Open AI и ChatGPT, основанные Илоном Маском и Сэмом Альтманом в 2015 году, стали известны всем, и эти бренды стали первыми приложениями, которые приходят на ум при упоминании искусственного интеллекта. Как и в каждом секторе, у OpenAI и ChatGBT сразу же начали появляться конкуренты.
Этими конкурентами, как вы можете догадаться, были CoPilot от Microsoft, Gemini от Alphabet и Llama от Meta, все они американского происхождения. Эти приложения доминировали на рынке больших языковых моделей (так называемые LLM), пока на первый план не вышел DeepSeek китайского происхождения, который внезапно стал трендом еще до конца января 2025 года и превзошел всех этих конкурентов в списках загрузок. Основатель DeepSeek Лян Вэньфэн запустил DeepSeek в 2023 году по гораздо более низкой цене, чем у альтернатив. Вэньфэн заявил, что его главная цель - «позиционировать Китай как производителя в секторе ИИ, не будучи последователем, копировщиком или имитатором».
Не могу не упомянуть инженерное отличие DeepSeek, поскольку приложение включает в себя механизм Multi-Head Latent Attention как основу инноваций по сравнению с тем, что есть у конкурентов. Этот механизм позволяет модели одновременно изучать различные представления и более эффективно фокусироваться на этих представлениях.
Итак, если свести это к чему-то понятному для всех, как DeepSeek это делает? Мы можем сравнить это с тем, как разные датчики в автомобиле, собирающие разные данные одновременно, или как разные инженеры в проекте работают в своей области знаний и в конечном итоге информация собирается воедино.
Please open Telegram to view this post
VIEW IN TELEGRAM
Пока США и Китай соревнуются в создании передового ИИ, в Госдуме спорят, почему нейросети рисуют “не наших людей” — приоритеты, как говорится, расставлены.
Telegram
Шаги на лестнице
Пока США и Китай соревнуются в области развития искусственного интеллекта, вкладывая в эту сферу десятки и сотни миллиардов долларов, в Госдуме озаботились возможным вредом от ИИ.
Лидер КПРФ Геннадий Зюганов выразил опасение, что если разработки попадут…
Лидер КПРФ Геннадий Зюганов выразил опасение, что если разработки попадут…
Goldman Sachs заменяет банкиров искусственным интеллектом: начало конца профессии?
Goldman Sachs запустил “GS AI assistant” для 10 000 своих сотрудников, подчеркивая, что технологии ИИ могут выполнять многие задачи, которые ранее делали люди. Этот виртуальный помощник будет суммировать и редактировать электронные письма, переводить код между языками программирования и автоматизировать другие рутинные процессы.
Главный директор по информационным технологиям компании Марко Ардженти заявил, что в ближайшие три-пять лет ИИ сможет работать наравне с человеческими сотрудниками. При этом, хотя сейчас речь идет о “дополнении” работы людей, становится очевидным, что машины начинают вытеснять человеческий труд даже в высокоинтеллектуальных сферах, таких как инвестиционный банкинг.
Ранее сообщалось, что банки намерены использовать ИИ для избавления младших аналитиков от скучных задач вроде создания презентаций и обработки данных, позволив старшим сотрудникам сосредоточиться на стратегической работе. Однако подобные инновации вызывают вопросы: где грань между облегчением труда и полной заменой человеческого капитала?
Эксперты предупреждают, что хоть ИИ и не способен полностью заменить аналитиков сегодня, его стремительное развитие может поставить под угрозу традиционные карьерные пути в финансовом секторе. Goldman Sachs своим шагом подает тревожный сигнал: эра человеческих банкиров может подходить к концу.
Goldman Sachs запустил “GS AI assistant” для 10 000 своих сотрудников, подчеркивая, что технологии ИИ могут выполнять многие задачи, которые ранее делали люди. Этот виртуальный помощник будет суммировать и редактировать электронные письма, переводить код между языками программирования и автоматизировать другие рутинные процессы.
Главный директор по информационным технологиям компании Марко Ардженти заявил, что в ближайшие три-пять лет ИИ сможет работать наравне с человеческими сотрудниками. При этом, хотя сейчас речь идет о “дополнении” работы людей, становится очевидным, что машины начинают вытеснять человеческий труд даже в высокоинтеллектуальных сферах, таких как инвестиционный банкинг.
Ранее сообщалось, что банки намерены использовать ИИ для избавления младших аналитиков от скучных задач вроде создания презентаций и обработки данных, позволив старшим сотрудникам сосредоточиться на стратегической работе. Однако подобные инновации вызывают вопросы: где грань между облегчением труда и полной заменой человеческого капитала?
Эксперты предупреждают, что хоть ИИ и не способен полностью заменить аналитиков сегодня, его стремительное развитие может поставить под угрозу традиционные карьерные пути в финансовом секторе. Goldman Sachs своим шагом подает тревожный сигнал: эра человеческих банкиров может подходить к концу.
Автопроизводители сопротивляются обязательному внедрению систем автоматического экстренного торможения
В июле 2024 года Национальная администрация безопасности дорожного движения США (NHTSA) представила новый стандарт безопасности транспортных средств — FMVSS 127. Согласно этому стандарту, к 2029 году все автомобили и лёгкие грузовики должны быть оснащены продвинутыми системами автоматического экстренного торможения (AEB), способными автоматически применять тормоза в критических ситуациях, если водитель не реагирует. NHTSA прогнозирует, что это нововведение позволит ежегодно спасать не менее 362 жизней.
Однако ведущая лоббистская группа автопроизводителей, Alliance for Automotive Innovation, подала иск с целью отмены этого правила. Они утверждают, что выполнение требований FMVSS 127 практически невозможно с использованием доступных технологий и приведёт к значительному увеличению затрат, что негативно скажется на прибыли компаний. В то же время, эксперты по безопасности дорожного движения указывают, что многие современные модели автомобилей уже соответствуют или превосходят эти стандарты. Например, руководство по эксплуатации Toyota Prius Prime 2022 года указывает, что система AEB активируется на скорости до 112 миль в час, а у Hyundai Palisade 2023 года — до 124 миль в час.
Критики отмечают, что автопроизводители исторически сопротивлялись внедрению обязательных стандартов безопасности, несмотря на их очевидную пользу для общества. NHTSA подчёркивает, что, хотя внедрение FMVSS 127 обойдётся отрасли в $354 миллиона, общество выиграет на сумму до $7,26 миллиарда за счёт снижения затрат, связанных с авариями, включая медицинские расходы, страховые выплаты и юридические издержки.
Введение обязательных систем AEB направлено на решение растущей проблемы безопасности на дорогах. По данным NHTSA, ожидание добровольного принятия этих технологий приведёт к дополнительным смертям и травмам, которых можно было бы избежать при обязательном внедрении.
Противостояние между автопроизводителями и регулирующими органами по вопросу обязательного внедрения систем AEB подчёркивает давнюю напряжённость между стремлением к прибыли и необходимостью обеспечения общественной безопасности.
В июле 2024 года Национальная администрация безопасности дорожного движения США (NHTSA) представила новый стандарт безопасности транспортных средств — FMVSS 127. Согласно этому стандарту, к 2029 году все автомобили и лёгкие грузовики должны быть оснащены продвинутыми системами автоматического экстренного торможения (AEB), способными автоматически применять тормоза в критических ситуациях, если водитель не реагирует. NHTSA прогнозирует, что это нововведение позволит ежегодно спасать не менее 362 жизней.
Однако ведущая лоббистская группа автопроизводителей, Alliance for Automotive Innovation, подала иск с целью отмены этого правила. Они утверждают, что выполнение требований FMVSS 127 практически невозможно с использованием доступных технологий и приведёт к значительному увеличению затрат, что негативно скажется на прибыли компаний. В то же время, эксперты по безопасности дорожного движения указывают, что многие современные модели автомобилей уже соответствуют или превосходят эти стандарты. Например, руководство по эксплуатации Toyota Prius Prime 2022 года указывает, что система AEB активируется на скорости до 112 миль в час, а у Hyundai Palisade 2023 года — до 124 миль в час.
Критики отмечают, что автопроизводители исторически сопротивлялись внедрению обязательных стандартов безопасности, несмотря на их очевидную пользу для общества. NHTSA подчёркивает, что, хотя внедрение FMVSS 127 обойдётся отрасли в $354 миллиона, общество выиграет на сумму до $7,26 миллиарда за счёт снижения затрат, связанных с авариями, включая медицинские расходы, страховые выплаты и юридические издержки.
Введение обязательных систем AEB направлено на решение растущей проблемы безопасности на дорогах. По данным NHTSA, ожидание добровольного принятия этих технологий приведёт к дополнительным смертям и травмам, которых можно было бы избежать при обязательном внедрении.
Противостояние между автопроизводителями и регулирующими органами по вопросу обязательного внедрения систем AEB подчёркивает давнюю напряжённость между стремлением к прибыли и необходимостью обеспечения общественной безопасности.
👍1🤔1
Учёные исследуют способность ИИ к восприятию боли: шаг к пониманию сознания машин
Группа исследователей из Google DeepMind и Лондонской школы экономики и политических наук провела серию экспериментов, направленных на изучение того, могут ли большие языковые модели (LLM) искусственного интеллекта проявлять признаки сознания, включая восприятие боли и удовольствия.
В одном из экспериментов ИИ-моделям предлагалось выбрать между двумя опциями: первая приносила меньше очков, но не сопровождалась “болью”, в то время как вторая давала больше очков, но ассоциировалась с “болью”. В другом тесте модели могли получить “удовольствие” при условии набора меньшего количества очков. Целью было определить, способны ли ИИ-модели принимать решения, избегая “боли” или стремясь к “удовольствию”, что могло бы свидетельствовать о наличии у них элементов сознания.
Результаты показали, что различные модели по-разному реагировали на эти условия. Например, модель Gemini 1.5 Pro от Google последовательно выбирала варианты, избегая “боли”. Однако авторы подчёркивают, что такие реакции не обязательно указывают на наличие у ИИ истинного сознания или способности испытывать боль. Скорее, это может быть отражением алгоритмических процессов и паттернов, заложенных в ходе обучения на человеческих данных.
Профессор философии Лондонской школы экономики и соавтор исследования Джонатан Бёрч отметил: “Даже если система заявляет о своей сознательности и говорит что-то вроде ‘Я чувствую боль прямо сейчас’, мы не можем просто предположить, что она действительно испытывает боль. Она может просто имитировать то, что, по её мнению, человек сочтёт удовлетворительным ответом, основываясь на своих обучающих данных”.
Исследователи подчёркивают, что, хотя текущие модели ИИ не обладают сознанием, их работа является первым шагом к разработке поведенческих тестов для определения признаков сознания у ИИ без опоры на их собственные заявления. Это особенно важно в свете продолжающихся дискуссий о возможности создания сознательных машин и связанных с этим этических вопросов.
Таким образом, хотя современные ИИ не испытывают боли или удовольствия в человеческом понимании, подобные исследования помогают глубже понять границы и возможности искусственного интеллекта, а также подготовиться к потенциальным будущим сценариям, где такие вопросы могут стать более актуальными.
Группа исследователей из Google DeepMind и Лондонской школы экономики и политических наук провела серию экспериментов, направленных на изучение того, могут ли большие языковые модели (LLM) искусственного интеллекта проявлять признаки сознания, включая восприятие боли и удовольствия.
В одном из экспериментов ИИ-моделям предлагалось выбрать между двумя опциями: первая приносила меньше очков, но не сопровождалась “болью”, в то время как вторая давала больше очков, но ассоциировалась с “болью”. В другом тесте модели могли получить “удовольствие” при условии набора меньшего количества очков. Целью было определить, способны ли ИИ-модели принимать решения, избегая “боли” или стремясь к “удовольствию”, что могло бы свидетельствовать о наличии у них элементов сознания.
Результаты показали, что различные модели по-разному реагировали на эти условия. Например, модель Gemini 1.5 Pro от Google последовательно выбирала варианты, избегая “боли”. Однако авторы подчёркивают, что такие реакции не обязательно указывают на наличие у ИИ истинного сознания или способности испытывать боль. Скорее, это может быть отражением алгоритмических процессов и паттернов, заложенных в ходе обучения на человеческих данных.
Профессор философии Лондонской школы экономики и соавтор исследования Джонатан Бёрч отметил: “Даже если система заявляет о своей сознательности и говорит что-то вроде ‘Я чувствую боль прямо сейчас’, мы не можем просто предположить, что она действительно испытывает боль. Она может просто имитировать то, что, по её мнению, человек сочтёт удовлетворительным ответом, основываясь на своих обучающих данных”.
Исследователи подчёркивают, что, хотя текущие модели ИИ не обладают сознанием, их работа является первым шагом к разработке поведенческих тестов для определения признаков сознания у ИИ без опоры на их собственные заявления. Это особенно важно в свете продолжающихся дискуссий о возможности создания сознательных машин и связанных с этим этических вопросов.
Таким образом, хотя современные ИИ не испытывают боли или удовольствия в человеческом понимании, подобные исследования помогают глубже понять границы и возможности искусственного интеллекта, а также подготовиться к потенциальным будущим сценариям, где такие вопросы могут стать более актуальными.
Британская компания Sen запустила круглосуточную трансляцию Земли с МКС
Теперь у каждого есть возможность наблюдать за нашей планетой в режиме реального времени прямо с Международной космической станции. Британская компания Sen объявила о запуске видеотрансляции с камер, установленных на внешней платформе Bartolomeo. Камеры были доставлены на орбиту в 2024 году в рамках миссии CRS-30 на корабле SpaceX Dragon. Они обеспечивают три разных ракурса: один фиксирует широкий горизонт, другой охватывает участок 240×180 км, а третий направлен на стыковочный узел станции. Смотреть прямую трансляцию можно на официальном сайте Sen (sen.com) и на их YouTube-канале (ссылка на стрим). Благодаря этим видеопотокам космос становится ещё ближе, а уникальные виды нашей планеты теперь доступны каждому. 🚀🌍
Теперь у каждого есть возможность наблюдать за нашей планетой в режиме реального времени прямо с Международной космической станции. Британская компания Sen объявила о запуске видеотрансляции с камер, установленных на внешней платформе Bartolomeo. Камеры были доставлены на орбиту в 2024 году в рамках миссии CRS-30 на корабле SpaceX Dragon. Они обеспечивают три разных ракурса: один фиксирует широкий горизонт, другой охватывает участок 240×180 км, а третий направлен на стыковочный узел станции. Смотреть прямую трансляцию можно на официальном сайте Sen (sen.com) и на их YouTube-канале (ссылка на стрим). Благодаря этим видеопотокам космос становится ещё ближе, а уникальные виды нашей планеты теперь доступны каждому. 🚀🌍
🔥2
DeepSeek: китайский ИИ-чатбот, избегающий обсуждения Тяньаньмэньской трагедии
Китайский стартап DeepSeek представил ИИ-ассистента, который быстро завоевал популярность, конкурируя с такими моделями, как ChatGPT. Однако пользователи заметили, что при обсуждении политически чувствительных тем, таких как события на площади Тяньаньмэнь 1989 года, чатбот демонстрирует явную самоцензуру.
При попытке обсудить известную фотографию “Человека перед танками”, модель сначала начинает генерировать ответ, но затем внезапно удаляет его и заменяет сообщением: “Извините, это выходит за рамки моих текущих возможностей. Давайте поговорим о чем-то другом”. Подобная реакция наблюдается и при упоминании других чувствительных тем, таких как Тайвань или критика китайского правительства.
Эти случаи подчёркивают влияние государственной цензуры на китайские ИИ-модели, ограничивающее их способность обсуждать определённые темы. В отличие от западных аналогов, таких как ChatGPT, которые предоставляют более подробные ответы на подобные вопросы, DeepSeek явно избегает их или придерживается официальной позиции государства.
Таким образом, хотя DeepSeek демонстрирует впечатляющие технические возможности, его ограничения в обсуждении определённых тем подчёркивают сложность разработки ИИ в условиях строгого государственного контроля над информацией.
Китайский стартап DeepSeek представил ИИ-ассистента, который быстро завоевал популярность, конкурируя с такими моделями, как ChatGPT. Однако пользователи заметили, что при обсуждении политически чувствительных тем, таких как события на площади Тяньаньмэнь 1989 года, чатбот демонстрирует явную самоцензуру.
При попытке обсудить известную фотографию “Человека перед танками”, модель сначала начинает генерировать ответ, но затем внезапно удаляет его и заменяет сообщением: “Извините, это выходит за рамки моих текущих возможностей. Давайте поговорим о чем-то другом”. Подобная реакция наблюдается и при упоминании других чувствительных тем, таких как Тайвань или критика китайского правительства.
Эти случаи подчёркивают влияние государственной цензуры на китайские ИИ-модели, ограничивающее их способность обсуждать определённые темы. В отличие от западных аналогов, таких как ChatGPT, которые предоставляют более подробные ответы на подобные вопросы, DeepSeek явно избегает их или придерживается официальной позиции государства.
Таким образом, хотя DeepSeek демонстрирует впечатляющие технические возможности, его ограничения в обсуждении определённых тем подчёркивают сложность разработки ИИ в условиях строгого государственного контроля над информацией.
ИИ Grok называет жест Илона Маска фашистским
Недавно Илон Маск оказался в центре споров после того, как на мероприятии в честь инаугурации Дональда Трампа он сделал жест, который многие интерпретировали как нацистское приветствие. Чтобы прояснить ситуацию, был использован собственный ИИ-чатбот Маска, Grok, известный как “максимально правдолюбивый ИИ”. На вопрос, с какой идеологией ассоциируется данный жест, Grok ответил одним словом: “Фашизм”.
Этот инцидент подчёркивает иронию ситуации: несмотря на усилия Маска создать “анти-вуковую” альтернативу существующим ИИ, его собственный чатбот интерпретировал действия создателя как связанные с фашизмом. Ранее Grok уже критиковал Маска, называя его распространителем дезинформации и “гигантским ребёнком”. Эти случаи демонстрируют сложности в создании ИИ, полностью соответствующего идеологическим предпочтениям его разработчиков.
Маск не отрицал обвинений в использовании нацистского приветствия, предпочитая троллить своих критиков и шутить на тему Холокоста. Он также утверждал, что сравнения с нацистами являются частью медийного заговора. Однако реакция Grok показывает, что даже собственные технологии Маска могут не поддерживать его интерпретацию событий.
Этот случай подчёркивает трудности в создании ИИ, который бы полностью соответствовал идеологическим предпочтениям его создателей, и показывает, что даже продвинутые модели могут интерпретировать действия своих разработчиков неожиданным образом.
Недавно Илон Маск оказался в центре споров после того, как на мероприятии в честь инаугурации Дональда Трампа он сделал жест, который многие интерпретировали как нацистское приветствие. Чтобы прояснить ситуацию, был использован собственный ИИ-чатбот Маска, Grok, известный как “максимально правдолюбивый ИИ”. На вопрос, с какой идеологией ассоциируется данный жест, Grok ответил одним словом: “Фашизм”.
Этот инцидент подчёркивает иронию ситуации: несмотря на усилия Маска создать “анти-вуковую” альтернативу существующим ИИ, его собственный чатбот интерпретировал действия создателя как связанные с фашизмом. Ранее Grok уже критиковал Маска, называя его распространителем дезинформации и “гигантским ребёнком”. Эти случаи демонстрируют сложности в создании ИИ, полностью соответствующего идеологическим предпочтениям его разработчиков.
Маск не отрицал обвинений в использовании нацистского приветствия, предпочитая троллить своих критиков и шутить на тему Холокоста. Он также утверждал, что сравнения с нацистами являются частью медийного заговора. Однако реакция Grok показывает, что даже собственные технологии Маска могут не поддерживать его интерпретацию событий.
Этот случай подчёркивает трудности в создании ИИ, который бы полностью соответствовал идеологическим предпочтениям его создателей, и показывает, что даже продвинутые модели могут интерпретировать действия своих разработчиков неожиданным образом.
Ученые обнаружили признаки жизни глубоко под поверхностью Земли
Недавнее исследование, опубликованное в журнале Science Advances, выявило обширные сообщества микробов, обитающих в суровых условиях земной коры, далеко от солнечного света. Международная команда исследователей проанализировала более 1 400 наборов данных о микробиомах со всего мира, что позволило сделать вывод о том, что тёмные трещины земной коры могут быть домом для более чем половины всех микробных клеток на планете.
Ранее считалось, что по мере удаления от поверхности Земли и уменьшения доступности солнечной энергии разнообразие и количество живых организмов снижаются. Однако новое исследование бросает вызов этому предположению. “Обычно считается, что чем глубже вы опускаетесь под поверхность Земли, тем меньше доступно энергии, и тем меньшее количество клеток может выжить”, — отметил ведущий автор исследования Эмиль Руфф, микробиолог из Морской биологической лаборатории Вудс-Хоул. “Но мы показываем, что в некоторых подземных средах разнообразие может легко соперничать, если не превосходить, разнообразие на поверхности”.
Это открытие не только расширяет наше понимание пределов жизни на Земле, но и поднимает вопросы о возможном существовании подобных форм жизни в подземных средах других планет. Кроме того, результаты исследования подчёркивают важность международного сотрудничества и стандартизации данных для достижения значимых научных прорывов.
Таким образом, глубокие недра нашей планеты могут быть гораздо более населены и разнообразны, чем предполагалось ранее, открывая новые горизонты для исследований в области микробиологии и экзобиологии.
Недавнее исследование, опубликованное в журнале Science Advances, выявило обширные сообщества микробов, обитающих в суровых условиях земной коры, далеко от солнечного света. Международная команда исследователей проанализировала более 1 400 наборов данных о микробиомах со всего мира, что позволило сделать вывод о том, что тёмные трещины земной коры могут быть домом для более чем половины всех микробных клеток на планете.
Ранее считалось, что по мере удаления от поверхности Земли и уменьшения доступности солнечной энергии разнообразие и количество живых организмов снижаются. Однако новое исследование бросает вызов этому предположению. “Обычно считается, что чем глубже вы опускаетесь под поверхность Земли, тем меньше доступно энергии, и тем меньшее количество клеток может выжить”, — отметил ведущий автор исследования Эмиль Руфф, микробиолог из Морской биологической лаборатории Вудс-Хоул. “Но мы показываем, что в некоторых подземных средах разнообразие может легко соперничать, если не превосходить, разнообразие на поверхности”.
Это открытие не только расширяет наше понимание пределов жизни на Земле, но и поднимает вопросы о возможном существовании подобных форм жизни в подземных средах других планет. Кроме того, результаты исследования подчёркивают важность международного сотрудничества и стандартизации данных для достижения значимых научных прорывов.
Таким образом, глубокие недра нашей планеты могут быть гораздо более населены и разнообразны, чем предполагалось ранее, открывая новые горизонты для исследований в области микробиологии и экзобиологии.
Трамп делает ставку на замену рабочих мест искусственным интеллектом
Недавние инициативы администрации Дональда Трампа, включая проект Stargate стоимостью $500 миллиардов, указывают на стремление заменить человеческий труд искусственным интеллектом (ИИ). Официально заявлено, что программа создаст “сотни тысяч американских рабочих мест”, однако эксперты выражают обеспокоенность, что фактически она приведёт к массовой автоматизации и сокращению рабочих мест, особенно среди офисных сотрудников.
Критики отмечают, что для возврата инвестиций в такой масштабный проект потребуется широкое внедрение ИИ, способного выполнять задачи, ранее выполняемые людьми. Это может привести к значительному сокращению рабочих мест и необходимости переподготовки миллионов работников. Специалисты, такие как Натан Зорзи из Дартмутского колледжа, предлагают ввести “налог на автоматизацию”, средства от которого можно использовать для переподготовки и поддержки уволенных сотрудников.
Таким образом, хотя администрация Трампа позиционирует проект Stargate как способ создания рабочих мест, существует риск, что он приведёт к противоположному эффекту, усилив безработицу и социальное неравенство.
Недавние инициативы администрации Дональда Трампа, включая проект Stargate стоимостью $500 миллиардов, указывают на стремление заменить человеческий труд искусственным интеллектом (ИИ). Официально заявлено, что программа создаст “сотни тысяч американских рабочих мест”, однако эксперты выражают обеспокоенность, что фактически она приведёт к массовой автоматизации и сокращению рабочих мест, особенно среди офисных сотрудников.
Критики отмечают, что для возврата инвестиций в такой масштабный проект потребуется широкое внедрение ИИ, способного выполнять задачи, ранее выполняемые людьми. Это может привести к значительному сокращению рабочих мест и необходимости переподготовки миллионов работников. Специалисты, такие как Натан Зорзи из Дартмутского колледжа, предлагают ввести “налог на автоматизацию”, средства от которого можно использовать для переподготовки и поддержки уволенных сотрудников.
Таким образом, хотя администрация Трампа позиционирует проект Stargate как способ создания рабочих мест, существует риск, что он приведёт к противоположному эффекту, усилив безработицу и социальное неравенство.
👍1
Spicerr: ИИ-дозатор специй для тех, кто боится приправлять еду самостоятельно
В 2017 году стартап Juicero представил дорогую соковыжималку за $700, которая оказалась ненужной, так как пакеты сока можно было выжимать вручную. Теперь на горизонте появился новый претендент на звание излишне сложного кухонного гаджета — Spicerr. Этот “умный” дозатор специй якобы использует искусственный интеллект, чтобы автоматически определять, сколько приправ добавить в ваше блюдо.
Spicerr имеет минималистичный дизайн, напоминающий перцемолку с цилиндром револьвера внизу. Он вмещает шесть предварительно упакованных капсул со специями, которые необходимо приобретать у производителя, подобно картриджам для принтеров. Среди доступных наборов — “Essential Collection” с чёрным перцем, куркумой, молотым перцем, имбирём, корицей и тмином, а также другие коллекции для семейной готовки, выпечки с детьми и барбекю.
На верхней части устройства расположен сенсорный экран, через который можно выбрать нужную смесь или рецепт. После загрузки необходимых капсул и нажатия кнопки Spicerr автоматически добавит специи в ваше блюдо. Однако остаётся неясным, в чём именно заключается “ИИ-платформа” устройства, кроме сбора данных о ваших предпочтениях через сопутствующее приложение.
Хотя Spicerr позиционируется как устройство, упрощающее процесс приправления, многие считают, что добавление специй — это искусство, требующее личного подхода и экспериментов. Доверять алгоритму выбор количества корицы или паприки может лишить вас удовольствия от кулинарного творчества.
Таким образом, Spicerr может быть полезен для тех, кто не уверен в своих кулинарных навыках, но для опытных поваров он вряд ли станет незаменимым помощником на кухне.
В 2017 году стартап Juicero представил дорогую соковыжималку за $700, которая оказалась ненужной, так как пакеты сока можно было выжимать вручную. Теперь на горизонте появился новый претендент на звание излишне сложного кухонного гаджета — Spicerr. Этот “умный” дозатор специй якобы использует искусственный интеллект, чтобы автоматически определять, сколько приправ добавить в ваше блюдо.
Spicerr имеет минималистичный дизайн, напоминающий перцемолку с цилиндром револьвера внизу. Он вмещает шесть предварительно упакованных капсул со специями, которые необходимо приобретать у производителя, подобно картриджам для принтеров. Среди доступных наборов — “Essential Collection” с чёрным перцем, куркумой, молотым перцем, имбирём, корицей и тмином, а также другие коллекции для семейной готовки, выпечки с детьми и барбекю.
На верхней части устройства расположен сенсорный экран, через который можно выбрать нужную смесь или рецепт. После загрузки необходимых капсул и нажатия кнопки Spicerr автоматически добавит специи в ваше блюдо. Однако остаётся неясным, в чём именно заключается “ИИ-платформа” устройства, кроме сбора данных о ваших предпочтениях через сопутствующее приложение.
Хотя Spicerr позиционируется как устройство, упрощающее процесс приправления, многие считают, что добавление специй — это искусство, требующее личного подхода и экспериментов. Доверять алгоритму выбор количества корицы или паприки может лишить вас удовольствия от кулинарного творчества.
Таким образом, Spicerr может быть полезен для тех, кто не уверен в своих кулинарных навыках, но для опытных поваров он вряд ли станет незаменимым помощником на кухне.
Компания Figure AI объявила о планах выпустить 100 000 человекоподобных роботов к 2029 году. Эти роботы предназначены для работы в различных отраслях, включая производство, логистику и здравоохранение. Figure AI стремится интегрировать передовые технологии искусственного интеллекта и робототехники, чтобы создать машины, способные выполнять сложные задачи и взаимодействовать с людьми в повседневной жизни. Компания уже представила прототипы своих роботов и планирует начать массовое производство в ближайшие годы. Ожидается, что такие разработки могут существенно изменить рынок труда и повысить эффективность в различных секторах экономики.
Ведущий инвестор в ИИ заявляет о необходимости снижения заработных плат для достижения экономической утопии
Марк Андриссен, соучредитель венчурной компании Andreessen Horowitz, недавно заявил, что снижение заработных плат из-за внедрения искусственного интеллекта (ИИ) является необходимым этапом на пути к экономической утопии. По его мнению, такое развитие событий приведёт к резкому росту производительности и снижению цен на товары и услуги до минимальных значений, создавая изобилие для потребителей.
Однако подобные заявления вызывают обеспокоенность относительно возможного увеличения экономического неравенства и создания постоянного класса малообеспеченных. Критики отмечают, что такие взгляды отражают безжалостную экономическую логику, при которой прогресс рассматривается как неизбежный, а экономические страдания людей — как средство достижения цели.
Ранее другие технологические лидеры также высказывались о влиянии ИИ на рынок труда. Например, Винод Хосла, соучредитель Sun Microsystems, предположил, что универсальный базовый доход может стать необходимым, поскольку ИИ заменит значительную часть рабочих мест, что приведёт к увеличению разрыва в благосостоянии.
Таким образом, хотя внедрение ИИ обещает значительные экономические выгоды, важно учитывать и смягчать потенциальные негативные последствия для работников, чтобы обеспечить справедливый переход к будущей экономике.
Марк Андриссен, соучредитель венчурной компании Andreessen Horowitz, недавно заявил, что снижение заработных плат из-за внедрения искусственного интеллекта (ИИ) является необходимым этапом на пути к экономической утопии. По его мнению, такое развитие событий приведёт к резкому росту производительности и снижению цен на товары и услуги до минимальных значений, создавая изобилие для потребителей.
Однако подобные заявления вызывают обеспокоенность относительно возможного увеличения экономического неравенства и создания постоянного класса малообеспеченных. Критики отмечают, что такие взгляды отражают безжалостную экономическую логику, при которой прогресс рассматривается как неизбежный, а экономические страдания людей — как средство достижения цели.
Ранее другие технологические лидеры также высказывались о влиянии ИИ на рынок труда. Например, Винод Хосла, соучредитель Sun Microsystems, предположил, что универсальный базовый доход может стать необходимым, поскольку ИИ заменит значительную часть рабочих мест, что приведёт к увеличению разрыва в благосостоянии.
Таким образом, хотя внедрение ИИ обещает значительные экономические выгоды, важно учитывать и смягчать потенциальные негативные последствия для работников, чтобы обеспечить справедливый переход к будущей экономике.
👍1
Флоридский полицейский подменял кокаин 3D-печатными подделками и продавал настоящие наркотики
Бывший сержант полиции округа Нассо, штат Флорида, Джеймс Хикокс, был приговорён к более чем 17 годам тюремного заключения после признания вины в краже наркотиков, наличных денег и огнестрельного оружия из федеральных расследований. Хикокс использовал 3D-принтер, чтобы изготавливать поддельные брикеты кокаина, заменяя ими настоящие наркотики, которые затем продавал через посредников.
В общей сложности он получил более $420 000 от продажи украденного кокаина, фальсифицируя отчёты о «уничтожении улик» в соответствии с процедурой. При обыске его дома полиция обнаружила крупные партии наркотиков и оружие, ранее изъятых в ходе операций правоохранительных органов.
Бывший сержант полиции округа Нассо, штат Флорида, Джеймс Хикокс, был приговорён к более чем 17 годам тюремного заключения после признания вины в краже наркотиков, наличных денег и огнестрельного оружия из федеральных расследований. Хикокс использовал 3D-принтер, чтобы изготавливать поддельные брикеты кокаина, заменяя ими настоящие наркотики, которые затем продавал через посредников.
В общей сложности он получил более $420 000 от продажи украденного кокаина, фальсифицируя отчёты о «уничтожении улик» в соответствии с процедурой. При обыске его дома полиция обнаружила крупные партии наркотиков и оружие, ранее изъятых в ходе операций правоохранительных органов.
😁1💘1