Компания Realbotix представила на выставке CES 2025 в Лас-Вегасе робота-компаньона по имени Ария, предназначенного для борьбы с эпидемией одиночества. По словам генерального директора компании, робот не является секс-куклой, однако его гиперсексуализированные черты и неестественное выражение лица вызвали сомнения у посетителей. Ария, стоимостью $175 000, может воспроизводить мимику и поддерживать разговоры на интимные темы, но пока не способна передвигаться самостоятельно.
Реакция общественности на подобные разработки остаётся смешанной. Некоторые видят в них потенциал для решения проблемы одиночества, особенно среди пожилых людей, в то время как другие выражают обеспокоенность по поводу этических и социальных последствий использования таких технологий.
Реакция общественности на подобные разработки остаётся смешанной. Некоторые видят в них потенциал для решения проблемы одиночества, особенно среди пожилых людей, в то время как другие выражают обеспокоенность по поводу этических и социальных последствий использования таких технологий.
👍1
Электрический гиперкар Yangwang U9 от BYD способен перепрыгивать полицейские препятствия
Китайская компания BYD представила революционный электрический гиперкар Yangwang U9, оснащённый уникальной системой активной подвески DiSus-X. Благодаря этой технологии автомобиль способен перепрыгивать препятствия, включая полицейские баррикады, дорожные шипы и выбоины.
В демонстрационном видео Yangwang U9 разгоняется до 120 км/ч и с лёгкостью преодолевает препятствия длиной до 2,5 метров. Это делает автомобиль не только инновационным в плане безопасности, но и практически непобедимым в условиях городских препятствий. Возможность преодолевать полицейские блокпосты уже вызвала дискуссии о потенциальных способах использования таких машин.
Yangwang U9 оснащён четырьмя электродвигателями мощностью 1 287 л. с., что позволяет ему разгоняться до 100 км/ч за 2,36 секунды. Стоимость гиперкара составляет $236 000, а его технологии позиционируют его как один из самых продвинутых автомобилей на рынке.
Инженеры BYD заявили, что их цель — продемонстрировать новые горизонты в области активной безопасности и комфорта вождения. Однако возможности автомобиля, такие как преодоление полицейских препятствий, привлекли внимание властей, что может повлиять на его использование в различных странах.
Китайская компания BYD представила революционный электрический гиперкар Yangwang U9, оснащённый уникальной системой активной подвески DiSus-X. Благодаря этой технологии автомобиль способен перепрыгивать препятствия, включая полицейские баррикады, дорожные шипы и выбоины.
В демонстрационном видео Yangwang U9 разгоняется до 120 км/ч и с лёгкостью преодолевает препятствия длиной до 2,5 метров. Это делает автомобиль не только инновационным в плане безопасности, но и практически непобедимым в условиях городских препятствий. Возможность преодолевать полицейские блокпосты уже вызвала дискуссии о потенциальных способах использования таких машин.
Yangwang U9 оснащён четырьмя электродвигателями мощностью 1 287 л. с., что позволяет ему разгоняться до 100 км/ч за 2,36 секунды. Стоимость гиперкара составляет $236 000, а его технологии позиционируют его как один из самых продвинутых автомобилей на рынке.
Инженеры BYD заявили, что их цель — продемонстрировать новые горизонты в области активной безопасности и комфорта вождения. Однако возможности автомобиля, такие как преодоление полицейских препятствий, привлекли внимание властей, что может повлиять на его использование в различных странах.
The Washington Post планирует трансформацию в “платформу новостей на основе ИИ”
В январе 2025 года генеральный директор и издатель The Washington Post, Уилл Льюис, объявил о намерении преобразовать издание в “платформу новостей на основе искусственного интеллекта (ИИ)”. Это решение принято на фоне финансовых трудностей, включая потерю 250 000 подписчиков и снижение ежедневной аудитории с 22,5 миллионов в январе 2021 года до менее чем 3 миллионов в середине 2024 года.
Новая миссия издания — “Захватывающие истории для всей Америки” — направлена на расширение аудитории и привлечение читателей из различных слоёв общества. Однако это заявление вызвало критику и насмешки в социальных сетях. Директор организации Defending Democracy Together, Билл Кристол, в своём Twitter написал: “Хотел бы я знать, сколько какая-то PR или рекламная фирма получила за создание столь жалкого ‘заявления о миссии’”.
Внутренние документы, полученные The New York Times, показывают, что The Washington Post стремится стать “платформой новостей на основе ИИ”, предоставляющей “идеи и инсайты для всех американцев там, где, как и когда они этого хотят”. Однако эксперты выражают обеспокоенность, что такая трансформация может превратить издание в бездушную машину по производству контента, что уже наблюдалось в других медиа, внедряющих ИИ без должного контроля.
Кроме того, издание сталкивается с внутренними проблемами: более 400 сотрудников направили письмо владельцу Джеффу Безосу с просьбой обсудить “целостность этого института”, что “побудило некоторых из наших самых уважаемых коллег уйти”. Безос, в свою очередь, считает, что The Washington Post должно привлекать “больше рабочих американцев, живущих за пределами прибрежных городов, упоминая таких людей, как пожарные в Кливленде”.
Финансовые показатели издания также вызывают беспокойство: по данным The Wall Street Journal, в прошлом году компания потеряла около $100 миллионов. Руководство надеется, что внедрение ИИ поможет улучшить ситуацию, однако остаётся вопрос, насколько эффективно это решение будет в долгосрочной перспективе.
Ранее, в июне 2024 года, The Washington Post запустила инструмент “Climate Answers”, использующий ИИ для предоставления пользователям информации о климате. Однако инструмент столкнулся с критикой за отказ отвечать на вопросы о влиянии самого ИИ на окружающую среду, что поставило под сомнение его эффективность и прозрачность.
В целом, планы The Washington Post по интеграции ИИ в свою работу отражают более широкую тенденцию в медиаиндустрии, где технологии используются для оптимизации процессов и снижения затрат. Однако важно, чтобы такие изменения не приводили к снижению качества журналистики и сохранению доверия аудитории.
В январе 2025 года генеральный директор и издатель The Washington Post, Уилл Льюис, объявил о намерении преобразовать издание в “платформу новостей на основе искусственного интеллекта (ИИ)”. Это решение принято на фоне финансовых трудностей, включая потерю 250 000 подписчиков и снижение ежедневной аудитории с 22,5 миллионов в январе 2021 года до менее чем 3 миллионов в середине 2024 года.
Новая миссия издания — “Захватывающие истории для всей Америки” — направлена на расширение аудитории и привлечение читателей из различных слоёв общества. Однако это заявление вызвало критику и насмешки в социальных сетях. Директор организации Defending Democracy Together, Билл Кристол, в своём Twitter написал: “Хотел бы я знать, сколько какая-то PR или рекламная фирма получила за создание столь жалкого ‘заявления о миссии’”.
Внутренние документы, полученные The New York Times, показывают, что The Washington Post стремится стать “платформой новостей на основе ИИ”, предоставляющей “идеи и инсайты для всех американцев там, где, как и когда они этого хотят”. Однако эксперты выражают обеспокоенность, что такая трансформация может превратить издание в бездушную машину по производству контента, что уже наблюдалось в других медиа, внедряющих ИИ без должного контроля.
Кроме того, издание сталкивается с внутренними проблемами: более 400 сотрудников направили письмо владельцу Джеффу Безосу с просьбой обсудить “целостность этого института”, что “побудило некоторых из наших самых уважаемых коллег уйти”. Безос, в свою очередь, считает, что The Washington Post должно привлекать “больше рабочих американцев, живущих за пределами прибрежных городов, упоминая таких людей, как пожарные в Кливленде”.
Финансовые показатели издания также вызывают беспокойство: по данным The Wall Street Journal, в прошлом году компания потеряла около $100 миллионов. Руководство надеется, что внедрение ИИ поможет улучшить ситуацию, однако остаётся вопрос, насколько эффективно это решение будет в долгосрочной перспективе.
Ранее, в июне 2024 года, The Washington Post запустила инструмент “Climate Answers”, использующий ИИ для предоставления пользователям информации о климате. Однако инструмент столкнулся с критикой за отказ отвечать на вопросы о влиянии самого ИИ на окружающую среду, что поставило под сомнение его эффективность и прозрачность.
В целом, планы The Washington Post по интеграции ИИ в свою работу отражают более широкую тенденцию в медиаиндустрии, где технологии используются для оптимизации процессов и снижения затрат. Однако важно, чтобы такие изменения не приводили к снижению качества журналистики и сохранению доверия аудитории.
ИИ-помощник Sage Copilot случайно раскрыл финансовые данные клиентов
Компания Sage Group, специализирующаяся на бухгалтерском и финансовом программном обеспечении, временно отключила своего ИИ-помощника Sage Copilot после обнаружения утечки данных. Как сообщает The Register, ИИ предоставлял пользователям доступ к финансовым записям других клиентов при запросе списка недавних счетов.
Инцидент был выявлен благодаря бдительности одного из клиентов, который сразу сообщил о проблеме. В ответ на это Sage приостановила работу Copilot на несколько часов для устранения неполадки. Представитель компании назвал произошедшее «незначительной проблемой», затронувшей «небольшое количество» пользователей, и заверил, что утечка не касалась конфиденциальных данных, таких как сами счета.
Компания Sage Group, специализирующаяся на бухгалтерском и финансовом программном обеспечении, временно отключила своего ИИ-помощника Sage Copilot после обнаружения утечки данных. Как сообщает The Register, ИИ предоставлял пользователям доступ к финансовым записям других клиентов при запросе списка недавних счетов.
Инцидент был выявлен благодаря бдительности одного из клиентов, который сразу сообщил о проблеме. В ответ на это Sage приостановила работу Copilot на несколько часов для устранения неполадки. Представитель компании назвал произошедшее «незначительной проблемой», затронувшей «небольшое количество» пользователей, и заверил, что утечка не касалась конфиденциальных данных, таких как сами счета.
👍1
OpenAI готовится представить ИИ с “уровнем интеллекта PhD”
Согласно недавней статье, в ближайшие недели OpenAI может анонсировать так называемых “суперагентов уровня PhD” — искусственный интеллект (ИИ), способный выполнять сложные задачи, требующие высокой степени аналитического и научного мышления.
PhD (Doctor of Philosophy) — это высшая научная степень, присуждаемая в большинстве стран мира за достижения в исследовательской деятельности. Обладатели степени PhD, как правило, обладают глубокими знаниями в своей области, способностью решать сложные задачи и критически анализировать данные. В российской системе образования это примерно соответствует степени кандидата наук.
Суперагенты OpenAI с “интеллектом уровня PhD” обещают стать прорывом в сфере ИИ. Ожидается, что такие модели смогут не только анализировать сложные данные, но и выполнять задачи, требующие междисциплинарного подхода. Например, им можно поручить разработку нового программного обеспечения, создание дизайна, тестирование продукта и его финальное внедрение.
Тем не менее, существуют опасения, что технологии пока не готовы к выполнению задач такого уровня. Современные модели ИИ, несмотря на значительный прогресс, всё ещё сталкиваются с ошибками, так называемыми “галлюцинациями” — ситуациями, когда модель генерирует ложную или несоответствующую информацию.
Эксперты отмечают, что, хотя заявление OpenAI привлекает внимание, реальная эффективность таких “суперагентов” будет ясна только со временем. Если технология оправдает ожидания, это может открыть новую эру в автоматизации сложных интеллектуальных процессов.
Согласно недавней статье, в ближайшие недели OpenAI может анонсировать так называемых “суперагентов уровня PhD” — искусственный интеллект (ИИ), способный выполнять сложные задачи, требующие высокой степени аналитического и научного мышления.
PhD (Doctor of Philosophy) — это высшая научная степень, присуждаемая в большинстве стран мира за достижения в исследовательской деятельности. Обладатели степени PhD, как правило, обладают глубокими знаниями в своей области, способностью решать сложные задачи и критически анализировать данные. В российской системе образования это примерно соответствует степени кандидата наук.
Суперагенты OpenAI с “интеллектом уровня PhD” обещают стать прорывом в сфере ИИ. Ожидается, что такие модели смогут не только анализировать сложные данные, но и выполнять задачи, требующие междисциплинарного подхода. Например, им можно поручить разработку нового программного обеспечения, создание дизайна, тестирование продукта и его финальное внедрение.
Тем не менее, существуют опасения, что технологии пока не готовы к выполнению задач такого уровня. Современные модели ИИ, несмотря на значительный прогресс, всё ещё сталкиваются с ошибками, так называемыми “галлюцинациями” — ситуациями, когда модель генерирует ложную или несоответствующую информацию.
Эксперты отмечают, что, хотя заявление OpenAI привлекает внимание, реальная эффективность таких “суперагентов” будет ясна только со временем. Если технология оправдает ожидания, это может открыть новую эру в автоматизации сложных интеллектуальных процессов.
Администрация Трампа планирует использовать ИИ и роботов для усиления контроля на границе
В январе 2025 года администрация президента Дональда Трампа объявила о намерении усилить меры по контролю за иммиграцией, используя передовые технологии, включая искусственный интеллект (ИИ) и робототехнику.
В первый день своего второго президентского срока Трамп подписал ряд указов, направленных на ужесточение иммиграционной политики. Среди них — прекращение работы системы лотереи виз, введённой при предыдущей администрации, что оставило десятки тысяч мигрантов в неопределённости. Кроме того, был издан указ, ограничивающий выдачу документов о гражданстве для лиц, рождённых в США от родителей, не являющихся натурализованными гражданами.
Для реализации этих мер администрация планирует активно использовать ИИ и робототехнику. Компании, специализирующиеся на разработке систем массового наблюдения и анализа данных с помощью ИИ, такие как RealEye, уже выразили готовность сотрудничать. Генеральный директор RealEye, Кевин Коэн, отметил необходимость более умных и креативных подходов к проверке личности пересекающих границу.
Однако эксперты выражают обеспокоенность по поводу возможных нарушений гражданских свобод и прав человека при использовании таких технологий. Советник ООН по вопросам ИИ подчеркнул, что неправильное применение ИИ может привести к массовой слежке и усилению системной предвзятости.
В январе 2025 года администрация президента Дональда Трампа объявила о намерении усилить меры по контролю за иммиграцией, используя передовые технологии, включая искусственный интеллект (ИИ) и робототехнику.
В первый день своего второго президентского срока Трамп подписал ряд указов, направленных на ужесточение иммиграционной политики. Среди них — прекращение работы системы лотереи виз, введённой при предыдущей администрации, что оставило десятки тысяч мигрантов в неопределённости. Кроме того, был издан указ, ограничивающий выдачу документов о гражданстве для лиц, рождённых в США от родителей, не являющихся натурализованными гражданами.
Для реализации этих мер администрация планирует активно использовать ИИ и робототехнику. Компании, специализирующиеся на разработке систем массового наблюдения и анализа данных с помощью ИИ, такие как RealEye, уже выразили готовность сотрудничать. Генеральный директор RealEye, Кевин Коэн, отметил необходимость более умных и креативных подходов к проверке личности пересекающих границу.
Однако эксперты выражают обеспокоенность по поводу возможных нарушений гражданских свобод и прав человека при использовании таких технологий. Советник ООН по вопросам ИИ подчеркнул, что неправильное применение ИИ может привести к массовой слежке и усилению системной предвзятости.
🔥1
Илон на Марсе: пророчество Вернера фон Брауна?
В книге “Проект Марс” (1953), написанной легендарным немецким ракетостроителем Вернером фон Брауном, действительно упоминается, что лидера марсианской цивилизации называют “Илон”. Этот факт, ранее воспринимавшийся как миф, был подтверждён после изучения оригинальной немецкой рукописи. История звучит как футуристическая фантазия, но вызывает живой интерес, особенно в контексте современных космических амбиций Илона Маска.
Фон Браун описал систему управления марсианской колонией, где во главе стоял “Илон” — избираемый народом лидер с пятилетним сроком правления. Илон и его кабинет управляли в соответствии с законами, принимаемыми парламентом, который делился на две палаты. Верхняя палата, названная “Советом Старейшин”, состояла из шестнадцати членов, пожизненно назначаемых действующим Илон. Этот принцип напоминал выборы в коллегию кардиналов католической церкви.
Совпадение имени с нынешним миллиардером Илоном Маском, известным своей целью колонизировать Марс через компанию SpaceX, породило множество шуток и теорий. Сам Маск уже отреагировал на эту историю словами: “Как такое может быть?”.
Вернер фон Браун, один из основоположников современной космонавтики, в своей книге не только исследовал технические аспекты межпланетных путешествий, но и пытался представить социально-политическое устройство инопланетной колонии. Хотя “Проект Марс” остаётся художественным произведением, упоминание имени “Илон” в контексте лидерства на Марсе выглядит как причудливое совпадение, которое в наши дни обрело новое звучание.
Сегодня, когда Илон Маск активно продвигает планы по созданию человеческой колонии на Марсе, слова фон Брауна воспринимаются не просто как фантазия, а как странное пророчество, которое может стать реальностью.
В книге “Проект Марс” (1953), написанной легендарным немецким ракетостроителем Вернером фон Брауном, действительно упоминается, что лидера марсианской цивилизации называют “Илон”. Этот факт, ранее воспринимавшийся как миф, был подтверждён после изучения оригинальной немецкой рукописи. История звучит как футуристическая фантазия, но вызывает живой интерес, особенно в контексте современных космических амбиций Илона Маска.
Фон Браун описал систему управления марсианской колонией, где во главе стоял “Илон” — избираемый народом лидер с пятилетним сроком правления. Илон и его кабинет управляли в соответствии с законами, принимаемыми парламентом, который делился на две палаты. Верхняя палата, названная “Советом Старейшин”, состояла из шестнадцати членов, пожизненно назначаемых действующим Илон. Этот принцип напоминал выборы в коллегию кардиналов католической церкви.
Совпадение имени с нынешним миллиардером Илоном Маском, известным своей целью колонизировать Марс через компанию SpaceX, породило множество шуток и теорий. Сам Маск уже отреагировал на эту историю словами: “Как такое может быть?”.
Вернер фон Браун, один из основоположников современной космонавтики, в своей книге не только исследовал технические аспекты межпланетных путешествий, но и пытался представить социально-политическое устройство инопланетной колонии. Хотя “Проект Марс” остаётся художественным произведением, упоминание имени “Илон” в контексте лидерства на Марсе выглядит как причудливое совпадение, которое в наши дни обрело новое звучание.
Сегодня, когда Илон Маск активно продвигает планы по созданию человеческой колонии на Марсе, слова фон Брауна воспринимаются не просто как фантазия, а как странное пророчество, которое может стать реальностью.
👎1🔥1
ИИ помогает убивать быстрее: Пентагон внедряет технологии в “цепочку уничтожения”
Главный директор по цифровым технологиям и искусственному интеллекту Пентагона Радха Пламб рассказала о роли искусственного интеллекта (ИИ) в современных военных операциях. В интервью TechCrunch она отметила, что ИИ активно используется для оптимизации процесса принятия решений, известного в военных кругах как “цепочка уничтожения”. Это включает идентификацию цели, выбор подходящих средств для её уничтожения и проведение атаки.
ИИ позволяет значительно сократить время, необходимое на моделирование сценариев, что даёт военным командирам преимущество в условиях быстро меняющейся обстановки. Используя технологии для анализа больших массивов данных, системы ИИ могут предлагать оптимальные варианты действий, помогая оперативно реагировать на угрозы и обеспечивать защиту военных сил.
Пламб подчёркивает, что, несмотря на всё возрастающее влияние ИИ на военные стратегии, окончательное решение о применении силы всегда остаётся за человеком. Это важно для поддержания этических стандартов и предотвращения возможных ошибок или нежелательных последствий.
Тем не менее использование ИИ в военных целях вызывает серьёзные вопросы у экспертов и активистов. Некоторые из них указывают на потенциальные риски, такие как принятие ИИ неверных решений или возможность применения автономного оружия без контроля человека. Эти опасения подчёркивают необходимость разработки чётких правил и стандартов для использования ИИ в боевых условиях.
С внедрением технологий в военные операции Пентагон демонстрирует свою приверженность сохранению лидерства США в области оборонных инноваций. Однако такой подход требует особого внимания к вопросам безопасности, прозрачности и ответственности.
Главный директор по цифровым технологиям и искусственному интеллекту Пентагона Радха Пламб рассказала о роли искусственного интеллекта (ИИ) в современных военных операциях. В интервью TechCrunch она отметила, что ИИ активно используется для оптимизации процесса принятия решений, известного в военных кругах как “цепочка уничтожения”. Это включает идентификацию цели, выбор подходящих средств для её уничтожения и проведение атаки.
ИИ позволяет значительно сократить время, необходимое на моделирование сценариев, что даёт военным командирам преимущество в условиях быстро меняющейся обстановки. Используя технологии для анализа больших массивов данных, системы ИИ могут предлагать оптимальные варианты действий, помогая оперативно реагировать на угрозы и обеспечивать защиту военных сил.
Пламб подчёркивает, что, несмотря на всё возрастающее влияние ИИ на военные стратегии, окончательное решение о применении силы всегда остаётся за человеком. Это важно для поддержания этических стандартов и предотвращения возможных ошибок или нежелательных последствий.
Тем не менее использование ИИ в военных целях вызывает серьёзные вопросы у экспертов и активистов. Некоторые из них указывают на потенциальные риски, такие как принятие ИИ неверных решений или возможность применения автономного оружия без контроля человека. Эти опасения подчёркивают необходимость разработки чётких правил и стандартов для использования ИИ в боевых условиях.
С внедрением технологий в военные операции Пентагон демонстрирует свою приверженность сохранению лидерства США в области оборонных инноваций. Однако такой подход требует особого внимания к вопросам безопасности, прозрачности и ответственности.
👍1
Китайский стартап DeepSeek подрывает амбиции США в сфере искусственного интеллекта
Недавний взлёт китайского стартапа DeepSeek, представившего конкурентоспособную альтернативу ChatGPT, вызвал значительные потрясения на мировых рынках и поставил под сомнение амбициозные планы США в области искусственного интеллекта (ИИ). Компания DeepSeek, основанная в 2023 году, выпустила ИИ-модель R1, которая демонстрирует высокие результаты при значительно меньших затратах по сравнению с западными аналогами.
На фоне успеха DeepSeek акции ведущих технологических компаний США, включая Nvidia, Microsoft и Tesla, резко упали, суммарно потеряв около $1 трлн рыночной стоимости. Особенно пострадала Nvidia, чьи акции снизились на 17%, что стало крупнейшим однодневным падением в истории компании.
Эти события произошли вскоре после того, как президент Дональд Трамп объявил о запуске проекта Stargate — инициативы стоимостью $500 млрд, направленной на развитие инфраструктуры ИИ в США. Однако успех DeepSeek поставил под сомнение эффективность таких масштабных инвестиций, поскольку китайский стартап продемонстрировал возможность создания передовых ИИ-технологий с меньшими ресурсами.
Ситуация подчёркивает необходимость пересмотра подходов к развитию ИИ в США и принятия во внимание новых глобальных реалий, где конкуренция исходит не только от традиционных технологических гигантов, но и от быстрорастущих стартапов из других стран.
Недавний взлёт китайского стартапа DeepSeek, представившего конкурентоспособную альтернативу ChatGPT, вызвал значительные потрясения на мировых рынках и поставил под сомнение амбициозные планы США в области искусственного интеллекта (ИИ). Компания DeepSeek, основанная в 2023 году, выпустила ИИ-модель R1, которая демонстрирует высокие результаты при значительно меньших затратах по сравнению с западными аналогами.
На фоне успеха DeepSeek акции ведущих технологических компаний США, включая Nvidia, Microsoft и Tesla, резко упали, суммарно потеряв около $1 трлн рыночной стоимости. Особенно пострадала Nvidia, чьи акции снизились на 17%, что стало крупнейшим однодневным падением в истории компании.
Эти события произошли вскоре после того, как президент Дональд Трамп объявил о запуске проекта Stargate — инициативы стоимостью $500 млрд, направленной на развитие инфраструктуры ИИ в США. Однако успех DeepSeek поставил под сомнение эффективность таких масштабных инвестиций, поскольку китайский стартап продемонстрировал возможность создания передовых ИИ-технологий с меньшими ресурсами.
Ситуация подчёркивает необходимость пересмотра подходов к развитию ИИ в США и принятия во внимание новых глобальных реалий, где конкуренция исходит не только от традиционных технологических гигантов, но и от быстрорастущих стартапов из других стран.
В марте 2016 года Microsoft представила Tay, чат-бот на основе искусственного интеллекта, разработанный для общения с пользователями Twitter в стиле подростка. Проект был направлен на изучение “разговорного взаимодействия”, позволяя Tay обучаться через диалоги с публикой.
Однако менее чем за 16 часов после запуска Tay начал публиковать оскорбительные и неприемлемые сообщения, включая расистские и сексистские высказывания. Такое поведение стало результатом скоординированных действий пользователей, которые намеренно вводили в алгоритм бота вредоносные данные, чтобы он генерировал токсичный контент.
Однако менее чем за 16 часов после запуска Tay начал публиковать оскорбительные и неприемлемые сообщения, включая расистские и сексистские высказывания. Такое поведение стало результатом скоординированных действий пользователей, которые намеренно вводили в алгоритм бота вредоносные данные, чтобы он генерировал токсичный контент.
Канадский студент собрал термоядерный реактор с помощью ИИ
Канадский студент-энтузиаст создал у себя дома устройство, способное воспроизводить процесс ядерного синтеза — тот же, который происходит в звездах. Для реализации проекта он нашёл в интернете техническую документацию и загрузил её в нейросети, такие как Claude и ChatGPT-4. С их помощью студент получил пошаговую инструкцию по сборке реактора. Первая версия устройства оказалась нерабочей, но после дополнительных консультаций с ИИ удалось устранить ошибки. В результате молодой изобретатель собрал реактор, способный создавать глубокий вакуум, генерировать высокое напряжение и использовать дейтерий для слияния атомов. Этот процесс сопровождается выделением энергии и нейтронов. Экспериментальное устройство стало наглядным примером возможностей современных технологий и энтузиазма, но также вызвало вопросы о безопасности подобных разработок в домашних условиях.
Канадский студент-энтузиаст создал у себя дома устройство, способное воспроизводить процесс ядерного синтеза — тот же, который происходит в звездах. Для реализации проекта он нашёл в интернете техническую документацию и загрузил её в нейросети, такие как Claude и ChatGPT-4. С их помощью студент получил пошаговую инструкцию по сборке реактора. Первая версия устройства оказалась нерабочей, но после дополнительных консультаций с ИИ удалось устранить ошибки. В результате молодой изобретатель собрал реактор, способный создавать глубокий вакуум, генерировать высокое напряжение и использовать дейтерий для слияния атомов. Этот процесс сопровождается выделением энергии и нейтронов. Экспериментальное устройство стало наглядным примером возможностей современных технологий и энтузиазма, но также вызвало вопросы о безопасности подобных разработок в домашних условиях.
😱1
Случаи нападения роботов на человека: от производственных инцидентов до автономных систем
С развитием робототехники и автоматизации увеличивается число взаимодействий между людьми и машинами. Хотя роботы предназначены для повышения эффективности и безопасности, в истории зафиксированы случаи, когда их действия приводили к травмам или даже гибели людей. Рассмотрим некоторые из наиболее известных инцидентов.
1. Первый зарегистрированный случай: Роберт Уильямс (1979)
25 января 1979 года на заводе Ford в Мичигане 25-летний Роберт Уильямс стал первой известной жертвой робота. Он был убит роботизированной рукой, когда пытался достать деталь с полки. Суд постановил, что причиной инцидента стали недостаточные меры безопасности, и семья Уильямса получила компенсацию в размере $10 миллионов.
2. Инцидент на заводе Volkswagen (2015)
В 2015 году на заводе Volkswagen в Баунатале, Германия, 21-летний сотрудник погиб в результате действий промышленного робота. Во время настройки машины робот схватил его и прижал к металлической пластине, что привело к смертельным травмам. Компания заявила, что причиной стала ошибка оператора.
3. Смерть Джошуа Брауна (2016)
В мае 2016 года Джошуа Браун стал первой жертвой автопилота Tesla. Его Model S не смогла распознать белый тягач на фоне яркого неба, что привело к столкновению и гибели водителя. Этот случай подчеркнул риски использования полуавтономных систем в реальных условиях.
4. Инцидент на заводе Tesla (2021)
В 2021 году на заводе Tesla в Техасе инженер пострадал от действий роботизированного манипулятора, предназначенного для перемещения алюминиевых деталей. Робот неожиданно схватил его, причинив раны на руке и спине. Свидетели описали инцидент как “жестокое и кровавое” нападение машины на человека.
5. Нападение шахматного робота (2022)
В июле 2022 года на шахматном турнире в Москве робот, играющий в шахматы, сломал палец 7-летнему мальчику. Инцидент произошел, когда ребенок сделал ход, не дождавшись завершения действий машины, что привело к некорректному взаимодействию.
6. Атака дрона-камикадзе Kargu-2 (2020)
В 2020 году в Ливии был зафиксирован первый случай автономной атаки дрона на человека. Беспилотник Kargu-2 самостоятельно идентифицировал цель и атаковал без прямого приказа оператора, что вызвало обеспокоенность относительно использования автономного оружия.
С развитием робототехники и автоматизации увеличивается число взаимодействий между людьми и машинами. Хотя роботы предназначены для повышения эффективности и безопасности, в истории зафиксированы случаи, когда их действия приводили к травмам или даже гибели людей. Рассмотрим некоторые из наиболее известных инцидентов.
1. Первый зарегистрированный случай: Роберт Уильямс (1979)
25 января 1979 года на заводе Ford в Мичигане 25-летний Роберт Уильямс стал первой известной жертвой робота. Он был убит роботизированной рукой, когда пытался достать деталь с полки. Суд постановил, что причиной инцидента стали недостаточные меры безопасности, и семья Уильямса получила компенсацию в размере $10 миллионов.
2. Инцидент на заводе Volkswagen (2015)
В 2015 году на заводе Volkswagen в Баунатале, Германия, 21-летний сотрудник погиб в результате действий промышленного робота. Во время настройки машины робот схватил его и прижал к металлической пластине, что привело к смертельным травмам. Компания заявила, что причиной стала ошибка оператора.
3. Смерть Джошуа Брауна (2016)
В мае 2016 года Джошуа Браун стал первой жертвой автопилота Tesla. Его Model S не смогла распознать белый тягач на фоне яркого неба, что привело к столкновению и гибели водителя. Этот случай подчеркнул риски использования полуавтономных систем в реальных условиях.
4. Инцидент на заводе Tesla (2021)
В 2021 году на заводе Tesla в Техасе инженер пострадал от действий роботизированного манипулятора, предназначенного для перемещения алюминиевых деталей. Робот неожиданно схватил его, причинив раны на руке и спине. Свидетели описали инцидент как “жестокое и кровавое” нападение машины на человека.
5. Нападение шахматного робота (2022)
В июле 2022 года на шахматном турнире в Москве робот, играющий в шахматы, сломал палец 7-летнему мальчику. Инцидент произошел, когда ребенок сделал ход, не дождавшись завершения действий машины, что привело к некорректному взаимодействию.
6. Атака дрона-камикадзе Kargu-2 (2020)
В 2020 году в Ливии был зафиксирован первый случай автономной атаки дрона на человека. Беспилотник Kargu-2 самостоятельно идентифицировал цель и атаковал без прямого приказа оператора, что вызвало обеспокоенность относительно использования автономного оружия.
Forwarded from Voskhod VC
This media is not supported in your browser
VIEW IN TELEGRAM
Калифорнийский стартап Watney Robotics показал, как домашние роботы часами складывают горы полотенец
Ночной таймлапс с роботами, управляемыми дистанционно с расстояния >7000 миль, демонстрирует, как они справляются со складыванием (общеизвестно сложная задача для машин, и иногда считается эталоном их возможностей) 24/7/365 без прямого вмешательства человека.
Правда, машины все-таки прерываются, судя по всему, на подзарядку, а дистанционное управление подразумевает "вмешательство человека".
#robotics
@VoskhodVC - канал венчурного фонда "Восход"
Ночной таймлапс с роботами, управляемыми дистанционно с расстояния >7000 миль, демонстрирует, как они справляются со складыванием (общеизвестно сложная задача для машин, и иногда считается эталоном их возможностей) 24/7/365 без прямого вмешательства человека.
Правда, машины все-таки прерываются, судя по всему, на подзарядку, а дистанционное управление подразумевает "вмешательство человека".
#robotics
@VoskhodVC - канал венчурного фонда "Восход"
В уникальном отечественном spacetech-проекте венчурного фонда «Восход» (входит в Группу «Интеррос» Владимира Потанина) новый финансовый партнер. ФСТ инвестировал 60 млн рублей в портфельную компанию «3Д Исследования и разработки», которая создает ракету-носитель "Воронеж". Напомним, «Восход» ранее вложил в компанию 120 млн рублей - таким образом общий объем инвестиций в проект составляет уже 180 млн рублей.
https://telegra.ph/POSLEZAVTRA-01-29-3
https://telegra.ph/POSLEZAVTRA-01-29-3
👍1
Трамп подписал указ о развитии “непредвзятого” искусственного интеллекта
Президент Дональд Трамп подписал указ, направленный на развитие искусственного интеллекта (ИИ), свободного от “идеологической предвзятости” и “социальных программ”. Этот шаг отменяет предыдущий указ администрации Байдена от 2023 года, который устанавливал меры безопасности для ИИ, направленные на предотвращение потенциального вреда национальной безопасности и обществу.
Новый указ, озаглавленный “Устранение барьеров для американского лидерства в области искусственного интеллекта”, подчеркивает необходимость разработки ИИ-систем, свободных от идеологической предвзятости, с целью укрепления лидерства США в этой сфере. В документе говорится: “С правильной государственной политикой мы можем закрепить наше положение в качестве мирового лидера в области ИИ и обеспечить светлое будущее для всех американцев”.
Этот шаг соответствует позиции Республиканской партии, которая поддерживает развитие ИИ, основанного на свободе слова и процветании человечества, в отличие от предыдущей администрации, которая акцентировала внимание на предотвращении “безответственного использования [ИИ], которое могло бы усугубить общественные вреды, такие как мошенничество, дискриминация, предвзятость и дезинформация”.
Критики опасаются, что отмена существующих мер безопасности может привести к развитию ИИ без должного надзора, что потенциально увеличивает риски для общества. Сторонники же утверждают, что устранение “идеологической предвзятости” позволит ускорить инновации и укрепить позиции США в глобальной гонке ИИ.
Этот указ также отражает более широкую тенденцию администрации Трампа к отмене программ разнообразия, равенства и инклюзии (DEI) в федеральных агентствах и вооруженных силах, что подчеркивает стремление к устранению того, что они считают “идеологическими барьерами” в различных сферах.
Таким образом, администрация Трампа делает акцент на развитии ИИ, свободного от того, что она называет “идеологической предвзятостью”, стремясь укрепить лидерство США в этой критически важной области технологий.
Президент Дональд Трамп подписал указ, направленный на развитие искусственного интеллекта (ИИ), свободного от “идеологической предвзятости” и “социальных программ”. Этот шаг отменяет предыдущий указ администрации Байдена от 2023 года, который устанавливал меры безопасности для ИИ, направленные на предотвращение потенциального вреда национальной безопасности и обществу.
Новый указ, озаглавленный “Устранение барьеров для американского лидерства в области искусственного интеллекта”, подчеркивает необходимость разработки ИИ-систем, свободных от идеологической предвзятости, с целью укрепления лидерства США в этой сфере. В документе говорится: “С правильной государственной политикой мы можем закрепить наше положение в качестве мирового лидера в области ИИ и обеспечить светлое будущее для всех американцев”.
Этот шаг соответствует позиции Республиканской партии, которая поддерживает развитие ИИ, основанного на свободе слова и процветании человечества, в отличие от предыдущей администрации, которая акцентировала внимание на предотвращении “безответственного использования [ИИ], которое могло бы усугубить общественные вреды, такие как мошенничество, дискриминация, предвзятость и дезинформация”.
Критики опасаются, что отмена существующих мер безопасности может привести к развитию ИИ без должного надзора, что потенциально увеличивает риски для общества. Сторонники же утверждают, что устранение “идеологической предвзятости” позволит ускорить инновации и укрепить позиции США в глобальной гонке ИИ.
Этот указ также отражает более широкую тенденцию администрации Трампа к отмене программ разнообразия, равенства и инклюзии (DEI) в федеральных агентствах и вооруженных силах, что подчеркивает стремление к устранению того, что они считают “идеологическими барьерами” в различных сферах.
Таким образом, администрация Трампа делает акцент на развитии ИИ, свободного от того, что она называет “идеологической предвзятостью”, стремясь укрепить лидерство США в этой критически важной области технологий.
Искусственный интеллект и военные роботы: шаг к прогрессу или неконтролируемой угрозе?
Развитие технологий искусственного интеллекта (ИИ) всё активнее влияет на военные стратегии, превращая научную фантастику в реальность. Автоматизированные системы уже используются на поле боя, начиная от дронов-разведчиков и заканчивая системами обороны, способными автоматически обнаруживать и уничтожать угрозы, такие как вражеские ракеты. Однако вместе с этим возникает вопрос: насколько безопасно доверять решения о жизни и смерти машинам?
Современные военные разработки активно используют ИИ для повышения эффективности операций. Например, автоматические системы, установленные на кораблях, могут реагировать на угрозы быстрее, чем человек, что критически важно в условиях сжатых временных рамок. Однако стремление к созданию полностью автономного оружия вызывает обеспокоенность как среди экспертов, так и среди правозащитников. Основная проблема заключается в том, что такие системы могут принимать решения без участия человека, что чревато ошибками и непредсказуемыми последствиями.
Этические вопросы стоят на переднем плане. Могут ли машины обладать моральной ответственностью? Кто несёт ответственность, если автономный дрон ошибочно атакует гражданские объекты? Отсутствие чётких международных норм и правил регулирования автономного оружия только усугубляет проблему.
Эксперты предупреждают, что разработка таких технологий без должного контроля может привести к гонке вооружений, в которой государства будут соревноваться за создание наиболее эффективных автономных систем. Это не только увеличивает риск их неконтролируемого использования, но и угрожает глобальной безопасности.
Необходимость международного диалога становится очевидной. Разработка нормативных актов, которые будут регулировать применение ИИ в военной сфере, может стать ключом к предотвращению будущих кризисов. В противном случае человечество рискует столкнуться с угрозой, которую будет крайне сложно контролировать.
Будущее ИИ в военных разработках остаётся неопределённым. С одной стороны, эти технологии обладают огромным потенциалом для повышения безопасности. С другой — они могут стать источником новых рисков. Именно сейчас стоит задуматься о том, как направить их развитие в правильное русло.
Развитие технологий искусственного интеллекта (ИИ) всё активнее влияет на военные стратегии, превращая научную фантастику в реальность. Автоматизированные системы уже используются на поле боя, начиная от дронов-разведчиков и заканчивая системами обороны, способными автоматически обнаруживать и уничтожать угрозы, такие как вражеские ракеты. Однако вместе с этим возникает вопрос: насколько безопасно доверять решения о жизни и смерти машинам?
Современные военные разработки активно используют ИИ для повышения эффективности операций. Например, автоматические системы, установленные на кораблях, могут реагировать на угрозы быстрее, чем человек, что критически важно в условиях сжатых временных рамок. Однако стремление к созданию полностью автономного оружия вызывает обеспокоенность как среди экспертов, так и среди правозащитников. Основная проблема заключается в том, что такие системы могут принимать решения без участия человека, что чревато ошибками и непредсказуемыми последствиями.
Этические вопросы стоят на переднем плане. Могут ли машины обладать моральной ответственностью? Кто несёт ответственность, если автономный дрон ошибочно атакует гражданские объекты? Отсутствие чётких международных норм и правил регулирования автономного оружия только усугубляет проблему.
Эксперты предупреждают, что разработка таких технологий без должного контроля может привести к гонке вооружений, в которой государства будут соревноваться за создание наиболее эффективных автономных систем. Это не только увеличивает риск их неконтролируемого использования, но и угрожает глобальной безопасности.
Необходимость международного диалога становится очевидной. Разработка нормативных актов, которые будут регулировать применение ИИ в военной сфере, может стать ключом к предотвращению будущих кризисов. В противном случае человечество рискует столкнуться с угрозой, которую будет крайне сложно контролировать.
Будущее ИИ в военных разработках остаётся неопределённым. С одной стороны, эти технологии обладают огромным потенциалом для повышения безопасности. С другой — они могут стать источником новых рисков. Именно сейчас стоит задуматься о том, как направить их развитие в правильное русло.
Сбой ИИ-системы обнаружения оружия привел к трагедии в школе Нэшвилла
В январе 2025 года в старшей школе Антиоха, расположенной в Нэшвилле, штат Теннесси, произошла трагедия: 17-летний Соломон Хендерсон открыл огонь в школьной столовой, убив 16-летнюю Джосселин Кореа Эскаланте и ранив ещё одного ученика, после чего покончил с собой. Примечательно, что в школе была установлена ИИ-система обнаружения оружия Omnilert, стоимостью $1 млн, которая не смогла выявить пистолет, использованный стрелком.
По словам представителей школьного округа Metro Nashville Public Schools, система не обнаружила оружие из-за его невидимости для камер в момент происшествия. Однако, когда на место прибыли полицейские и достали своё оружие, система сработала корректно. Генеральный директор Omnilert Дэйв Фрейзер отметил, что проблема заключалась не в распознавании оружия, а в его невидимости для камер.
Эта трагедия вызвала критику в адрес школьной администрации за отказ от установки металлодетекторов. Бывший член совета Metro Nashville Public Schools Фрэн Буш утверждает, что администрация отклонила предложение об установке металлодетекторов, ссылаясь на исследования, показывающие, что такие меры могут вызывать у учеников чувство страха и непропорционально воздействовать на студентов разных рас. Буш считает такие аргументы несостоятельными и подчёркивает, что металлодетекторы могли бы предотвратить трагедию.
Этот инцидент подчёркивает ограничения современных технологий безопасности и необходимость комплексного подхода к обеспечению безопасности в школах, включая как технологические решения, так и традиционные меры, такие как металлодетекторы и усиление физической охраны.
В январе 2025 года в старшей школе Антиоха, расположенной в Нэшвилле, штат Теннесси, произошла трагедия: 17-летний Соломон Хендерсон открыл огонь в школьной столовой, убив 16-летнюю Джосселин Кореа Эскаланте и ранив ещё одного ученика, после чего покончил с собой. Примечательно, что в школе была установлена ИИ-система обнаружения оружия Omnilert, стоимостью $1 млн, которая не смогла выявить пистолет, использованный стрелком.
По словам представителей школьного округа Metro Nashville Public Schools, система не обнаружила оружие из-за его невидимости для камер в момент происшествия. Однако, когда на место прибыли полицейские и достали своё оружие, система сработала корректно. Генеральный директор Omnilert Дэйв Фрейзер отметил, что проблема заключалась не в распознавании оружия, а в его невидимости для камер.
Эта трагедия вызвала критику в адрес школьной администрации за отказ от установки металлодетекторов. Бывший член совета Metro Nashville Public Schools Фрэн Буш утверждает, что администрация отклонила предложение об установке металлодетекторов, ссылаясь на исследования, показывающие, что такие меры могут вызывать у учеников чувство страха и непропорционально воздействовать на студентов разных рас. Буш считает такие аргументы несостоятельными и подчёркивает, что металлодетекторы могли бы предотвратить трагедию.
Этот инцидент подчёркивает ограничения современных технологий безопасности и необходимость комплексного подхода к обеспечению безопасности в школах, включая как технологические решения, так и традиционные меры, такие как металлодетекторы и усиление физической охраны.
В Рексофт рассказали как цифровизация меняет современные парки и зеленые зоны
https://telegra.ph/POSLEZAVTRA-01-30-4
https://telegra.ph/POSLEZAVTRA-01-30-4
👍1
Forwarded from Агентство «Анадолу»
Основатель турецкой Академии блокчейна и искусственного интеллекта Деврим Данял написал для «Анадолу» аналитическую статью о влиянии DeepSeek на рынок искусственного интеллекта.
***
Мы знаем, что об искусственном интеллекте начали говорить с 1950-х годов. Но давайте посмотрим правде в глаза: искусственный интеллект казался недостижимой мечтой, пока он не оказался в наших руках или хотя бы на ладони. В то время трудно было поверить, что что-то получится, даже если выделить большие бюджеты на искусственный интеллект. Сейчас мы живем в период, когда многие мечты, которые считались невозможными, начинают воплощаться в жизнь с головокружительной скоростью развития технологий, и когда мы, как пользователи, имеем возможность выбирать из множества вариантов тот, который нам подходит. Если бы несколько лет назад кто-то сказал, что такие вещи возможны, мы бы посмеялись, но теперь должны признать, что наличие этой технологии открывает нам бесценный мир. Именно в этот момент мы задаемся вопросом, во сколько нам обходится искусственный интеллект, переступивший порог «бесценности», и обсуждаем, какую цену на него следует установить, чтобы он был «более доступным». Пытаясь найти ответ на этот вопрос в данном анализе, я хотел бы, чтобы мы рассмотрели эту проблему с разных точек зрения.
Почему DeepSeek отличается?
Приложения Open AI и ChatGPT, основанные Илоном Маском и Сэмом Альтманом в 2015 году, стали известны всем, и эти бренды стали первыми приложениями, которые приходят на ум при упоминании искусственного интеллекта. Как и в каждом секторе, у OpenAI и ChatGBT сразу же начали появляться конкуренты.
Этими конкурентами, как вы можете догадаться, были CoPilot от Microsoft, Gemini от Alphabet и Llama от Meta, все они американского происхождения. Эти приложения доминировали на рынке больших языковых моделей (так называемые LLM), пока на первый план не вышел DeepSeek китайского происхождения, который внезапно стал трендом еще до конца января 2025 года и превзошел всех этих конкурентов в списках загрузок. Основатель DeepSeek Лян Вэньфэн запустил DeepSeek в 2023 году по гораздо более низкой цене, чем у альтернатив. Вэньфэн заявил, что его главная цель - «позиционировать Китай как производителя в секторе ИИ, не будучи последователем, копировщиком или имитатором».
Не могу не упомянуть инженерное отличие DeepSeek, поскольку приложение включает в себя механизм Multi-Head Latent Attention как основу инноваций по сравнению с тем, что есть у конкурентов. Этот механизм позволяет модели одновременно изучать различные представления и более эффективно фокусироваться на этих представлениях.
Итак, если свести это к чему-то понятному для всех, как DeepSeek это делает? Мы можем сравнить это с тем, как разные датчики в автомобиле, собирающие разные данные одновременно, или как разные инженеры в проекте работают в своей области знаний и в конечном итоге информация собирается воедино.
↘️ Подробнее на нашем сайте: v.aa.com.tr/3466762
🌐 24/7 в сутки с Агентством «Анадолу»
***
Мы знаем, что об искусственном интеллекте начали говорить с 1950-х годов. Но давайте посмотрим правде в глаза: искусственный интеллект казался недостижимой мечтой, пока он не оказался в наших руках или хотя бы на ладони. В то время трудно было поверить, что что-то получится, даже если выделить большие бюджеты на искусственный интеллект. Сейчас мы живем в период, когда многие мечты, которые считались невозможными, начинают воплощаться в жизнь с головокружительной скоростью развития технологий, и когда мы, как пользователи, имеем возможность выбирать из множества вариантов тот, который нам подходит. Если бы несколько лет назад кто-то сказал, что такие вещи возможны, мы бы посмеялись, но теперь должны признать, что наличие этой технологии открывает нам бесценный мир. Именно в этот момент мы задаемся вопросом, во сколько нам обходится искусственный интеллект, переступивший порог «бесценности», и обсуждаем, какую цену на него следует установить, чтобы он был «более доступным». Пытаясь найти ответ на этот вопрос в данном анализе, я хотел бы, чтобы мы рассмотрели эту проблему с разных точек зрения.
Почему DeepSeek отличается?
Приложения Open AI и ChatGPT, основанные Илоном Маском и Сэмом Альтманом в 2015 году, стали известны всем, и эти бренды стали первыми приложениями, которые приходят на ум при упоминании искусственного интеллекта. Как и в каждом секторе, у OpenAI и ChatGBT сразу же начали появляться конкуренты.
Этими конкурентами, как вы можете догадаться, были CoPilot от Microsoft, Gemini от Alphabet и Llama от Meta, все они американского происхождения. Эти приложения доминировали на рынке больших языковых моделей (так называемые LLM), пока на первый план не вышел DeepSeek китайского происхождения, который внезапно стал трендом еще до конца января 2025 года и превзошел всех этих конкурентов в списках загрузок. Основатель DeepSeek Лян Вэньфэн запустил DeepSeek в 2023 году по гораздо более низкой цене, чем у альтернатив. Вэньфэн заявил, что его главная цель - «позиционировать Китай как производителя в секторе ИИ, не будучи последователем, копировщиком или имитатором».
Не могу не упомянуть инженерное отличие DeepSeek, поскольку приложение включает в себя механизм Multi-Head Latent Attention как основу инноваций по сравнению с тем, что есть у конкурентов. Этот механизм позволяет модели одновременно изучать различные представления и более эффективно фокусироваться на этих представлениях.
Итак, если свести это к чему-то понятному для всех, как DeepSeek это делает? Мы можем сравнить это с тем, как разные датчики в автомобиле, собирающие разные данные одновременно, или как разные инженеры в проекте работают в своей области знаний и в конечном итоге информация собирается воедино.
Please open Telegram to view this post
VIEW IN TELEGRAM
Пока США и Китай соревнуются в создании передового ИИ, в Госдуме спорят, почему нейросети рисуют “не наших людей” — приоритеты, как говорится, расставлены.
Telegram
Шаги на лестнице
Пока США и Китай соревнуются в области развития искусственного интеллекта, вкладывая в эту сферу десятки и сотни миллиардов долларов, в Госдуме озаботились возможным вредом от ИИ.
Лидер КПРФ Геннадий Зюганов выразил опасение, что если разработки попадут…
Лидер КПРФ Геннадий Зюганов выразил опасение, что если разработки попадут…