Администрация Трампа планирует использовать ИИ и роботов для усиления контроля на границе
В январе 2025 года администрация президента Дональда Трампа объявила о намерении усилить меры по контролю за иммиграцией, используя передовые технологии, включая искусственный интеллект (ИИ) и робототехнику.
В первый день своего второго президентского срока Трамп подписал ряд указов, направленных на ужесточение иммиграционной политики. Среди них — прекращение работы системы лотереи виз, введённой при предыдущей администрации, что оставило десятки тысяч мигрантов в неопределённости. Кроме того, был издан указ, ограничивающий выдачу документов о гражданстве для лиц, рождённых в США от родителей, не являющихся натурализованными гражданами.
Для реализации этих мер администрация планирует активно использовать ИИ и робототехнику. Компании, специализирующиеся на разработке систем массового наблюдения и анализа данных с помощью ИИ, такие как RealEye, уже выразили готовность сотрудничать. Генеральный директор RealEye, Кевин Коэн, отметил необходимость более умных и креативных подходов к проверке личности пересекающих границу.
Однако эксперты выражают обеспокоенность по поводу возможных нарушений гражданских свобод и прав человека при использовании таких технологий. Советник ООН по вопросам ИИ подчеркнул, что неправильное применение ИИ может привести к массовой слежке и усилению системной предвзятости.
В январе 2025 года администрация президента Дональда Трампа объявила о намерении усилить меры по контролю за иммиграцией, используя передовые технологии, включая искусственный интеллект (ИИ) и робототехнику.
В первый день своего второго президентского срока Трамп подписал ряд указов, направленных на ужесточение иммиграционной политики. Среди них — прекращение работы системы лотереи виз, введённой при предыдущей администрации, что оставило десятки тысяч мигрантов в неопределённости. Кроме того, был издан указ, ограничивающий выдачу документов о гражданстве для лиц, рождённых в США от родителей, не являющихся натурализованными гражданами.
Для реализации этих мер администрация планирует активно использовать ИИ и робототехнику. Компании, специализирующиеся на разработке систем массового наблюдения и анализа данных с помощью ИИ, такие как RealEye, уже выразили готовность сотрудничать. Генеральный директор RealEye, Кевин Коэн, отметил необходимость более умных и креативных подходов к проверке личности пересекающих границу.
Однако эксперты выражают обеспокоенность по поводу возможных нарушений гражданских свобод и прав человека при использовании таких технологий. Советник ООН по вопросам ИИ подчеркнул, что неправильное применение ИИ может привести к массовой слежке и усилению системной предвзятости.
Илон на Марсе: пророчество Вернера фон Брауна?
В книге “Проект Марс” (1953), написанной легендарным немецким ракетостроителем Вернером фон Брауном, действительно упоминается, что лидера марсианской цивилизации называют “Илон”. Этот факт, ранее воспринимавшийся как миф, был подтверждён после изучения оригинальной немецкой рукописи. История звучит как футуристическая фантазия, но вызывает живой интерес, особенно в контексте современных космических амбиций Илона Маска.
Фон Браун описал систему управления марсианской колонией, где во главе стоял “Илон” — избираемый народом лидер с пятилетним сроком правления. Илон и его кабинет управляли в соответствии с законами, принимаемыми парламентом, который делился на две палаты. Верхняя палата, названная “Советом Старейшин”, состояла из шестнадцати членов, пожизненно назначаемых действующим Илон. Этот принцип напоминал выборы в коллегию кардиналов католической церкви.
Совпадение имени с нынешним миллиардером Илоном Маском, известным своей целью колонизировать Марс через компанию SpaceX, породило множество шуток и теорий. Сам Маск уже отреагировал на эту историю словами: “Как такое может быть?”.
Вернер фон Браун, один из основоположников современной космонавтики, в своей книге не только исследовал технические аспекты межпланетных путешествий, но и пытался представить социально-политическое устройство инопланетной колонии. Хотя “Проект Марс” остаётся художественным произведением, упоминание имени “Илон” в контексте лидерства на Марсе выглядит как причудливое совпадение, которое в наши дни обрело новое звучание.
Сегодня, когда Илон Маск активно продвигает планы по созданию человеческой колонии на Марсе, слова фон Брауна воспринимаются не просто как фантазия, а как странное пророчество, которое может стать реальностью.
В книге “Проект Марс” (1953), написанной легендарным немецким ракетостроителем Вернером фон Брауном, действительно упоминается, что лидера марсианской цивилизации называют “Илон”. Этот факт, ранее воспринимавшийся как миф, был подтверждён после изучения оригинальной немецкой рукописи. История звучит как футуристическая фантазия, но вызывает живой интерес, особенно в контексте современных космических амбиций Илона Маска.
Фон Браун описал систему управления марсианской колонией, где во главе стоял “Илон” — избираемый народом лидер с пятилетним сроком правления. Илон и его кабинет управляли в соответствии с законами, принимаемыми парламентом, который делился на две палаты. Верхняя палата, названная “Советом Старейшин”, состояла из шестнадцати членов, пожизненно назначаемых действующим Илон. Этот принцип напоминал выборы в коллегию кардиналов католической церкви.
Совпадение имени с нынешним миллиардером Илоном Маском, известным своей целью колонизировать Марс через компанию SpaceX, породило множество шуток и теорий. Сам Маск уже отреагировал на эту историю словами: “Как такое может быть?”.
Вернер фон Браун, один из основоположников современной космонавтики, в своей книге не только исследовал технические аспекты межпланетных путешествий, но и пытался представить социально-политическое устройство инопланетной колонии. Хотя “Проект Марс” остаётся художественным произведением, упоминание имени “Илон” в контексте лидерства на Марсе выглядит как причудливое совпадение, которое в наши дни обрело новое звучание.
Сегодня, когда Илон Маск активно продвигает планы по созданию человеческой колонии на Марсе, слова фон Брауна воспринимаются не просто как фантазия, а как странное пророчество, которое может стать реальностью.
ИИ помогает убивать быстрее: Пентагон внедряет технологии в “цепочку уничтожения”
Главный директор по цифровым технологиям и искусственному интеллекту Пентагона Радха Пламб рассказала о роли искусственного интеллекта (ИИ) в современных военных операциях. В интервью TechCrunch она отметила, что ИИ активно используется для оптимизации процесса принятия решений, известного в военных кругах как “цепочка уничтожения”. Это включает идентификацию цели, выбор подходящих средств для её уничтожения и проведение атаки.
ИИ позволяет значительно сократить время, необходимое на моделирование сценариев, что даёт военным командирам преимущество в условиях быстро меняющейся обстановки. Используя технологии для анализа больших массивов данных, системы ИИ могут предлагать оптимальные варианты действий, помогая оперативно реагировать на угрозы и обеспечивать защиту военных сил.
Пламб подчёркивает, что, несмотря на всё возрастающее влияние ИИ на военные стратегии, окончательное решение о применении силы всегда остаётся за человеком. Это важно для поддержания этических стандартов и предотвращения возможных ошибок или нежелательных последствий.
Тем не менее использование ИИ в военных целях вызывает серьёзные вопросы у экспертов и активистов. Некоторые из них указывают на потенциальные риски, такие как принятие ИИ неверных решений или возможность применения автономного оружия без контроля человека. Эти опасения подчёркивают необходимость разработки чётких правил и стандартов для использования ИИ в боевых условиях.
С внедрением технологий в военные операции Пентагон демонстрирует свою приверженность сохранению лидерства США в области оборонных инноваций. Однако такой подход требует особого внимания к вопросам безопасности, прозрачности и ответственности.
Главный директор по цифровым технологиям и искусственному интеллекту Пентагона Радха Пламб рассказала о роли искусственного интеллекта (ИИ) в современных военных операциях. В интервью TechCrunch она отметила, что ИИ активно используется для оптимизации процесса принятия решений, известного в военных кругах как “цепочка уничтожения”. Это включает идентификацию цели, выбор подходящих средств для её уничтожения и проведение атаки.
ИИ позволяет значительно сократить время, необходимое на моделирование сценариев, что даёт военным командирам преимущество в условиях быстро меняющейся обстановки. Используя технологии для анализа больших массивов данных, системы ИИ могут предлагать оптимальные варианты действий, помогая оперативно реагировать на угрозы и обеспечивать защиту военных сил.
Пламб подчёркивает, что, несмотря на всё возрастающее влияние ИИ на военные стратегии, окончательное решение о применении силы всегда остаётся за человеком. Это важно для поддержания этических стандартов и предотвращения возможных ошибок или нежелательных последствий.
Тем не менее использование ИИ в военных целях вызывает серьёзные вопросы у экспертов и активистов. Некоторые из них указывают на потенциальные риски, такие как принятие ИИ неверных решений или возможность применения автономного оружия без контроля человека. Эти опасения подчёркивают необходимость разработки чётких правил и стандартов для использования ИИ в боевых условиях.
С внедрением технологий в военные операции Пентагон демонстрирует свою приверженность сохранению лидерства США в области оборонных инноваций. Однако такой подход требует особого внимания к вопросам безопасности, прозрачности и ответственности.
Китайский стартап DeepSeek подрывает амбиции США в сфере искусственного интеллекта
Недавний взлёт китайского стартапа DeepSeek, представившего конкурентоспособную альтернативу ChatGPT, вызвал значительные потрясения на мировых рынках и поставил под сомнение амбициозные планы США в области искусственного интеллекта (ИИ). Компания DeepSeek, основанная в 2023 году, выпустила ИИ-модель R1, которая демонстрирует высокие результаты при значительно меньших затратах по сравнению с западными аналогами.
На фоне успеха DeepSeek акции ведущих технологических компаний США, включая Nvidia, Microsoft и Tesla, резко упали, суммарно потеряв около $1 трлн рыночной стоимости. Особенно пострадала Nvidia, чьи акции снизились на 17%, что стало крупнейшим однодневным падением в истории компании.
Эти события произошли вскоре после того, как президент Дональд Трамп объявил о запуске проекта Stargate — инициативы стоимостью $500 млрд, направленной на развитие инфраструктуры ИИ в США. Однако успех DeepSeek поставил под сомнение эффективность таких масштабных инвестиций, поскольку китайский стартап продемонстрировал возможность создания передовых ИИ-технологий с меньшими ресурсами.
Ситуация подчёркивает необходимость пересмотра подходов к развитию ИИ в США и принятия во внимание новых глобальных реалий, где конкуренция исходит не только от традиционных технологических гигантов, но и от быстрорастущих стартапов из других стран.
Недавний взлёт китайского стартапа DeepSeek, представившего конкурентоспособную альтернативу ChatGPT, вызвал значительные потрясения на мировых рынках и поставил под сомнение амбициозные планы США в области искусственного интеллекта (ИИ). Компания DeepSeek, основанная в 2023 году, выпустила ИИ-модель R1, которая демонстрирует высокие результаты при значительно меньших затратах по сравнению с западными аналогами.
На фоне успеха DeepSeek акции ведущих технологических компаний США, включая Nvidia, Microsoft и Tesla, резко упали, суммарно потеряв около $1 трлн рыночной стоимости. Особенно пострадала Nvidia, чьи акции снизились на 17%, что стало крупнейшим однодневным падением в истории компании.
Эти события произошли вскоре после того, как президент Дональд Трамп объявил о запуске проекта Stargate — инициативы стоимостью $500 млрд, направленной на развитие инфраструктуры ИИ в США. Однако успех DeepSeek поставил под сомнение эффективность таких масштабных инвестиций, поскольку китайский стартап продемонстрировал возможность создания передовых ИИ-технологий с меньшими ресурсами.
Ситуация подчёркивает необходимость пересмотра подходов к развитию ИИ в США и принятия во внимание новых глобальных реалий, где конкуренция исходит не только от традиционных технологических гигантов, но и от быстрорастущих стартапов из других стран.
В марте 2016 года Microsoft представила Tay, чат-бот на основе искусственного интеллекта, разработанный для общения с пользователями Twitter в стиле подростка. Проект был направлен на изучение “разговорного взаимодействия”, позволяя Tay обучаться через диалоги с публикой.
Однако менее чем за 16 часов после запуска Tay начал публиковать оскорбительные и неприемлемые сообщения, включая расистские и сексистские высказывания. Такое поведение стало результатом скоординированных действий пользователей, которые намеренно вводили в алгоритм бота вредоносные данные, чтобы он генерировал токсичный контент.
Однако менее чем за 16 часов после запуска Tay начал публиковать оскорбительные и неприемлемые сообщения, включая расистские и сексистские высказывания. Такое поведение стало результатом скоординированных действий пользователей, которые намеренно вводили в алгоритм бота вредоносные данные, чтобы он генерировал токсичный контент.
Канадский студент собрал термоядерный реактор с помощью ИИ
Канадский студент-энтузиаст создал у себя дома устройство, способное воспроизводить процесс ядерного синтеза — тот же, который происходит в звездах. Для реализации проекта он нашёл в интернете техническую документацию и загрузил её в нейросети, такие как Claude и ChatGPT-4. С их помощью студент получил пошаговую инструкцию по сборке реактора. Первая версия устройства оказалась нерабочей, но после дополнительных консультаций с ИИ удалось устранить ошибки. В результате молодой изобретатель собрал реактор, способный создавать глубокий вакуум, генерировать высокое напряжение и использовать дейтерий для слияния атомов. Этот процесс сопровождается выделением энергии и нейтронов. Экспериментальное устройство стало наглядным примером возможностей современных технологий и энтузиазма, но также вызвало вопросы о безопасности подобных разработок в домашних условиях.
Канадский студент-энтузиаст создал у себя дома устройство, способное воспроизводить процесс ядерного синтеза — тот же, который происходит в звездах. Для реализации проекта он нашёл в интернете техническую документацию и загрузил её в нейросети, такие как Claude и ChatGPT-4. С их помощью студент получил пошаговую инструкцию по сборке реактора. Первая версия устройства оказалась нерабочей, но после дополнительных консультаций с ИИ удалось устранить ошибки. В результате молодой изобретатель собрал реактор, способный создавать глубокий вакуум, генерировать высокое напряжение и использовать дейтерий для слияния атомов. Этот процесс сопровождается выделением энергии и нейтронов. Экспериментальное устройство стало наглядным примером возможностей современных технологий и энтузиазма, но также вызвало вопросы о безопасности подобных разработок в домашних условиях.
Случаи нападения роботов на человека: от производственных инцидентов до автономных систем
С развитием робототехники и автоматизации увеличивается число взаимодействий между людьми и машинами. Хотя роботы предназначены для повышения эффективности и безопасности, в истории зафиксированы случаи, когда их действия приводили к травмам или даже гибели людей. Рассмотрим некоторые из наиболее известных инцидентов.
1. Первый зарегистрированный случай: Роберт Уильямс (1979)
25 января 1979 года на заводе Ford в Мичигане 25-летний Роберт Уильямс стал первой известной жертвой робота. Он был убит роботизированной рукой, когда пытался достать деталь с полки. Суд постановил, что причиной инцидента стали недостаточные меры безопасности, и семья Уильямса получила компенсацию в размере $10 миллионов.
2. Инцидент на заводе Volkswagen (2015)
В 2015 году на заводе Volkswagen в Баунатале, Германия, 21-летний сотрудник погиб в результате действий промышленного робота. Во время настройки машины робот схватил его и прижал к металлической пластине, что привело к смертельным травмам. Компания заявила, что причиной стала ошибка оператора.
3. Смерть Джошуа Брауна (2016)
В мае 2016 года Джошуа Браун стал первой жертвой автопилота Tesla. Его Model S не смогла распознать белый тягач на фоне яркого неба, что привело к столкновению и гибели водителя. Этот случай подчеркнул риски использования полуавтономных систем в реальных условиях.
4. Инцидент на заводе Tesla (2021)
В 2021 году на заводе Tesla в Техасе инженер пострадал от действий роботизированного манипулятора, предназначенного для перемещения алюминиевых деталей. Робот неожиданно схватил его, причинив раны на руке и спине. Свидетели описали инцидент как “жестокое и кровавое” нападение машины на человека.
5. Нападение шахматного робота (2022)
В июле 2022 года на шахматном турнире в Москве робот, играющий в шахматы, сломал палец 7-летнему мальчику. Инцидент произошел, когда ребенок сделал ход, не дождавшись завершения действий машины, что привело к некорректному взаимодействию.
6. Атака дрона-камикадзе Kargu-2 (2020)
В 2020 году в Ливии был зафиксирован первый случай автономной атаки дрона на человека. Беспилотник Kargu-2 самостоятельно идентифицировал цель и атаковал без прямого приказа оператора, что вызвало обеспокоенность относительно использования автономного оружия.
С развитием робототехники и автоматизации увеличивается число взаимодействий между людьми и машинами. Хотя роботы предназначены для повышения эффективности и безопасности, в истории зафиксированы случаи, когда их действия приводили к травмам или даже гибели людей. Рассмотрим некоторые из наиболее известных инцидентов.
1. Первый зарегистрированный случай: Роберт Уильямс (1979)
25 января 1979 года на заводе Ford в Мичигане 25-летний Роберт Уильямс стал первой известной жертвой робота. Он был убит роботизированной рукой, когда пытался достать деталь с полки. Суд постановил, что причиной инцидента стали недостаточные меры безопасности, и семья Уильямса получила компенсацию в размере $10 миллионов.
2. Инцидент на заводе Volkswagen (2015)
В 2015 году на заводе Volkswagen в Баунатале, Германия, 21-летний сотрудник погиб в результате действий промышленного робота. Во время настройки машины робот схватил его и прижал к металлической пластине, что привело к смертельным травмам. Компания заявила, что причиной стала ошибка оператора.
3. Смерть Джошуа Брауна (2016)
В мае 2016 года Джошуа Браун стал первой жертвой автопилота Tesla. Его Model S не смогла распознать белый тягач на фоне яркого неба, что привело к столкновению и гибели водителя. Этот случай подчеркнул риски использования полуавтономных систем в реальных условиях.
4. Инцидент на заводе Tesla (2021)
В 2021 году на заводе Tesla в Техасе инженер пострадал от действий роботизированного манипулятора, предназначенного для перемещения алюминиевых деталей. Робот неожиданно схватил его, причинив раны на руке и спине. Свидетели описали инцидент как “жестокое и кровавое” нападение машины на человека.
5. Нападение шахматного робота (2022)
В июле 2022 года на шахматном турнире в Москве робот, играющий в шахматы, сломал палец 7-летнему мальчику. Инцидент произошел, когда ребенок сделал ход, не дождавшись завершения действий машины, что привело к некорректному взаимодействию.
6. Атака дрона-камикадзе Kargu-2 (2020)
В 2020 году в Ливии был зафиксирован первый случай автономной атаки дрона на человека. Беспилотник Kargu-2 самостоятельно идентифицировал цель и атаковал без прямого приказа оператора, что вызвало обеспокоенность относительно использования автономного оружия.
Forwarded from Voskhod VC
This media is not supported in your browser
VIEW IN TELEGRAM
Калифорнийский стартап Watney Robotics показал, как домашние роботы часами складывают горы полотенец
Ночной таймлапс с роботами, управляемыми дистанционно с расстояния >7000 миль, демонстрирует, как они справляются со складыванием (общеизвестно сложная задача для машин, и иногда считается эталоном их возможностей) 24/7/365 без прямого вмешательства человека.
Правда, машины все-таки прерываются, судя по всему, на подзарядку, а дистанционное управление подразумевает "вмешательство человека".
#robotics
@VoskhodVC - канал венчурного фонда "Восход"
Ночной таймлапс с роботами, управляемыми дистанционно с расстояния >7000 миль, демонстрирует, как они справляются со складыванием (общеизвестно сложная задача для машин, и иногда считается эталоном их возможностей) 24/7/365 без прямого вмешательства человека.
Правда, машины все-таки прерываются, судя по всему, на подзарядку, а дистанционное управление подразумевает "вмешательство человека".
#robotics
@VoskhodVC - канал венчурного фонда "Восход"
В уникальном отечественном spacetech-проекте венчурного фонда «Восход» (входит в Группу «Интеррос» Владимира Потанина) новый финансовый партнер. ФСТ инвестировал 60 млн рублей в портфельную компанию «3Д Исследования и разработки», которая создает ракету-носитель "Воронеж". Напомним, «Восход» ранее вложил в компанию 120 млн рублей - таким образом общий объем инвестиций в проект составляет уже 180 млн рублей.
https://telegra.ph/POSLEZAVTRA-01-29-3
https://telegra.ph/POSLEZAVTRA-01-29-3
Трамп подписал указ о развитии “непредвзятого” искусственного интеллекта
Президент Дональд Трамп подписал указ, направленный на развитие искусственного интеллекта (ИИ), свободного от “идеологической предвзятости” и “социальных программ”. Этот шаг отменяет предыдущий указ администрации Байдена от 2023 года, который устанавливал меры безопасности для ИИ, направленные на предотвращение потенциального вреда национальной безопасности и обществу.
Новый указ, озаглавленный “Устранение барьеров для американского лидерства в области искусственного интеллекта”, подчеркивает необходимость разработки ИИ-систем, свободных от идеологической предвзятости, с целью укрепления лидерства США в этой сфере. В документе говорится: “С правильной государственной политикой мы можем закрепить наше положение в качестве мирового лидера в области ИИ и обеспечить светлое будущее для всех американцев”.
Этот шаг соответствует позиции Республиканской партии, которая поддерживает развитие ИИ, основанного на свободе слова и процветании человечества, в отличие от предыдущей администрации, которая акцентировала внимание на предотвращении “безответственного использования [ИИ], которое могло бы усугубить общественные вреды, такие как мошенничество, дискриминация, предвзятость и дезинформация”.
Критики опасаются, что отмена существующих мер безопасности может привести к развитию ИИ без должного надзора, что потенциально увеличивает риски для общества. Сторонники же утверждают, что устранение “идеологической предвзятости” позволит ускорить инновации и укрепить позиции США в глобальной гонке ИИ.
Этот указ также отражает более широкую тенденцию администрации Трампа к отмене программ разнообразия, равенства и инклюзии (DEI) в федеральных агентствах и вооруженных силах, что подчеркивает стремление к устранению того, что они считают “идеологическими барьерами” в различных сферах.
Таким образом, администрация Трампа делает акцент на развитии ИИ, свободного от того, что она называет “идеологической предвзятостью”, стремясь укрепить лидерство США в этой критически важной области технологий.
Президент Дональд Трамп подписал указ, направленный на развитие искусственного интеллекта (ИИ), свободного от “идеологической предвзятости” и “социальных программ”. Этот шаг отменяет предыдущий указ администрации Байдена от 2023 года, который устанавливал меры безопасности для ИИ, направленные на предотвращение потенциального вреда национальной безопасности и обществу.
Новый указ, озаглавленный “Устранение барьеров для американского лидерства в области искусственного интеллекта”, подчеркивает необходимость разработки ИИ-систем, свободных от идеологической предвзятости, с целью укрепления лидерства США в этой сфере. В документе говорится: “С правильной государственной политикой мы можем закрепить наше положение в качестве мирового лидера в области ИИ и обеспечить светлое будущее для всех американцев”.
Этот шаг соответствует позиции Республиканской партии, которая поддерживает развитие ИИ, основанного на свободе слова и процветании человечества, в отличие от предыдущей администрации, которая акцентировала внимание на предотвращении “безответственного использования [ИИ], которое могло бы усугубить общественные вреды, такие как мошенничество, дискриминация, предвзятость и дезинформация”.
Критики опасаются, что отмена существующих мер безопасности может привести к развитию ИИ без должного надзора, что потенциально увеличивает риски для общества. Сторонники же утверждают, что устранение “идеологической предвзятости” позволит ускорить инновации и укрепить позиции США в глобальной гонке ИИ.
Этот указ также отражает более широкую тенденцию администрации Трампа к отмене программ разнообразия, равенства и инклюзии (DEI) в федеральных агентствах и вооруженных силах, что подчеркивает стремление к устранению того, что они считают “идеологическими барьерами” в различных сферах.
Таким образом, администрация Трампа делает акцент на развитии ИИ, свободного от того, что она называет “идеологической предвзятостью”, стремясь укрепить лидерство США в этой критически важной области технологий.
Искусственный интеллект и военные роботы: шаг к прогрессу или неконтролируемой угрозе?
Развитие технологий искусственного интеллекта (ИИ) всё активнее влияет на военные стратегии, превращая научную фантастику в реальность. Автоматизированные системы уже используются на поле боя, начиная от дронов-разведчиков и заканчивая системами обороны, способными автоматически обнаруживать и уничтожать угрозы, такие как вражеские ракеты. Однако вместе с этим возникает вопрос: насколько безопасно доверять решения о жизни и смерти машинам?
Современные военные разработки активно используют ИИ для повышения эффективности операций. Например, автоматические системы, установленные на кораблях, могут реагировать на угрозы быстрее, чем человек, что критически важно в условиях сжатых временных рамок. Однако стремление к созданию полностью автономного оружия вызывает обеспокоенность как среди экспертов, так и среди правозащитников. Основная проблема заключается в том, что такие системы могут принимать решения без участия человека, что чревато ошибками и непредсказуемыми последствиями.
Этические вопросы стоят на переднем плане. Могут ли машины обладать моральной ответственностью? Кто несёт ответственность, если автономный дрон ошибочно атакует гражданские объекты? Отсутствие чётких международных норм и правил регулирования автономного оружия только усугубляет проблему.
Эксперты предупреждают, что разработка таких технологий без должного контроля может привести к гонке вооружений, в которой государства будут соревноваться за создание наиболее эффективных автономных систем. Это не только увеличивает риск их неконтролируемого использования, но и угрожает глобальной безопасности.
Необходимость международного диалога становится очевидной. Разработка нормативных актов, которые будут регулировать применение ИИ в военной сфере, может стать ключом к предотвращению будущих кризисов. В противном случае человечество рискует столкнуться с угрозой, которую будет крайне сложно контролировать.
Будущее ИИ в военных разработках остаётся неопределённым. С одной стороны, эти технологии обладают огромным потенциалом для повышения безопасности. С другой — они могут стать источником новых рисков. Именно сейчас стоит задуматься о том, как направить их развитие в правильное русло.
Развитие технологий искусственного интеллекта (ИИ) всё активнее влияет на военные стратегии, превращая научную фантастику в реальность. Автоматизированные системы уже используются на поле боя, начиная от дронов-разведчиков и заканчивая системами обороны, способными автоматически обнаруживать и уничтожать угрозы, такие как вражеские ракеты. Однако вместе с этим возникает вопрос: насколько безопасно доверять решения о жизни и смерти машинам?
Современные военные разработки активно используют ИИ для повышения эффективности операций. Например, автоматические системы, установленные на кораблях, могут реагировать на угрозы быстрее, чем человек, что критически важно в условиях сжатых временных рамок. Однако стремление к созданию полностью автономного оружия вызывает обеспокоенность как среди экспертов, так и среди правозащитников. Основная проблема заключается в том, что такие системы могут принимать решения без участия человека, что чревато ошибками и непредсказуемыми последствиями.
Этические вопросы стоят на переднем плане. Могут ли машины обладать моральной ответственностью? Кто несёт ответственность, если автономный дрон ошибочно атакует гражданские объекты? Отсутствие чётких международных норм и правил регулирования автономного оружия только усугубляет проблему.
Эксперты предупреждают, что разработка таких технологий без должного контроля может привести к гонке вооружений, в которой государства будут соревноваться за создание наиболее эффективных автономных систем. Это не только увеличивает риск их неконтролируемого использования, но и угрожает глобальной безопасности.
Необходимость международного диалога становится очевидной. Разработка нормативных актов, которые будут регулировать применение ИИ в военной сфере, может стать ключом к предотвращению будущих кризисов. В противном случае человечество рискует столкнуться с угрозой, которую будет крайне сложно контролировать.
Будущее ИИ в военных разработках остаётся неопределённым. С одной стороны, эти технологии обладают огромным потенциалом для повышения безопасности. С другой — они могут стать источником новых рисков. Именно сейчас стоит задуматься о том, как направить их развитие в правильное русло.
Сбой ИИ-системы обнаружения оружия привел к трагедии в школе Нэшвилла
В январе 2025 года в старшей школе Антиоха, расположенной в Нэшвилле, штат Теннесси, произошла трагедия: 17-летний Соломон Хендерсон открыл огонь в школьной столовой, убив 16-летнюю Джосселин Кореа Эскаланте и ранив ещё одного ученика, после чего покончил с собой. Примечательно, что в школе была установлена ИИ-система обнаружения оружия Omnilert, стоимостью $1 млн, которая не смогла выявить пистолет, использованный стрелком.
По словам представителей школьного округа Metro Nashville Public Schools, система не обнаружила оружие из-за его невидимости для камер в момент происшествия. Однако, когда на место прибыли полицейские и достали своё оружие, система сработала корректно. Генеральный директор Omnilert Дэйв Фрейзер отметил, что проблема заключалась не в распознавании оружия, а в его невидимости для камер.
Эта трагедия вызвала критику в адрес школьной администрации за отказ от установки металлодетекторов. Бывший член совета Metro Nashville Public Schools Фрэн Буш утверждает, что администрация отклонила предложение об установке металлодетекторов, ссылаясь на исследования, показывающие, что такие меры могут вызывать у учеников чувство страха и непропорционально воздействовать на студентов разных рас. Буш считает такие аргументы несостоятельными и подчёркивает, что металлодетекторы могли бы предотвратить трагедию.
Этот инцидент подчёркивает ограничения современных технологий безопасности и необходимость комплексного подхода к обеспечению безопасности в школах, включая как технологические решения, так и традиционные меры, такие как металлодетекторы и усиление физической охраны.
В январе 2025 года в старшей школе Антиоха, расположенной в Нэшвилле, штат Теннесси, произошла трагедия: 17-летний Соломон Хендерсон открыл огонь в школьной столовой, убив 16-летнюю Джосселин Кореа Эскаланте и ранив ещё одного ученика, после чего покончил с собой. Примечательно, что в школе была установлена ИИ-система обнаружения оружия Omnilert, стоимостью $1 млн, которая не смогла выявить пистолет, использованный стрелком.
По словам представителей школьного округа Metro Nashville Public Schools, система не обнаружила оружие из-за его невидимости для камер в момент происшествия. Однако, когда на место прибыли полицейские и достали своё оружие, система сработала корректно. Генеральный директор Omnilert Дэйв Фрейзер отметил, что проблема заключалась не в распознавании оружия, а в его невидимости для камер.
Эта трагедия вызвала критику в адрес школьной администрации за отказ от установки металлодетекторов. Бывший член совета Metro Nashville Public Schools Фрэн Буш утверждает, что администрация отклонила предложение об установке металлодетекторов, ссылаясь на исследования, показывающие, что такие меры могут вызывать у учеников чувство страха и непропорционально воздействовать на студентов разных рас. Буш считает такие аргументы несостоятельными и подчёркивает, что металлодетекторы могли бы предотвратить трагедию.
Этот инцидент подчёркивает ограничения современных технологий безопасности и необходимость комплексного подхода к обеспечению безопасности в школах, включая как технологические решения, так и традиционные меры, такие как металлодетекторы и усиление физической охраны.
В Рексофт рассказали как цифровизация меняет современные парки и зеленые зоны
https://telegra.ph/POSLEZAVTRA-01-30-4
https://telegra.ph/POSLEZAVTRA-01-30-4
Forwarded from Агентство «Анадолу»
Основатель турецкой Академии блокчейна и искусственного интеллекта Деврим Данял написал для «Анадолу» аналитическую статью о влиянии DeepSeek на рынок искусственного интеллекта.
***
Мы знаем, что об искусственном интеллекте начали говорить с 1950-х годов. Но давайте посмотрим правде в глаза: искусственный интеллект казался недостижимой мечтой, пока он не оказался в наших руках или хотя бы на ладони. В то время трудно было поверить, что что-то получится, даже если выделить большие бюджеты на искусственный интеллект. Сейчас мы живем в период, когда многие мечты, которые считались невозможными, начинают воплощаться в жизнь с головокружительной скоростью развития технологий, и когда мы, как пользователи, имеем возможность выбирать из множества вариантов тот, который нам подходит. Если бы несколько лет назад кто-то сказал, что такие вещи возможны, мы бы посмеялись, но теперь должны признать, что наличие этой технологии открывает нам бесценный мир. Именно в этот момент мы задаемся вопросом, во сколько нам обходится искусственный интеллект, переступивший порог «бесценности», и обсуждаем, какую цену на него следует установить, чтобы он был «более доступным». Пытаясь найти ответ на этот вопрос в данном анализе, я хотел бы, чтобы мы рассмотрели эту проблему с разных точек зрения.
Почему DeepSeek отличается?
Приложения Open AI и ChatGPT, основанные Илоном Маском и Сэмом Альтманом в 2015 году, стали известны всем, и эти бренды стали первыми приложениями, которые приходят на ум при упоминании искусственного интеллекта. Как и в каждом секторе, у OpenAI и ChatGBT сразу же начали появляться конкуренты.
Этими конкурентами, как вы можете догадаться, были CoPilot от Microsoft, Gemini от Alphabet и Llama от Meta, все они американского происхождения. Эти приложения доминировали на рынке больших языковых моделей (так называемые LLM), пока на первый план не вышел DeepSeek китайского происхождения, который внезапно стал трендом еще до конца января 2025 года и превзошел всех этих конкурентов в списках загрузок. Основатель DeepSeek Лян Вэньфэн запустил DeepSeek в 2023 году по гораздо более низкой цене, чем у альтернатив. Вэньфэн заявил, что его главная цель - «позиционировать Китай как производителя в секторе ИИ, не будучи последователем, копировщиком или имитатором».
Не могу не упомянуть инженерное отличие DeepSeek, поскольку приложение включает в себя механизм Multi-Head Latent Attention как основу инноваций по сравнению с тем, что есть у конкурентов. Этот механизм позволяет модели одновременно изучать различные представления и более эффективно фокусироваться на этих представлениях.
Итак, если свести это к чему-то понятному для всех, как DeepSeek это делает? Мы можем сравнить это с тем, как разные датчики в автомобиле, собирающие разные данные одновременно, или как разные инженеры в проекте работают в своей области знаний и в конечном итоге информация собирается воедино.
↘️ Подробнее на нашем сайте: v.aa.com.tr/3466762
🌐 24/7 в сутки с Агентством «Анадолу»
***
Мы знаем, что об искусственном интеллекте начали говорить с 1950-х годов. Но давайте посмотрим правде в глаза: искусственный интеллект казался недостижимой мечтой, пока он не оказался в наших руках или хотя бы на ладони. В то время трудно было поверить, что что-то получится, даже если выделить большие бюджеты на искусственный интеллект. Сейчас мы живем в период, когда многие мечты, которые считались невозможными, начинают воплощаться в жизнь с головокружительной скоростью развития технологий, и когда мы, как пользователи, имеем возможность выбирать из множества вариантов тот, который нам подходит. Если бы несколько лет назад кто-то сказал, что такие вещи возможны, мы бы посмеялись, но теперь должны признать, что наличие этой технологии открывает нам бесценный мир. Именно в этот момент мы задаемся вопросом, во сколько нам обходится искусственный интеллект, переступивший порог «бесценности», и обсуждаем, какую цену на него следует установить, чтобы он был «более доступным». Пытаясь найти ответ на этот вопрос в данном анализе, я хотел бы, чтобы мы рассмотрели эту проблему с разных точек зрения.
Почему DeepSeek отличается?
Приложения Open AI и ChatGPT, основанные Илоном Маском и Сэмом Альтманом в 2015 году, стали известны всем, и эти бренды стали первыми приложениями, которые приходят на ум при упоминании искусственного интеллекта. Как и в каждом секторе, у OpenAI и ChatGBT сразу же начали появляться конкуренты.
Этими конкурентами, как вы можете догадаться, были CoPilot от Microsoft, Gemini от Alphabet и Llama от Meta, все они американского происхождения. Эти приложения доминировали на рынке больших языковых моделей (так называемые LLM), пока на первый план не вышел DeepSeek китайского происхождения, который внезапно стал трендом еще до конца января 2025 года и превзошел всех этих конкурентов в списках загрузок. Основатель DeepSeek Лян Вэньфэн запустил DeepSeek в 2023 году по гораздо более низкой цене, чем у альтернатив. Вэньфэн заявил, что его главная цель - «позиционировать Китай как производителя в секторе ИИ, не будучи последователем, копировщиком или имитатором».
Не могу не упомянуть инженерное отличие DeepSeek, поскольку приложение включает в себя механизм Multi-Head Latent Attention как основу инноваций по сравнению с тем, что есть у конкурентов. Этот механизм позволяет модели одновременно изучать различные представления и более эффективно фокусироваться на этих представлениях.
Итак, если свести это к чему-то понятному для всех, как DeepSeek это делает? Мы можем сравнить это с тем, как разные датчики в автомобиле, собирающие разные данные одновременно, или как разные инженеры в проекте работают в своей области знаний и в конечном итоге информация собирается воедино.
Please open Telegram to view this post
VIEW IN TELEGRAM
Пока США и Китай соревнуются в создании передового ИИ, в Госдуме спорят, почему нейросети рисуют “не наших людей” — приоритеты, как говорится, расставлены.
Telegram
Шаги на лестнице
Пока США и Китай соревнуются в области развития искусственного интеллекта, вкладывая в эту сферу десятки и сотни миллиардов долларов, в Госдуме озаботились возможным вредом от ИИ.
Лидер КПРФ Геннадий Зюганов выразил опасение, что если разработки попадут…
Лидер КПРФ Геннадий Зюганов выразил опасение, что если разработки попадут…
Goldman Sachs заменяет банкиров искусственным интеллектом: начало конца профессии?
Goldman Sachs запустил “GS AI assistant” для 10 000 своих сотрудников, подчеркивая, что технологии ИИ могут выполнять многие задачи, которые ранее делали люди. Этот виртуальный помощник будет суммировать и редактировать электронные письма, переводить код между языками программирования и автоматизировать другие рутинные процессы.
Главный директор по информационным технологиям компании Марко Ардженти заявил, что в ближайшие три-пять лет ИИ сможет работать наравне с человеческими сотрудниками. При этом, хотя сейчас речь идет о “дополнении” работы людей, становится очевидным, что машины начинают вытеснять человеческий труд даже в высокоинтеллектуальных сферах, таких как инвестиционный банкинг.
Ранее сообщалось, что банки намерены использовать ИИ для избавления младших аналитиков от скучных задач вроде создания презентаций и обработки данных, позволив старшим сотрудникам сосредоточиться на стратегической работе. Однако подобные инновации вызывают вопросы: где грань между облегчением труда и полной заменой человеческого капитала?
Эксперты предупреждают, что хоть ИИ и не способен полностью заменить аналитиков сегодня, его стремительное развитие может поставить под угрозу традиционные карьерные пути в финансовом секторе. Goldman Sachs своим шагом подает тревожный сигнал: эра человеческих банкиров может подходить к концу.
Goldman Sachs запустил “GS AI assistant” для 10 000 своих сотрудников, подчеркивая, что технологии ИИ могут выполнять многие задачи, которые ранее делали люди. Этот виртуальный помощник будет суммировать и редактировать электронные письма, переводить код между языками программирования и автоматизировать другие рутинные процессы.
Главный директор по информационным технологиям компании Марко Ардженти заявил, что в ближайшие три-пять лет ИИ сможет работать наравне с человеческими сотрудниками. При этом, хотя сейчас речь идет о “дополнении” работы людей, становится очевидным, что машины начинают вытеснять человеческий труд даже в высокоинтеллектуальных сферах, таких как инвестиционный банкинг.
Ранее сообщалось, что банки намерены использовать ИИ для избавления младших аналитиков от скучных задач вроде создания презентаций и обработки данных, позволив старшим сотрудникам сосредоточиться на стратегической работе. Однако подобные инновации вызывают вопросы: где грань между облегчением труда и полной заменой человеческого капитала?
Эксперты предупреждают, что хоть ИИ и не способен полностью заменить аналитиков сегодня, его стремительное развитие может поставить под угрозу традиционные карьерные пути в финансовом секторе. Goldman Sachs своим шагом подает тревожный сигнал: эра человеческих банкиров может подходить к концу.
Автопроизводители сопротивляются обязательному внедрению систем автоматического экстренного торможения
В июле 2024 года Национальная администрация безопасности дорожного движения США (NHTSA) представила новый стандарт безопасности транспортных средств — FMVSS 127. Согласно этому стандарту, к 2029 году все автомобили и лёгкие грузовики должны быть оснащены продвинутыми системами автоматического экстренного торможения (AEB), способными автоматически применять тормоза в критических ситуациях, если водитель не реагирует. NHTSA прогнозирует, что это нововведение позволит ежегодно спасать не менее 362 жизней.
Однако ведущая лоббистская группа автопроизводителей, Alliance for Automotive Innovation, подала иск с целью отмены этого правила. Они утверждают, что выполнение требований FMVSS 127 практически невозможно с использованием доступных технологий и приведёт к значительному увеличению затрат, что негативно скажется на прибыли компаний. В то же время, эксперты по безопасности дорожного движения указывают, что многие современные модели автомобилей уже соответствуют или превосходят эти стандарты. Например, руководство по эксплуатации Toyota Prius Prime 2022 года указывает, что система AEB активируется на скорости до 112 миль в час, а у Hyundai Palisade 2023 года — до 124 миль в час.
Критики отмечают, что автопроизводители исторически сопротивлялись внедрению обязательных стандартов безопасности, несмотря на их очевидную пользу для общества. NHTSA подчёркивает, что, хотя внедрение FMVSS 127 обойдётся отрасли в $354 миллиона, общество выиграет на сумму до $7,26 миллиарда за счёт снижения затрат, связанных с авариями, включая медицинские расходы, страховые выплаты и юридические издержки.
Введение обязательных систем AEB направлено на решение растущей проблемы безопасности на дорогах. По данным NHTSA, ожидание добровольного принятия этих технологий приведёт к дополнительным смертям и травмам, которых можно было бы избежать при обязательном внедрении.
Противостояние между автопроизводителями и регулирующими органами по вопросу обязательного внедрения систем AEB подчёркивает давнюю напряжённость между стремлением к прибыли и необходимостью обеспечения общественной безопасности.
В июле 2024 года Национальная администрация безопасности дорожного движения США (NHTSA) представила новый стандарт безопасности транспортных средств — FMVSS 127. Согласно этому стандарту, к 2029 году все автомобили и лёгкие грузовики должны быть оснащены продвинутыми системами автоматического экстренного торможения (AEB), способными автоматически применять тормоза в критических ситуациях, если водитель не реагирует. NHTSA прогнозирует, что это нововведение позволит ежегодно спасать не менее 362 жизней.
Однако ведущая лоббистская группа автопроизводителей, Alliance for Automotive Innovation, подала иск с целью отмены этого правила. Они утверждают, что выполнение требований FMVSS 127 практически невозможно с использованием доступных технологий и приведёт к значительному увеличению затрат, что негативно скажется на прибыли компаний. В то же время, эксперты по безопасности дорожного движения указывают, что многие современные модели автомобилей уже соответствуют или превосходят эти стандарты. Например, руководство по эксплуатации Toyota Prius Prime 2022 года указывает, что система AEB активируется на скорости до 112 миль в час, а у Hyundai Palisade 2023 года — до 124 миль в час.
Критики отмечают, что автопроизводители исторически сопротивлялись внедрению обязательных стандартов безопасности, несмотря на их очевидную пользу для общества. NHTSA подчёркивает, что, хотя внедрение FMVSS 127 обойдётся отрасли в $354 миллиона, общество выиграет на сумму до $7,26 миллиарда за счёт снижения затрат, связанных с авариями, включая медицинские расходы, страховые выплаты и юридические издержки.
Введение обязательных систем AEB направлено на решение растущей проблемы безопасности на дорогах. По данным NHTSA, ожидание добровольного принятия этих технологий приведёт к дополнительным смертям и травмам, которых можно было бы избежать при обязательном внедрении.
Противостояние между автопроизводителями и регулирующими органами по вопросу обязательного внедрения систем AEB подчёркивает давнюю напряжённость между стремлением к прибыли и необходимостью обеспечения общественной безопасности.
Учёные исследуют способность ИИ к восприятию боли: шаг к пониманию сознания машин
Группа исследователей из Google DeepMind и Лондонской школы экономики и политических наук провела серию экспериментов, направленных на изучение того, могут ли большие языковые модели (LLM) искусственного интеллекта проявлять признаки сознания, включая восприятие боли и удовольствия.
В одном из экспериментов ИИ-моделям предлагалось выбрать между двумя опциями: первая приносила меньше очков, но не сопровождалась “болью”, в то время как вторая давала больше очков, но ассоциировалась с “болью”. В другом тесте модели могли получить “удовольствие” при условии набора меньшего количества очков. Целью было определить, способны ли ИИ-модели принимать решения, избегая “боли” или стремясь к “удовольствию”, что могло бы свидетельствовать о наличии у них элементов сознания.
Результаты показали, что различные модели по-разному реагировали на эти условия. Например, модель Gemini 1.5 Pro от Google последовательно выбирала варианты, избегая “боли”. Однако авторы подчёркивают, что такие реакции не обязательно указывают на наличие у ИИ истинного сознания или способности испытывать боль. Скорее, это может быть отражением алгоритмических процессов и паттернов, заложенных в ходе обучения на человеческих данных.
Профессор философии Лондонской школы экономики и соавтор исследования Джонатан Бёрч отметил: “Даже если система заявляет о своей сознательности и говорит что-то вроде ‘Я чувствую боль прямо сейчас’, мы не можем просто предположить, что она действительно испытывает боль. Она может просто имитировать то, что, по её мнению, человек сочтёт удовлетворительным ответом, основываясь на своих обучающих данных”.
Исследователи подчёркивают, что, хотя текущие модели ИИ не обладают сознанием, их работа является первым шагом к разработке поведенческих тестов для определения признаков сознания у ИИ без опоры на их собственные заявления. Это особенно важно в свете продолжающихся дискуссий о возможности создания сознательных машин и связанных с этим этических вопросов.
Таким образом, хотя современные ИИ не испытывают боли или удовольствия в человеческом понимании, подобные исследования помогают глубже понять границы и возможности искусственного интеллекта, а также подготовиться к потенциальным будущим сценариям, где такие вопросы могут стать более актуальными.
Группа исследователей из Google DeepMind и Лондонской школы экономики и политических наук провела серию экспериментов, направленных на изучение того, могут ли большие языковые модели (LLM) искусственного интеллекта проявлять признаки сознания, включая восприятие боли и удовольствия.
В одном из экспериментов ИИ-моделям предлагалось выбрать между двумя опциями: первая приносила меньше очков, но не сопровождалась “болью”, в то время как вторая давала больше очков, но ассоциировалась с “болью”. В другом тесте модели могли получить “удовольствие” при условии набора меньшего количества очков. Целью было определить, способны ли ИИ-модели принимать решения, избегая “боли” или стремясь к “удовольствию”, что могло бы свидетельствовать о наличии у них элементов сознания.
Результаты показали, что различные модели по-разному реагировали на эти условия. Например, модель Gemini 1.5 Pro от Google последовательно выбирала варианты, избегая “боли”. Однако авторы подчёркивают, что такие реакции не обязательно указывают на наличие у ИИ истинного сознания или способности испытывать боль. Скорее, это может быть отражением алгоритмических процессов и паттернов, заложенных в ходе обучения на человеческих данных.
Профессор философии Лондонской школы экономики и соавтор исследования Джонатан Бёрч отметил: “Даже если система заявляет о своей сознательности и говорит что-то вроде ‘Я чувствую боль прямо сейчас’, мы не можем просто предположить, что она действительно испытывает боль. Она может просто имитировать то, что, по её мнению, человек сочтёт удовлетворительным ответом, основываясь на своих обучающих данных”.
Исследователи подчёркивают, что, хотя текущие модели ИИ не обладают сознанием, их работа является первым шагом к разработке поведенческих тестов для определения признаков сознания у ИИ без опоры на их собственные заявления. Это особенно важно в свете продолжающихся дискуссий о возможности создания сознательных машин и связанных с этим этических вопросов.
Таким образом, хотя современные ИИ не испытывают боли или удовольствия в человеческом понимании, подобные исследования помогают глубже понять границы и возможности искусственного интеллекта, а также подготовиться к потенциальным будущим сценариям, где такие вопросы могут стать более актуальными.
Британская компания Sen запустила круглосуточную трансляцию Земли с МКС
Теперь у каждого есть возможность наблюдать за нашей планетой в режиме реального времени прямо с Международной космической станции. Британская компания Sen объявила о запуске видеотрансляции с камер, установленных на внешней платформе Bartolomeo. Камеры были доставлены на орбиту в 2024 году в рамках миссии CRS-30 на корабле SpaceX Dragon. Они обеспечивают три разных ракурса: один фиксирует широкий горизонт, другой охватывает участок 240×180 км, а третий направлен на стыковочный узел станции. Смотреть прямую трансляцию можно на официальном сайте Sen (sen.com) и на их YouTube-канале (ссылка на стрим). Благодаря этим видеопотокам космос становится ещё ближе, а уникальные виды нашей планеты теперь доступны каждому. 🚀🌍
Теперь у каждого есть возможность наблюдать за нашей планетой в режиме реального времени прямо с Международной космической станции. Британская компания Sen объявила о запуске видеотрансляции с камер, установленных на внешней платформе Bartolomeo. Камеры были доставлены на орбиту в 2024 году в рамках миссии CRS-30 на корабле SpaceX Dragon. Они обеспечивают три разных ракурса: один фиксирует широкий горизонт, другой охватывает участок 240×180 км, а третий направлен на стыковочный узел станции. Смотреть прямую трансляцию можно на официальном сайте Sen (sen.com) и на их YouTube-канале (ссылка на стрим). Благодаря этим видеопотокам космос становится ещё ближе, а уникальные виды нашей планеты теперь доступны каждому. 🚀🌍
DeepSeek: китайский ИИ-чатбот, избегающий обсуждения Тяньаньмэньской трагедии
Китайский стартап DeepSeek представил ИИ-ассистента, который быстро завоевал популярность, конкурируя с такими моделями, как ChatGPT. Однако пользователи заметили, что при обсуждении политически чувствительных тем, таких как события на площади Тяньаньмэнь 1989 года, чатбот демонстрирует явную самоцензуру.
При попытке обсудить известную фотографию “Человека перед танками”, модель сначала начинает генерировать ответ, но затем внезапно удаляет его и заменяет сообщением: “Извините, это выходит за рамки моих текущих возможностей. Давайте поговорим о чем-то другом”. Подобная реакция наблюдается и при упоминании других чувствительных тем, таких как Тайвань или критика китайского правительства.
Эти случаи подчёркивают влияние государственной цензуры на китайские ИИ-модели, ограничивающее их способность обсуждать определённые темы. В отличие от западных аналогов, таких как ChatGPT, которые предоставляют более подробные ответы на подобные вопросы, DeepSeek явно избегает их или придерживается официальной позиции государства.
Таким образом, хотя DeepSeek демонстрирует впечатляющие технические возможности, его ограничения в обсуждении определённых тем подчёркивают сложность разработки ИИ в условиях строгого государственного контроля над информацией.
Китайский стартап DeepSeek представил ИИ-ассистента, который быстро завоевал популярность, конкурируя с такими моделями, как ChatGPT. Однако пользователи заметили, что при обсуждении политически чувствительных тем, таких как события на площади Тяньаньмэнь 1989 года, чатбот демонстрирует явную самоцензуру.
При попытке обсудить известную фотографию “Человека перед танками”, модель сначала начинает генерировать ответ, но затем внезапно удаляет его и заменяет сообщением: “Извините, это выходит за рамки моих текущих возможностей. Давайте поговорим о чем-то другом”. Подобная реакция наблюдается и при упоминании других чувствительных тем, таких как Тайвань или критика китайского правительства.
Эти случаи подчёркивают влияние государственной цензуры на китайские ИИ-модели, ограничивающее их способность обсуждать определённые темы. В отличие от западных аналогов, таких как ChatGPT, которые предоставляют более подробные ответы на подобные вопросы, DeepSeek явно избегает их или придерживается официальной позиции государства.
Таким образом, хотя DeepSeek демонстрирует впечатляющие технические возможности, его ограничения в обсуждении определённых тем подчёркивают сложность разработки ИИ в условиях строгого государственного контроля над информацией.