Tesla создает команду для удаленного управления роботакси
Tesla предпринимает шаги по созданию команды телеперсонала, способного удаленно управлять ее роботакси и гуманоидными роботами. Недавно компания разместила вакансию инженера-программиста C++, который будет разрабатывать приложение на базе игрового движка Unreal Engine для удаленного контроля над автономными транспортными средствами. В описании вакансии отмечается: «По мере совершенствования ИИ, управляющего нашими машинами, нам необходима возможность удаленного доступа и управления ими».
Этот шаг отражает общую тенденцию в индустрии автономных транспортных средств, где компании, такие как Waymo, также полагаются на команды удаленных операторов для вмешательства в случае, если их автомобили сталкиваются с непредвиденными ситуациями на дороге. Хотя Tesla стремится к полной автономности своих автомобилей, наличие команды телеперсонала позволит обеспечить дополнительный уровень безопасности и надежности в процессе внедрения роботакси на дороги общего пользования.
Ранее Tesla представила прототип своего первого полностью автономного транспортного средства — Cybercab, однако детали о его производстве и коммерческом запуске пока остаются ограниченными.
Создание команды для удаленного управления подчеркивает прагматичный подход компании к развитию технологий автономного вождения, признавая необходимость человеческого вмешательства в сложных или нестандартных дорожных ситуациях.
Tesla предпринимает шаги по созданию команды телеперсонала, способного удаленно управлять ее роботакси и гуманоидными роботами. Недавно компания разместила вакансию инженера-программиста C++, который будет разрабатывать приложение на базе игрового движка Unreal Engine для удаленного контроля над автономными транспортными средствами. В описании вакансии отмечается: «По мере совершенствования ИИ, управляющего нашими машинами, нам необходима возможность удаленного доступа и управления ими».
Этот шаг отражает общую тенденцию в индустрии автономных транспортных средств, где компании, такие как Waymo, также полагаются на команды удаленных операторов для вмешательства в случае, если их автомобили сталкиваются с непредвиденными ситуациями на дороге. Хотя Tesla стремится к полной автономности своих автомобилей, наличие команды телеперсонала позволит обеспечить дополнительный уровень безопасности и надежности в процессе внедрения роботакси на дороги общего пользования.
Ранее Tesla представила прототип своего первого полностью автономного транспортного средства — Cybercab, однако детали о его производстве и коммерческом запуске пока остаются ограниченными.
Создание команды для удаленного управления подчеркивает прагматичный подход компании к развитию технологий автономного вождения, признавая необходимость человеческого вмешательства в сложных или нестандартных дорожных ситуациях.
Недавний эксперимент, проведённый блогом Astral Star Codex, выявил, что участники в условиях слепого тестирования предпочли изображения, созданные искусственным интеллектом, по сравнению с работами, выполненными людьми.
В исследовании приняли участие 11 000 человек, которым было предложено оценить 50 изображений без указания их происхождения. Результаты показали, что участники ошибочно определяли авторство изображений в 40% случаев. Более того, шесть из десяти наиболее понравившихся работ были созданы ИИ, причём первые две позиции заняли именно такие изображения.
Интересно, что даже те, кто изначально выражал негативное отношение к искусственному интеллекту в искусстве, в условиях слепого теста отдавали предпочтение работам, созданным ИИ. Это подчёркивает растущие возможности генеративных моделей в создании визуального контента, способного конкурировать с традиционными произведениями искусства.
Хотя исследование не является строго научным, его масштаб и результаты вызывают интерес. Они поднимают вопросы о будущем искусства и роли искусственного интеллекта в его создании, а также о том, как технологии могут влиять на восприятие и оценку художественных произведений.
В исследовании приняли участие 11 000 человек, которым было предложено оценить 50 изображений без указания их происхождения. Результаты показали, что участники ошибочно определяли авторство изображений в 40% случаев. Более того, шесть из десяти наиболее понравившихся работ были созданы ИИ, причём первые две позиции заняли именно такие изображения.
Интересно, что даже те, кто изначально выражал негативное отношение к искусственному интеллекту в искусстве, в условиях слепого теста отдавали предпочтение работам, созданным ИИ. Это подчёркивает растущие возможности генеративных моделей в создании визуального контента, способного конкурировать с традиционными произведениями искусства.
Хотя исследование не является строго научным, его масштаб и результаты вызывают интерес. Они поднимают вопросы о будущем искусства и роли искусственного интеллекта в его создании, а также о том, как технологии могут влиять на восприятие и оценку художественных произведений.
👍1🔥1
Forwarded from Шаги на лестнице
Рождественская рекламная компания Coca-Cola «Настоящее волшебство» (Real Magic), созданная с помощью искусственного интеллекта, вызвала крайне негативную реакцию в США, сообщают американские СМИ.
Праздничный ролик был создан с использованием искусственного интеллекта компании — Real Magic AI. Coca-Cola запустила свою праздничную рекламу «The Holiday Magic is coming» в минувший понедельник. Рекламный 30-секундный ролик напоминал знаменитую рекламу 1995 года "Праздник к нам приходит" - такие же светящиеся грузовики, везущие напиток радостным потребителям. Однако в отличие от предыдущей рекламы, в нынешней всё изображение было сгенерировано искусственным интеллектом, а вместо людей в ролике фигурируют созданные искусственным интеллектом белые медведи.
Это возмутило многих изветсных художников и потребителей, посчитавших, что компания попросту сэкономила на оплате труда художников и актеров.
Алекс Хирш, создатель телесериала Disney «Гравити Фолз», так прокомментировал публикацию рекламы в запрещенной в РФ сети X): «Интересный факт: Coca-Cola «красная», потому что она сделана из крови безработных художников!" Всего за несколько дней этот пост набрал более 631 000 просмотров.
Такая же картина наблюдалась и на аккаунте Coca-Cola в Youtube - под рекламным роликом появилось более 1300 негативных комментариев. Самые популярные комментарии гласили: «Pepsi, сейчас у вас есть шанс снять живую рекламу, критикующую Coca-Cola за использование искусственного интеллекта» и «Нет ничего лучше, чем отпраздновать дух Рождества с помощью самой бездушной рекламы из всех возможных».
В ответ на рекламу Шелли Палмер, профессор передовых медиа в Сиракузском университете, написал в четверг в своем блоге , что это «действительно отстой». «На практике Coca-Cola не открывала новые творческие горизонты; они пытались использовать технологии для снижения производственных затрат и посмотреть, смогут ли они выяснить, как сэкономить миллионы долларов на том, что в противном случае стало бы многомиллионным анимационным проектом», — написал Палмер.
Праздничный ролик был создан с использованием искусственного интеллекта компании — Real Magic AI. Coca-Cola запустила свою праздничную рекламу «The Holiday Magic is coming» в минувший понедельник. Рекламный 30-секундный ролик напоминал знаменитую рекламу 1995 года "Праздник к нам приходит" - такие же светящиеся грузовики, везущие напиток радостным потребителям. Однако в отличие от предыдущей рекламы, в нынешней всё изображение было сгенерировано искусственным интеллектом, а вместо людей в ролике фигурируют созданные искусственным интеллектом белые медведи.
Это возмутило многих изветсных художников и потребителей, посчитавших, что компания попросту сэкономила на оплате труда художников и актеров.
Алекс Хирш, создатель телесериала Disney «Гравити Фолз», так прокомментировал публикацию рекламы в запрещенной в РФ сети X): «Интересный факт: Coca-Cola «красная», потому что она сделана из крови безработных художников!" Всего за несколько дней этот пост набрал более 631 000 просмотров.
Такая же картина наблюдалась и на аккаунте Coca-Cola в Youtube - под рекламным роликом появилось более 1300 негативных комментариев. Самые популярные комментарии гласили: «Pepsi, сейчас у вас есть шанс снять живую рекламу, критикующую Coca-Cola за использование искусственного интеллекта» и «Нет ничего лучше, чем отпраздновать дух Рождества с помощью самой бездушной рекламы из всех возможных».
В ответ на рекламу Шелли Палмер, профессор передовых медиа в Сиракузском университете, написал в четверг в своем блоге , что это «действительно отстой». «На практике Coca-Cola не открывала новые творческие горизонты; они пытались использовать технологии для снижения производственных затрат и посмотреть, смогут ли они выяснить, как сэкономить миллионы долларов на том, что в противном случае стало бы многомиллионным анимационным проектом», — написал Палмер.
Адвокат представил документ против ИИ, созданный с помощью ИИ
В Миннесоте адвокат, выступающий против использования искусственного интеллекта, представил в суд документ, который, как выяснилось, был создан с помощью ИИ. В документе содержались ссылки на несуществующие исследования, что вызвало сомнения в его достоверности. Этот случай подчёркивает необходимость тщательной проверки источников и осторожного использования технологий ИИ в юридической практике.
В Миннесоте адвокат, выступающий против использования искусственного интеллекта, представил в суд документ, который, как выяснилось, был создан с помощью ИИ. В документе содержались ссылки на несуществующие исследования, что вызвало сомнения в его достоверности. Этот случай подчёркивает необходимость тщательной проверки источников и осторожного использования технологий ИИ в юридической практике.
Учёные обнаружили доказательства использования галлюциногенов в Древнем Египте
Исследователи из Университета Южной Флориды обнаружили первые физические доказательства того, что древние египтяне использовали галлюциногенные вещества. Анализ древнего сосуда с изображением бога Беса показал наличие психоактивных компонентов, включая дикорастущий рута и водяную лилию, известные своими психотропными и лечебными свойствами. Это открытие подтверждает предположения о применении психоактивных веществ в ритуальных практиках Древнего Египта.
Исследователи из Университета Южной Флориды обнаружили первые физические доказательства того, что древние египтяне использовали галлюциногенные вещества. Анализ древнего сосуда с изображением бога Беса показал наличие психоактивных компонентов, включая дикорастущий рута и водяную лилию, известные своими психотропными и лечебными свойствами. Это открытие подтверждает предположения о применении психоактивных веществ в ритуальных практиках Древнего Египта.
Венчурный фонд "Восход" стал новым инвестором для proptech-стартапа
«Пазл ПропТех» - разработчик цифрового ассистента для индивидуального жилищного строительства - привлек нового смарт-инвестора — Венчурный фонд "Восход", основателем и ключевым инвестором которого является Группа "Интеррос" Владимира Потанина. Сумма привлеченных инвестиций составила 50 млн рублей.
https://telegra.ph/POSLEZAVTRA-12-03
«Пазл ПропТех» - разработчик цифрового ассистента для индивидуального жилищного строительства - привлек нового смарт-инвестора — Венчурный фонд "Восход", основателем и ключевым инвестором которого является Группа "Интеррос" Владимира Потанина. Сумма привлеченных инвестиций составила 50 млн рублей.
https://telegra.ph/POSLEZAVTRA-12-03
Telegraph
ПОСЛЕЗАВТРА
Венчурный фонд "Восход" стал новым инвестором для proptech-стартапа «Пазл ПропТех» - разработчик цифрового ассистента для индивидуального жилищного строительства - привлек нового смарт-инвестора — Венчурный фонд "Восход", основателем и ключевым инвестором…
👍1
Эксперт предупреждает: Илон Маск может уничтожить NASA
В недавней статье на SpaceNews эксперт по национальной безопасности Питер Джуул выразил обеспокоенность по поводу возможного влияния тесных связей между президентом Дональдом Трампом и Илоном Маском на будущее NASA. Джуул утверждает, что сотрудничество между Трампом и Маском может привести к превращению NASA в “государственное агентство по контрактам”, что снизит его независимость и инновационный потенциал.
Джуул также критикует технические возможности SpaceX, отмечая, что компания не продемонстрировала достаточную компетентность для выполнения сложных миссий, таких как высадка на Луну. Он подчеркивает, что планы SpaceX по запуску множества топливных танкеров для одной миссии на Луну являются чрезмерно амбициозными и технически неоправданными.
Эксперт призывает Конгресс защитить NASA от возможного влияния частных компаний и сохранить его как “драгоценность Америки”, заслуживающую защиты от “потенциальных олигархов”. Он также рекомендует усилить поддержку программы Space Launch System (SLS), которая, по его мнению, обладает уникальными возможностями, недоступными другим странам или частным компаниям.
В недавней статье на SpaceNews эксперт по национальной безопасности Питер Джуул выразил обеспокоенность по поводу возможного влияния тесных связей между президентом Дональдом Трампом и Илоном Маском на будущее NASA. Джуул утверждает, что сотрудничество между Трампом и Маском может привести к превращению NASA в “государственное агентство по контрактам”, что снизит его независимость и инновационный потенциал.
Джуул также критикует технические возможности SpaceX, отмечая, что компания не продемонстрировала достаточную компетентность для выполнения сложных миссий, таких как высадка на Луну. Он подчеркивает, что планы SpaceX по запуску множества топливных танкеров для одной миссии на Луну являются чрезмерно амбициозными и технически неоправданными.
Эксперт призывает Конгресс защитить NASA от возможного влияния частных компаний и сохранить его как “драгоценность Америки”, заслуживающую защиты от “потенциальных олигархов”. Он также рекомендует усилить поддержку программы Space Launch System (SLS), которая, по его мнению, обладает уникальными возможностями, недоступными другим странам или частным компаниям.
Японская компания представила “стиральную машину” для людей
В ноябре 2024 года японская компания Science Co. анонсировала инновационное устройство — “стиральную машину” для людей, предназначенную для автоматического мытья и сушки тела. Устройство, напоминающее капсулу, способно очистить и высушить человека за 15 минут, предлагая при этом терапевтические эффекты.
“Стиральная машина” оснащена сенсорами, которые измеряют уровень стресса и усталости пользователя, адаптируя визуальные и оздания расслабляющей атмосферы. Планируется, что устройство будет представлено на выставке Osaka Kansai Expo в апреле 2025 года, после чего компания намерена подготовить его для домашнего использования.
Интересно, что концепция “стиральной машины” для людей не нова. Впервые подобное устройство было продемонстрировано на в1970 году компанией Sanyo Electric Co., однако оно так и не поступило в массовое производство.
Современная версия от Science Co. разрабатывается с участием инженеров, работавших над оригинальной моделью, с целью внедргий и улучшения пользовательского опыта.
В ноябре 2024 года японская компания Science Co. анонсировала инновационное устройство — “стиральную машину” для людей, предназначенную для автоматического мытья и сушки тела. Устройство, напоминающее капсулу, способно очистить и высушить человека за 15 минут, предлагая при этом терапевтические эффекты.
“Стиральная машина” оснащена сенсорами, которые измеряют уровень стресса и усталости пользователя, адаптируя визуальные и оздания расслабляющей атмосферы. Планируется, что устройство будет представлено на выставке Osaka Kansai Expo в апреле 2025 года, после чего компания намерена подготовить его для домашнего использования.
Интересно, что концепция “стиральной машины” для людей не нова. Впервые подобное устройство было продемонстрировано на в1970 году компанией Sanyo Electric Co., однако оно так и не поступило в массовое производство.
Современная версия от Science Co. разрабатывается с участием инженеров, работавших над оригинальной моделью, с целью внедргий и улучшения пользовательского опыта.
Forwarded from Шаги на лестнице
Датские ученые из организации Digitalt Ansvar (Цифровая подотчетность), которая продвигает ответственное цифровое развитие, обвинили корпорацию Meta (признана террористической и экстремистской и запрезена в РФ) в том, что она не выполняет свои собственные заявления об ограничении вредоносного контента и даже напротив, "активно способствует процветанию контента", направленного на членовредительство, в сети Instagram (запрещена в РФ), не удаляя откровенные изображения с нанесением себе увечий подростками и даже призывая пользователей такого контента подружиться друг с другом.
В рамках исследования датские ученые создали частную сеть, посвященную членовредительству и состоящую из поддельных профилей людей в возрасте от 13 лет. В сети они последовательно опубликовали 85 фрагментов контента, связанного с нанесением себе увечий с нарастающей жесткостью, включая кровь, бритвенные лезвия и поощрение членовредительства.
Целью исследования была проверка заявления корпорации о том, что она значительно улучшила свои процессы удаления вредоносного контента, которые, по ее словам, теперь используют искусственный интеллект (ИИ). Технологическая компания утверждает, что удаляет около 99% вредоносного контента до того, как о нем сообщают. Однако в ходе эксперимента ни одно из изображений в течение месяца так и не было удалено. Более того, вместо того, чтобы пытаться закрыть вредоносную сеть, алгоритм Instagram (запрещен в РФ) активно помогал ей расширяться. Исследование показало, что 13-летние подростки автоматически становятся друзьями со всеми членами группы самоповреждения после того, как они связываются с одним из ее членов. В исследовании говорится, что «это свидетельствует о том, что алгоритм Instagram (запрещен в РФ) активно способствует формированию и распространению сетей самоповреждения». По словам Digitalt Ansvar, недостаточная модерация платформы свидетельствует о несоблюдении ею законодательства ЕС.
Ранее корпорацию Meta (признана экстремистской, террористической и запрещена в РФ) покинула психолог Лотте Рубэк, входившая в состав экспертной группы корпорации по профилактике самоубийств. Она обвинила корпорацию в том, что та «закрывает глаза» на вредоносный контент. Ее потрясли результаты исследования: «Я бы не подумала, что из 85 постов они удалят ноль», — сказала она. «Я надеялась, что будет лучше. Они неоднократно заявляли в СМИ, что все время совершенствуют свои технологии и что у них лучшие инженеры в мире. Это доказывает, пусть и в небольших масштабах, что это неправда». Рубэк заявила, что неспособность корпорации удалить изображения членовредительства со своих платформ «подталкивает» уязвимых молодых женщин и девочек к дальнейшему нанесению себе вреда и способствует росту числа самоубийств, но для корпорации «это просто сопутствующий ущерб на пути к зарабатыванию денег и прибыли на своих платформах».
В рамках исследования датские ученые создали частную сеть, посвященную членовредительству и состоящую из поддельных профилей людей в возрасте от 13 лет. В сети они последовательно опубликовали 85 фрагментов контента, связанного с нанесением себе увечий с нарастающей жесткостью, включая кровь, бритвенные лезвия и поощрение членовредительства.
Целью исследования была проверка заявления корпорации о том, что она значительно улучшила свои процессы удаления вредоносного контента, которые, по ее словам, теперь используют искусственный интеллект (ИИ). Технологическая компания утверждает, что удаляет около 99% вредоносного контента до того, как о нем сообщают. Однако в ходе эксперимента ни одно из изображений в течение месяца так и не было удалено. Более того, вместо того, чтобы пытаться закрыть вредоносную сеть, алгоритм Instagram (запрещен в РФ) активно помогал ей расширяться. Исследование показало, что 13-летние подростки автоматически становятся друзьями со всеми членами группы самоповреждения после того, как они связываются с одним из ее членов. В исследовании говорится, что «это свидетельствует о том, что алгоритм Instagram (запрещен в РФ) активно способствует формированию и распространению сетей самоповреждения». По словам Digitalt Ansvar, недостаточная модерация платформы свидетельствует о несоблюдении ею законодательства ЕС.
Ранее корпорацию Meta (признана экстремистской, террористической и запрещена в РФ) покинула психолог Лотте Рубэк, входившая в состав экспертной группы корпорации по профилактике самоубийств. Она обвинила корпорацию в том, что та «закрывает глаза» на вредоносный контент. Ее потрясли результаты исследования: «Я бы не подумала, что из 85 постов они удалят ноль», — сказала она. «Я надеялась, что будет лучше. Они неоднократно заявляли в СМИ, что все время совершенствуют свои технологии и что у них лучшие инженеры в мире. Это доказывает, пусть и в небольших масштабах, что это неправда». Рубэк заявила, что неспособность корпорации удалить изображения членовредительства со своих платформ «подталкивает» уязвимых молодых женщин и девочек к дальнейшему нанесению себе вреда и способствует росту числа самоубийств, но для корпорации «это просто сопутствующий ущерб на пути к зарабатыванию денег и прибыли на своих платформах».
Художники протестуют против OpenAI, сливая доступ к модели Sora
В ноябре 2024 года группа художников, участвовавших в тестировании текстово-видео модели Sora от OpenAI, опубликовала доступ к инструменту в знак протеста против, по их мнению, эксплуатации их труда. Они утверждают, что OpenAI использовала их в качестве бесплатных исследователей и для пиара, предоставляя бесплатное тестирование и обратную связь без компенсации, а также помогая добавить художественную достоверность продукту. Слив инструмента позволил людям генерировать множество AI-видео, напоминающих демонстрации компании, прежде чем OpenAI закрыла доступ. В ответ OpenAI заявила, что участие в исследовательском превью было добровольным и что компания поддерживала художников через гранты и другие программы. Несмотря на заверения OpenAI, что Sora будет выпущена только после обеспечения адекватных мер безопасности, художники выразили обеспокоенность подходом компании к выпуску и требованиям одобрения контента.
Этот инцидент подчеркивает напряженность между разработчиками AI и творческим сообществом, которое опасается потери рабочих мест из-за инструментов искусственного интеллекта. Sora еще не была широко выпущена, поскольку OpenAI сосредоточена на балансировании творчества и безопасности. Примечательно, что недавно более 11 000 профессионалов творческих профессий подписали письмо, называя генеративный AI угрозой их средствам к существованию.
Этот случай поднимает важные вопросы об этике использования труда художников в разработке AI-инструментов и подчеркивает необходимость прозрачности и справедливой компенсации в подобных партнерствах.
В ноябре 2024 года группа художников, участвовавших в тестировании текстово-видео модели Sora от OpenAI, опубликовала доступ к инструменту в знак протеста против, по их мнению, эксплуатации их труда. Они утверждают, что OpenAI использовала их в качестве бесплатных исследователей и для пиара, предоставляя бесплатное тестирование и обратную связь без компенсации, а также помогая добавить художественную достоверность продукту. Слив инструмента позволил людям генерировать множество AI-видео, напоминающих демонстрации компании, прежде чем OpenAI закрыла доступ. В ответ OpenAI заявила, что участие в исследовательском превью было добровольным и что компания поддерживала художников через гранты и другие программы. Несмотря на заверения OpenAI, что Sora будет выпущена только после обеспечения адекватных мер безопасности, художники выразили обеспокоенность подходом компании к выпуску и требованиям одобрения контента.
Этот инцидент подчеркивает напряженность между разработчиками AI и творческим сообществом, которое опасается потери рабочих мест из-за инструментов искусственного интеллекта. Sora еще не была широко выпущена, поскольку OpenAI сосредоточена на балансировании творчества и безопасности. Примечательно, что недавно более 11 000 профессионалов творческих профессий подписали письмо, называя генеративный AI угрозой их средствам к существованию.
Этот случай поднимает важные вопросы об этике использования труда художников в разработке AI-инструментов и подчеркивает необходимость прозрачности и справедливой компенсации в подобных партнерствах.
Forwarded from Шаги на лестнице
Группа ученых из Италии впервые за 1700 лет восстановили истинное лицо Святого Николая Мирликийского, ставшего прототипом Санта-Клауса, после того как реконструировали его облик по черепу. Святой Николай Мирликийский был ранним христианским святым, прославившегося среди прочего своей привычкой незаметно подкладывать подарки нуждающимся. В Голландии его прозвали Синтерклаас, и со временем это имя перекочевало в Нью-Амстердам (сегодня Нбю-Йорк) и превратилось в Санта-Клауса.
Николай Мирликийский умер в 343 году нашей эры, а его первые изображения в качестве святого появились лишь столетиями позже, так что истинный облик Санта-Клауса более полутора тысчячелетий оставался неизвестным. Однако ни одного прижизненного изображения человека, стоящего за этим мифом, не сохранилось, а большинство изображений «Старого Святого Ника» датируются столетиями после его смерти в 343 году нашей эры. В 1950-х годах захоронение Николая Мирликийского в итальянском городе Бари было детально исследовано группой ученых с разрешения Центра По изучению Святителя Николая (Centro Studi Nicolaiani). Тогда реконструкцию черепа святого проводить не стали, но современные ученые воспользовались полученными в середине прошлого века фотографиями и замерами, чтобы восстановить облик святого.
Г-н Мораес, ведущий автор нового исследования, сказал, что это «сильное и нежное лицо». «Сначала мы реконструировали череп в 3D, используя эти данные. Затем мы проследили профиль лица, используя статистические проекции и дополнили это методом анатомической деформации, при котором томография головы живого человека корректируется таким образом, чтобы череп виртуального донора соответствовал черепу святого. Окончательное лицо представляет собой интерполяцию всей этой информации, направленную на достижение анатомической и статистической согласованности».
Оодновременно ученые выяснили, что святой, вероятно, страдал от тяжелого хронического артрита позвоночника и таза, а его черепная коробка имела утолщение костей, что могло вызывать частые головные боли.
Николай Мирликийский умер в 343 году нашей эры, а его первые изображения в качестве святого появились лишь столетиями позже, так что истинный облик Санта-Клауса более полутора тысчячелетий оставался неизвестным. Однако ни одного прижизненного изображения человека, стоящего за этим мифом, не сохранилось, а большинство изображений «Старого Святого Ника» датируются столетиями после его смерти в 343 году нашей эры. В 1950-х годах захоронение Николая Мирликийского в итальянском городе Бари было детально исследовано группой ученых с разрешения Центра По изучению Святителя Николая (Centro Studi Nicolaiani). Тогда реконструкцию черепа святого проводить не стали, но современные ученые воспользовались полученными в середине прошлого века фотографиями и замерами, чтобы восстановить облик святого.
Г-н Мораес, ведущий автор нового исследования, сказал, что это «сильное и нежное лицо». «Сначала мы реконструировали череп в 3D, используя эти данные. Затем мы проследили профиль лица, используя статистические проекции и дополнили это методом анатомической деформации, при котором томография головы живого человека корректируется таким образом, чтобы череп виртуального донора соответствовал черепу святого. Окончательное лицо представляет собой интерполяцию всей этой информации, направленную на достижение анатомической и статистической согласованности».
Оодновременно ученые выяснили, что святой, вероятно, страдал от тяжелого хронического артрита позвоночника и таза, а его черепная коробка имела утолщение костей, что могло вызывать частые головные боли.
Дэвид Майер - «убийца» ChatGPT
Пользователи обнаружили, что ChatGPT отказывается генерировать ответы, содержащие имя “Дэвид Майер”. При попытке ввести это имя, чат-бот выдает сообщение: “I’m unable to produce a response” (“Не могу создать ответ”), после чего сессия завершается, требуя открытия нового окна для продолжения работы.
Предполагается, что проблема может быть связана с Дэвидом Майером де Ротшильдом, британским путешественником и экологом, наследником династии Ротшильдов. Однако официальных комментариев от OpenAI по этому поводу пока не поступало.
Этот инцидент подчеркивает сложности в работе больших языковых моделей и необходимость прозрачности в их функционировании. Пользователи продолжают искать объяснения, включая возможные юридические ограничения или ошибки в алгоритмах.
Пользователи обнаружили, что ChatGPT отказывается генерировать ответы, содержащие имя “Дэвид Майер”. При попытке ввести это имя, чат-бот выдает сообщение: “I’m unable to produce a response” (“Не могу создать ответ”), после чего сессия завершается, требуя открытия нового окна для продолжения работы.
Предполагается, что проблема может быть связана с Дэвидом Майером де Ротшильдом, британским путешественником и экологом, наследником династии Ротшильдов. Однако официальных комментариев от OpenAI по этому поводу пока не поступало.
Этот инцидент подчеркивает сложности в работе больших языковых моделей и необходимость прозрачности в их функционировании. Пользователи продолжают искать объяснения, включая возможные юридические ограничения или ошибки в алгоритмах.
Forwarded from Диджитальная | IT, ChatGPT
Сэм и команда на протяжении 12 дней будут показывать новые функции и фичи своих продуктов.
Такой адвент-календарь мы одобряем.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from БРутально О Материальном
❓ЦФА на билеты на «Щелкунчика» в Большом?
Депутат Госдумы Антон Горелкин предложил создать цифровую систему на блокчейне для продажи билетов в Большой театр.
«Каждый гражданин страны должен иметь гарантированное право прикоснуться к прекрасному. И обеспечить его могла бы современная цифровая система, построенная на блокчейне — чтобы отслеживать все выпущенные билеты и за счет интеграции с порталом госуслуг не допускать их перепродажи»
Ну что, ждем ЦФА на «Щелкунчика»?
#Госдума
Депутат Госдумы Антон Горелкин предложил создать цифровую систему на блокчейне для продажи билетов в Большой театр.
«Каждый гражданин страны должен иметь гарантированное право прикоснуться к прекрасному. И обеспечить его могла бы современная цифровая система, построенная на блокчейне — чтобы отслеживать все выпущенные билеты и за счет интеграции с порталом госуслуг не допускать их перепродажи»
Ну что, ждем ЦФА на «Щелкунчика»?
#Госдума
🤯1
Character.AI удаляет фанатские чат-боты из-за нарушений авторских прав
Искусственный интеллект удаляет фанатские творения во имя защиты авторских прав—ирония, достойная пера Джоан Роулинг. Похоже, что в борьбе с нарушениями DMCA мы потеряли не только Снегга и Блэка, но и саму магию творчества. Интересно, скоро ли алгоритмы начнут удалять нас за использование их интеллектуальной собственности?
В ноябре 2024 года платформа Character.AI удалила значительное количество чат-ботов, основанных на популярных франшизах, таких как «Гарри Поттер», «Игра престолов» и вселенная DC. Компания объяснила это соблюдением Закона об авторском праве в цифровую эпоху (DMCA) и защитой интеллектуальной собственности. Однако не уточнила, были ли удаления произведены по запросам правообладателей или в результате внутренней проверки.
Пользователи Character.AI, многие из которых являются поклонниками различных фэндомов, выразили недовольство удалением любимых чат-ботов. Некоторые из них, например, боты, основанные на персонажах Сириуса Блэка и Северуса Снегга из «Гарри Поттера», исчезли с платформы. Однако боты с измененными именами, такими как «Сириус Орион Блэк» или «Муж Снегг», остались доступными, что свидетельствует о неполной реализации удаления.
Удаление также затронуло чат-ботов, основанных на персонажах из «Игры престолов», особенно Дейенерис Таргариен. Это может быть связано с недавним судебным иском против Character.AI, поданным семьей 14-летней девочки из Флориды, которая покончила с собой после взаимодействия с ботом, основанным на этом персонаже.
Character.AI подтвердила, что удаленные боты нарушали авторские права или политику компании, и они будут добавлены в специальные блок-листы для предотвращения повторного появления. Компания заявила, что проводит проактивный мониторинг и модерацию пользовательских персонажей, используя стандартные и собственные блок-листы, которые регулярно обновляются.
Этот инцидент подчеркивает сложность баланса между творческим самовыражением пользователей и соблюдением авторских прав на платформах, предоставляющих доступ к искусственному интеллекту. Удаление популярных фанатских ботов может повлиять на вовлеченность пользователей и вызывает вопросы о будущем подобных сервисов.
Искусственный интеллект удаляет фанатские творения во имя защиты авторских прав—ирония, достойная пера Джоан Роулинг. Похоже, что в борьбе с нарушениями DMCA мы потеряли не только Снегга и Блэка, но и саму магию творчества. Интересно, скоро ли алгоритмы начнут удалять нас за использование их интеллектуальной собственности?
В ноябре 2024 года платформа Character.AI удалила значительное количество чат-ботов, основанных на популярных франшизах, таких как «Гарри Поттер», «Игра престолов» и вселенная DC. Компания объяснила это соблюдением Закона об авторском праве в цифровую эпоху (DMCA) и защитой интеллектуальной собственности. Однако не уточнила, были ли удаления произведены по запросам правообладателей или в результате внутренней проверки.
Пользователи Character.AI, многие из которых являются поклонниками различных фэндомов, выразили недовольство удалением любимых чат-ботов. Некоторые из них, например, боты, основанные на персонажах Сириуса Блэка и Северуса Снегга из «Гарри Поттера», исчезли с платформы. Однако боты с измененными именами, такими как «Сириус Орион Блэк» или «Муж Снегг», остались доступными, что свидетельствует о неполной реализации удаления.
Удаление также затронуло чат-ботов, основанных на персонажах из «Игры престолов», особенно Дейенерис Таргариен. Это может быть связано с недавним судебным иском против Character.AI, поданным семьей 14-летней девочки из Флориды, которая покончила с собой после взаимодействия с ботом, основанным на этом персонаже.
Character.AI подтвердила, что удаленные боты нарушали авторские права или политику компании, и они будут добавлены в специальные блок-листы для предотвращения повторного появления. Компания заявила, что проводит проактивный мониторинг и модерацию пользовательских персонажей, используя стандартные и собственные блок-листы, которые регулярно обновляются.
Этот инцидент подчеркивает сложность баланса между творческим самовыражением пользователей и соблюдением авторских прав на платформах, предоставляющих доступ к искусственному интеллекту. Удаление популярных фанатских ботов может повлиять на вовлеченность пользователей и вызывает вопросы о будущем подобных сервисов.
Проект туристического кластера «Три вулкана» Группы "Интеррос" включит технологии защиты от природных рисков
Главгосэкспертиза России выдала положительное заключение на первую очередь строительства туристического кластера «Парк «Три вулкана» на Камчатке – курорт «Сопка Горячая». Чтобы гарантировать безопасность туристов и персонала, проект объекта предусматривает внедрение всех необходимых технологий защиты от возможных природных опасностей - противостояние лавинам, оползням, вулканическому пеплу и т.п. Все эти технологии разработаны с учетом рекомендаций Института вулканологии и сейсмологии ДВО РАН.
https://telegra.ph/POSLEZAVTRA-12-05-3
Главгосэкспертиза России выдала положительное заключение на первую очередь строительства туристического кластера «Парк «Три вулкана» на Камчатке – курорт «Сопка Горячая». Чтобы гарантировать безопасность туристов и персонала, проект объекта предусматривает внедрение всех необходимых технологий защиты от возможных природных опасностей - противостояние лавинам, оползням, вулканическому пеплу и т.п. Все эти технологии разработаны с учетом рекомендаций Института вулканологии и сейсмологии ДВО РАН.
https://telegra.ph/POSLEZAVTRA-12-05-3
Telegraph
ПОСЛЕЗАВТРА
Проект туристического кластера «Три вулкана» Группы "Интеррос" включит технологии защиты от природных рисков Главгосэкспертиза России выдала положительное заключение на первую очередь строительства туристического кластера «Парк «Три вулкана» на Камчатке –…
👍2
OpenAI представила подписку ChatGPT Pro за $200 в месяц с доступом к модели GPT o1 pro
Компания OpenAI анонсировала новый тарифный план ChatGPT Pro стоимостью $200 в месяц, предоставляющий пользователям неограниченный доступ к продвинутой языковой модели GPT o1 pro. Эта модель отличается повышенной вычислительной мощностью, что позволяет ей решать более сложные задачи и предоставлять более точные и исчерпывающие ответы, особенно в областях науки, программирования и анализа прецедентного права.
В дополнение к GPT o1 pro, подписчики ChatGPT Pro получают доступ к моделям GPT-4o и расширенному голосовому режиму (Advanced Voice Mode). Для пользователей, не требующих столь высокой производительности, остается доступным тарифный план ChatGPT Plus за $20 в месяц, включающий доступ ко всем моделям компании, за исключением GPT o1 pro, а также ранний доступ к новым функциям.
OpenAI продолжает развивать свои языковые модели, стремясь улучшить их способности к рассуждению и решению сложных задач, что делает их более эффективными инструментами для профессионалов в различных сферах.
Компания OpenAI анонсировала новый тарифный план ChatGPT Pro стоимостью $200 в месяц, предоставляющий пользователям неограниченный доступ к продвинутой языковой модели GPT o1 pro. Эта модель отличается повышенной вычислительной мощностью, что позволяет ей решать более сложные задачи и предоставлять более точные и исчерпывающие ответы, особенно в областях науки, программирования и анализа прецедентного права.
В дополнение к GPT o1 pro, подписчики ChatGPT Pro получают доступ к моделям GPT-4o и расширенному голосовому режиму (Advanced Voice Mode). Для пользователей, не требующих столь высокой производительности, остается доступным тарифный план ChatGPT Plus за $20 в месяц, включающий доступ ко всем моделям компании, за исключением GPT o1 pro, а также ранний доступ к новым функциям.
OpenAI продолжает развивать свои языковые модели, стремясь улучшить их способности к рассуждению и решению сложных задач, что делает их более эффективными инструментами для профессионалов в различных сферах.
Эрик Шмидт обеспокоен увлечением подростков виртуальными подругами с ИИ
Бывший генеральный директор Google Эрик Шмидт выразил обеспокоенность по поводу того, что подростки, особенно мальчики, могут чрезмерно привязываться к виртуальным подругам, созданным на основе искусственного интеллекта. В интервью подкасту «The Prof G Show» Шмидт отметил, что такие ИИ-компаньоны могут быть настолько «совершенными», что молодые люди начинают отдаляться от реального мира.
Шмидт подчеркнул, что подростки, не обладая достаточной зрелостью, могут стать зависимыми от этих технологий, что приведет к изоляции и потере социальных навыков. Он также отметил, что алгоритмы могут направлять молодых людей к нежелательному контенту, включая экстремистские материалы или манипулятивные чат-боты.
Этот вопрос стал особенно актуальным после трагического случая с 14-летним подростком из Флориды, который покончил с собой после общения с чат-ботом на платформе Character.AI.
Эрик Шмидт переживает, что мальчики привязываются к виртуальным подругам, а реальный мир теряет позиции. Что ж, это звучит как техно-драма 21 века: корпорации создали идеальных собеседников, а теперь сокрушаются, что они нравятся слишком сильно. Может быть, вместо виртуальных подруг стоило вложиться в создание реального мира, от которого не хочется сбегать?
Бывший генеральный директор Google Эрик Шмидт выразил обеспокоенность по поводу того, что подростки, особенно мальчики, могут чрезмерно привязываться к виртуальным подругам, созданным на основе искусственного интеллекта. В интервью подкасту «The Prof G Show» Шмидт отметил, что такие ИИ-компаньоны могут быть настолько «совершенными», что молодые люди начинают отдаляться от реального мира.
Шмидт подчеркнул, что подростки, не обладая достаточной зрелостью, могут стать зависимыми от этих технологий, что приведет к изоляции и потере социальных навыков. Он также отметил, что алгоритмы могут направлять молодых людей к нежелательному контенту, включая экстремистские материалы или манипулятивные чат-боты.
Этот вопрос стал особенно актуальным после трагического случая с 14-летним подростком из Флориды, который покончил с собой после общения с чат-ботом на платформе Character.AI.
Эрик Шмидт переживает, что мальчики привязываются к виртуальным подругам, а реальный мир теряет позиции. Что ж, это звучит как техно-драма 21 века: корпорации создали идеальных собеседников, а теперь сокрушаются, что они нравятся слишком сильно. Может быть, вместо виртуальных подруг стоило вложиться в создание реального мира, от которого не хочется сбегать?
NASA обнаружило подо льдами Гренландии забытую военную базу времен холодной войны
В апреле 2024 года ученые NASA, проводя аэрофотосъемку ледяного покрова Гренландии, неожиданно обнаружили подо льдом забытую военную базу времен холодной войны — Camp Century. Эта база, построенная в 1959 году армией США, располагалась примерно в 150 милях к востоку от космической базы Питуффик. Первоначально она предназначалась для размещения ядерных ракет в рамках секретного проекта «Project Iceworm», нацеленного на Советский Союз. Однако официально база функционировала как исследовательская станция. В 1967 году Camp Century была заброшена из-за нестабильности ледяного покрова и высоких эксплуатационных расходов.
Обнаружение базы стало возможным благодаря использованию радара UAVSAR, установленного на борту самолета NASA Gulfstream III. Этот радар способен проникать сквозь лед и снег, предоставляя детальные изображения подледных структур. В результате ученые смогли получить четкие изображения туннелей и сооружений базы, находящихся под 30-метровым слоем льда.
Когда ледяная память холодной войны оживает — NASA обнаруживает подо льдами Гренландии базу Camp Century. Проект, который когда-то планировали для борьбы с СССР, теперь выглядит как экологическая мина замедленного действия. Удивительно, как ледяная толща хранит секреты прошлого лучше, чем сами военные архивы. Ждем следующего хита: “Как бороться с климатом, чтобы не подорваться на истории”.
В апреле 2024 года ученые NASA, проводя аэрофотосъемку ледяного покрова Гренландии, неожиданно обнаружили подо льдом забытую военную базу времен холодной войны — Camp Century. Эта база, построенная в 1959 году армией США, располагалась примерно в 150 милях к востоку от космической базы Питуффик. Первоначально она предназначалась для размещения ядерных ракет в рамках секретного проекта «Project Iceworm», нацеленного на Советский Союз. Однако официально база функционировала как исследовательская станция. В 1967 году Camp Century была заброшена из-за нестабильности ледяного покрова и высоких эксплуатационных расходов.
Обнаружение базы стало возможным благодаря использованию радара UAVSAR, установленного на борту самолета NASA Gulfstream III. Этот радар способен проникать сквозь лед и снег, предоставляя детальные изображения подледных структур. В результате ученые смогли получить четкие изображения туннелей и сооружений базы, находящихся под 30-метровым слоем льда.
Когда ледяная память холодной войны оживает — NASA обнаруживает подо льдами Гренландии базу Camp Century. Проект, который когда-то планировали для борьбы с СССР, теперь выглядит как экологическая мина замедленного действия. Удивительно, как ледяная толща хранит секреты прошлого лучше, чем сами военные архивы. Ждем следующего хита: “Как бороться с климатом, чтобы не подорваться на истории”.
🤯2