Forwarded from Технологический Болт Генона
🫡
JetBrains sells commercial IDE called GoLand which comes pre-loaded with a plugin which warns the user when they are using:
- “Racially insensitive” language (like “whitelist” or “master”).
- “Male pronouns”.
- Honorifics such as “Mrs”, recommending people use “Mx” instead.
https://x.com/LundukeJournal/status/1964854040212447634
JetBrains sells commercial IDE called GoLand which comes pre-loaded with a plugin which warns the user when they are using:
- “Racially insensitive” language (like “whitelist” or “master”).
- “Male pronouns”.
- Honorifics such as “Mrs”, recommending people use “Mx” instead.
https://x.com/LundukeJournal/status/1964854040212447634
🤡54💩8🤮6😁5👍2😢1🖕1
#rust
crates.io phishing campaign
crates.io phishing campaign
We received multiple reports of a phishing campaign targeting crates.io users (from the rustfoundation.dev domain name), mentioning a compromise of our infrastructure and asking users to authenticate to limit damage to their crates.
These emails are malicious and come from a domain name not controlled by the Rust Foundation (nor the Rust Project), seemingly with the purpose of stealing your GitHub credentials.
<...>
Do not follow any links in these emails if you receive them, and mark them as phishing with your email provider.
🤯3🤔1
Neural Machine
Я большой поклонник бесплатных штук.
The best things in life are free.
Sundowns
Walks
rustc
Beaches
Sundowns
Walks
rustc
Beaches
👍7😁3🤔1
Forwarded from opennet.ru
VMScape - атака на CPU AMD и Intel, обходящая изоляцию между гипервизором и гостевой системой https://opennet.ru/63868/
www.opennet.ru
VMScape - атака на CPU AMD и Intel, обходящая изоляцию между гипервизором и гостевой системой
Исследователи из Швейцарской высшей технической школы Цюриха разработали метод атаки VMScape, позволяющий обойти существующую защиту от атак Spectre-BTI (Branch Target Injection) для нарушения изоляции между виртуальной машиной и компонентами гипевизора,…
🤯7
Блог*
TIL что в Америку запрещено провозить Киндер-сюрпризы
Kinder eggs are a prohibited item because they contain a toy surprise, hidden inside, that poses a choking and aspiration hazard for children younger than three years of age.
Americans want their children to choke till bitter end.
🤡7❤3🥰1😁1
Forwarded from Код, коты и карандаш
Поздравляю всех причастных с 100000000-м днём года 🥳
🎉23🌚4🥰1
Forwarded from Neural Shit
Там OpenAI опубликовали новый ресёрч: оказывается, нейронки галлюцинируют и врут не потому что "чугунные шизоиды на транзисторах", а потому что их ещё при обучении натаскали угадывать ответы, а не честно говорить "Я не знаю ответ на этот запрос".
Представить это легко, вспомните себя в школе/универе во время какого-либо экзамена. Вы не знаете, например, сколько ног у медузы, но если написать от балды "тринадцать с половиной", есть шанс тупо угадать и получить балл. Если же написать "не знаю" — это сразу ноль баллов. Вот нейроночки живут по такому же мясному принципу.
Проблема в том, что бенчмарки ИИ-моделей сейчас оценивают модели по количеству правильных ответов. Поэтому лучше быть уверенным дебилом, чем скромным умником.
OpenAI предлагают менять правила: штрафовать модельки за наглую чушь, награждать за честное «я не уверен/я не знаю». Пример: старая модель угадывала точнее, но врала в 3 раза чаще. Новая — чаще молчит, зато меньше выдумывает.
Короче, галлюцинации — это не баг, а математика. Модель не может знать всё, но может научиться не строить из себя всезнайку.
Идеал будущего: чат-бот, который отвечает на 90% вопросов словами "Братан, я не в теме, не знаю ответ на твой вопрос, иди сам погугли" но зато ни разу не обманывает.
тут сама статья
Представить это легко, вспомните себя в школе/универе во время какого-либо экзамена. Вы не знаете, например, сколько ног у медузы, но если написать от балды "тринадцать с половиной", есть шанс тупо угадать и получить балл. Если же написать "не знаю" — это сразу ноль баллов. Вот нейроночки живут по такому же мясному принципу.
Проблема в том, что бенчмарки ИИ-моделей сейчас оценивают модели по количеству правильных ответов. Поэтому лучше быть уверенным дебилом, чем скромным умником.
OpenAI предлагают менять правила: штрафовать модельки за наглую чушь, награждать за честное «я не уверен/я не знаю». Пример: старая модель угадывала точнее, но врала в 3 раза чаще. Новая — чаще молчит, зато меньше выдумывает.
Короче, галлюцинации — это не баг, а математика. Модель не может знать всё, но может научиться не строить из себя всезнайку.
Идеал будущего: чат-бот, который отвечает на 90% вопросов словами "Братан, я не в теме, не знаю ответ на твой вопрос, иди сам погугли" но зато ни разу не обманывает.
тут сама статья
Openai
Why language models hallucinate
OpenAI’s new research explains why language models hallucinate. The findings show how improved evaluations can enhance AI reliability, honesty, and safety.
😁22❤3🤯2🤔1💯1