RUSSICA2 Telegram 2874
Forwarded from ITsec NEWS
⚡️Баги-призраки: ИИ – новая головная боль open source разработчиков

💬 Разработчики программного обеспечения с открытым исходным кодом столкнулись с новой проблемой - потоком некачественных отчетов об ошибках, сгенерированных искусственным интеллектом. Специалисты отмечают, что ситуация начинает напоминать наводнение социальных сетей дезинформацией, с которой безуспешно борются системы проверки фактов.

Сет Ларсон , специалист по безопасности Python Software Foundation, поделился своими наблюдениями в недавней публикации. По его словам, в последнее время резко возросло количество спам-отчетов об уязвимостях, созданных с помощью языковых моделей. Отчеты эти выглядят очень правдоподобно, из-за чего разработчикам приходится тратить время на их тщательный анализ и опровержение.

Это особенно серьезная проблема для крупных проектов с открытым исходным кодом вроде Python, WordPress и Android, которые лежат в основе современного интернета. Большинство из них поддерживается небольшими группами энтузиастов-добровольцев, работающих без оплаты. Реальные уязвимости в широко используемых библиотеках кода представляют серьезную опасность, так как их эксплуатация способна нанести ущерб в масштабах всей системы.

Разработчик Даниэль Штернберг на HackerOne открыто раскритиковал одного из пользователей за подачу сгенерированного отчета об ошибке:

"Вы отправили бессмысленный отчёт, похоже, сгенерированный искусственным интеллектом, где упоминаете некую проблему безопасности — видимо, потому что ИИ убедил вас в её существовании. Затем вы потратили наше время, умолчав о том, что за вас это сделала программа, и продолжили обсуждение, отвечая такой же чепухой — вероятно, тоже сгенерированной ИИ".

Генерация кода становится все более популярным применением больших языковых моделей, хотя среди разработчиков споры о полезности этой технологии еще ведутся. Такие инструменты как GitHub Copilot или генератор кода ChatGPT успешно справляются с созданием базовой структуры проекта и помогают находить нужные функции в программных библиотеках. Однако языковые модели, как и любые ИИ-системы, иногда создают ошибочный или неполный код. Они не понимают программирование на концептуальном уровне, а работают на основе вероятностных моделей, предсказывая возможный результат на основе обучающих данных.

Для создания полноценного проекта разработчикам по-прежнему необходимо глубокое понимание используемого языка, умение отлаживать код и видеть общую архитектуру приложения. Эксперты отмечают, что инструменты генерации кода окажут наибольшее влияние на начинающих программистов, при этом простые приложения, которые можно создать исключительно с помощью ИИ, вероятно, уже существуют.

Платформы вроде HackerOne, которые платят за поиск уязвимостей, вероятно, невольно побуждают использовать ChatGPT для анализа кода и отправки ложных отчетов об ошибках, созданных нейросетью.

Хотя спам - совсем не новое явление для интернета, умные технологии сильно упростили его массовое “производство”. Вероятно, для борьбы с этим явлением потребуется разработка новых защитных механизмов вроде CAPTCHA.

🔔 ITsec NEWS



tgoop.com/Russica2/2874
Create:
Last Update:

⚡️Баги-призраки: ИИ – новая головная боль open source разработчиков

💬 Разработчики программного обеспечения с открытым исходным кодом столкнулись с новой проблемой - потоком некачественных отчетов об ошибках, сгенерированных искусственным интеллектом. Специалисты отмечают, что ситуация начинает напоминать наводнение социальных сетей дезинформацией, с которой безуспешно борются системы проверки фактов.

Сет Ларсон , специалист по безопасности Python Software Foundation, поделился своими наблюдениями в недавней публикации. По его словам, в последнее время резко возросло количество спам-отчетов об уязвимостях, созданных с помощью языковых моделей. Отчеты эти выглядят очень правдоподобно, из-за чего разработчикам приходится тратить время на их тщательный анализ и опровержение.

Это особенно серьезная проблема для крупных проектов с открытым исходным кодом вроде Python, WordPress и Android, которые лежат в основе современного интернета. Большинство из них поддерживается небольшими группами энтузиастов-добровольцев, работающих без оплаты. Реальные уязвимости в широко используемых библиотеках кода представляют серьезную опасность, так как их эксплуатация способна нанести ущерб в масштабах всей системы.

Разработчик Даниэль Штернберг на HackerOne открыто раскритиковал одного из пользователей за подачу сгенерированного отчета об ошибке:

"Вы отправили бессмысленный отчёт, похоже, сгенерированный искусственным интеллектом, где упоминаете некую проблему безопасности — видимо, потому что ИИ убедил вас в её существовании. Затем вы потратили наше время, умолчав о том, что за вас это сделала программа, и продолжили обсуждение, отвечая такой же чепухой — вероятно, тоже сгенерированной ИИ".

Генерация кода становится все более популярным применением больших языковых моделей, хотя среди разработчиков споры о полезности этой технологии еще ведутся. Такие инструменты как GitHub Copilot или генератор кода ChatGPT успешно справляются с созданием базовой структуры проекта и помогают находить нужные функции в программных библиотеках. Однако языковые модели, как и любые ИИ-системы, иногда создают ошибочный или неполный код. Они не понимают программирование на концептуальном уровне, а работают на основе вероятностных моделей, предсказывая возможный результат на основе обучающих данных.

Для создания полноценного проекта разработчикам по-прежнему необходимо глубокое понимание используемого языка, умение отлаживать код и видеть общую архитектуру приложения. Эксперты отмечают, что инструменты генерации кода окажут наибольшее влияние на начинающих программистов, при этом простые приложения, которые можно создать исключительно с помощью ИИ, вероятно, уже существуют.

Платформы вроде HackerOne, которые платят за поиск уязвимостей, вероятно, невольно побуждают использовать ChatGPT для анализа кода и отправки ложных отчетов об ошибках, созданных нейросетью.

Хотя спам - совсем не новое явление для интернета, умные технологии сильно упростили его массовое “производство”. Вероятно, для борьбы с этим явлением потребуется разработка новых защитных механизмов вроде CAPTCHA.

🔔 ITsec NEWS

BY НОВОСТИ 📰




Share with your friend now:
tgoop.com/Russica2/2874

View MORE
Open in Telegram


Telegram News

Date: |

When choosing the right name for your Telegram channel, use the language of your target audience. The name must sum up the essence of your channel in 1-3 words. If you’re planning to expand your Telegram audience, it makes sense to incorporate keywords into your name. To edit your name or bio, click the Menu icon and select “Manage Channel.” Hui said the messages, which included urging the disruption of airport operations, were attempts to incite followers to make use of poisonous, corrosive or flammable substances to vandalize police vehicles, and also called on others to make weapons to harm police. Telegram Android app: Open the chats list, click the menu icon and select “New Channel.” Commenting about the court's concerns about the spread of false information related to the elections, Minister Fachin noted Brazil is "facing circumstances that could put Brazil's democracy at risk." During the meeting, the information technology secretary at the TSE, Julio Valente, put forward a list of requests the court believes will disinformation.
from us


Telegram НОВОСТИ 📰
FROM American