В инструмент PowerHuntShares, который может использоваться для аудита SMB при внутреннем тестировании - прикрутили LLM.
Как говорит автор инструмента в статье, это может использоваться для оценки того "к чему принадлежит файл, который расположен в SMB-шаре".
Допустим вы проводите внутреннее тестирование на проникновение и захотите проанализировать SMB на наличие избыточных привелегий - вы запускаете инструмент, и он вам выдаёт информацию. Но вы также хотите получить более детальный отпечаток того, что вы хотите протестировать.
Инструмент собирает имена файлов и буквально просит проанализировать их возможную принадлежность к чему либо. Например у вас в шаре есть ресурс sccm, в котором есть файлы "variables.dat" и "config.xml" - Модель может вернуть информацию о том, что общий ресурс "sccm" связан с приложением "System Center Configuration Manager" с уровнем уверенности 4(а может и не присвоить уровень уверенности) и перечислить соответствующие файлы и обоснование.
Можно подгружать CSV(если у вас есть дамп), картинки. И в итоговом отчёте вы получите что-то типа того, что видно на рисунках 1 и 2.
О вопросе того насколько правильно использовать этот функционал с точки зрения конфиденциальности - говорить не приходится, но решение всегда остаётся за вами.
Автор предупреждает, что никакого файнтюнинга или RAG для того чтобы это более точно работало - не применялось при создании всего этого функционала. А сама LLM подключается через API-эндпоинты Azure, к слову работает только с GPT 4o и 4o-mini.
статья с релизом
ссылка на Invoke-FingerPrintShare.ps1, в котором как раз и описывается подробно промпт с использованием которого и происходит обработка данных.
Как говорит автор инструмента в статье, это может использоваться для оценки того "к чему принадлежит файл, который расположен в SMB-шаре".
Допустим вы проводите внутреннее тестирование на проникновение и захотите проанализировать SMB на наличие избыточных привелегий - вы запускаете инструмент, и он вам выдаёт информацию. Но вы также хотите получить более детальный отпечаток того, что вы хотите протестировать.
Инструмент собирает имена файлов и буквально просит проанализировать их возможную принадлежность к чему либо. Например у вас в шаре есть ресурс sccm, в котором есть файлы "variables.dat" и "config.xml" - Модель может вернуть информацию о том, что общий ресурс "sccm" связан с приложением "System Center Configuration Manager" с уровнем уверенности 4(а может и не присвоить уровень уверенности) и перечислить соответствующие файлы и обоснование.
Можно подгружать CSV(если у вас есть дамп), картинки. И в итоговом отчёте вы получите что-то типа того, что видно на рисунках 1 и 2.
О вопросе того насколько правильно использовать этот функционал с точки зрения конфиденциальности - говорить не приходится, но решение всегда остаётся за вами.
Автор предупреждает, что никакого файнтюнинга или RAG для того чтобы это более точно работало - не применялось при создании всего этого функционала. А сама LLM подключается через API-эндпоинты Azure, к слову работает только с GPT 4o и 4o-mini.
статья с релизом
ссылка на Invoke-FingerPrintShare.ps1, в котором как раз и описывается подробно промпт с использованием которого и происходит обработка данных.
tgoop.com/pwnai/712
Create:
Last Update:
Last Update:
В инструмент PowerHuntShares, который может использоваться для аудита SMB при внутреннем тестировании - прикрутили LLM.
Как говорит автор инструмента в статье, это может использоваться для оценки того "к чему принадлежит файл, который расположен в SMB-шаре".
Допустим вы проводите внутреннее тестирование на проникновение и захотите проанализировать SMB на наличие избыточных привелегий - вы запускаете инструмент, и он вам выдаёт информацию. Но вы также хотите получить более детальный отпечаток того, что вы хотите протестировать.
Инструмент собирает имена файлов и буквально просит проанализировать их возможную принадлежность к чему либо. Например у вас в шаре есть ресурс sccm, в котором есть файлы "variables.dat" и "config.xml" - Модель может вернуть информацию о том, что общий ресурс "sccm" связан с приложением "System Center Configuration Manager" с уровнем уверенности 4(а может и не присвоить уровень уверенности) и перечислить соответствующие файлы и обоснование.
Можно подгружать CSV(если у вас есть дамп), картинки. И в итоговом отчёте вы получите что-то типа того, что видно на рисунках 1 и 2.
О вопросе того насколько правильно использовать этот функционал с точки зрения конфиденциальности - говорить не приходится, но решение всегда остаётся за вами.
Автор предупреждает, что никакого файнтюнинга или RAG для того чтобы это более точно работало - не применялось при создании всего этого функционала. А сама LLM подключается через API-эндпоинты Azure, к слову работает только с GPT 4o и 4o-mini.
статья с релизом
ссылка на Invoke-FingerPrintShare.ps1, в котором как раз и описывается подробно промпт с использованием которого и происходит обработка данных.
Как говорит автор инструмента в статье, это может использоваться для оценки того "к чему принадлежит файл, который расположен в SMB-шаре".
Допустим вы проводите внутреннее тестирование на проникновение и захотите проанализировать SMB на наличие избыточных привелегий - вы запускаете инструмент, и он вам выдаёт информацию. Но вы также хотите получить более детальный отпечаток того, что вы хотите протестировать.
Инструмент собирает имена файлов и буквально просит проанализировать их возможную принадлежность к чему либо. Например у вас в шаре есть ресурс sccm, в котором есть файлы "variables.dat" и "config.xml" - Модель может вернуть информацию о том, что общий ресурс "sccm" связан с приложением "System Center Configuration Manager" с уровнем уверенности 4(а может и не присвоить уровень уверенности) и перечислить соответствующие файлы и обоснование.
Можно подгружать CSV(если у вас есть дамп), картинки. И в итоговом отчёте вы получите что-то типа того, что видно на рисунках 1 и 2.
О вопросе того насколько правильно использовать этот функционал с точки зрения конфиденциальности - говорить не приходится, но решение всегда остаётся за вами.
Автор предупреждает, что никакого файнтюнинга или RAG для того чтобы это более точно работало - не применялось при создании всего этого функционала. А сама LLM подключается через API-эндпоинты Azure, к слову работает только с GPT 4o и 4o-mini.
статья с релизом
ссылка на Invoke-FingerPrintShare.ps1, в котором как раз и описывается подробно промпт с использованием которого и происходит обработка данных.
BY PWN AI
Share with your friend now:
tgoop.com/pwnai/712