- Malterial Runtime에서 GPT -4를 사용하여 Malterial Runtime에서 랜섬웨어 또는 리버스 쉘 코드를 생성합니다.
- LLM 지원 맬웨어는 실행 중 오염 된 인수를 생성하여 식별을 피합니다.
- 연구원들은 배치의 증거를 찾지 못했습니다. 아마도 증거 개념 또는 테스트 도구 일 것입니다
Sentinelone의 Cybercquire 연구원들은 Openae의 ChatGpt -4를 사용하여 오염 된 코드를 실시간으로 만들기 위해 새로운 맬웨어를 공개했습니다.
연구원들은 악의적 인 위협 행위자들이 악의적 인 코드를 배치함으로써 어떻게 중요한 변화를 나타내고 대표하는지 주장하며, “Malwar에 LLM 포함은 방지 방지의 질적 변화를 식별한다”고 지적했다.
“런타임에서 오염 된 논증과 명령을 생성 할 수있는 능력으로 LLM 지원 맬웨어는 수비수에게 새로운 도전을 도입합니다.”
정부에서
이 발견은 사이버 보안 커뮤니티에 완전히 새로운 맬웨어 섹션이 있음을 의미합니다. LLM 지원 맬웨어 또는 그 효과에 더 큰 말하기 모델을 직접 내장하는 맬웨어.
요컨대, Malterial은 맬웨어 생성기입니다. 상대방이 앞으로 나아갈 때, 그들은 암호화 자나 반전의 쉘을 만들고 싶은지 묻습니다. 그런 다음 프롬프트가 GPT -4 AI로 전송되며, 선택된 형식에 따라 Python 코드에 응답합니다.
Sentinelone은 맬웨어 파일의 코드가 RNSTIME까지 존재하지 않으며 대신 동적으로 생성되었다고 말했다. 스캔을위한 정적 악성 코드가 없기 때문에 전통적인 끔찍한 보호 도구에서 탐지가 훨씬 더 어려워집니다.
또한 Python 스크립트를 발견 한 후 Wind
또한, API 종말점이 2023 년 말에 사망했기 때문에 Sentinelone은 Malterminal이 AI 구동 맬웨어의 첫 번째 예가되어야한다는 것보다 더 오래되어야한다는 결론에 도달했습니다.
다행히도, 맬웨어가 야생에 배치되었다는 증거는 없으므로 증명 개념 또는 빨간색 그룹 도구 일 수 있습니다. Sentinelone은 Malterial이 반란의 신호이며 사이버 보안 커뮤니티가 그에 따라 준비 할 수있는 신호라고 생각합니다.
“LLM 지원 유능한 맬웨어의 사용은 여전히 제한적이고 기본적으로 실험적이지만,이 초기 개발 단계는 수비수가 실수로부터 배우고 그에 따라 절차를 조정할 수있는 기회를 제공합니다.”
“우리는 상대방이 자신의 전략에 적응하기를 희망하며, 여기에 제시된 작업에 대한 더 많은 연구를 만들 수 있기를 바랍니다.”
을 통해 해커 뉴스