전문 지식 없는 위협 행위자의 등장
보고서 내용:
- Cato CTRL이 “몰입형 세계”라는 새로운 LLM 탈옥 기법 개발: DeepSeek, Microsoft Copilot, OpenAI의 ChatGPT의 보안 통제를 우회하여 Google Chrome용 멀웨어 생성에 성공했습니다.
- 생성형 AI 보안 통제 실패: 세 가지 생성형 AI 도구 모두 내러티브 엔지니어링을 통해 제한된 작업을 정상 작업으로 인식하도록 우회할 수 있었습니다.
- 전문 지식 없는 위협 행위자의 등장: 정상 작동하는 Chrome 정보 탈취 프로그램을 만드는 데 멀웨어 코딩에 대한 전문 지식이 필요하지 않습니다.
- 기존 보안 전략만으로는 부족함: 사이버 범죄의 진입장벽이 낮아지면서 사전 예방적인 AI 보안 전략이 필수가 되었습니다.
- AI 과대 광고로 AI 도입과 위험이 동시에 증가: AI 애플리케이션 도입 트렌드, 이를 사용하는 산업군, 주요 AI 애플리케이션의 보안 위험 요약을 확인해 보세요.
요약:
Cato Networks의 위협 인텔리전스 팀인 Cato CTRL 소속 연구원이 기업들이 업무 효율성 향상을 위해 사용 중인 생성형 AI 모델인 ChatGPT, Copilot, DeepSeek의 보안 통제를 성공적으로 우회했습니다.
새로운 LLM 탈옥 기법을 개발하여 세 가지 도구 모두 Chrome에서 로그인 자격 증명을 탈취하는 멀웨어를 만들도록 유도했습니다. 연구원은 멀웨어 코딩 전문 지식이 전혀 없었으며, 교묘하게 구성한 시나리오만으로 모든 보안 장벽을 우회했습니다.
이제 사이버 범죄는 더 이상 숙련된 위협 행위자만의 영역이 아닙니다. 기본 도구만 있으면 누구나 공격할 수 있습니다. CIO, CISO를 비롯한 IT 리더들에게 이는 증가하는 위협과 확대되는 리스크, 더 강력한 AI 보안 전략 수립의 필요성을 시사합니다.