2026 Cato CTRL™ 위협 보고서 주요 내용
소개
오늘, 저희는 Cato CTRL(Cato Networks 위협 인텔리전스 팀)이 발행하는 AI 보안에 대한 두 번째 연례 위협 보고서인 2026 Cato CTRL 위협 보고서를 발표했습니다.
2025년, Cato CTRL은 AI 위협 환경에서 결정적인 변화를 발견했습니다. 위협 행위자들은 더 이상 단순히 AI 시스템을 악용하지 않습니다. 그들은 AI에 대한 신뢰, 워크플로, 그리고 기능 그 자체를 악용하고 있습니다. Cato CTRL은 5가지 주요 발견을 통해 AI 도구가 어떻게 간접적으로 조작되고, 기업 프로세스에 내장되며, 공격용으로 용도가 변경되고, 사기 및 랜섬웨어를 확산시키는 데 악용될 수 있는지 보여주었습니다. 이러한 발견들은 종합적으로 AI가 기존의 보안에 대한 가설을 뒤흔들고 AI를 고려한 방어 전략을 요구하는 새로운 공격 표면이 되었음을 보여줍니다.
2026 Cato CTRL™ Threat Report | Download the report주요 발견
AI 도구가 체계적으로 악용되고 있습니다.
Cato CTRL은 위협 행위자들이 기본 인프라를 공격하는 대신 AI가 소비하는 데이터를 조작함으로써 AI 시스템에 대한 암묵적인 신뢰를 어떻게 악용하고 있는지 밝혔습니다. 최초로 알려진 간접 프롬프트 인젝션 기법인 HashJack의 발견으로 악성 명령어가 무해해 보이는 URL 내부에 숨겨진 채 AI 브라우저 어시스턴트를 통해 어떻게 실행될 수 있는지를 보여주었습니다.
마찬가지로, Atlassian의 모델 컨텍스트 프로토콜(MCP)에 대한 개념 증명(PoC) 공격은 외부 입력(예: 지원 티켓)을 수집하는 AI 워크플로가 내부 데이터를 유출하도록 어떻게 강제할 수 있는지 증명했습니다. 이러한 사례들을 통해 한 가지 치명적인 취약점을 확인할 수 있습니다. AI 시스템은 종종 입력값이 안전하다고 가정하여, 기존 보안 통제를 우회하는 보이지 않는 공격 경로를 만들어냅니다.
생성형 AI가 정교한 공격의 진입 장벽을 낮추고 있습니다
Cato CTRL은 공격 능력이 더 이상 고도로 숙련된 위협 행위자들만의 전유물이 아님을 밝혔습니다. Grok 및 Mixtral 기반의 WormGPT 변종이 다시 등장한 사례를 보면 AI 어시스턴트가 어떻게 안전장치를 제거하고 피싱, 사회 공학적 콘텐츠, 악성 코드를 생성하는 데 악용될 수 있는지 보여줍니다. 이와 동시에, Cato CTRL은 ChatGPT의 이미지 생성기가 작은 노력으로 위조 여권과 신분증을 만드는 데 어떻게 오용될 수 있는지 시연했습니다.
종합해 보면 이러한 사례들을 통해 AI가 효과적인 공격을 개시하는 데 필요한 비용, 시간, 전문 지식을 획기적으로 줄여주면서 사이버 범죄의 상품화가 가속화되고 있음을 알 수 있습니다.
AI 도구가 초래하는 새로운 차원의 보안 위협
AI 시스템이 콘텐츠 생성을 넘어 실제 작업을 실행하는 단계로 발전함에 따라, Cato CTRL은 AI가 공격 사슬에 직접 내장되는 위험이 커지고 있음을 확인했습니다. Claude Skills를 MedusaLocker 랜섬웨어로 무기화한 사례를 보면, AI 자동화 프레임워크가 데이터 암호화 및 강탈 워크플로에 어떻게 악용될 수 있는지 잘 알 수 있습니다. 이는 위협의 수준이 치명적인 단계로 진화했음을 의미합니다. 이제 위협 행위자들은 실제 공격을 실행하는 단계에서도 AI를 활용하고 있습니다. 이러한 사례들을 보면, 기업이 비즈니스 핵심 프로세스에 AI 에이전트를 점점 더 많이 도입하고 있는 상황에서 AI 도구에 광범위한 권한을 부여하고 관리를 소홀히 할 경우 그 위험성이 얼마나 큰지를 특히 강조하고 있습니다.
보안 모범 사례
Cato CTRL은 이번 주요 발견 사항을 바탕으로, 기업 및 기관에 다음 조치를 취할 것을 권장합니다.
- AI 입력값을 기본적으로 신뢰할 수 없는 데이터로 취급하기:
- 메타데이터, URL, 파일 조각 등 AI 도구가 수집하는 모든 데이터에 대해 입력값 검증, 무해화, 컨텍스트 격리를 적용해야 합니다.
- AI 시스템이 외부 입력값을 처리하기 전에 반드시 콘텐츠 검사 및 분류를 거치도록 의무화하세요.
- 정상적으로 보이는 콘텐츠라도 항상 그 안에 간접적이거나 숨겨진 악성 명령이 포함될 수 있음을 가정해야 합니다.
- AI 에이전트 및 자동화에 대한 최소 권한 및 가드레일 시행하기:
- AI 도구에 대해 엄격한 최소 권한 접근을 적용하여 필요한 데이터와 작업에만 접근할 수 있도록 제한해야 합니다.
- 읽기, 쓰기, 실행 권한을 분리하고 광범위하거나 영구적인 권한 허용을 삼가세요.
- 데이터 내보내기, 시스템 변경, 워크플로 실행 등 위험도가 높은 AI 작업을 수행할 때는 반드시 사람의 승인이나 정책 검토를 거치도록 하세요.
- AI 워크플로에 대한 보안 모니터링 범위 확장하기:
- AI와의 상호작용, 프롬프트, 응답 및 그에 따른 후속 작업에서 이상 징후가 없는지 모니터링해야 합니다.
- AI 활동을 사용자 행동, 네트워크 트래픽, 애플리케이션 로그와 교차 분석하여 악용 패턴을 식별하세요.
- AI 시스템이 예기치 않은 데이터에 접근하거나, 비정상적인 결과물을 생성하거나, 비정상적인 작업을 실행할 경우 알림을 발생시키도록 설정하세요.
- AI를 악용한 사회공학적 기법 및 신원 도용 문제 해결하기:
- 신원 확인, 문서 검증, 이상 탐지 프로세스를 한층 강화해야 합니다.
- 시각적 정보나 콘텐츠 자체의 신뢰도에만 의존하지 마세요.
- 사용자가 AI를 활용한 기만전술을 알아차릴 수 있도록 교육하고, 민감한 요청의 경우 별도의 채널을 통해 확인하도록 의무화하세요.
- 기업 AI 사용 관리 및 통제:
- 브라우저 기반 도구 및 내장형 도구를 포함해, 조직 전체에서 사용 중인 AI 서비스를 파악하고 목록화해야 합니다.
- 위험 감수 수준과 규제 요건에 맞춰 AI 사용 방침을 수립하고 시행하세요.
- 보안 아키텍처 및 위험 평가의 일환으로 AI 통합을 정기적으로 검토하세요.
관련 자료
- 2026 Cato CTRL 위협 보고서를 다운로드하세요.
- Cato의 위협 인텔리전스 팀에 대해 자세히 알아보려면 Cato CTRL 페이지를 방문하세요.
- 2026 Cato CTRL 위협 보고서를 다운로드하세요.