3월 17, 2026 2m read

AI 에이전트: 새로운 직원이 초래하는 많은 보안 위험

Etay Maor
Etay Maor

AI 에이전트는 애플리케이션이 아닙니다. 이들은 직원입니다. 그렇다면 왜 우리는 이들을 여전히 애플리케이션처럼 취급하고 있을까요?

AI 에이전트는 기존 애플리케이션처럼 동작하지 않습니다. 시스템에 접근합니다. 결정을 내립니다. 지속적으로 운영됩니다. 매번 명시적인 트리거 없이도 사람들과 그리고 다른 시스템과 상호작용합니다. 이것은 자동화가 아닙니다. 스크립트도 아닙니다. 디지털 직원입니다. 그런데도 대부분의 조직은 여전히 AI 에이전트를 일회용 애플리케이션처럼 취급하고 있습니다. 배포하고, 한 번 설정하고, 그냥 잊어버립니다. 이러한 사고방식이 차세대 내부자 위험을 만들어낼 것입니다.

AI 에이전트의 행동 방식이 애플리케이션보다 인간에 훨씬 가깝다면, AI 에이전트의 생애주기를 HR 관점에서 생각하고, 직원에게 적용하는 것과 동일한 점검과 균형을 적용해야 합니다. 2026년 Microsoft 보고서에 따르면, Fortune 500대 기업의 80% 이상이 AI 에이전트를 활용하고 있습니다. 그러나 2025년 Harvard 비즈니스 리뷰 보고서에 따르면, 핵심적인 엔드 투 엔드 비즈니스 프로세스를 AI 에이전트가 자율적으로 처리하는 것을 신뢰하는 조직은 6%에 불과합니다.

우리는 AI 에이전트를 어떻게 채용하고, 함께 일하고, 해고할지 다시 생각해야 합니다.

AI 에이전트 채용하기

실제 직원을 채용할 때, 검증 과정을 건너뛰지는 않습니다. 신원 조회를 합니다. 자격을 검증합니다. 역할을 명확히 정의합니다. 입사 첫날부터 모든 시스템에 대한 접근 권한을 주지 않습니다.

하지만 기업이 AI 에이전트를 도입할 때는 바로 그런 일이 벌어지는 경우가 많습니다. 우리는 10년 넘게 제로 트러스트에 관해 이야기하지 않았나요? 그런데 왜 신입 직원(AI 직원이라도)에게 모든 키와 권한을 넘겨주고 있을까요? 권한 부여가 너무 과도합니다.

AI를 지나치게 빠르게 가동시킵니다. 학습 데이터의 출처를 묻지 않습니다. 모델 공급망을 검증하지 않습니다. AI 에이전트가 절대로 해서는 안 되는 일을 명확히 정의하지 않습니다. 그리고 “일단 작동하게 하려고” 접근 권한을 과도하게 부여하는 경우가 빈번합니다.

그 결과는 어떻게 될까요? 알 수 없는 외부 영향, 불분명한 경계, 과도한 권한을 가진 디지털 직원을 방금 채용한 셈이 됩니다. 그 AI 에이전트가 침해되거나, 조작되거나, 단순히 잘못 정렬된다면 대규모의 피해를 입을 수 있습니다. 무제한 접근 권한을 가진 재무 담당 불량 직원이 내부자 위험으로 이어질 수 있듯이, AI 에이전트로 인한 피해도 막연한 가능성이 아닙니다. 그 피해는 실질적인 타격으로 돌아올 것입니다.

‘이 AI 에이전트가 프롬프트 인젝션 공격을 당할까?’ 혹은 ‘환각을 일으킬까?’ 같은 단편적인 질문에 머물러서는 안 됩니다. 기반 모델이나 학습 데이터와 같은 적절한 배경 조사를 거치지 않는다면, 결국 AI 에이전트가 자체 모델이나 가드레일, 제한 사항 등에 따라 우리가 원하거나 필요로 하는 방향과 다르게 작업을 수행하는 결과를 맞이하게 될지도 모릅니다

AI 에이전트와 함께 일하기

일반적인 직원의 경우, 채용 이후 맹목적인 신뢰를 받지는 않습니다. 감독을 받습니다. 성과를 검토받습니다. 접근 권한이 주기적으로 재평가됩니다. 행동이 변하면 누군가가 알아챕니다. AI 에이전트에도 동일한 규율이 필요합니다.

AI 에이전트는 일반 애플리케이션과 달리 권한을 누적해 나갑니다. 입력과 환경적 맥락에 따라 진화합니다. 자신 있게, 그리고 조용히 실패할 수 있습니다. 인간이 잘못된 결정을 내리면 주변의 눈에 띄기 마련입니다. 하지만 AI 에이전트는 누군가가 확인하기 전에 이미 수천 가지 잘못된 결정을 내릴 수 있습니다.

행동을 로깅하지 않고, 이상 징후를 모니터링하지 않으며, 접근 권한을 정기적으로 검토하지 않고, 명확한 담당자를 지정하지 않는다면, 사실상 잠도 안 자고 지시도 필요 없는 특권을 가진 내부자를 만들어 놓은 것과 같습니다.

또한, 저는 관리자로서 팀원들이 지속적으로 성장하고 지식을 넓혀나가기를 바랍니다. 컨퍼런스나 온라인 강좌에 참여하게 하는 것이 최우선 과제입니다. AI 에이전트도 진화하고 학습해야 합니다. 하지만 누가 새로운 데이터를 제공하고 있습니까? 그 맥락을 제대로 이해하고 있습니까? 해당 정보가 올바르게 활용되는지 테스트해 보셨습니까?

그 결과는 단순한 보안 위험에 그치지 않습니다. 거버넌스에 위험이 발생합니다. 규정 준수에 위험이 발생합니다. 평판에 위험이 발생합니다. 규제 당국이나 이사회에서 ‘누가 이 결정을 승인했습니까?’라고 물을 때, ‘모델이 했습니다’라고 대답하는 것은 결코 정당한 변명이 될 수 없습니다.

AI 에이전트 해고하기

직원이 퇴사할 때는 절차가 있습니다. 접근 권한이 회수됩니다. 자격 증명이 비활성화됩니다. 업무가 재배분됩니다. 마무리가 됩니다. AI 에이전트는 어떨까요? 그렇지 않은 경우가 많습니다. AI 에이전트는 계속 실행됩니다. 자격 증명은 유효한 채로 유지됩니다. API 토큰은 만료되지 않습니다. 그리고 누가 이를 소유하고 있는지 명확히 답할 수 있는 사람이 없는 경우가 많습니다.

그것이 바로 섀도 AI가 탄생하는 방식입니다. AI 에이전트는 합법적인 자격 증명을 가졌지만 아무도 감독하지 않는 ‘유령 직원’입니다. 결과는 예측 가능합니다. 방치된 접근 권한이 공격 벡터가 됩니다. 그리고 이러한 신원은 인간이 아니기 때문에 감사를 통해 탐지하기가 더 어렵습니다. 결과는 예측 가능합니다. 방치된 접근 권한이 공격 벡터가 됩니다. 그리고 이러한 신원은 인간이 아니기 때문에 감사를 통해 탐지하기가 더 어렵습니다.

Cato CTRL™ Threat Research: Inside Shadow AI | Read The Blog

결론

우리는 이미 대규모로 위험을 관리하는 방법을 알고 있습니다. 수십 년간 사람을 대상으로 시행해왔습니다. 체계적인 채용. 적극적인 감독. 공식적인 퇴직 처리. 명확한 책임 소재.

AI 에이전트는 이제 우리 조직 내부에서 의사결정을 내리고 행동을 취하고 있습니다. 이들을 그냥 소프트웨어라고 여기는 것이 실수입니다. 이들은 소프트웨어가 아닙니다. 이들은 새로운 부류의 디지털 직원이며, 그에 걸맞은 생애주기 거버넌스가 필요합니다.

문제는 AI 에이전트를 인력의 일부로 취급해야 하는가가 아닙니다. 우리가 던져야 할 진짜 질문은 다음과 같습니다. 지금 귀사에서 몇 명의 디지털 직원이 일하고 있으며, 누가 그들을 관리하고 있는지 알고 계십니까?

기업 입장에서는 AI 에이전트에 대한 보안 위험에 선제적으로 대응하는 것이 중요합니다. 그렇게 한다면, 이러한 위험을 관찰하고, 파악하고, 결정하고, 대응하는 데 더 유리한 위치에 놓이게 됩니다.

Related Topics

Etay Maor

Etay Maor

Vice President of Threat Intelligence

Etay Maor는 Cato Networks의 최고 보안 전략가이며, Cato CTRL 창립 멤버이자 업계에서 인정받는 사이버 보안 연구원입니다. 2021년 Cato에 합류하기 전, IntSights(Rapid7에 인수됨)의 최고 보안 책임자로 근무하며 전략적 사이버 보안 연구 및 보안 서비스를 담당했습니다. Trusteer(IBM에 인수됨)에서도 고위 보안 직책을 맡아 침해 대응 교육 및 보안 연구를 개발하고 이끌었으며, RSA Security의 사이버 위협 연구소에서 맬웨어 연구 인텔리전스 팀을 관리했습니다. Etay는 보스턴 대학교에서 겸임 교수로 재직 중이며 RSA 컨퍼런스와 Qubits 컨퍼런스 행사 주관사(CFP) 소속이기도 합니다. Etay는 IDC 헤르츨리야에서 대테러 및 사이버 테러 대응 석사 학위와 컴퓨터 과학 학사 학위를 보유하고 있습니다.

Read More