연초 등장한 두 건의 AI 출시가 사용자의 통제권 일부를 AI에 넘기고, 자율형 에이전틱 도구가 대신 업무를 수행하도록 하는 트렌드를 자극하고 있다. 이에 따라 IT 리더가 그에 따른 파장을 본격적으로 대비해야 할 시점이라는 분석이 나온다.
AI 기업 앤트로픽(Anthropic)은 1월 맥OS용, 2월 윈도우용 에이전틱 플랫폼 ‘클로드 코워크(Claude Cowork)’를 출시했다. 오픈소스 프로젝트 ‘오픈클로(OpenClaw)’도 2025년 말 공개한 뒤, 올해 초부터 사용량이 급증했다.
대부분 기업은 여전히 인간의 업무를 보조하는 AI 도입에 집중하고 있다. 다만 지난해 말부터는 자율형 에이전틱 AI에 대한 관심이 치솟고 있다. IT 컨설팅 기업 어댑타비스트 그룹(The Adaptavist Group)의 혁신 책임자이자 전 CIO인 닐 라일리가 금융 서비스와 헬스케어처럼 전통적으로 위험 회피 성향이 강한 업종에서도 워크플로우 재편을 위해 자율형 AI 실험에 나서는 사례가 늘고 있다고 전했다.
예상 밖 결과가 나올 수 있다는 우려와 자율 에이전트가 ‘섀도우 AI’처럼 운영될 수 있다는 걱정이 여전하지만, 얼리어댑터 기업들은 에이전틱 AI의 잠재력을 높게 평가하고 있다. 예를 들어 비기술 인력이 IT팀을 거치지 않고도 사소한 IT 문제를 직접 해결할 수 있게 만드는 등 생산성을 크게 끌어올릴 수 있다는 기대다.
라일리는 “2026년에 접어들면서 에이전트 기반 프로세스에 상당한 투자가 이뤄지고 있고, 매우 엄격하고 규제된 방식 안에서 이런 통제가 가능하도록 하면서도 시스템에 그 정도 자율성을 부여하는 흐름이 나타나고 있다”라며, “이 분야의 증가세가 매우 가파르다”라고 말했다.
누구나 쓰는 자율형 봇, 편의성과 위험성 동시에 증가
오픈클로와 클로드 코워크는 이번 변화의 선두에 서 있다. 두 도구는 사용자가 자신의 컴퓨터에서 AI를 활용해 워크플로우를 자동화하도록 지원한다. 오픈클로 봇은 클로드나 오픈AI GPT 모델 같은 외부 LLM과 연동되며, 사용자는 왓츠앱, 텔레그램, 디스코드 같은 메시징 서비스에서 실행되는 챗봇을 통해 접근한다.
사용자는 클로드 코워크에 애플리케이션과 파일 접근 권한을 부여한 뒤 업무를 지시할 수 있다. 코워크는 사용자의 컴퓨터에 저장된 파일을 열고, 슬랙 같은 앱에서 맥락 정보를 가져오고, 웹을 탐색해 추가 정보를 수집한 뒤 파일 정리, 스프레드시트 작성, 보고서 준비, 메모 분석 등을 수행한다. 앤트로픽에 따르면, 클로드는 실제 작업에 들어가기 전 실행 계획을 먼저 보여주고 사용자 승인을 기다린다.
문제는 일부 사용자가 이런 자율 에이전트에 지나치게 높은 수준의 권한을 부여하고 있다는 점이다. 명확한 제한 장치 없이 컴퓨터 제어권을 넘기면 적지 않은 위험이 뒤따를 수 있다.
메타의 AI 보안 연구원 서머 위는 2월 말, 오픈클로에 이메일함 정리를 맡겼다가 받은편지함이 삭제될 뻔한 경험을 소셜미디어에 공유했다. 위는 “실행 전에 확인하도록 설정해 둔 오픈클로가 받은편지함 삭제를 전속력으로 진행하는 걸 보는 순간만큼 사람을 겸손하게 만드는 일도 없다”라고 밝혔다.
이어 “정렬 문제를 연구하는 사람도 정렬 실패에서 자유롭지는 않다는 걸 알게 됐다”라며, “장난삼아 만든 테스트용 메일함에서는 몇 주 동안 잘 작동해 과신했지만, 실제 받은편지함은 전혀 달랐다”라고 덧붙였다.
서머 위의 게시물에 달린 대표적인 답글 가운데 하나는 침팬지에게 돌격소총을 쥐여주는 장면을 담은 사진이었다. 메타의 AI 보안 연구팀은 오픈클로에서 프롬프트 인젝션 공격에 취약한 문제를 포함해 여러 보안 결함도 발견한 바 있다.
위험은 크지만 기대효과도 크다
핵심은 여기에 있다. AI 전문가는 자율형 AI가 대규모 업무 효율화를 이끌 잠재력이 크다고 본다. 하지만 그만큼 감수해야 할 위험도 적지 않다는 평가다. 라일리는 보안 우려와 함께 에이전틱 AI가 사용자가 예상하지 못한 행동을 취할 가능성을 인정했다. 아직까지 자율형 AI가 인간보다 더 빠르거나 더 저렴하게 업무를 수행한다고 보긴 어렵고, 토큰 비용도 높다. 그럼에도 이 기술은 장기적으로 일의 방식을 더 나은 방향으로 바꿔놓을 수 있다고 평가했다.
라일리는 “장점을 이야기할 때 표면적으로는 지금의 업무를 대체하는 것처럼 보이지만, 사실 그것은 부산물에 가깝다”라며, “진짜 변화는 팀 사이에서 정보를 주고받는 방식을 완전히 다르게 만들어 더 빠르고 더 높은 품질로 결과를 내게 한다는 점”이라고 설명했다.
반복적이고 단조로운 업무를 덜어내고, 인력을 새로운 업무에 재배치할 수도 있다. 라일리는 “많은 에이전틱 시스템에 책임을 맡길 수 있을 만큼 신뢰가 쌓인다고 해도, 에이전트가 사람이 하는 것보다 더 빠르거나 더 잘하는 것은 아닐 수 있다. 하지만 사람이 직접 개입하지 않아도 되기 때문에, 그 시간에 다른 일을 할 수 있게 되는 것이 핵심”이라고 강조했다.
AI 데이터 통합 기업 bem의 CTO 우팔 사하는 많은 기업이 아직 자율형 AI 도입의 초기 단계에 머물러 있다며, 특히 AI가 기업 운영 방식을 제대로 이해하도록 만드는 일이 큰 과제라고 지적했다.
사하는 “대부분 기업 내부에서는 프로세스와 데이터, 의사결정 간 관계가 깔끔하게 문서화돼 있지 않다”라며, “그 지식은 여러 팀과 개인에게 흩어져 있다. 에이전트는 매우 뛰어난 역량을 가질 수 있지만, 이런 운영 맥락이 없으면 실제로 실행하기보다 추측에 의존하게 된다”고 설명했다.
속도는 자율형 에이전트의 가장 큰 장점이지만, 동시에 가장 위험한 요소이기도 하다. 사하는 “올바른 맥락만 주어지면 몇 시간이 걸리던 수작업 운영 업무를 몇 초 만에 처리할 수 있다. 반대로 워크플로우나 데이터 구조를 잘못 이해하면, 그 실수를 반복 확산시킬 수 있다”라고 경고했다.
리스크에도 불구하고 시장은 빠르게 에이전틱 AI 쪽으로 이동하고 있으며, 향후 2년 안에 대규모 도입이 이뤄질 것이라는 전망도 나온다. AI 생성 콘텐츠 기업 블로그버스터(BlogBuster)의 AI 연구개발 총괄 러셀 트윌리기어는 이런 변화를 텍스트 생성 AI에서 실제로 다단계 업무를 수행하는 시스템으로 넘어가는 전환점이라고 평가했다.
트윌리기어는 “지금 우리는 단순히 텍스트만 생성하던 시스템에서 실제로 여러 단계의 업무를 실행할 수 있는 시스템으로 이동하는 장면을 보고 있다”라며, “가장 큰 장점은 자율 에이전트가 단순한 프롬프트에 답하는 수준에 그치지 않고, 정보를 수집하고 시스템을 업데이트하면서 의도에서 실행까지 이어간다는 점”이라고 말했다.
다만 자율 에이전트를 잘못 도입하면 부작용도 빠르게 커질 수 있다. 트윌리기어는 “가장 큰 단점은 우리가 통제할 수 있는 속도보다 더 빠르게 확산될 것이라는 점”이라며, “새로운 통합이 추가될 때마다 보안 리스크와 오작동 가능성이 함께 커질 것”이라고 지적했다.
이어 “에이전트가 이메일, 파일, 브라우저 등에 접근할 수 있게 되면 엄청난 문제를 불러올 수 있다. 최근 보안 보고서를 보면 많은 기업이 AI 에이전트에 대한 모니터링조차 갖추지 못한 상태인데, 개인적으로는 매우 충격적”이라고 덧붙였다.
통제 장치 갖추되, 실험은 허용해야
라일리는 자율 에이전트를 도입하려는 IT 리더는 강력한 통제 체계를 마련하고, 데이터가 정제돼 있으며 쉽게 접근 가능한 상태인지 점검해야 한다. 애플리케이션 권한 설정도 정확히 구성해야 한다고 조언했다.
다만 라일리는 보안과 결과물 품질에 대한 우려가 있더라도, 직원들이 신기술을 직접 실험해볼 수 있게 해야 한다고 강조했다. 에이전틱 AI 확산이 이미 가시권에 들어온 만큼, 조직 차원의 학습이 더 중요해졌기 때문이다. 실제로 AI 교육에 투자하고 직원들이 기술을 자유롭게 다뤄보게 한 조직일수록 도입 성과가 더 좋았다.
라일리는 “이처럼 다양한 도구가 쏟아지는 상황에서 사람들은 지금 당장 직접 써보며 작동 방식을 이해해야 한다”라며 “기술이 너무 빠르게 나오고 있어 10년 전 IT 소프트웨어에서 기대했던 온보딩이나 활용 지원 체계는 더 이상 충분하지 않다. 지금의 접근법은 일단 써보고, 어떻게 돌아가는지 스스로 익히는 쪽에 가깝다”라고 말했다.
dl-ciokorea@foundryco.com