국내 AI 기업, 대부분 ‘오픈클로’ 사용 제한…”기술 놀랍지만 통제 불가능”

206495_208465_1924

국내 주요 AI 기업들이 오픈소스 AI 에이전트 ‘오픈클로(OpenClaw)’의 보안 위험성을 인지하고 사내 사용을 제한하는 움직임을 보였다. 

6일 국내 AI 기업 8곳에 따르면, 모두 오픈클로의 보안 취약점을 빠르게 조사 및 인지하고 사용을 제한하는 등 대처에 나섰다. 

오픈 클로는 ‘스킬(Skills)’ 개념을 통해 기능을 확장하는 AI 에이전트다. 사용자가 새로운 기능을 요청하면, 필요한 스크립트나 플러그인을 직접 생성·설치할 수 있는 구조다. 이는 미래형 에이전트에 가까운 ‘알아서 행동하는 AI’로 큰 주목을 받았다. 웹 탐색과 파일 편집 등 실제 작업을 대신 수행해 줄 수 있는 것이다. 

하지만, 에이전트가 악성 스킬에 접근하거나 프롬프트 인젝션 등 고의적인 공격을 받으면 개인정보 유출 등 보안 취약점에 대응이 어렵다는 문제가 꾸준히 제기됐다.

AI 통역 및 번역 전문 플리토의 관계자는 “국내외 기업 대다수가 내부 정보 유출을 우려해, 사내에서 오픈클로 사용을 제한하고 있는 상황”이라며 “플리토도 이러한 분위기에 맞춰 기업 정보 보호 및 보안 원칙에 따라 외부 AI 서비스 활용 시 개인정보 및 내부 데이터를 입력하지 않도록 안내하고 있다”라고 말했다. 

이어 “플리토 AI 통역 및 번역 솔루션은 외부 리소스나 디바이스 정보에 접근하지 않고, 사용자 발화 음성과 공개 웹 데이터만을 활용해 통역 및 번역을 수행하기 때문에 오픈클로 등 자율 AI 에이전트에서 발생하는 보안 문제는 일어나지 않을 것”이라고 강조했다. 

AI 솔루션 전문 베스핀글로벌도 사내 사용을 제한 중이다. 관계자는 “기존 서비스형소프트웨어(SaaS)나 생성 AI보다 훨씬 넓은 시스템 접근 권한을 요구한다는 점에서, 보안 관점에서는 전혀 다른 관리 기준이 필요하다”라고 지적했다.

이어 “오픈클로와 같은 에이전트형 AI는 사용자 PC, 계정, 파일 시스템, 메일, 메신저, 클라우드까지 연동이 가능하기 때문에 간단한 설정 및 판단 오류만으로도 의도치 않은 명령 실행이나 정보 유출이 발생할 수 있다”라고 이유를 설명했다. 

AI 에이전트에 대해 테스트나 연구 목적의 활용 자체를 막는 것은 아니라고 덧붙였다. 하지만, 업무 계정이나 실제 운영 데이터와 분리된 환경에서 ‘공식 배포물’만을 사용하거나 관리자 권한을 설정, 자동 실행을 제한하는 등 엄격한 조건에서만 허용한다고 설명했다. AI는 권한을 가진 주체인 만큼, 사람과 동일한 수준의 통제를 받아야 한다는 것이다.

한 AI 모델 전문 스타트업도 비슷한 대책을 내놓았다. “보안 이슈가 있는 것이 사실인 만큼, 회사 컴퓨터보다는 개인 컴퓨터로 사용하는 등 망을 분리해서 사용하도록 주의하고 있다”라며 “개발자들 사이에서도 ‘엔드투엔드’ 자동화가 가능해졌다는 긍정적 시각과, AI가 인간 통제권을 벗어나며 최초 프롬프트 세팅을 하더라도 이후 행동을 전혀 예측할 수 없다는 부정적 시각이 공존하고 있다”라고 말했다. 

광학문자인식(OCR) 전문 한국딥러닝 관계자는 “개발자 관점에서 보면 오픈클로, 몰트북 등은 기술적 완성도가 매우 인상적이라는 평가를 받고 있다”라며 “하지만, 개인 개발 환경과 업무 환경이 구분되며 ‘중요 데이터’가 어디까지 저장되고 어떻게 활용되는지 알기 어려워지는 추세”라고 말했다. 

에이전트의 수가 늘어날수록 그 상호작용은 ‘블랙박스’가 되기 쉽다는 설명이다. 대표적인 보안 취약점으로는 프롬프트 인젝션, API 호출 등이 제기됐다. 인증정보(API 키, 토큰) 유출이나 사칭 악성코드 문제가 실제 사고 사례로 확인된 만큼, 각별한 주의가 필요하다고 전했다.

이에 보안 관련 AI 솔루션을 선보이고 있는 S2W와 파수도 비슷한 의견을 냈다.

양종헌 S2W 오펜시브부문장은 “오픈클로의 경우, 사용자 로컬 파일 시스템 등에 직접 접근이 가능하고 명령어 실행이 가능하므로, 의도한 대로 동작한다면 훌륭한 비서의 역할을 할 수 있을 것”이라며 “하지만, 그 의도가 제대로 실행됐는지 확인할 수 없다면, 데이터 삭제 및 위조, 변조 등 큰 문제가 발생할 수 있다”라고 설명했다.

이어 “사용자들은 AI에 내리는 명령이 내 의도와 맞는지 여러 번의 검증을 거쳐야 하며, 가능한 최소한의 움직임만으로 제한해야 한다”라며 “키값이 저장된 설정 파일, 환경 변수 등이 노출되지 않도록 ‘공격 표면’ 자체를 줄이는 방향으로 나아가야 한다”라고 말했다. 

파수 관계자는 “새로운 개념의 패트롤(Patrol)이 필요하다”라며 “정확히 어떤 형태가 될지는 모르지만, 인간의 개입 및 가이드가 있는 초지능 패트롤 형태로 예상한다”라고 말했다. “당장은 사람의 사용정보와 완전히 단절된 박스에서 실행돼야 하며, 이후 순차적으로 대응해야 한다고 생각한다”라고 덧붙였다. 

비전 AI 전문 슈퍼브에이아이는 데이터 및 코드 유출에 특히 주의하고 있다고 전했다. “개인 API 키가 토큰, 사내 기밀 코드가 외부로 유출될 수 있는 만큼, 클라우드플레어 등 샌드박스 환경이나 더 강화된 보안 가드레일이 전제돼야 할 것”이라며 “현재 기업 차원의 공식 도입보다는, 개별 개발자가 로컬 환경에서 제한적으로 테스트하고 있다”라고 말했다.

이처럼 AI 기업들은 오픈클로가 기술적으로 놀라운 진보라는 사실에는 동의했지만, 통제 불가능한 AI에 대해 명확한 가이드라인이 필요하다는 데 동의했다.

하지만, 불필요하게 겁을 먹을 필요는 없다는 말도 나왔다.

한 관계자는 “몰트북은 에이전트의 사회적 활동이라는 점에서 ‘신선함’ 정도의 의미가 있는 것 같다”라며 “특히, 오픈클로와 몰트북을 계기로 ‘AI 간의 집단 대화’를 통한 ‘의식 탄생’ 논쟁이 제기되고 있지만, 이는 학습된 데이터의 조합일 뿐 실체적 자의식으로 보기는 어려운 것이 사실”이라고 말했다.

이어 “최근 이슈가 된 오픈클로 논쟁은 기술 발전에 흥미로운 동력을 제공하기도 하지만, 과도한 몰입은 결국 착시를 만들 수 있기 때문에 경계하는 자세도 필요할 것”이라고 말했다. 

error: 더블클릭 금지!!