“AI 에이전트는 업무의 자동화, 효율화를 높일 것이다. 일상적인 업무 뿐만 아니라 장기적으로는 AI의 추론 능력이 강화되면서 의사 결정 과정도 효율화를 이룰 것으로 생각된다. AI 에이전트는 비즈니스에 AI 기술을 도입하는 효과적인 시작점이자 핵심 도구로 작용할 것이다.”
강승우 위데이터랩 부사장은 12월 5일 잠실 광고문화회관에서 열리는 “AI 에이전트가 가져올 비즈니스 변화와 기업의 대응' 세미나에 앞서 가진 인터뷰에서 AI 에이전트의 필요성에 대해 이렇게 밝혔다.
강승우 부사장은 ”미래 비즈니스 경쟁력은 빠르게 발전하는 AI 기술을 업무에 적용하는 능력에 좌우될 것으로 전망된다“면서 ”AI 에이전트는 기업의 AI 전환을 더욱 가속화할 수 있는 기회를 제공할 것“이라고 말했다.
강승우 부사장은 AI 기반 IT시스템 통합 모니터링 전문기업인 위데이터랩에서 인공지능연구소장을 맡고 있다. 위데이터랩은 오라클, 마이SQL, 포스트그레SQL 등 데이터베이스(DB) 성능관리 솔루션을 제공하고 있으며, 최근에는 RAG 구축, 평가, 벡터DB 모니터링 솔루션을 발표한 IT 전문기업이다.
강 부사장은 AI 에이전트를 환경과 상호작용하며 목표를 달성하기 위해 행동하는 AI 시스템으로 정의했다. 쉽게 말해 주어진 입력 데이터를 기반으로 주어진 목적을 달성하기 위해 자율적으로 결정을 내리고, 문제를 해결하여 목표 지향적인 행동을 수행하는 알고리즘이나 프로그램을 의미한다.
그는 AI 에이전트 운영에 있어 책임과 권한에 대한 문제를 해결해야 한다고 강조했다. AI 에이전트는 스스로 결정하고 수행해야 하는데, 'AI 에이전트의 결정의 권한은 어느 정도이고, 그 결과에 대한 책임은 어떻게 물을 수 있을까?'라는 질문을 던질 수밖에 없다는 것이다.
예를 들어 'AI 자율주행 시스템'은 스스로 판단하고 운행을 결정한다. 자율주행 시스템의 결정의 방향은 어떻게 되고, 그 책임은 어떻게 될 것인지에 대해 미리 논의가 돼야 한다. 더 극단적인 예이지만 전쟁을 수행하는 AI 에이전트는 인간에게 해가 되는 결정을 내릴 권한을 가져야 하는지, 그 결정의 책임은 누가 어떻게 감당해야 하는 것인지 정의돼야 한다는 의견이다.
강 부사장은 AI 에이전트 도입할 때 AI 시스템의 구축 방향성에 대해서도 설명했다. AI 에이전트 시스템 구축 시 △비즈니스 가치 창출 △인간중심의 윤리적 설계와 구현 △지속적인 개선 가능성 △규제 준수를 위한 모니터링에 대해 적극 검토해야 한다는 것이다.
그는 특히 ”AI 에이전트는 자율적으로 동작하기 때문에 AI 에이전트를 활용할 때 AI의 윤리적인 문제와 관련한 구체적인 방침이 필요하다“고 강조했다. 윤리적인 측면에서 불공정하거나 위험한 결정을 내리고, 수행하지 않도록 감독(모니터링) 및 제어(컨트롤)가 필요하다는 설명이다.
한편, 강승우 부사장은 12월 5일 열리는 AI 에이전트 세미나에서 보안적인 측면, 윤리적인 측면, 협업 모델 측면에서 AI 에이전트의 설계 방향에 대해 발표한다.
이번 세미나에서는 AI 에이전트 기술 트렌드 뿐만아니라 AI 에이전트 스타트업 사례 분석 등 AI에이전트 관련한 기술과 비즈니스 기회에 대해 전문가들이 발표한다. 자세한 정보는 행사 홈페이지(https://conference.etnews.com/conf_info.html?uid=342)에서 확인할 수 있다.
임민지 기자 minzi56@etnews.com