인사이트

인사이트리포트

디지털프렌스포메이션 최신 정보 및 트렌드를 제공합니다.

오픈소스 SW

에이전틱 AI 구축 성공 전략 : AI 도입 현실과 Red Hat AI 활용 방안

2026.01.22김원섭 프로
다운로드

들어가며

맥킨지에서 2025년 AI 현황 보고서를 발표했습니다[1]. 주요 이슈 중 가장 중요하게 언급된 부분은 조직 내 AI 도입의 어려움입니다. 최신 설문조사에 따르면 대부분의 기업은 아직 AI 기술을 확장하지 못한 상태입니다. 조직이 최소 하나의 비즈니스 기능에서 AI를 사용하고 있다고 답한 응답자의 비율은 2024년 78%에서 2025년 88%로 1년 만에 10%p 증가했으나, 기업 차원에서는 대다수가 여전히 실험 또는 파일럿 단계에 머물러 있으며, 약 1/3만이 AI 프로그램 확장을 시작했다고 보고했습니다. 하지만 AI 에이전트(AI Agent 또는 Agent AI)에 대한 관심은 오히려 높아지고 있습니다. 맥킨지 보고서에 따르면, 응답자의 23%가 자신의 조직이 기업 내 어딘가에서 AI 에이전트 시스템을 확장하고 있다고 답했으며, 추가로 39%는 AI 에이전트 실험을 시작했다고 응답했습니다. 아이러니하게도 AI 도입은 아직 걸음마 수준이지만, 대다수의 기업은 AI 에이전트의 가능성을 바라보며 전진하고 있습니다. 도대체 AI 에이전트가 무엇이며, 왜 유수의 기업들이 앞다투어 도입하려 하는 걸까요? 더 나아가 AI 에이전트에서 에이전틱 AI(Agentic AI)로 발전하려면 어떻게 해야 할까요? 프로덕션 환경에서 AI를 성공적으로 확산하기 위해 무엇이 필요한지 알아보겠습니다.

 

AI 에이전트? 에이전틱 AI?

마치 말장난처럼 들릴 수 있지만, AI 서비스 구축 단계 간에는 명확한 차이가 존재합니다. 다양한 논문과 레퍼런스를 참조하여 생성형 AI, AI 에이전트, 에이전틱 AI를 정의하겠습니다[2][3][4].

생성형 AI (Generative AI)

AI 에이전트와 에이전틱 AI를 이해하기 전에 먼저 생성형 AI를 살펴볼 필요가 있습니다. 생성형 AI는 사용자의 프롬프트에 따라 텍스트, 이미지, 코드 등 새로운 콘텐츠를 생성하는 AI입니다. ChatGPT, DALL-E, Midjourney가 대표적인 사례입니다. 그러나 생성형 AI는 사용자의 명시적 지시가 있어야만 작동하며, 스스로 판단하거나 행동할 수 없습니다. 한 번에 하나의 프롬프트만 처리할 수 있고, 복잡한 다단계 작업을 자율적으로 수행할 수 없습니다. 또한 환경 변화나 새로운 정보에 스스로 적응하는 것도 불가능합니다.

AI 에이전트 (AI Agent)

AI 에이전트는 특정 목표를 달성하기 위해 환경을 인식하고, 의사결정을 내리며, 행동을 수행하는 AI 시스템입니다. 챗봇, 추천 시스템, 가상 비서 등이 이에 해당합니다. 다만 AI 에이전트는 사전에 정의된 규칙이나 범위 내에서만 작동하며, 예상치 못한 상황에 유연하게 대처하기 어렵습니다. 복잡한 문제 해결을 위해 다른 에이전트와 협업하는 능력이 부족하고, 장기적인 목표나 복잡한 맥락을 이해하고 유지하는 데도 한계가 있습니다.

에이전틱 AI (Agentic AI)

에이전틱 AI는 AI 에이전트의 진화된 형태로, 높은 수준의 자율성과 적응력을 갖춘 AI 시스템입니다. 단순히 지시를 따르는 것이 아니라 스스로 목표를 설정하고 계획을 수립하며, 환경 변화에 실시간으로 적응하면서 복잡한 작업을 수행합니다. 에이전틱 AI는 인간의 개입 없이도 스스로 판단하고 행동하며, 복잡한 작업을 하위 작업으로 분해하여 실행 계획을 세웁니다. 새로운 정보나 변화하는 상황에 실시간으로 적응하고, 여러 에이전트가 협력하여 복잡한 문제를 해결할 수 있습니다. 외부 도구, API, 데이터베이스 등을 자율적으로 활용하는 것도 에이전틱 AI의 핵심 특징입니다.

[표 1] AI 유형별 특성 비교

요약하자면, 생성형 AI가 “무엇을 만들어줘”에 응답한다면, 에이전트 AI는 “이 규칙대로 처리해줘”를 수행하고, 에이전틱 AI는 “이 목표를 달성해줘”라고 하면 스스로 방법을 찾아 실행합니다.

 

 

우리 회사 AI 에이전트는 왜 걸음마만 계속 할까?

많은 기업이 AI 에이전트 도입에 뛰어들지만, 기대와 현실 사이의 간극은 생각보다 큽니다. 흥미롭게도, 사람들은 AI를 단순한 도구가 아닌 일종의 인격체로 인식하는 경향이 있습니다[5]. 마치 신입 사원에게 기대하듯, AI에게도 맥락을 이해하고, 실수를 스스로 교정하며, 복잡한 업무를 자율적으로 처리하길 바랍니다. 하지만 현실의 AI 에이전트는 여전히 명확한 지시와 정교한 설계 없이는 제 역할을 수행하기 어렵습니다.

이러한 인식의 괴리는 AI 구축의 기술적 난이도, 제한된 예산과 인력, 그리고 급변하는 기술 트렌드와 맞물리며 프로젝트 실패로 이어지곤 합니다. AI 에이전트가 ‘걸음마’ 수준에서 벗어나지 못하는 데는 단순히 기술력 부족만이 아닌, 복합적인 요인들이 작용합니다. 아래에서는 프로덕션 환경에서 AI 에이전트 운영 시 마주치는 주요 난관들을 살펴보겠습니다.

 

빠른 트렌드 변화

AI 분야의 발전 속도는 전례 없이 빠릅니다[6]. GPT-4가 발표된 지 3년도 안되어서 GPT-5가 나왔고, 오픈소스 진영에서는 매달 새로운 모델이 쏟아지고 있습니다. 오늘 최선의 선택이 내일은 구식이 되는 상황에서, 기업은 기술 부채와 투자 타이밍 사이에서 딜레마에 빠집니다.

프레임워크와 도구 생태계도 마찬가지입니다. LangChain, LlamaIndex, CrewAI, AutoGen 등 에이전트 프레임워크가 난립하고, 각각의 API와 설계 철학이 빠르게 변화합니다. 예를 들어 LangChain 가이드라인은 명확히 ‘간단한 오케스트레이션’을 위해 만들어졌으며, ‘복잡한 상태 관리, 분기, 사이클, 다중 에이전트가 필요할 때 LangGraph를 사용하라’고 공개적으로 권장하는 것으로 2025년 10월 변경되었습니다[7]. 따라서 특정 프레임워크에 깊이 의존한 코드베이스는 업그레이드나 마이그레이션 시 상당한 리팩토링 비용을 감수해야 합니다.

이러한 불확실성 속에서 많은 기업이 “조금 더 기다리자”는 태도를 취하게 되고, 결과적으로 경쟁사에 뒤처지는 악순환에 빠질 수 있습니다[8].

 

검증의 어려움

AI 에이전트들이 올바르게 작동하는지 검증하는 것은 여전히 어려운 과제입니다[9]. 연구에 따르면, AI가 우리가 원하는 기준을 충족하는지 완벽하게 판단하는 것 자체가 불가합니다. 사람이 직접 확인하든 자동화 시스템을 만들든 검증에는 상당한 노력이 필요하고, AI를 안전하게 만들려면 오히려 기능을 제한해야 하는 딜레마가 생깁니다. 또한 AI의 행동이 현실에서 어떤 결과를 낳을지 미리 확인하기 어렵고, AI가 좋은 의도로 행동하더라도 실제 결과는 다를 수 있습니다.

할루시네이션(Hallucination: 환각) 문제는 더욱 심각합니다[10]. AI가 자신 있게 틀린 정보를 제공해도, 그 내용이 매우 그럴듯해 보이기 때문에 전문가가 아니라면 구별하기 어렵습니다. 실제로 법률 분야에서 AI를 테스트한 연구에서는 할루시네이션 발생률이 69%에서 88%에 달했습니다. 이는 단순한 기술적 문제가 아닙니다. 잘못된 정보는 직원이나 고객에게 혼란을 주고, 잘못된 의사결정을 유발하며, 기업의 평판에도 손상을 줄 수 있습니다. 특히 의료나 금융처럼 고위험 분야에서는 실제 피해로 이어질 수 있습니다. 실제로 2023년 미국에서는 변호사가 ChatGPT로 작성한 소송 준비서에 존재하지 않는 판례 6건이 인용되어 법원에서 제재를 받은 사례가 있으며, 캐나다에서는 AI 챗봇이 허위 환불 정책을 안내하여 항공사가 배상 판결을 받기도 했습니다[11][12].

AI 에이전트를 어떻게 평가할 것인지도 중요한 과제입니다[13]. 전통적인 소프트웨어와 달리 AI 에이전트는 여러 개의 자율적인 구성 요소가 서로 상호작용하며 작동하기 때문에, 개별 에이전트와 전체 시스템 모두를 검증해야 합니다. 마치 자동차나 항공기처럼 각 부품을 따로 점검하고, 조립된 전체 시스템도 별도로 테스트해야 하는 것과 같습니다. 또한 AI 시스템은 시간이 지나면서 성능이 저하될 수 있어서 배포 전 테스트만으로는 부족합니다. 자동차가 정기 점검을 받듯이 AI 에이전트도 지속적으로 모니터링하고, 필요하면 재학습하거나 교체해야 합니다. 하지만 현실에서는 이러한 체계적인 평가와 모니터링 시스템을 갖춘 기업이 많지 않습니다.

 

너무 느리거나 너무 빠른 답변 속도

프로덕션 환경에서 AI 에이전트를 운영할 때 가장 먼저 부딪히는 문제는 응답 지연입니다. AI도 소프트웨어의 일종이며, 누구도 느린 소프트웨어를 선호하지 않습니다. 사용자가 질문을 던진 후 답변을 받기까지 수십 초에서 수 분이 소요된다면, 아무리 정확한 답변이라도 사용자 경험은 크게 저하될 수밖에 없습니다.

  • 구글은5초의 지연만으로도 반복 트래픽이 20% 감소했다는 사실을 발견했습니다[14].
  • 아마존은 사이트 로딩이 100ms 느려질 때마다 매출이 1%씩 감소한다는 것을 확인했습니다[15].

이러한 지연의 원인은 다양합니다. 첫째, LLM 추론 자체가 높은 연산 비용을 요구합니다. 특히 복잡한 추론이나 긴 컨텍스트를 처리할 때 지연이 심화됩니다. 둘째, RAG(Retrieval-Augmented Generation) 파이프라인에서 벡터 검색, 문서 청킹, 리랭킹 등 여러 단계를 거치면서 누적 지연이 발생합니다. 셋째, 에이전트가 도구를 호출하고 외부 API와 통신하는 과정에서 네트워크 오버헤드가 추가됩니다.

실제 업무 환경에서 “그냥 직접 검색하는 게 더 빠르겠다”는 피드백이 나오기 시작하면, AI 에이전트의 채택률은 급격히 하락합니다. 특히 처리 과정을 시각적으로 확인할 수 없는 음성 에이전트의 경우, 지연에 대한 부정적 인식이 더욱 강하게 나타납니다.

  • Forethought의 2025년 보고서에 따르면, 음성 AI 에이전트를 이용하는 고객의 57%가 10분 이상 기다리지 않으려 하며(2024년 50%에서 증가), 20%는 5분 이내에도 불만을 표출합니다[16].

그러나 AI 영역에서는 독특한 현상도 관찰됩니다. 일반적으로 소프트웨어는 빠를수록 좋다는 것이 통념이지만, AI 에이전트의 경우 적절한 지연이 오히려 더 신뢰감을 줄 수 있습니다. 행동경제학의 ‘노력 휴리스틱(Effort Heuristic)’ 개념에 따르면, 사용자는 자신을 위해 더 많은 노력이 투입되었다고 인식할 때 서비스의 가치를 더 높게 평가하는 경향이 있습니다[17].

  • ai는 고객들로부터 이메일 답변이 너무 빨리 도착해 AI가 생성한 것으로 의심된다는 불만을 접수했습니다[18].

이러한 양면성은 에이전트 기반 서비스를 구축할 때 기술적 성능뿐만 아니라 인간의 심리와 기대치를 함께 고려해야 함을 시사합니다.

 

오픈소스 에코시스템의 불안함

오픈소스 LLM과 도구들은 비용 절감과 데이터 주권 확보 측면에서 매력적이지만, 프로덕션 환경에서의 안정성과 지원 측면에서는 우려가 있습니다.

첫째, 모델 품질의 일관성이 보장되지 않습니다[19]. 오픈소스 모델은 특정 벤치마크에서는 상용 모델에 근접하지만, 실제 업무 시나리오에서는 성능 격차가 벌어지는 경우가 많습니다. 둘째, 보안 취약점과 라이선스 이슈가 있습니다[20]. 빠르게 개발되는 오픈소스 프로젝트는 충분한 보안 검토를 거치지 못할 수 있고, 상업적 사용 시 라이선스 조건을 꼼꼼히 확인해야 합니다. 셋째, 장기적인 유지보수와 지원의 불확실성이 있습니다. 수많은 오픈소스 프로젝트들이 그랬듯 핵심 기여자가 떠나거나 프로젝트가 중단되면, 기업은 자체적으로 유지보수 부담을 떠안아야 합니다.

 

 

어떻게 해야 AI 에이전트 구축에 성공할 수 있을까?

앞서 살펴본 것처럼 AI 에이전트 구축 과정에서는 응답 속도, 검증의 어려움, 빠른 트렌드 변화, 오픈소스 생태계의 불안정성 등 다양한 문제가 복합적으로 얽혀 있습니다. 아래에서 제시하는 전략들은 이러한 문제들을 직접 해결하는 동시에, AI 에이전트 도입의 본질적인 목적과 조직이 갖추어야 할 기반 역량까지 아우르는 통합적 접근법입니다. 기술적 해결책과 함께 조직 차원의 준비 상태를 점검하는 것이 지속 가능한 성공의 출발점이기 때문입니다.

이러한 관점에서 AI 에이전트 구축에 성공하기 위한 다섯 가지 핵심 전략을 제시하고, Red Hat AI 3을 활용한 구체적인 구현 방안도 함께 소개합니다.

 

1. 작게 시작하고, 빠르게 반복하라

처음부터 완벽한 에이전틱 AI를 목표로 하기보다는, 명확하고 좁은 범위의 유스케이스에서 시작하는 것이 현실적입니다. 예를 들어, 전사적 지식 관리 시스템 대신 RAG 기술 기반의 특정 부서 FAQ 봇부터 시작하고, 성과를 검증한 후 점진적으로 확장해 나가는 접근이 효과적입니다.

MVP(Minimum Viable Product) 관점에서 2-4주 단위의 빠른 개발 사이클을 유지하고, 실제 사용자 피드백을 기반으로 개선해 나가야 합니다. 완벽한 AI를 기다리기보다는, 현재 가능한 수준의 AI로 가치를 창출하면서 점진적으로 고도화하는 전략이 필요합니다.

Red Hat AI 3은 이러한 애자일 방식의 점진적 접근에 최적화된 구조를 갖추고 있습니다. Red Hat AI 3은 RHAIIS 3(Red Hat AI Inference Server 3), RHEL AI 3(Red Hat Enterprise Linux AI 3), RHOAI 3(Red Hat OpenShift AI 3)로 구성되어 있어 조직의 성숙도와 요구사항에 맞게 단계적으로 도입할 수 있습니다. 먼저 빠른 프로토타이핑이 필요한 경우 경량화된 추론 서버인 RHAIIS 3로 시작할 수 있습니다. 이후 자체 데이터로 모델을 파인튜닝하거나 학습이 필요해지면 RHEL AI 3로 확장하고, 데이터 사이언스 워크플로우와 MLOps를 결합한 엔터프라이즈급 AI 서비스가 필요한 단계에서는 RHOAI 3를 도입할 수 있습니다. 이처럼 Red Hat AI 3은 초기 도입부터 본격적인 고도화까지 각 단계에 맞는 최적의 솔루션을 제공합니다[21].

[그림1] Red Hat AI 제품군

2. 견고한 평가 체계를 구축하라

AI 에이전트의 품질을 지속적으로 모니터링하고 개선하려면, 체계적인 평가 파이프라인이 필수입니다.

  • 오프라인 평가: 골든 데이터셋을 구축하고, 정기적으로 모델 성능을 벤치마킹합니다. RAGAS, DeepEval 등의 프레임워크를 활용하여 검색 품질(Context Precision, Recall)과 생성 품질(Faithfulness, Answer Relevancy)을 측정합니다.
  • 온라인 평가: 실제 사용자 피드백(thumbs up/down, 명시적 평점)을 수집하고, 암묵적 신호(재질문 빈도, 세션 이탈률)도 분석합니다.
  • LLM-as-a-Judge: 강력한 LLM을 활용하여 AI 출력의 품질을 자동으로 평가하는 방식도 점점 보편화되고 있습니다.

Red Hat OpenShift AI 3은 TrustyAI를 통해 이러한 평가를 자동화할 수 있습니다[22]. TrustyAI는 Red Hat이 주도하는 오픈소스 커뮤니티로, 책임감 있는 AI 개발과 배포를 위한 도구 모음입니다. TrustyAI는 다음과 같은 평가 도구들을 제공합니다:

  • LM-Eval: LLM을 다양한 기준으로 테스트하는 도구입니다. 요약 능력, 유해한 표현 생성 여부, 질의응답 정확도 등을 자동으로 측정합니다. YAML 파일 하나로 평가 작업을 정의하면 나머지는 시스템이 처리합니다.
  • RAGAS: RAG 시스템의 품질을 측정하는 도구입니다. 검색이 얼마나 정확한지, 답변이 질문과 관련 있는지, 사실에 기반한 답변인지 등을 객관적인 수치로 보여줍니다.
  • Llama Stack 통합: Llama Stack 컴포넌트와 프로바이더를 TrustyAI와 함께 활용하여 LLM을 평가하고 작업할 수 있습니다.

이 기능들을 활용하면 모델을 업데이트할 때마다 성능 변화를 빠르게 확인할 수 있습니다. 수동 검토 없이도 품질 저하를 조기에 발견하고 대응할 수 있어, 안정적인 AI 서비스 운영에 도움이 됩니다.

 

3. 사람을 루프에 포함하라 (Human-in-the-Loop)

AI 에이전트는 사람을 대체하는 것이 아니라, 사람의 수행 능력을 향상시키는 방향으로 설계해야 합니다. 연구에 따르면 AI 지원 협업은 작업 완료율을 높이고, 오류를 줄이며, 학습 효과까지 개선합니다[23].

  • 고위험 액션(결제 승인, 계약 체결 등)은 반드시 사람의 확인을 거치도록 합니다.
  • AI가 확신도가 낮은 답변을 생성할 때는 에스컬레이션 경로를 마련합니다.
  • 사용자 피드백을 통해 지속적으로 모델을 파인튜닝하거나 프롬프트를 개선합니다.

Red Hat OpenShift AI 3은 Llama Stack의 네이티브 Human-in-the-Loop 기능을 통해 결제 승인이나 계약 체결 같은 고위험 액션에 대해 도구 호출 전 사람의 승인을 필수화할 수 있으며, 신뢰도 임계값 기반 에스컬레이션으로 AI가 확신이 낮은 응답은 자동으로 사람 검토 큐로 전달합니다. Grafana 모니터링과 Model Registry를 통해 사용자 피드백을 수집하고 모델 성능을 지속적으로 추적하며, 자동화된 재훈련 파이프라인이 새로운 데이터와 피드백을 반영하여 모델을 개선합니다. 이를 통해 AI의 자율성과 사람의 통제 사이에서 안전하고 책임감 있는 균형을 유지할 수 있습니다.

 

4.  하이브리드 아키텍처를 채택하라

클라우드 기반 상용 LLM과 온프레미스 오픈소스 모델을 상황에 맞게 조합하는 하이브리드 전략이 현실적입니다.

  • 민감한 데이터는 온프레미스 또는 프라이빗 클라우드의 오픈소스 모델(Llama, Mistral 등)로 처리하여 데이터 주권을 확보합니다.
  • 복잡한 추론이 필요한 작업은 GPT-4, Claude 등 상용 모델의 API를 활용하여 품질을 보장합니다.
  • 라우팅 레이어를 두어 쿼리 복잡도, 보안 요구사항에 따라 적절한 모델로 요청을 분배합니다.

앞서 살펴본 응답 지연 문제를 해결하기 위해서는 하이브리드 아키텍처 기반의 다층적인 접근이 필요합니다:

  • 추론 엔진 최적화: vLLM의 PagedAttention, Continuous Batching 기술을 활용하여 GPU 메모리 효율성을 극대화하고 처리량을 향상시킵니다.
  • 시맨틱 캐싱(Semantic Caching): 유사한 질문에 대한 응답을 캐싱하여 반복적인 추론 비용을 절감합니다.
  • 모델 경량화: 단순 질의에는 소형 모델(7B 파라미터급)을, 복잡한 추론에는 대형 모델을 사용하는 티어링 전략을 적용합니다.
  • 스트리밍 응답: 전체 응답을 기다리지 않고 토큰 단위로 점진적 출력하여 체감 지연 시간을 단축합니다.

Red Hat OpenShift AI 3은 vLLM 기반의 고성능 추론 서버(RHAIIS 3)를 통해 이러한 최적화를 기본 제공합니다. vLLM의 PagedAttention 기술로 GPU 메모리 활용률을 극대화하고, Continuous Batching으로 동시 요청 처리 성능을 향상시킵니다. 또한 온프레미스 Llama Stack과 vLLM을 통해 민감한 데이터를 안전하게 처리하면서, vLLM Semantic Router로 쿼리 복잡도를 자동 분석하여 간단한 요청은 경량 모델로, 복잡한 추론 작업은 GPT-4/Claude 같은 상용 API로 지능적으로 라우팅합니다. LoRA 어댑터를 활용하면 추가 서빙 리소스 없이 부서별 특화 모델을 제공할 수 있으며, Model Registry와 AI Guardrails로 전체 모델 수명주기를 관리하고 안전성을 보장합니다. 이를 통해 데이터 주권, 비용 효율성, 성능을 동시에 달성하는 실용적인 하이브리드 AI 아키텍처를 구축할 수 있습니다.

 

5. 전문가와 함께 조직 역량과 문화를 함께 키워라

단순한 의지나 기존 보유 기술만으로는 AI 에이전트 도입에 성공할 수 없습니다. AI를 이해하고 활용할 수 있는 조직 역량을 키우고, 실패를 용인하는 실험 문화를 조성해야 합니다.

  • 전문가 참여: 조직 내 AI 비전문가들만으로 추진하기보다, 신뢰할 수 있는 외부 전문가와 협력하여 구축하는 것이 성공 확률을 높입니다.
  • AI 리터러시(Literacy) 교육: 비기술 직군도 AI의 가능성과 한계를 이해할 수 있도록 교육합니다.
  • 크로스펑셔널 팀(Cross Functional Team): AI 엔지니어, 도메인 전문가, 프로덕트 매니저가 긴밀히 협업하는 구조를 만듭니다.
  • 실패 친화적 문화: 빠른 실험과 학습을 장려하고, 실패를 비난하기보다 인사이트로 전환하는 문화를 조성합니다.

에스코어는 Red Hat 제품군 기술지원 분야의 최고 스페셜리스트로서, 안정적인 AI 서비스 구축과 운영에 필수적인 다양한 오픈소스 솔루션에 대한 전문 기술지원을 제공합니다. 숙련된 공인 전문가와 오픈소스 생태계에 대한 깊은 이해를 바탕으로, 에스코어는 차별화된 Red Hat 기술력을 선보입니다. 거버넌스 체계 확립부터 라이선스 및 보안 취약점 관리, 기술지원까지 고객 중심의 원스톱 토털 서비스를 제공하며, RAG와 Agentic AI 구현 노하우를 통해 고객의 진정한 AI 서비스 실현을 지원합니다. 에스코어는 ‘What(무엇을)’에서 ‘How(어떻게)’까지, 고객의 성공적인 서비스 구축을 위한 완전한 솔루션을 제공합니다.

 

 

[표 2] 문제-해결 전략 매핑

 

 

마치며

다시 맥킨지 2025년 AI 현황 보고서로 되돌아보면, AI를 통해 5% 이상의 EBIT(Earnings Before Interest and Tax: 이자 및 법인세 차감 전 이익) 영향을 창출하는 ‘AI 고성과 기업’은 고객 만족 향상, 경쟁 차별화, 수익성, 매출 성장, 시장 점유율 확대 등의 성과를 달성한 것으로 나타났습니다. 또한 고성과 기업일수록 AI 에이전트를 더 정기적으로, 더 다양한 분야에서 활용하고 있다고 응답했습니다. 이는 AI의 조기 도입과 적극적인 활용이 기업 경쟁력과 상관관계가 있음을 시사합니다.

AI 에이전트를 포함한 AI 기술이 발전하고 기업의 역량이 성숙함에 따라, AI의 내재화는 조직의 가치 창출과 경쟁 우위 확보를 위한 핵심 요소가 되고 있습니다. 에이전트 AI를 선제적으로 도입하는 기업이 시장에서 유리한 위치를 선점할 것입니다.

성공적인 에이전트 AI 도입을 위해서는 기술력뿐만 아니라 검증된 파트너와의 협력이 필수적입니다. 99%의 고객이 다시 찾는 에스코어의 오픈소스 서비스와 함께 AI의 무한한 가능성을 경험해보시기 바랍니다.

# References

[1] https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai
[2] https://arxiv.org/html/2510.25445
[3]https://www.samsungsds.com/kr/insights/agentic-ai-the-autonomous-era-of-artificial-intelligence.html
[4] https://www.redhat.com/en/topics/ai/what-is-agentic-ai
[5] https://link.springer.com/article/10.1007/s43681-024-00419-4
[6] https://www.nber.org/papers/w32966
[7] https://github.com/langchain-ai/langchain/pull/33488
[8] https://www.accessnewswire.com/newsroom/en/business-and-professional-services/timing-the-wave-kotaro-shimogori-on-when-to-adopt-emerging-techn-1099475
[9] https://arxiv.org/abs/1604.06963
[10] https://www.ai21.com/knowledge/ai-hallucinations/
[11] https://www.joongang.co.kr/article/25165807
[12] https://eiec.kdi.re.kr/policy/domesticView.do?ac=0000182520
[13] https://www.pwc.com/us/en/services/audit-assurance/library/validating-multi-agent-ai-systems.html
[14] https://glinden.blogspot.com/2006/11/marissa-mayer-at-web-20.html
[15] https://www.conductor.com/academy/page-speed-resources/faq/amazon-page-speed-study/
[16] https://forethought.ai/blog/2025-state-of-ai-in-cx-holiday-report#methodology
[17] https://en.wikipedia.org/wiki/Effort_heuristic
[18] https://fin.ai/research/does-slower-seem-smarter-rethinking-latency-in-ai-agents/
[19] https://www.elastic.co/kr/blog/open-source-llms-guide
[20] https://www.cio.com/article/3522716/오픈소스-생성형-ai에서-주의해야-할-10가지-사항.html
[21] https://docs.redhat.com/en/documentation/red_hat_ai/3
[22] https://docs.redhat.com/en/documentation/red_hat_openshift_ai_self-managed/3.0/html/monitoring_data_science_models/evaluating-large-language-models_monitor
[23] https://arxiv.org/abs/2507.18374

김원섭 프로

김원섭 프로

오픈소스사업부 오픈소스사업팀

Red Hat AI 제품과 Elastic 제품에 기반한 RAG, Agentic AI 프로젝트에 참여하고 있습니다.

연관 아티클

  • Zabbix 이벤트 처리를 Ansible로 자동화
    SW 테크놀로지2026.03.04

    Zabbix 이벤트 처리를 Ansible로 자동화

    자세히 보기
  • 쿠버네티스를 꼭 사용해야 할까?
    2026.02.20

    쿠버네티스를 꼭 사용해야 할까?

    자세히 보기
  • 오픈소스 생태계의 지각 변동:  Redis의 라이선스 전환과 Valkey의 탄생
    SW 테크놀로지2026.02.05

    오픈소스 생태계의 지각 변동: Redis의 라이선스 전환과 Valkey의 탄생

    자세히 보기