본문 바로가기
MONEY

[재테크] 텐베거 포트폴리오 2 : AI 추론 서비스 분야

by petit-bonheur 2026. 2. 23.
반응형

1. AI 추론 서비스 분야의 성장 전망 이유

  • 수익 모델의 전환 (Training to Revenue): 2024~2025년까지는 빅테크들이 모델 학습(Training)을 위해 막대한 자본을 투입했다면, 2026년은 이 모델을 통해 실제 매출을 발생시키는 '추론(Inference)'의 원년입니다. 검색, 챗봇, 자동 번역 등 사용자가 AI를 쓸 때마다 일어나는 연산이 바로 추론이며, 이 사용량 기반의 비즈니스가 폭발하고 있습니다.
  • 추론 경제(Inference Economy)의 형성: 기술이 고도화되면서 동일한 연산에 필요한 전력과 비용이 낮아지고 있습니다. 비용이 저렴해지면 더 많은 기업이 자사 서비스(CRM, ERP 등)에 AI를 기본 탑재하게 되며, 이는 다시 추론 수요를 견인하는 선순환 구조를 만듭니다.
  • 에이전틱 AI(Agentic AI)의 확산: 기존 AI가 단순히 질문에 답했다면, 2026년형 AI 에이전트는 사용자의 목표를 위해 스스로 계획하고 여러 앱을 넘나들며 실행합니다. 이 과정에서 발생하는 연산량은 단순 대화형 AI 대비 수십 배 이상 많아집니다.
  • 엣지 및 온디바이스 AI의 대중화: 모든 데이터를 클라우드로 보내지 않고 스마트폰, PC, 자동차 내부에서 즉각적으로 추론을 수행하는 수요가 늘고 있습니다. 이는 지연 시간(Latency)을 줄이고 보안을 강화하려는 시장의 요구와 맞물려 있습니다.

2. 13개 기업별 수혜 및 추천 이유 분석

김학주 교수님이 언급하신 기업들은 AI 추론을 가능하게 하는 '물리적 토대'를 만드는 곳들입니다.

'추론 서비스에서 가장 중요한 점은 속도, 즉 서비스에 지연이 없는 것이고 그 다음은 전력 소비량이 낮은 것이다.' by 김학주, "텐베거 포트폴리오"

저도 업무를 할 때 Chat GPT나 Gemini같은 AI 서비스를 많이 사용하고 있는데, 조금만 오래 걸리면 정말 화가 납니다... 그 점에서 서비스에 지연이 없어야 한다는 점 공감되는 부분인 것 같습니다. 

분류 성장 전망 이유 수혜 기업
인공지능 추론 인프라 인공지능 가속기(GPU, TPU, NPU 등)의 설계, 시뮬레이션 및 추론 구조 설계를 통해 AI 기술 발전에 필수적인 기반을 제공합니다. 엔비디아(NVDIA), 구글(GOOGL)
데이터센터(HW) 및
네트워크 최적화
데이터센터 부하 경감, 네트워크 병목 제거, 서비스 지연 예방과 같은 효율성 개선 활동 및 저전력 ASIC, SoC 등의 칩 설계를 통해 데이터 처리 능력을 향상시킵니다. 브로드컴(AVGO), AMD,
마벨테크놀로지(MRVL)
데이터센터(SW) 데이터 간 상관관계 분석을 통한 관리, 클라우드 가상화 등의 데이터센터 운영 효율화, 그리고 데이터센터 보안을 담당하여 안정적 운영을 지원합니다. 오라클(ORCL)
데이터 저장 데이터의 접근 속도와 중요도에 따라 '빨리 꺼내야 하는 데이터'와 '그렇지 않아도 되는 데이터'를 구분하여 관리함으로써 전체적 시스템 성능과 비용 효율성을 높입니다. 넷앱(NTAP),
퓨어스토리지(PSTG)
CXL(Compute Express Link) CPU, 메모리 반도체, GPU 등 가속기들은 더 빠르고 효율적으로 연결하는 표준 기술로서, 고성능 컴퓨팅 환경 구축에 필수적입니다. 아스테라 랩(ALAB)
비상전원 및 냉각
(데이터 HW 관리)
예비전원, 액침 냉각(탄화수소), 모듈형 데이터센터와 같이 데이터센터의 안정적인 운영과 효율적인 열 관리를 위한 필수 솔루션을 제공합니다. 버티브(VRT)
SOC 운영체계 하나의 칩 안에 여러 기능을 통합하는 SoC(System on Chip)의 기능을 최적화하여 반도체의 전반적인 성능과 효율을 극대화 합니다. 아리스타 네트웍스(ANET)
클라우드 가상화 가벼운 VM(가상 머신)과 컨테이너의 조합 및 통합 관리 기술을 통해 클라우드 환경의 유연성과 자원 활용 효율성을 높입니다. 오라클(ORCL),
클라우드플레어(Cloud Flair)
엣지컴퓨팅 & CDN 로컬 서버 및 로컬 콘텐츠 활용을 통해 데이터 트래픽을 줄이고 고속 처리를 가능하게 하며, 저전력으로 운영되어 효율성을 높입니다. 클라우드플레어(Cloud Flair)

 

3. 관련 산업의 주요 리스크 요인 (Risk Factors)

저는 걱정이 많은 스타일이라, 항상 투자를 하기 전에 리스크 요인이 무엇인지 확인해보려고 하는데요. 아무래도 주가가 항상 오를 수는 없기 때문에 어느정도의 주가 조정은 있을 수 밖에 없는데, 이때 왜 빠지는 지 정확히 이해하지 못 하면 두려움이 가중된다고 생각하기 때문입니다. 어떤 이유로 빠지는지, 또 내가 생각하기에 빠지는 이유가 비이성적이라고 생각된다면 버티기가 가능하다고 생각합니다. 그리고, 만약 내가 생각한 것과 다르게 상황이 흘러간다면, 투자를 계속 고집할 필요가 없겠지요.

  • 텐배거 포트폴리오가 장밋빛 전망을 제시한다면, 투자자로서 반드시 고려해야 할 '현실적인 제약'들도 존재합니다.
  • 수익화 증명의 압박 (ROI Gap): 기업들이 인프라에 쏟아붓는 막대한 자본 지출(Capex) 대비, 실제 AI 서비스로 벌어들이는 매출이 기대에 못 미칠 경우 'AI 거품론'이 재점화될 수 있습니다. 딜로이트 등에 따르면 2026년까지 이 간극을 메우는 것이 시장의 가장 큰 숙제입니다.
  • 에너지 및 전력 수급 문제: AI 추론 서버는 막대한 전력을 소모합니다. 전력망 확충 속도가 데이터센터 건설 속도를 따라가지 못하거나, 환경 규제로 인해 운영 비용이 상승할 경우 관련 기업들의 마진이 하락할 수 있습니다.
  • 공급망 및 지정학적 리스크: 미-중 갈등으로 인한 반도체 수출 규제, 고대역폭 메모리(HBM) 등의 핵심 부품 수급 불균형은 하드웨어 기업들의 성장을 제약하는 고질적인 위험 요소입니다.
  • 기술의 빠른 교체 주기 (Obsolescence): 추론에 특화된 새로운 아키텍처(ASIC, Chiplet 등)가 너무 빠르게 등장하면서, 현재 고가의 장비를 도입한 기업들의 자산 가치가 예상보다 빨리 하락할 위험이 있습니다.

분석 요약


이 포트폴리오의 특징은 'AI 모델'을 만드는 소프트웨어 회사보다, 그 모델이 실제로 돌아가기 위해 반드시 필요한 '인프라와 하드웨어의 병목 해결사'들에 집중했다는 점입니다. 저자는 이들이 실질적인 매출과 현금 흐름을 창출하며 10배의 성장을 이룰 것으로 보고 있습니다. 아래 유튜브 영상이 내용 이해하는데 좀 더 도움이 되실 것 같습니다.

 

https://www.youtube.com/watch?v=bRP3fpIbQzk

 


이 영상은 김학주 교수의 <텐배거 포트폴리오>를 바탕으로 인공지능 시장이 학습에서 추론으로 넘어가는 과정과 그 과정에서 어떤 기업들이 실질적인 수익을 창출하는지 상세히 설명하고 있습니다.

 

*출처 : 텐배거 포트폴리오, 딜로이트(Deloitte) 2026 TMT 예측 보고서 (AI 추론 시장 비중 확대 전망), 골드만삭스 및 팩트셋(FactSet) 2026 반도체 매출 및 인프라 투자 전망 데이터

 

반응형

소개 및 문의 · 개인정보처리방침 · 면책조항

© 2026 블로그 이름