1. AI 추론 서비스 분야의 성장 전망 이유
- 수익 모델의 전환 (Training to Revenue): 2024~2025년까지는 빅테크들이 모델 학습(Training)을 위해 막대한 자본을 투입했다면, 2026년은 이 모델을 통해 실제 매출을 발생시키는 '추론(Inference)'의 원년입니다. 검색, 챗봇, 자동 번역 등 사용자가 AI를 쓸 때마다 일어나는 연산이 바로 추론이며, 이 사용량 기반의 비즈니스가 폭발하고 있습니다.
- 추론 경제(Inference Economy)의 형성: 기술이 고도화되면서 동일한 연산에 필요한 전력과 비용이 낮아지고 있습니다. 비용이 저렴해지면 더 많은 기업이 자사 서비스(CRM, ERP 등)에 AI를 기본 탑재하게 되며, 이는 다시 추론 수요를 견인하는 선순환 구조를 만듭니다.
- 에이전틱 AI(Agentic AI)의 확산: 기존 AI가 단순히 질문에 답했다면, 2026년형 AI 에이전트는 사용자의 목표를 위해 스스로 계획하고 여러 앱을 넘나들며 실행합니다. 이 과정에서 발생하는 연산량은 단순 대화형 AI 대비 수십 배 이상 많아집니다.
- 엣지 및 온디바이스 AI의 대중화: 모든 데이터를 클라우드로 보내지 않고 스마트폰, PC, 자동차 내부에서 즉각적으로 추론을 수행하는 수요가 늘고 있습니다. 이는 지연 시간(Latency)을 줄이고 보안을 강화하려는 시장의 요구와 맞물려 있습니다.

2. 13개 기업별 수혜 및 추천 이유 분석
김학주 교수님이 언급하신 기업들은 AI 추론을 가능하게 하는 '물리적 토대'를 만드는 곳들입니다.
'추론 서비스에서 가장 중요한 점은 속도, 즉 서비스에 지연이 없는 것이고 그 다음은 전력 소비량이 낮은 것이다.' by 김학주, "텐베거 포트폴리오"
저도 업무를 할 때 Chat GPT나 Gemini같은 AI 서비스를 많이 사용하고 있는데, 조금만 오래 걸리면 정말 화가 납니다... 그 점에서 서비스에 지연이 없어야 한다는 점 공감되는 부분인 것 같습니다.
| 분류 | 성장 전망 이유 | 수혜 기업 |
| 인공지능 추론 인프라 | 인공지능 가속기(GPU, TPU, NPU 등)의 설계, 시뮬레이션 및 추론 구조 설계를 통해 AI 기술 발전에 필수적인 기반을 제공합니다. | 엔비디아(NVDIA), 구글(GOOGL) |
| 데이터센터(HW) 및 네트워크 최적화 |
데이터센터 부하 경감, 네트워크 병목 제거, 서비스 지연 예방과 같은 효율성 개선 활동 및 저전력 ASIC, SoC 등의 칩 설계를 통해 데이터 처리 능력을 향상시킵니다. | 브로드컴(AVGO), AMD, 마벨테크놀로지(MRVL) |
| 데이터센터(SW) | 데이터 간 상관관계 분석을 통한 관리, 클라우드 가상화 등의 데이터센터 운영 효율화, 그리고 데이터센터 보안을 담당하여 안정적 운영을 지원합니다. | 오라클(ORCL) |
| 데이터 저장 | 데이터의 접근 속도와 중요도에 따라 '빨리 꺼내야 하는 데이터'와 '그렇지 않아도 되는 데이터'를 구분하여 관리함으로써 전체적 시스템 성능과 비용 효율성을 높입니다. | 넷앱(NTAP), 퓨어스토리지(PSTG) |
| CXL(Compute Express Link) | CPU, 메모리 반도체, GPU 등 가속기들은 더 빠르고 효율적으로 연결하는 표준 기술로서, 고성능 컴퓨팅 환경 구축에 필수적입니다. | 아스테라 랩(ALAB) |
| 비상전원 및 냉각 (데이터 HW 관리) |
예비전원, 액침 냉각(탄화수소), 모듈형 데이터센터와 같이 데이터센터의 안정적인 운영과 효율적인 열 관리를 위한 필수 솔루션을 제공합니다. | 버티브(VRT) |
| SOC 운영체계 | 하나의 칩 안에 여러 기능을 통합하는 SoC(System on Chip)의 기능을 최적화하여 반도체의 전반적인 성능과 효율을 극대화 합니다. | 아리스타 네트웍스(ANET) |
| 클라우드 가상화 | 가벼운 VM(가상 머신)과 컨테이너의 조합 및 통합 관리 기술을 통해 클라우드 환경의 유연성과 자원 활용 효율성을 높입니다. | 오라클(ORCL), 클라우드플레어(Cloud Flair) |
| 엣지컴퓨팅 & CDN | 로컬 서버 및 로컬 콘텐츠 활용을 통해 데이터 트래픽을 줄이고 고속 처리를 가능하게 하며, 저전력으로 운영되어 효율성을 높입니다. | 클라우드플레어(Cloud Flair) |
3. 관련 산업의 주요 리스크 요인 (Risk Factors)
저는 걱정이 많은 스타일이라, 항상 투자를 하기 전에 리스크 요인이 무엇인지 확인해보려고 하는데요. 아무래도 주가가 항상 오를 수는 없기 때문에 어느정도의 주가 조정은 있을 수 밖에 없는데, 이때 왜 빠지는 지 정확히 이해하지 못 하면 두려움이 가중된다고 생각하기 때문입니다. 어떤 이유로 빠지는지, 또 내가 생각하기에 빠지는 이유가 비이성적이라고 생각된다면 버티기가 가능하다고 생각합니다. 그리고, 만약 내가 생각한 것과 다르게 상황이 흘러간다면, 투자를 계속 고집할 필요가 없겠지요.
- 텐배거 포트폴리오가 장밋빛 전망을 제시한다면, 투자자로서 반드시 고려해야 할 '현실적인 제약'들도 존재합니다.
- 수익화 증명의 압박 (ROI Gap): 기업들이 인프라에 쏟아붓는 막대한 자본 지출(Capex) 대비, 실제 AI 서비스로 벌어들이는 매출이 기대에 못 미칠 경우 'AI 거품론'이 재점화될 수 있습니다. 딜로이트 등에 따르면 2026년까지 이 간극을 메우는 것이 시장의 가장 큰 숙제입니다.
- 에너지 및 전력 수급 문제: AI 추론 서버는 막대한 전력을 소모합니다. 전력망 확충 속도가 데이터센터 건설 속도를 따라가지 못하거나, 환경 규제로 인해 운영 비용이 상승할 경우 관련 기업들의 마진이 하락할 수 있습니다.
- 공급망 및 지정학적 리스크: 미-중 갈등으로 인한 반도체 수출 규제, 고대역폭 메모리(HBM) 등의 핵심 부품 수급 불균형은 하드웨어 기업들의 성장을 제약하는 고질적인 위험 요소입니다.
- 기술의 빠른 교체 주기 (Obsolescence): 추론에 특화된 새로운 아키텍처(ASIC, Chiplet 등)가 너무 빠르게 등장하면서, 현재 고가의 장비를 도입한 기업들의 자산 가치가 예상보다 빨리 하락할 위험이 있습니다.
분석 요약
이 포트폴리오의 특징은 'AI 모델'을 만드는 소프트웨어 회사보다, 그 모델이 실제로 돌아가기 위해 반드시 필요한 '인프라와 하드웨어의 병목 해결사'들에 집중했다는 점입니다. 저자는 이들이 실질적인 매출과 현금 흐름을 창출하며 10배의 성장을 이룰 것으로 보고 있습니다. 아래 유튜브 영상이 내용 이해하는데 좀 더 도움이 되실 것 같습니다.
https://www.youtube.com/watch?v=bRP3fpIbQzk
이 영상은 김학주 교수의 <텐배거 포트폴리오>를 바탕으로 인공지능 시장이 학습에서 추론으로 넘어가는 과정과 그 과정에서 어떤 기업들이 실질적인 수익을 창출하는지 상세히 설명하고 있습니다.
*출처 : 텐배거 포트폴리오, 딜로이트(Deloitte) 2026 TMT 예측 보고서 (AI 추론 시장 비중 확대 전망), 골드만삭스 및 팩트셋(FactSet) 2026 반도체 매출 및 인프라 투자 전망 데이터
'MONEY' 카테고리의 다른 글
| [재테크] 텐베거 포트폴리오 3-2 : AI 인프라와 에너지 관련주 분석 (어떤 기업이 수혜를 받을 것인가?) (1) | 2026.02.24 |
|---|---|
| [재테크] 텐베거 포트폴리오 3-1 : AI 인프라와 에너지 _ 트렌드 및 리스크 (0) | 2026.02.24 |
| [재테크] 텐베거 포트폴리오 1-2 : 인공지능 관련주 실적흐름 및 재무지표 (feat. Google, 엔비디아, AMD) (0) | 2026.02.23 |
| [재테크] 텐베거 포트폴리오 1-1 : 인공지능 관련주 (feat. Google, 엔비디아, AMD) (0) | 2026.02.21 |
| [재테크] '텐베거 포트폴리오' 를 읽고... (0) | 2026.02.20 |