DeepSeek V3 및 R1 등 '저비용 고기능' AI 모델의 등장은 고성능 GPU에 대한 수요 감소로 비춰질 수 있습니다. 하지만 오히려 엔비디아에게 새로운 도약의 기회를 제공할 수도 있지 않을까 합니다. 그리고 실제로 V3 및 R1 출시 이후 많은 지역(region)에서 H100에 대한 AWS GPU 가격이 상승했습니다. H200도 마찬가지입니다. H200은 H100 대비 더 많은 메모리를 가지고 있기 때문에 거의 모든 곳에서 재고가 거의 없는 실정이라고 알려집니다. 이러한 흐름은 이전 몇 달 동안 H100 현물 가격이 부진했던 것과는 달라진 흐름입니다. 이는 DeepSeek 충격파를 받은 시장의 반응과는 사뭇 다른 지표입니다. 더 저렴한 가격에 더 많은 지능은 더 많은 수요를 방증한다고 볼 수 있습니다.
그리고 DeepSeek R1으로부터 지식 증류된 모델의 숫자가 늘어날수록, AI 생태계의 시장규모 자체를 빠르게 확장할 수 있습니다. 즉, 생성 AI가 전방면으로 침투하게 되면서 비로소 대중화 물결이 이는 것이라고 생각합니다. 이것은 곧 '제본스의 역설'로 설명될 수 있습니다. 제본스의 역설은 1865년, 영국의 경제학자 윌리엄 제본스가 석탄 사용의 효율성 증가가 예상된 감소가 아닌 오히려 소비 증가로 이어진 이유를 설명한 데서 시작된 이론입니다. 그는 향상된 효율성이 비용을 낮추어 더 넓은 범위의 산업에서 수요가 증가했다고 설명했습니다. AI도 마찬가지일 수 있습니다. DeepSeek로 말미암아 컴퓨팅 자원 사용의 효율성이 향상되더라도, 그 자원에 대한 수요가 더욱 증가하여 결과적으로 사용량이 오히려 증가하는 현상일 수 있다는 말입니다.
앞으로 더 많은 AI 서비스들이 대중화될 수 있고, 이것은 곧 진정한 의미의 AI 시대를 의미하게 될 것입니다. 마이크로소프트 CEO 사티아 나델라 또한 AI에서 제본스의 역설을 강조하며, AI가 더 효율적이고 접근 가능해짐에 따라 사용량이 급증하여 끊임없이 수요가 증가하는 필수 상품으로 변모할 것이라고 역설했습니다.
이와 관련해, 구글 딥마인드의 한 연구 과학자는 "DeepSeek R1 같은 모델이 박사 과정 학생처럼 컴퓨팅 자원이 제한된 사람들에게 흥미로운 기회를 제공할 것"이라고 말했습니다. 전 세계 수천 개의 기업/기관/대학이 AI가 도입된 프로젝트들을 더 많이 수행하고 그 연구들의 ROI(투자수익률)를 확인하게 되면, 컴퓨팅 자원에 대한 수요가 증가할까요, 감소할까요? 사실 이와 관련한 최신의 사례는 이미 있습니다.
Stable Diffusion을 오픈 소스로 출시한 이후, "더 작고 빠르며 더 나은 버전의 폐쇄 이미지 모델이 클라우드의 모든 GPU 용량을 완전히 소진시켰다"라고 창업자 Emad Mostaque는 최근 밝힌 바 있습니다. 그는 R1의 출현이, 되려 엔비디아에게는 상승 요인이라고 말한 것입니다. 그리고 이전 장에서 살펴보았듯, DeepSeek는 역사적으로 엔비디아의 대규모 고객이었던 회사였습니다.
제본스 역설에 대해서 하나 생각해 봐야 할 흥미로운 지점이 있습니다. 올해 6월 일부 지역에서 Robotaxi 사업을 시작하는 것을 목표로 하고 있다는 테슬라는 작년에 AI 훈련 컴퓨팅을 400% 이상 늘렸습니다. 이 흐름은 올해도 지속될 가능성이 높은데, 만약 DeepSeek의 효율성을 접목하게 된다면 어떻게 될까요?
테슬라의 FSD도 결국 트랜스포머 기반입니다. 따라서, R1이 제시한 여러가지 엔지니어링 기법이 FSD 알고리즘의 추가적인 최적화로 이어질 수 있고, 더 높은 수준의 자율주행 성능, 더 많은 FSD 서비스 채택으로 이어질 가능성이 있습니다. 이것은 세상에 없던 새로운 시장이 열리는 것이기 때문에 차원이 다른 수준의 AI 인프라 수요를 불러일으킬 수 있습니다.
그래서 우리 팀은 제본스의 역설의 발생 가능성은 실제로 높을 것이라 판단합니다. 단순히 현재의 챗봇의 영역 말고도, 자율주행이나 더 나아가 로보틱스와 같이 더 거대한 영역에서의 AI 혁명이 발생할 때의 파급력까지 감안하면 그렇기 때문입니다. 이에 필요한 컴퓨팅 양은 일반 상식을 뛰어넘을 정도로 막대할 수 있습니다.
결국 문제는 어떤 것이 훨씬 저렴해졌을 때, 그것을 사람들이 얼마나 더 원하는가 하는 것입니다. 예를 들어 집에 베개가 여러 개 있는데, 내일 모든 베개가 반값으로 할인 판매된다고 해도 베개를 더 살 사람은 없을 것입니다. 가격이 어떻든 내 삶에 꼭 더 필요한 것은 아니기 때문입니다. 하지만 만약 꽃등심이 전반적으로 할인 판매된다면, 아마 그 날은 많은 사람들 때문에 마트 계산대에 오래 서 있어야 할 것입니다. 경제학 용어로 가격 탄력성(Price Elasticity)이라고 합니다. 베개와 꽃등심 사이에서 '지능의 가격 탄력성'은 어디에 위치할까요, 베개보다는 꽃등심 아닐까요?
DeepSeek의 R1이나 OpenAI의 o1 모델 같은 reasoning model(추론 모델)은 앞으로의 패러다임이고 이미 주류가 됐습니다. 구글과 앤트로픽, 그리고 메타도 이 추론 모델의 패러다임에 선봉에 서려고 부단히 노력 중입니다. 이 모델들은 이전 모델과는 달리 더 많은 상당한 수의 엔비디아 GPU와 고성능 네트워킹이 필요해지게 됩니다. 왜냐면 이제는 사전훈련(pre-training), 사후훈련(post-training)과 더불어 'Test-Time 스케일링'이라는 세 가지 스케일링 법칙이 존재하는 시대이기 때문입니다.
DeepSeek의 이전 패러다임 모델인 V3로부터 현재 패러다임 모델인 R1을 만들기 위해서는, 합성 데이터를 대량으로 생성해야 하고 또 이를 기반으로 강화학습을 해야 합니다. 여기에는 상당한 양의 컴퓨팅이 필요합니다.
예를 들어 OpenAI에 재직 중인 익명의 유저가 레딧에 최근 남긴 글에 따르면, (고품질의) 합성 데이터 생성에만 3개월이 소요되었다고 했습니다. 만약에, OpenAI가 엔비디아 Hopper 시리즈 GPU 10만 개를 시간당 3달러에 임대한다고 가정하고, 3개월(2,160시간) 동안의 GPU-hours를 사용했다고 계산해보면, 이 작업에만 약 6.5억 달러가 소모되는 일이 됩니다. 또한 이러한 현상을 완벽하게 설명하는 글로, AI 업계 1티어 인플루언서인 안드레 카파시가 DeepSeek R1에 대해 남긴 의견을 공유하면 좋을 것 같습니다.
새 알고리즘과 혁신을 위한 전체 실험 과정에서도 계산 능력은 결정적인 역할을 합니다. 데이터는 전통적으로 계산과는 별개의 요소로 여겨졌지만, 실제로는 계산을 통해 대량의 데이터를 생성할 수 있고, 둘은 밀접하게 연결돼 있습니다.
안드레 카파시의 말을 곱씹어 보면, 'AI의 핵심 자원이 데이터에서 컴퓨팅 리소스로 이동하고 있다'고 봐도 타당한 해석이지 않을까 합니다. 이제 데이터라는 것도 인간이 아니라 결국 GPU로 만들어질 수 있는 시대이기 때문입니다.
게다가 R1 모델을 대표하는 알고리즘 특징은 'GRPO'입니다. GRPO는 여러 샘플(답변)을 병렬로 생성하고 평가하는 방식이기 때문에 많은 수의 GPU를 동시에 활용해야 최적화가 가능한 방식입니다. R1 훈련 방식이 단순하고 효율성이 높다는 것과 GPU가 앞으로 덜 부족해질 것이라는 말은 동의어가 아닙니다.
GRPO: Group Relative Policy Optimization의 약자로 DeepSeek가 독자 개발한 강화학습 기법. 동일한 질문(prompt)에 대해 여러 개의 답변(response)을 생성하고, 이 답변 그룹 내에서의 상대적인 순위를 매겨 각 답변의 우열을 평가하는 최적화 기법. R1 논문에 따르면, 주어진 prompt에 대해 64개의 다양한 답변을 생성했음. 각 답변의 보상에서 그룹 내 다른 답변 보상의 평균을 빼고, 이를 표준편차로 나누어 정규화(normalize). 이 값을 '상대적 이점(advantage)'이라고 하며, 이는 해당 답변이 다른 답변들에 비해 얼마나 더 좋은지를 나타내는 지표. MCTS와 같은 복잡한 트리 탐색 알고리즘을 사용하지 않는 대신, GRPO 알고리즘을 통해 효율적으로 학습했음.
그리고 R1 논문에서 개인적으로 가장 의문스러웠던 점은 V3 때와는 달리 컴퓨팅 자원이 얼마나 소모되었는지 전혀 언급하지 않았다는 점입니다. 그들이 갑자기 이 중대한 것을 놓쳤을 리 없습니다. 이것은 분명히 의도한 것이고, 보여주고 싶지 않거나 어떤 이유에서인지 보여주지 못하는 것일 수 있습니다. 실상은 V3보다 훨씬 많은 GPU 자원이 R1에 사용되었을 가능성이 높습니다. 추론 모델 개발에는 '대량의 실험'이 필요하기 때문입니다.
따라서 논문에 컴퓨팅 사용량이 빠진 이유에 대해서 쉽게 짐작해보면, (그러면 안 되지만) 그들이 꽤 많은 엔비디아 GPU를 보유하고 있음을 시사합니다. 다리오 아모데이가 쓴 블로그 글은 흥미로운 게 정말 많지만, 그는 특히 "DeepSeek가 보유한 것으로 추정되는 칩 중 상당 부분은 곧 금지될 것으로 예측되는 H20, 금지되기 전에 배송된 H800, 그리고 밀수되었을 가능성이 매우 높은 H100으로 구성된 것으로 보인다"라고 말한 게 '킥'이었습니다. 참고로, H100 칩은 애초에 출시 때부터 수출 금지 품목이었으니, 그들이 이 칩을 사용했다면 불법적인 경로를 통해 획득했다는 말입니다.
엔비디아 Hopper 시리즈 | H20 | H100 |
---|---|---|
엔비디아 Hopper 시리즈 FP8/INT8 Tensor | H20 296 TFLOPS | H100 1979 TFLOPS |
엔비디아 Hopper 시리즈 성능 밀도 | H20 2.9 | H100 19.4 |
엔비디아 Hopper 시리즈 전력 소비(TDP) | H20 400W | H100 700W |
엔비디아 Hopper 시리즈 NVLink 대역폭 | H20 900 GB/s | H100 900 GB/s |
엔비디아 Hopper 시리즈 메모리 용량 | H20 96GB HBM3 | H100 80GB HBM3 |
엔비디아 Hopper 시리즈 메모리 대역폭 | H20 4.0 TB/s | H100 3.4 TB/s |
자료: 미래에셋증권 리서치센터
이어서 아모데이는 중국의 최고 AI 칩이라 할 수 있는 화웨이의 Ascend 시리즈는 엔비디아 GPU보다 성능이 훨씬 떨어지고, 중국 외부에 주목할 만한 Ascend 칩 클러스터가 단 하나도 없다는 것은 중국이 국내 수요를 충족하는 데 어려움을 겪고 있다는 것임을 강조하기도 했습니다. 중국은 여전히 절실하게 엔비디아 칩을 원하게 된다는 말로 귀결됩니다.
그런데 중국 입장에서 본인의 절실함을 상대방에게 드러내는 것은 트럼프의 저서 『거래의 기술』에 따르면 절대 하지 말아야 할 자세입니다. 그러니 사실 중국 측은 '엔비디아 없이도 괜찮아'라면서, 자체 제작 AI 가속기 대량생산 능력을 홍보해야 하는 게 상책이라고 할 수 있습니다. DeepSeek 때문에 수출 통제가 효과가 없다는 내러티브 형성과 DeepSeek가 GPU 보유 숫자를 공개하지 않는 것도 이런 것의 일환일 수 있습니다. 이와 관련해 팔란티어만큼이나 美국방부의 신임을 받는 AI 무기 시스템 기업 Anduril Industries의 CEO Palmer Luckey는 "DeepSeek이 인상적이긴 하지만, 500만 달러 훈련 비용에 관해서는, 중국 공산당의 선전이 있다"고 공개적으로 말하기도 했습니다.
또한 AI 모델을 훈련(사후훈련 포함)하는 것뿐만 아니라, 한 번 훈련된 모델을 가지고 추론(inference)하는 데에 훨씬 더 많은 GPU가 필요합니다. 물론 DeepSeek R1이 글로벌 투자자들의 관심을 받게 된 것도 바로 reasoning 모델이기 때문이었습니다.
예를 들어 메타는 Llama 3를 훈련하는 데 1.6만 개의 GPU를 사용했지만, 전체 AI 서비스에는 40만 개 이상의 GPU를 운영 중입니다. 더군다나 DeepSeek R1의 경우, GPU가 부족한 상태로 이 추론 서비스를 하려면 가랑이가 찢어질 지경일 수 있습니다. 실제로 이미 DeepSeek는 정상적으로 서비스를 제공해 주지 못하는 실정입니다. DeepSeek 앱을 다운로드하고 가입하려고 할 때에 "우리는 신규 등록을 받지 않습니다"라고 공지하기도 했습니다. 물론 그들은 악의적인 사이버 공격 때문이라고 했지만, 사실 모델을 제공할 충분한 컴퓨팅 자원이 없기 때문일 것이라 판단합니다.
따라서 DeepSeek의 출현 이후에 엔비디아를 포함한 AI 인프라 기업들이 급락한 이유에는 사실 고개가 갸우뚱해집니다. DeepSeek R1의 등장이 엔비디아에 불확실성을 안겨준 것은 맞지만, '위기'라는 분석은 다소 근시안적이라고 주장하고 싶습니다. 다리오 아모데이는 R1 때문에 엔비디아 주가가 17% 하락한 것은 '당황스러운 일'이라고까지 말했습니다. DeepSeek의 빠른 도약과 관련해 그는 지난 1월 다보스 포럼에서 놀라운 주장을 했습니다.
2026년에는 수백 만 개, 2027년에는 잠재적으로 수천 만 개의 칩이 사용될 것으로 예상합니다. 새로운 종류의 강화학습 스케일링과 함께 패러다임이 전환되고 있습니다. 모든 회사가 이것을 하고 있죠. 현재의 초기 국면에는 엄청난 양의 컴퓨팅 없이도 강력한 모델을 만드는 것이 가능합니다. 동시에 중국은 수만 개의 칩을 밀수할 수 있었습니다. 미국의 대중 수출 통제의 핵심은 중국이 현재 수만 개의 칩을 보유하는 것을 막고자 하는 게 아니라, 수십 만, 수백 만 개의 칩을 보유하는 것을 막는 것입니다. (이 정도 큰 금액은 중국이 밀수 행위를 숨기기 어려울 것) 만약 그들이 그렇게 한다면, 우리는 동등한 수준이 되거나 그들이 앞서 나갈 수도 있습니다. 물론, 사전 훈련의 스케일링 법칙도 계속되고 있다고 생각합니다만, 이제는 두 가지 소스가 있는 거죠. 그래서 스케일링 법칙의 트렌드는 더 견고해졌고, 멈추기가 더 어려워졌습니다.
즉, 현재는 적은 컴퓨팅으로도 좋은 모델을 만들 수 있지만, 미래의 AI 패권을 위해서는 여전히 압도적인 컴퓨팅 파워가 필수적이라는 맥락입니다. ChinaTalk에 따르면, 심지어 중국 기술 리더들도 "DeepSeek R1은 중국의 승리를 의미하지는 않으며 미중 간 경쟁이 장기적 성격을 띠고, 고비용 구조임을 강조해야 하는 상황"이라고 말했다고 합니다. 즉, 스케일링이 필요한 것은 중국도 알고 있고 AI에 관한 투자 비용이 앞으로 더 많을 것이라는 이야기입니다.
ChinaTalk은 Jordan Schneider가 운영하는, 중국의 기술 및 미중 관계를 전문적으로 다루는 영향력 있는 뉴스레터 및 팟캐스트 플랫폼. 포춘 500대 기업의 임원진, 세계 최대 국부펀드, 헤지펀드 매니저들이 주요 독자층. 미국 정부 고위 관료, 의회 스태프, 정책 입안자들이 구독하며 중국 관련 정책 결정에 참고함. Jordan Schneider는 2017년부터 ChinaTalk이라는 뉴스레터와 팟캐스트를 운영. 현재 미국의 싱크탱크 CNAS(Center for a New American Security)의 연구원
한편 지난 AI Weekly에서 작성한 대로 량원펑 CEO는 리창 총리가 배석한 정부보고좌담회에 참석한 유일한 AGI 모델 제작자였습니다. 참고로 그 회의의 성격은 '최고 지도자가 업계 리더로부터 배운다'는 설정의 업무 보고 자리였습니다. 공산당의 총애를 받을 DeepSeek는 앞으로 더 좋은 모델 훈련을 위해 더 높은 품질의 데이터를 제공받을 가능성도 있다고 봅니다. 중국 정부 및 수많은 국영기관들은 꽤 많은 데이터를 보유하고 있기 때문에 이는 중대한 변화일 수 있습니다. 또한 데이터 전 처리 비용 측면에서도 중국 개인 정보보호법 처리가 미국보다 '유연'한 덕분에 개인 정보를 지우고 입력하는 등의 데이터 탈감(민감정보 비식별화) 처리 비용이 미국과 비교가 되지 않을 정도로 저렴할 것으로 예측됩니다.
그러나 더 중요한 것은 해당 좌담회 자리에서 량원펑이 한 말입니다. 그는 "더 많은 칩이 필요하고, 하드웨어가 제약적이며, 수출 통제가 정말 해롭고, 더 많은 칩이 있으면 좋겠다"고 말했다고 합니다.
이후 중국은행은 DeepSeek의 량원펑 CEO와 만난 지 하루 만에 향후 5년 동안 AI 산업 체인에 1,400억 달러(1조 위안)의 보조금을 발표하기도 했습니다. 무엇보다 중국의 국가 최고 지도자의 레이더에 이러한 AI 반도체 문제의 이슈가 더욱 깊숙이 들어갔다는 사실 자체가 중요하고 중국은 칩 확보를 위해 사력을 다할 것입니다. 만약 중국의 생각대로 그들이 AI 칩 생산 능력을 잘 확보한다면, AI 군비 경쟁은 미국과 중국의 진영 싸움(G7 vs BRICS)의 '다극 체제'로 형성됩니다. 이 경우 엔비디아나 OpenAI를 포함한 '미국계' AI 기업들의 글로벌 시장 파이는 현재까지의 미국 AI 주도의 '단극 체제'에 비해 절반 이하로 줄어들 리스크가 있습니다.
그러나 중국의 희망과는 달리 미국은 고삐를 더 쥐고 있는 상황입니다. 바이든 정부는 백악관을 비우기 직전 지난 1월 대중 규제를 추가로 발표했습니다. 이 규제는 세 개의 국가 등급으로 나눠, AI 칩 수출 통제 정책을 강경하게 하겠다는 것입니다. 1등급의 경우 AI 칩 수입에 제한이 전혀 없고 완전한 접근 권한을 보유하게 됩니다. 다행히 대한민국은 이 등급에 속합니다. 그리고 3등급에 속한 나라는 모든 고급 AI 칩에 관한 수입이 원천 금지됩니다.
1등급 | 2등급 | 3등급 |
---|---|---|
1등급 호주 | 2등급 브라질 | 3등급 중국 |
1등급 벨기에 | 2등급 인도 | 3등급 러시아 |
1등급 캐나다 | 2등급 이스라엘 | 3등급 아프가니스탄 |
1등급 덴마크 | 2등급 말레이시아 | 3등급 벨라루스 |
1등급 핀란드 | 2등급 싱가포르 | 3등급 미얀마 |
1등급 프랑스 | 2등급 스위스 | 3등급 캄보디아 |
1등급 독일 | 2등급 오스트리아 | 3등급 중앙아프리카공화국 |
1등급 아일랜드 | 2등급 체코 | 3등급 콩고 |
1등급 이탈리아 | 2등급 그리스 | 3등급 쿠바 |
1등급 일본 | 2등급 인도네시아 | 3등급 에리트레아 |
1등급 네덜란드 | 2등급 케냐 | 3등급 아이티 |
1등급 뉴질랜드 | 2등급 룩셈부르크 | 3등급 이란 |
1등급 노르웨이 | 2등급 멕시코 | 3등급 이라크 |
1등급 대한민국 | 2등급 모나코 | 3등급 레바논 |
1등급 스페인 | 2등급 - | 3등급 리비아 |
자료: Data Gravity, 미래에셋증권 리서치센터
주: TPP는 Total Processing Performance의 약자. 엔비디아 GPU와 같은 AI 칩들의 TFLOPS 성능에다가 비트길이를 곱한 값이 특정 TPP를 넘으면 규제 대상으로 잡히게 됨.
재밌는 것은 둘 사이에 속해 있는 2등급 나라들에 대한 것입니다. 이 국가들은 1,700개의 GPU까지는 라이선스 없이 구매가 가능합니다. 그리고 국가별 총 한도가 있는데 5만 개의 GPU, 정부 간 협약으로 10만 개의 GPU까지 쿼터제를 확장할 수 있습니다. 또한 NVEU라고 하는 '국가적으로 인증된 엔드유저 자격'을 획득하게 되면 32만 개까지 이를 늘릴 수 있기는 합니다. 그래도 Stargate 프로젝트가 목표로 하는 것처럼 '100만 개의 GPU'에는 미치지 못합니다. 흥미로운 점은 바로 이 2등급에 인도와 싱가포르, 그리고 말레이시아가 속한 것입니다. 짚고 넘어가야 할 부분은 싱가포르는 엔비디아 매출의 20%를 차지했던 나라입니다. 이 부분은 물론 엔비디아에게 타격으로 꼽힐 수 있는 지점입니다.
하지만 엔비디아를 금지옥엽으로 생각하는 미국 정부가 이렇게 한 데에는, 더 중요한 맥락이 따로 있습니다. 중국이 GPU를 우회 수입한 것으로 판단하고, 이러한 밀수(smuggling) 행태를 막으려고 매우 적극적이라는 것을 명시하기 때문입니다. 대부분의 대규모 밀수가 싱가포르와 말레이시아의 회사를 거쳐 발생한다고 미국 정부는 판단하고 있는 것입니다.
실제로 중국 회사들이 미국의 클라우드 사업자들의 해외 데이터센터(주로 동남아와 인도)로부터 GPU를 임대하는 것이 믿을 수 없을 정도로 쉽다고 합니다. GPU가 아니라 LPU라는 것을 표방하며 유명해진 AI 가속기 업체 Groq의 CEO 조나단 로스는 "GPU 수출 통제가 효과가 없는 것은, 중국 기업들이 미국 클라우드 제공업체에 로그인해서 GPU를 대여할 수 있기 때문"이라고 말했습니다.
이와 관련해, SemiAnalysis의 연구에 따르면 오라클의 가장 큰 GPU 고객이 바이트댄스이고, 구글도 그들이 두 번째 큰 고객이라고 합니다. 오라클과 구글과 같은 하이퍼스케일러 뿐만 아니라, 중국 업체들이 접근할 수 있는 소규모 클라우드 회사의 목록은 수십 개가 넘어갑니다. 이는 얼마 전 생겨난 이 규제 이전까지는 완전히 합법적이었습니다. 그러나 이제는 사실상 '이 나라에서는 이만큼의 GPU만 구입할 수 있고요, 중국 회사들이라면... 다른 나라의 클라우드에서 임대해서 쓰세요. 물론 그것도 제한적이지만요!'라는 뜻으로 쉽게 이해할 수 있습니다.
그리고 '트럼프 2.0' 시대의 미국은 이러한 강경함에 있어서 더 기어를 올릴 것으로 판단합니다. 이번에 상무부 장관으로 지명된 하워드 러트닉은 미 의회 인준 청문회에 자리에서 이렇게 말했습니다.
DeepSeek가 모두 정당하게 이루어졌다고 믿지 않습니다. 말도 안 됩니다. 그들은 우리에게 침입했고, 우리의 IP를 훔쳐갔습니다. 엔비디아 칩은 DeepSeek 모델을 구동합니다. 그것은 끝나야 합니다. 미국이 선두를 유지하기 위해, 제한을 추구하고 시행하는 데 강경히 나설 것입니다.
이처럼 미국 정치 및 정부 관료들이 점점 더 엔비디아의 비즈니스에 관여를 하는 듯한 발언을 하고 있습니다. 이는 AI가 냉전 시대를 만들고 있기 때문이고, 現 국면의 가장 중대한 전략 자원이 GPU이기 때문입니다. 그리고 현재로서는 딱히 대안도 별로 없다는 게 AI 개발자들의 시각입니다. 투자자가 아니라 실제로 GPU를 필요로 하는 사람들의 말에 더 귀 기울이는 게 진짜 수요를 짐작하는 데 의미가 있을 것으로 사료됩니다.
이와 관련해 AI 개발자이자 유명한 AI 관련 뉴스레터인 Interconnects를 운영하는 Nathan Lambert는 "NVIDIA는 현재 모든 것을 안정적으로 수행하는 유일한 회사"라고 렉스 프리드만의 팟캐스트에서 말했습니다. 그와 동석한 Dylan Patel(SemiAnalysis 편집장)은 "AMD의 하드웨어가 여러 면에서 엔비디아보다 나은 부분도 있습니다. 문제는 그들의 소프트웨어가 정말 나쁘다는 것입니다. 격차가 너무 크고 (심지어) AMD는 거기에 충분한 자원을 소비하지 않고 있습니다"라고 말했습니다.
그리고 오픈소스 진영의 유명한 천재 개발자인 Gerge Hotz 또한 "AMD 칩은 이론적으로는 AI 작업에 활용될 수 있는 큰 잠재력을 가지고 있지만, AMD가 AI 소프트웨어 개발에 충분한 투자를 하지 않았다는 점이 큰 문제입니다. AI 작업에서는 하드웨어의 성능뿐만 아니라 최적화된 소프트웨어 스택이 매우 중요합니다. CUDA와 같은 강력한 소프트웨어 생태계가 없다면, 아무리 뛰어난 하드웨어라도 AI 작업에서 제대로 된 성능을 발휘하기 어렵습니다"라고 말했습니다. 실제로 AMD의 많은 AI 라이브러리들은 기존에 엔비디아가 만들어 놓은 라이브러리를 복제(포크)하고 변환하는 식으로 개발하는 경우가 많습니다. 이 방식은 추론(Inference) 전용으로 특정 모델 구조에 맞출 수는 있지만, 그 외의 다양한 작업에 대해서는 최적화가 전혀 안 돼 성능이 크게 떨어질 수 있습니다. 그래서 빅테크들의 AI 훈련 작업에 AMD의 MI 시리즈의 GPU의 활용이 제한적인 것으로 생각해볼 수 있습니다.
위 개발자들의 말을 종합해보면 엔비디아의 대항마로 보이는 업체가 딱히 보이지 않고, 그나마 AMD의 경우에도 소프트웨어 능력 및 관련 투자 부족 때문에 엔비디아에게는 역부족이라는 말이 됩니다. 참고로 지난 실적 발표 call에서 AMD는 ROCm(CUDA와 대응) 소프트웨어에 대해 '여전히 구체적인 성능 향상이나 고객 확보 사례는 제한적'으로만 언급했습니다.
이처럼 엔비디아가 여전히 이 시장의 선두 주자로서 막대한 수혜를 입기 위해서 지켜야 하는 해자는 하드웨어도 있지만, CUDA라고 불리는 강력한 소프트웨어 생태계가 더 중요하다는 말입니다. DeepSeek R1 역시 CUDA를 기반으로 개발되었으며, 이는 엔비디아 GPU의 지배력이 여전히 공고함을 보여줍니다. 즉 중국 LLM 업체들도 CUDA의 입지가 워낙 공고한 상황이니 이 물에서 놀아야 하는 상황인 셈입니다. 결론적으로 3년 이내 정도의 중기적으로는 제본스의 역설에 따라 더 많은 컴퓨팅 수요의 수혜를 입을 가능성이 높다고 봅니다. 개발자들에게 친숙하고, 강력한 성능을 제공하는 CUDA 덕분에 '저비용 고기능' AI 모델이 등장하더라도 엔비디아 GPU에 대한 수요는 적어도 당분간은 지속될 것이기 때문입니다.
하지만 결국 중국에서 안드로이드 OS에 대한 자국산 대안이 나왔듯, 화웨이같은 업체가 이를 장기적으로는 극복할 가능성도 무시할 수 없습니다. 실제로 화웨이는 PyTorch 프레임워크와 긴밀히 협력하면서 CUDA의 자체 버전을 개발 중입니다.
또한 그것보다도 더 높은 확률의 리스크로 빅테크들의 자체 제작 칩에 관한 개발 노력도 장기적으로는 성과를 얻을 수 있다는 점입니다. 따라서 그러한 장기 리스크들이 도래하기 전에 엔비디아는 '에이전트 AI+옴니버스'의 조합의 자율주행과 로보틱스 영역에서 소프트웨어 사업자로 변모하기 위해 피벗을 계속 시도할 것입니다.
그러한 전략이 성공하면 또 다른 리레이팅으로 이어질 것이고, 실패하면 게이밍 그래픽카드 시절의 밸류에이션에 가깝게 회귀할 확률도 물론 있을 수 있습니다. 전자와 후자의 시나리오 중 어느 쪽이 점차 우세해지는지 매 순간마다 체크해야 할 시점입니다. 물론 우리는 전자의 가능성을 더 높게 염두하고 있습니다.
DeepSeek R1 쇼크 이후, 주식 시장의 반응은 투자자들의 우려를 보여줍니다. 'DeepSeek가 너무 효율적이어서 더 많은 컴퓨팅이 필요하지 않아 AI 인프라 경제가 근본적으로 바뀐다. 수백억 달러로 AI를 훈련하는 건 낭비다'라는 논리입니다. 그러나 이것은 지나치게 사안을 단순화한 내러티브입니다.
Anthropic CEO 다리오 아모데이는 "더 유능한 AI 모델의 경제적 이점이 너무 크기 때문에, 비용 절감액이 더 큰 모델을 구축하고 (아낀 돈을) 신속히 (더 큰 모델 개발에) 재투자합니다"라고 본인의 블로그 글에 힘을 주어 말했습니다. (DeepSeek가 제시한) 향상된 효율성은 전체 AI 투자를 줄이는 것이 아니라 AI 스케일링 노력을 계속 늘린다는 주장입니다. 그의 말에 우리 팀이 동감하는 이유는 AI 모델 개발 경주는 절대 평가가 아닐 것이기 때문입니다. 오히려 남들에게 반드시 이겨야 하는 상대평가에 가깝습니다. 그러니까 향상된 지능 개발에 있어서 목표 지점의 '상단'이라는 것은 있을 수 없다고 생각합니다. '거의 모든 것에서 거의 모든 인간보다 더 똑똑한 AI에 도달할 때', 즉 AGI를 만들 때까지 계속 이러한 경쟁 및 투자는 증가할 것으로 생각합니다. 이와 관련해 AI guru들이 "앞으로 2~3년 안에, 늦어도 트럼프 임기 안에는 이런 시대가 열릴 것"이라면서 그들의 'AGI 타임라인' 전망치를 수정했다는 것을 우리는 이미 살펴본 바 있습니다.
이와 관련해서는 OpenAI가 새로운 자금 조달에 나설 것이라는 이야기가 좋은 예시가 될 것 같습니다. "400억 달러를 조달하고 최대 3,000억 달러의 기업 가치를 평가받는 협상을 진행 중"이라는 WSJ의 보도가 있었습니다. 이는 불과 몇 달 전 OpenAI의 가장 최신의 기업가치였던 1,570억 달러의 밸류에이션에서 거의 두 배가 되는 것을 의미합니다. 이 펀딩 라운드를 주도하는 기관은 SoftBank인데, 150억~250억 달러를 투자할 것으로 논의 중이라고 전해졌습니다. 이러한 투자 규모는 SoftBank가 마이크로소프트를 능가하는 OpenAI 최대 투자자가 될 가능성을 시사하기도 합니다. 손 마사요시는 도쿄에서 이런 말을 했습니다.
1년 전만 해도 AGI는 10년 안으로 올 것이라고 생각했습니다. 그로부터 몇 달 후에는 2-3년 안에 올 것이라고 말했습니다. 하지만 지금은 그보다 더 빨리 올 것이라고 수정하고 싶습니다. 그리고 AGI는 일본에서 '처음으로 발표'될 것이라고도 말씀드리고 싶습니다.
그의 이 같은 주장은 '2년 미만의 근래에 AGI가 OpenAI 손에서 탄생할 것이다'는 예상을 염두하고 집행하는 투자라는 점을 암시합니다. 뿐만 아니라 구글은 OpenAI의 경쟁사인 Anthropic에 10억 달러를 투자할 채비인데, 이것은 이미 투자한 20억 달러에 추가로 투자하는 것입니다. OpenAI, 구글, Anthropic 등이 AGI 개발 경쟁을 하고 있는 와중에 베팅 금액을 늘리는 것은 AGI 쟁취에 있어서 리스크를 분산하고 이익을 극대화하려는 전략이라 할 수 있습니다. 계속해서 더 많은 돈이 미국 내에 돌고 있다는 점은 매우 중요한 사실입니다.
기업 | 주요 AI 모델 | 주력 AI 가속기 | 가속기 보유량 추정 | 비고 |
---|---|---|---|---|
기업
|
주요 AI 모델
|
주력 AI 가속기
|
가속기 보유량 추정
|
비고
|
기업
|
주요 AI 모델
|
주력 AI 가속기
|
가속기 보유량 추정
|
비고
|
기업
|
주요 AI 모델
|
주력 AI 가속기
|
가속기 보유량 추정
|
비고
|
기업
|
주요 AI 모델
|
주력 AI 가속기
|
가속기 보유량 추정
|
비고
|
기업
|
주요 AI 모델
|
주력 AI 가속기
|
가속기 보유량 추정
|
비고
|
기업
|
주요 AI 모델
|
주력 AI 가속기
|
가속기 보유량 추정
|
비고
|
기업
|
주요 AI 모델
|
주력 AI 가속기
|
가속기 보유량 추정
|
비고
|
자료: 각 회사, 미래에셋증권 리서치센터
DeepSeek 때문에 AI 생태계가 급변할 것은 사실이지만, 기존에 선두지위를 갖고 있던 기업들에 대한 시장의 베팅도 여전히 더 커지고 있다는 것을 알아야 합니다. DeepSeek R1의 출현으로 발생한 AI 인프라 회의론도 일리가 있는 면이 있지만, 긍정론에 더 많은 귀를 기울여야 한다고 판단합니다.
우리가 일전에 살펴본 것과 같 컴퓨팅 클러스터의 End-user라고 할 수 있는 AI 개발자들과 실제 업황을 체감하고 있는 반도체 회사들의 발언에 주목하면 DeepSeek의 출현을 더 긍정적으로 생각하고 있는 것 같기 때문입니다. 일례로 반도체 장비 업계의 최강자라고 불리는 ASML의 CEO Christophe Fouquet는 DeepSeek의 영향에 대해 "ASML에게도 좋은 소식입니다. 비용이 낮아지면 AI가 더 많은 애플리케이션에 사용될 수 있고, 더 많은 애플리케이션은 더 많은 칩을 의미합니다."라고 말했습니다.
OpenAI든 Anthropic이든 이들이 자금을 추가로 더 모집한 다음, 사용처는 바로 컴퓨팅 파워를 확보하는 것입니다. DeepSeek 때문에 이제 더 적은 칩과 전력만 필요해질 것이라는 주장을 전면 반박하는 셈입니다. 아모데이는 AGI 시대를 맞이할 준비로, "2023년에 1억 달러, 2024년에는 10억 달러, 그리고 이제 100억 달러, 1,000억 달러가 필요하다"라는 스케일링에 관한 기존의 입장을 재확인했습니다. 이 말은 AI 훈련/추론을 위한 데이터센터 구축 작업이 멈추지 않을 것임을 의미합니다. 이는 빅테크들의 Capex 투자 금액은 당분간 계속 상향될 것이라는 말로 갈음할 수 있습니다.
이와 관련한 가장 급진적인 발표는 역시 Stargate 프로젝트일 것입니다. 지난 1월 21일, 트럼프 대통령은 AI를 구동하기 위한 데이터센터 및 인프라에 5,000억 달러를 투자하겠다는 Stargate 프로젝트를 샘 알트만 CEO와 함께 공개했습니다. Stargate는 2.2GW 규모의 전력을 사용하는 거대한 데이터센터에다가 100만 개 이상의 AI 칩을 탑재하는 프로젝트이고, 2028년 가동을 목표로 합니다. 총비용은 1,000억 달러(140조 원 이상)에 달할 것으로 예상되며 이는 아폴로 우주 프로그램의 총비용과 맞먹는 규모입니다. 참고로 소련이 만들어낸 스푸트니크 때문에 미국의 아폴로 프로젝트가 나왔다는 점을 떠올려보면 역사가 '어떠한 운율에 따라 흘러가는 것'처럼 보이기도 합니다.
흥미로운 점은 DeepSeek가 엔비디아의 시가총액 수백조 원을 날렸던 바로 그 날에 트럼프가 DeepSeek 이야기를 꺼냈다는 점입니다. 더군다나 매우 미국 내부의 국내 행사라고 할 수 있는 공화당 대표 회의에서 감세 및 불법 이민자 추방에 관한 논의 바로 뒤에 DeepSeek를 이야기한 것은 의미하는 바가 큽니다. 트럼프 정부의 핵심 공약들과 '같은 의제 레벨'로 격상했기 때문입니다.
따라서 Stargate 프로젝트가 단순히 과장된 '수사학'에서 그치는 게 아니라, 정말로 발생할 일임을 염두에 두고 한 말이라 추측해 볼 수 있습니다. 물론 OpenAI가 그 프로젝트에 필요한 자금을 모두 조달할 수 있을지 불확실하고 자금 조달 계획이 터무니없다는 지적도 많습니다. 소프트뱅크가 본인이 가진 Arm 지분을 모두 팔아도 쉽지 않다고 할 정도입니다.
하지만 AI 경쟁을 '전시 체제'로 생각한다면 못할 것도 없다고 봅니다. 역사적으로 가장 긴박한 국가 안보 상황이었던 1차 세계대전 동안 미국은 GDP의 20% 이상을 차입했고, 2차 세계대전에는 GDP의 60% 이상을 차입한 전력이 있습니다. 이것은 오늘날 기준으로 '17조 달러'로 치환되는 어마무시한 금액입니다. 그럼에도 AI 인프라 투자가 딸려 중국에게 AI 경쟁에서 밀릴 수도 있는 미래의 리스크 비용을 생각해본다면, 오히려 '싸게 먹힌다'고 생각할 수도 있지 않을까요?
전설적인 헤지펀드 투자자 스탠리 드러큰밀러는 미국의 새로운 대통령에 대해서 "내 생애, 가장 비즈니스에 비판적인 행정부에서 정권을 이양 받은 가장 비즈니스에 찬성하는 행정부"라고 칭했습니다. 드러큰밀러는 트럼프가 비즈니스 친화적인 정책을 펼칠 것임에 따라 미국에 수조 달러의 새로운 투자가 들어올 것임을 내포한 것입니다. 물론 이 생각은 OpenAI를 포함한 미국 업체들이 더 나은 모델을 출시하고 더 많은 돈을 모을 수 있을 것이라는 믿음에 기초합니다. 그리고 일전에 썼듯이, 우리 팀은 그러한 미래를 긍정합니다.
AI 업계에서 제본스의 역설이 발휘되게 된다면, 가장 수혜를 입을 수 있는 영역은 '저비용 고기능'의 기반 모델 위에 꽃 피울 여러 소프트웨어 업체들과 또한 CSP(클라우드 사업자)라고 할 수 있습니다. '더 저렴한 가격의 더 많은 인텔리전스는 더 많은 수요를 의미한다'라는 명제를 기억하면 될 것입니다.
실제로 'DeepSeek 쇼크' 이후 AI 인프라 관련 기업들보다 소프트웨어 업체들의 주가가 강하게 아웃퍼폼하는 현상을 어렵지 않게 관찰할 수 있었습니다. 이는 AI 서비스 시장의 폭발적인 성장이 있을 수 있다는 시장의 기대감이 반영된 결과입니다. 작년 11월, 가트너는 AI 애플리케이션 시장이 2029년까지 연평균 140%(CAGR)를 기록하며 1,500억 달러 규모에 도달할 것으로 전망했습니다. 그런데 DeepSeek 쇼크로 이러한 성장률이 더욱 커질 가능성이 어느 때보다 높아졌다고 할 수 있습니다.
그러한 시장의 기대감을 반영한 가장 좋은 예시는 팔란티어(PLTR)였다고 생각합니다. 팔란티어는 상장되어 있는 기업들 중 가장 순수한 AI 소프트웨어 기업으로 꼽히는 기업입니다. 팔란티어는 지난 분기 실적발표에서 놀라운 성과를 선보였습니다. 그 중 가장 인상 깊었던 몇 가지를 꼽자면, 먼저 작년 4분기 미국 상업 부문 TCV(총 계약금액)가 전년 동기 대비 134%, 전분기 대비 170% 증가한 8억 300만 달러를 기록했다고 밝힌 점입니다.
조정 영업이익률은 45%를 기록했고, 영업 현금흐름 마진은 56%, 조정 잉여현금 흐름 마진은 63%를 기록했습니다. 특히나 팔란티어의 조정 영업이익률이 전 분기 대비 무려 7% 포인트나 증가한 점은 괄목할 만합니다. 불과 2년 전에는 20%대였다는 점을 감안하면 얼마나 빠르게 영업 레버리지를 달성할 수 있는지 알 수 있는 대목입니다.
이러한 마진율 상승뿐만 아니라, 2024년 1분기 매출 가이던스는 8억 5,800만~8억 6,200만 달러라고 회사는 제시했습니다. 이것은 전년 동기 대비 35.6% 성장할 것으로 예상한다는 말과 같습니다. 이 가이던스 금액은 시장의 컨센서스 추정치 8억 달러를 상회하는 금액이었고, 투자자들은 크게 반색했습니다. 게다가 팔란티어가 대개 제공하는 가이던스 금액은 지난 몇 분기 동안 상당히 보수적이었다는 점을 감안하면 실제 매출 성장률은 거의 40%에 가까울 수 있다는 희망을 가지게 만들기도 합니다.
성장성과 수익성을 다 고려하기 위해서, 우리 팀은 소프트웨어 서비스 기업들을 평가할 때 유용한 지표 중 하나인 Rule of 40를 주목했습니다. '40점만 넘겨도 우수함'을 나타내는 지표에서 팔란티어는 현재 기준 무려 82점을 기록한 상태입니다.
Rule of 40는 매출성장률과 EBITDA 마진율을 더해서 40이 넘으면 좋은 소프트웨어 기업임을 나타내는 지표. 이것이 존재하는 이유는 PER 밸류에이션이 모든 상황에 맞는 지표는 아니기 때문. 예를 들어, 2023년에 엔비디아의 P/E 비율은 몇 달 만에 50에서 약 250으로 급증한 적도 있었음. 그 후 주가는 3배가 됐지만 PER은 급락.
이처럼 실적 발표 이후 팔란티어가 만들어낸 실적은 곧 AI 생태계 내 좋은 해자를 갖춘 소프트웨어 기업들의 경우 성장성과 수익성의 가속이 얼마나 대단한 지를 알려줍니다. 현재는 생성 AI 혁명으로 인한 HyperChange 시대라고 판단하기에, 수익이 얼마나 빠르게 성장할 수 있는지 과소평가하면 안 됩니다. '모바일 혁명이 막 시작될 때 구글에 투자하는 것이 오늘날 팔란티어에 투자하는 것'이라는 주장도 그래서 힘을 얻고 있는 게 아닌가 판단합니다. 무엇보다도 팔란티어와 같은 AI 소프트웨어 업체들은 DeepSeek R1와 같은 '저비용, 고기능' 모델이 주류로 올라오게 되면서 혜택을 볼 가능성이 커졌다고 할 수 있습니다. 팔란티어 역시 핵심 제품들인 Gotham과 Apollo에서 그러한 효율적 AI 모델 등장의 혜택을 볼 수 있는 구조를 지녔습니다.
물론 절대로 팔란티어는 '중국의 R1'을 사용하지는 않을 것으로 사료됩니다. 그럼에도 DeepSeek가 보여준 여러 엔지니어링 혁신에 관해서는 그들도 관심을 가지리라 추측합다. 지난 4분기 실적 발표에서 "DeepSeek의 최적화 기법은 상당히 인상적이고, 기술적으로 매우 정교한 수준에 도달했다"고 평가했기 때문입니다. 따라서 DeepSeek가 공개한 수학적 알고리즘만 차용하여 만들어진, 미국의 다른 챗봇을 탑재해 고효율 AI 모델의 이점을 누릴 것으로 판단됩니다. 이는 팔란티어는 물론 그 솔루션을 사용하는 고객사들까지 맛볼 변화입니다.
또한 팔란티어는 기업이 창립될 당시부터 '미국에 의한, 미국을 위한 기업'이었다는 점을 잊어서는 안 됩니다. 애초에 그들의 주요 고객사가 미국의 방첩 및 수사 기관들이었고 그 고객사가 미국 국방부, 국무부 등으로 확대되었습니다. 애초에 그들은 중국이나 러시아에 그들의 솔루션을 판매할 계획 자체가 아예 없었습니다. 이는 G2간 기술 경쟁에서 발생할 리스크에 이미 자유로운 업체임을 의미하기도 합니다. 그리고 러-우 전쟁과 이스라엘과 팔레스타인의 분쟁에 있어서, 팔란티어는 공식 실적 발표 자료에서조차 적대국에 대항해 미국의 동맹 진영을 도와야 한다는 식의 문구를 명확히 기재해 놓은 업체입니다. 따라서 중국 등의 AI 발전이 위협적일수록, 이에 대항하는 AI 솔루션 업체로 더욱 주목받을 수 있습니다.
따라서 DeepSeek와 더불어 지정학적인 AI 경쟁이 펼쳐지게 되면 사실 더욱 주목을 받을 수 있는 업체이기도 합니다. '국방의 현대화, 미 제조업의 부활'의 주요 의제에 있어서 트럼프 정부의 주문을 받게 될 핵심 AI 기업으로 꼽히고 있기 때문입니다.
이제껏 살펴봤듯 팔란티어가 대표적이지만, 또 다른 SaaS 기업들로부터의 소식도 긍정적입니다. 세일즈포스(CRM)의 CEO 마크 베니오프는 "(본인들의 AI 에이전트 서비스인) Agentforce 관련해 수천 건의 거래가 4분기에 성사될 것이며, 회사 역사상 이보다 더 빠르게 진행되는 것을 본 적이 없습니다"라고 말했습니다. 이는 생성 AI 시대가 점차 챗봇을 넘어서 소프트웨어 기업들이 제시하는 여러 서비스들로 빠르게 전이/확대가 되고 있다는 것을 의미합니다. 이런 현상은 DeepSeek로 말미암아 더 저렴해진 지능이 탑재될 경우 더 빠른 속도로 시장 침투가 발생할 수 있음을 암시합니다. 제본스의 역설은 이제 시작이다.
앞으로 점점 더 저비용 AI가 주류가 되면 CSP로 대변되는 빅테크들에는 오히려 긍정적인 흐름이 펼쳐질 수 있다고 봅니다. DeepSeek 같이 높은 추론 성능의 모델이 거의 무료로 제공되면, AI 사용자들(소규모 회사, 대학, 연구기관 등)은 그만큼 API 비용에서 절약할 수 있고 그 돈을 컴퓨팅 자원에 더 투자할 수 있게 됩니다.
이들은 CSP들의 데이터센터를 임대하는 고객층이 될 것이고, 결국 이러한 투자 풍토는 클라우드 서비스 제공업체에게 이익이 될 것이라는 말입니다. 더 많은 비용이 폐쇄적인 모델 제공업체(예: OpenAI)보다는 컴퓨팅 자원(예: 클라우드 서비스)에 투입될 것이고, 이는 결국 하드웨어에 더 많은 비용이 지출될 것으로 사료됩니다.
또한 자금력과 인프라를 갖춘 Big Tech들은 저렴해진 AI 모델 운영 비용을 활용하여 다양한 서비스에 적용하여 시장 지배력을 강화할 수 있습니다. API 형태로 제공되는 AI 모델은 기존 플랫폼과의 결합을 통해 더 큰 시너지 효과를 낼 수 있기 때문입니다.
이와 관련해 DeepSeek와 정면 대결해야 하는 오픈소스의 선구자 메타는 본인들의 광고 추천 도구에 DeepSeek의 모델을 테스트하는 것을 고려하고 있습니다. 메타가 이렇게 판단한 이유는 오픈소스 AI 개발에 관한 자존심을 부리기 보다는, 저비용 AI를 적극 채용해 더 많은 매출을 이끌어내어 시장성장의 수혜를 입을 수 있다는 속셈이 깔려 있기 때문일 것입니다.
한편, 마이크로소프트는 2024 회계연도 3분기에 Azure가 32% 성장할 것으로 예상하고 있는데 시장의 기대를 완전히 충족시켜주지는 못했습니다. 얼핏 보면 DeepSeek 쇼크처럼 '과대 투자의 논리'에 영향을 받았다고 지레 짐작하게 됩니다. 그러나 오히려 수요를 충족하기에 충분한 데이터센터 용량이 없기 때문이라고 마이크로소프트는 그 이류를 설명했습니다. 실제로 마이크로소프트의 Azure AI 서비스는 157% 증가했으며, 상업 예약은 67% 증가하여 경영진의 예상치를 훨씬 상회했다고 했습니다. 다시 말해 AI 수요를 충족하기 위해 더 많은 칩 확보에 나설 것임을 의미합니다.
물론 '땅 파서 장사'하는 것은 아니기 때문에 투자자로서 마진율을 그리 걱정할 사안은 아니라고 생각됩니다. 마이크로소프트는 소비자들이 AI 기능에 더 많은 비용을 지불할 의향이 있다고 판단하여 'Office 365' 서비스에 대한 가격을 최대 43% 인상했기 때문입니다. 이와 관련해 다리오 아모데이는 "점점 더 지능적인 모델을 훈련하는 것의 경제적 가치가 너무 커서, 모든 비용 이득은 거의 즉시 상쇄된다"고 말했는데 그의 말에 힘이 실리는 사안입니다.
하이퍼스케일러들의 투자 금액은 놀라운 수준으로 계속 격상되고 있습다. 마이크로소프트와 메타의 금액만 합산하더라도 이미 거의 1,500억 달러를 2025년 자본지출로 계획하고 있는 수준입니다. 이와 관련해 마크 주커버그 CEO는 "2025년에, 10억 명 이상의 사용자에게 메타 AI를 제공하기 위해 장기적으로 AI 인프라에 수백억 달러를 지출할 것"이라고 밝혔습니다.
또한 주커버그는 "2025년에 약 1GW의 컴퓨팅 성능을 온라인에 가져올 것이며 연말까지 30만 개 이상의 GPU를 보유하게 될 것"이라고 말하기도 했습니다. 작년 초에 엔비디아 GPU 약 60만 개를 샀을 것으로 추정되기 때문에 130만 개 이상의 GPU라고 하는 것은 작년 구매량보다 최소 10만 개 이상의 GPU를 더 확보하겠다는 말로 이해할 수 있습니다.
구글도 메타와 마이크로소프트와 함께 2025년 자본지출에 대해 공격적인 전망치를 제시했습니다. 구글은 2025년에 750억 달러의 자본 지출을 예상했습니다. 이 수치는 2024년도의 526억 달러는 물론이고, 월가에서 예측한 630억 달러의 금액마저 쉽게 웃도는 놀라운 수치입니다. 시장에서는 18% 성장을 기대했는데, 43%나 높여 잡았다는 말입니다.
또 다른 빅테크인 아마존은 2025년에 자본지출에 무려 1,040억 달러를 지출할 것으로 예상됩니다. 이는 구글과 비슷하게 전년 대비 약 40% 증가한 수치입니다. 이처럼 DeepSeek 쇼크 이후의 빅테크들의 실적발표에서 그들로부터 언급된 Capex 증가 속도는 비슷하게 가속되고 있다는 점을 알 수 있습니다.
이처럼 앞으로 하이퍼스케일러들은 회계상 AI 서비스를 통해 당장 수익을 만들고 있지만, 그 벌어들인 돈보다도 더 많은 돈을 GPU를 구매하는 데 훨씬 더 많은 지출을 할 가능성이 있다고 봅다. 이 모든 것은 '상대방보다 더 나은 지능'을 확보하기 위함입니다. 마지막으로 구글의 CEO 순다르 피차이가 작년에 말한 것을 다시 한번 상기해볼 필요를 느낍니다.
과소투자의 위험이 과잉투자의 위험보다 훨씬 큽니다.
등록된 댓글이 없습니다.