본문

슬기로운 글로벌 투자처 전기전자OFC 2026 참관기: NEXT AI 병목은 나야, OPTICS vol. Ⅰ

기고: AI하이테크분석팀 박준서 수석매니저

Ⅰ. Executive Summary

넥스트 병목 해결은 광통신

AI 인프라 투자 사이클은 병목을 해소하는 방향으로 진화하고 있으며, 현재 가장 중요한 병목은 전력과 인터커넥트입니다. 초기 AI 확산 국면에서는 연산 성능 확보가 핵심이었고, 이에 따라 GPU 중심의 투자가 집중되었습니다. 이후 AI 모델의 규모 확대와 클러스터 확장으로 전력 소모가 급증하면서 전력 인프라가 두 번째 병목으로 부상했고, 동시에 추론 수요 증가에 대응하기 위한 고대역폭 메모리(HBM)의 중요성이 부각되었습니다. 이제 AI 인프라는 연산(GPU) → 메모리(HBM) → 네트워크(인터커넥트)로 병목이 이동하는 전형적인 구조를 보이고 있습니다.

현재 시점에서 가장 구조적인 제약은 인터커넥트이며, 이는 단순한 기술 전환이 아니라 물리적 한계에서 비롯된 필연적 변화입니다. 기존 전기식 인터커넥트는 전력 효율(pJ/bit)과 대역폭 측면에서 이미 한계에 도달하고 있으며, AI 클러스터가 수백~수천 GPU 단위로 확장되면서 병목이 더욱 심화되고 있습니다. 이러한 환경에서 광(Optics)은 전력과 네트워크 병목의 교집합을 동시에 해결할 수 있는 유일한 솔루션으로 부상하고 있으며, CPO를 중심으로 한 광학 인터커넥트 전환은 선택이 아닌 필수 국면에 진입했습니다.

OFC 2026 컨퍼런스의 시사점

특히 이번 OFC 2026에서 확인된 점은, 산업 전반의 실행 속도가 예상 대비 훨씬 빠르다는 것입니다. 주요 빅테크와 반도체 업체들은 이미 전기 인터커넥트의 한계를 명확히 인지하고 있으며, CPO, 실리콘 포토닉스, HCF 등 차세대 광학 기술을 중심으로 대규모 투자를 집행 중입니다. 이는 단순한 기술 검증 단계를 넘어, 양산과 표준화, 공급망 구축이 동시에 진행되는 국면에 진입했음을 의미합니다. 결과적으로 Scale-Out을 넘어 Scale-Up 영역까지 광 침투가 예상보다 빠르게 확대될 가능성이 높습니다.

결론적으로 AI 밸류체인의 세 번째 투자 사이클이 본격적으로 시작되었다고 판단합니다. GPU(2023)와 HBM(2024)에 이어, 2025년 이후는 광학 인터커넥트가 가장 빠르게 성장하는 핵심 세그먼트가 될 전망입니다. 2027~2028년은 CPO 상용화, 1.6T 표준 확립, ScaleUp 광 전환이 맞물리는 변곡점으로, 관련 산업의 TAM이 구조적으로 확대되는 시기입니다. 따라서 광학 부품 및 장비 기업들은 단기 이벤트가 아닌 중장기 성장 사이클에 진입했으며, AI 인프라 투자 확대의 가장 직접적인 수혜 영역으로 판단합니다.

AI 인프라의 병목은 명확하게 인터커넥트로 이동했으며, 이에 따라 광학 중심의 세 번째 투자 사이클이 본격화되고 있습니다. GPU(연산)와 HBM(메모리)에 이어 네트워크가 성능 확장의 결정적 제약 요인으로 부상했고, 특히 대규모 GPU 클러스터(72 → 256노드 이상) 환경에서는 전기식 인터커넥트의 전력 효율(10+ pJ/bit)과 대역폭 한계(200Gbps/레인)가 시스템 확장을 제한하고 있습니다. 이는 과거 메모리 병목을 HBM이 해소했던 것과 동일한 구조이며, 향후 투자 수혜는 인터커넥트 병목을 해결하는 광학 기술과 관련 기업에 집중될 가능성이 큽니다. 주요 빅테크(Meta, NVIDIA, Broadcom) 역시 전기 인터커넥트 한계를 AI 스케일링의 핵심 장애 요인으로 공통 지적하고 있습니다.

동시에 CPO(Co-Packaged Optics)는 기술 검증 단계를 넘어 양산 진입이 가시화되며, 광학 부품 산업의 실적 가시성을 구조적으로 높이고 있습니다. Broadcom의 102.4Tbps CPO 스위치 출시와 Meta의 3,600만 디바이스-시간 신뢰성 검증은 상용화 준비가 완료된 수준임을 의미합니다. 기존 플러거블 대비 약 65% 전력 절감 효과가 확인되었고, 실제로 2026년 3월부터 양산 제품이 출하되고 있습니다. 이는 광학 인터커넥트가 더 이상 '미래 기술'이 아니라, 실제 데이터센터 아키텍처에 채택되는 초기 상용화 국면에 진입했음을 시사합니다.

네트워크 속도 로드맵 역시 광학 중심으로 빠르게 상향되고 있으며, 이에 따른 TAM 확장이 구조적으로 진행될 전망입니다. Scale-Out 영역에서는 800G가 2025~2026년 본격 확산되고, 1.6T(2027~2028), 3.2T(2029~)로 이어지는 업그레이드 사이클이 명확하게 형성되어 있습니다. 특히 Hollow-Core Fiber(HCF)는 감쇠율을 기존 대비 절반 수준으로 낮추고 증폭 전력을 35~40% 절감하는 혁신 기술로, 장거리·대규모 AI 클러스터 환경에서 핵심 인프라로 부상하고 있습니다. 이는 단순 속도 증가를 넘어, 전력 효율 개선과 네트워크 확장성 확보라는 두 가지 요구를 동시에 충족시키는 방향입니다.

더 중요한 변화는 광학 기술이 Scale-Out을 넘어 Scale-Up 영역으로 침투하기 시작했다는 점입니다. 실리콘 포토닉스 기반 변조기는 이미 256~448Gbps PAM4 수준에 도달했고, THz 인터커넥트는 50~100m 구간에서 3 pJ/bit 이하의 효율을 달성하며 서버 내부 영역에서도 광 전환 가능성을 입증하고 있습니다. 이는 기존에 구리의 영역으로 인식되던 칩 간 인터커넥트까지 광학이 확장되고 있음을 의미하며, 중장기적으로 패키지 구조 자체의 변화를 유도할 가능성이 큽니다.

결론적으로 2027~2028년은 광학 인터커넥트 산업의 구조적 변곡점입니다. CPO의 주류 채택, 1.6T 표준화, Scale-Up 광 전환이 동시에 진행되며 수요와 비용 구조가 교차하는 시기입니다. 300mm 기반 실리콘 포토닉스 양산을 통한 비용 하락과 AI 클러스터 확장에 따른 수요 증가가 맞물리면서, 광학 부품 및 장비 시장은 현재 대비 3~5배 확대될 가능성이 큽니다. 특히 광학 침투는 Scale-Out → Scale-Across → Scale-Up 순으로 확장되며, 서버 간·데이터센터 간·칩 간 전 영역에서 구조적 성장이 동시에 발생할 전망입니다.

이에 따라 투자 전략은 영역별로 차별화된 접근이 필요합니다. Scale-Out/Across에서는 광트랜시버 및 광케이블 중심의 볼륨 성장, Scale-Up에서는 CPO 기반의 고부가 부품·장비 생태계 확대가 핵심입니다. 국내에서는 광케이블 수직계열화 기업과 광트랜시버 업체가 초기 수혜를 받고 있으며, 중장기적으로는 CPO 장비, 마이크로 렌즈, 레이저 등 핵심 부품 업체들이 가장 큰 구조적 업사이드를 확보할 것으로 판단합니다.

Ⅱ. 왜 지금 광(Optics)인가? AI 시대, 메모리 다음 병목은 인터커넥트

AI 반도체 밸류체인에서 HBM(고대역폭 메모리)이 병목이었다면, 다음 병목은 인터커넥트입니다. GPU 간, 서버 간, 데이터센터 간 데이터 이동에서 전력·대역폭·열의 한계가 동시에 발생하고 있으며, 이를 해결할 유일한 대안이 광학(Optics)입니다.

AI 반도체 투자의 흐름을 되짚어보겠습니다. 2023~2024년에는 GPU 자체가 병목이었습니다. NVIDIA H100/H200이 공급 부족이었고, AI 투자의 핵심은 GPU 확보였습니다. 2024~2025년에는 메모리가 부각되었습니다. SK하이닉스, 삼성의 HBM3E가 GPU의 대역폭 병목을 해결하며 AI 밸류체인의 두 번째 수혜주로 부상했습니다. 이제 2026년, 세 번째 병목이 명확해지고 있습니다.

바로 인터커넥트(Interconnect)입니다. GPU와 메모리가 아무리 빨라져도, 이들을 연결하는 '도로'가 좁으면 전체 시스템 성능이 제약됩니다. AI 클러스터가 72노드에서 256노드, 나아가 00,000 GPU 이상으로 확장되면서, 구리 기반 전기 인터커넥트의 물리적 한계가 현실화되고 있습니다.

1. 전력의 벽: HBM 이후 인터커넥트가 최대 전력 소비원

AI 반도체 밸류체인에서 GPU→HBM 다음으로 전력 병목이 가장 심한 곳이 인터커넥트입니다. 전기적 트랜시버는 10+ pJ/bit을 소모하며, AI 클러스터 확장에 따라 인터커넥트가 전체 시스템 전력의 30~40%를 차지하는 수준까지 올라갈 전망입니다.

AI 모델을 훈련시키려면 수십~수백 개의 GPU를 하나의 클러스터로 묶어야 합니다. 예를 들어, NVIDIA DGX SuperPOD은 72개 이상의 GPU 노드를 연결하며, 차세대 아키텍처는 56노드 이상으로 확장될 예정입니다. 이 모든 GPU가 동시에 작업하려면, GPU와 GPU 사이에 초고속 데이터 전송이 필요합니다.

문제는 이 데이터 전송에 엄청난 전력이 소모된다는 것입니다. 현재의 전기적 트랜시버(데이터를 전기 신호로 변환해서 보내는 장치)는 1비트의 데이터를 보내는 데 10피코줄(pJ) 이상의 에너지를 사용합니다. 이 숫자가 작아 보일 수 있지만, 초당 수 테라비트(Tbps)의 데이터를 보내야 하므로 합산하면 어마어마한 전력이 됩니다.

전기 신호는 구리선을 통해 이동하는데, 거리가 멀어질수록 신호가 약해집니다(감쇠). 약해진 신호를 다시 증폭하고, 잡음을 제거하고, 원래 데이터를 복원하는 과정에서 막대한 전력이 소모됩니다. 속도가 빨라질수록 이 과정이 더 복잡해지고, 전력 소모는 기하급수적으로 증가합니다.

표1 OFC2026에서 공개된 핵심 지표
항목 현재 수치 물리적 한계 설명
전기적 트랜시버 10+ pJ/bit ~5 pJ/bit 거리와 속도에 따라 급증
ASIC 전력 밀도 350~400 W/cm² ~500 W/cm² 에어쿨링 한계에 근접
랙 전력 밀도 50~100+ kW/랙 냉각 인프라 제약 기존 DC 설계 초과
인터커넥트 비중 전체 DC 전력의 30~40% - 연산 외 가장 큰 소모원
GPU 노드 수 72+ 노드/클러스터 256+ 노드 예정 Scale-Up I/O 2 TBps 요구

자료: OFC 2026, 미래에셋증권 리서치센터

현재 데이터센터에서 사용되는 전기적 인터커넥트의 핵심 기술 표준들 -100G 이더넷(IEEE 802.3bm), PAM4 변조방식, NRZ SerDes, 구리 DAC 규격은 대부분 2013~2015년에 설계·표준화되었습니다. 당시의 설계 목표는 클라우드 컴퓨팅과 4K 스트리밍이었지만, 수만 개의 GPU가 동시에 통신하는 AI 워크로드는 상정하지 않았습니다. 10년이 지난 지금, 이 기술의 물리적 한계가 동시에 가시화되고 있습니다.

핵심은 이 기술들이 모두 거의 같은 시기(2013~2016년)에 설계되었다는 점입니다. 따라서 한계도 동시에 옵니다. 마치 같은 해에 건설된 도로, 다리, 터널이 동시에 수명을 다하는 것과 같습니다. AI의 폭발적 성장이 이 '동시 만료'를 10년 만에 가시화한 것입니다.

결론적으로, 전력 효율 격차의 확대는 광학 전환의 경제적 당위성을 매년 강화시킵니다. 2015년 설계의 전기 인터커넥트가 '설계 수명'을 다한 지금, 광학으로의 전환은 기술적 선택이 아니라 경제적 필연이며, 이 전환기에 포지셔닝된 기업들이 AI 밸류체인의 세 번째 수혜 사이클을 이끌 것입니다.

광학 인터커넥트는 동일한 데이터 전송에 1~3 pJ/bit만 소모합니다. 이는 전기적 방식의 1/3~1/10 수준입니다. 빛은 광섬유를 통해 거의 손실 없이 이동하므로 중간 증폭이 불필요하거나 훨씬 적게 필요합니다. 이것이 광학 전환이 '필수'가 된 가장 근본적인 이유입니다.

2. 구리의 벽: 200Gbps/lane 이상에서 물리적 한계 도달

구리선으로 데이터를 보내는 것은 본질적으로 전자를 이동시키는 것입니다. 전자가 이동하면 열이 발생하고, 주변 도선과 전자기 간섭(EMI)이 생기며, 거리가 멀어지면 신호가 약해집니다. 이 세 가지 문제는 물리법칙에 의한 것이므로 기술 개발로 극복할 수 없습니다.

주파수가 높아질수록 문제가 심각해집니다. 데이터를 빠르게 보내려면 높은 주파수의 신호를 사용해야 하는데, 높은 주파수일수록 구리선에서의 감쇠가 더 큽니다. 이를 '스킨 이펙트(skin effect)'라고 하는데, 고주파 신호일수록 도체의 표면만 사용하여 실질적인 도체 면적이 줄어들기 때문입니다. 현재 데이터센터에서 서버 간 연결에 사용되는 구리 DAC(Direct Attach Cable) 케이블은 다음과 같은 거리 제한이 있습니다.

이것이 의미하는 바는 명확합니다. 현재 세대(100G/레인)에서도 이미 5~7미터가 한계이며, 차세대(200G/레인)에서는 구리로 할 수 있는 거리가 2~3미터로 줄어듭니다. 데이터센터에서 서버 간 거리가 보통 5~100미터인 점을 고려하면, 구리는 이미 역할을 다한 것입니다.

표2 구리의 물리적 한계
데이터 속도 구리 최대 거리 필요 전력/레인 문제점
100G/레인 5~7미터 ~5 pJ/bit 현재 세대, 한계 도달
200G/레인 2~3미터 ~10 pJ/bit 등화기 복잡도 급증
400G/레인 <1미터 15+ pJ/bit 사실상 불가능
800G/레인 불가능 - 물리적으로 구현 불가

자료: OFC 2026, 미래에셋증권 리서치센터

가장 심각한 문제는 구리의 대역폭-전력 관계가 선형이 아니라 기하급수적이라는 점입니다. 데이터 속도를 2배로 올리면 전력은 2배가 아니라 3~4배로 증가합니다. 이는 고속에서 필요한 복잡한 등화기(equalizer), CDR(Clock Data Recovery), 리타이머(retimer) 때문입니다. 비유하자면, 자동차가 시속 100km에서 200km로 빨라지면 연료 소모가 2배가 아니라 4배 이상 증가하는 것과 같습니다. 공기저항이 속도의 제곱에 비례하듯이, 구리에서의 신호 손실도 주파수의 제곱에 비례합니다.

구리선이 촘촘하게 배치될수록 인접 선로 간 전자기 간섭이 심해집니다. 고밀도 데이터센터에서는 수백 개의 구리 케이블이 좁은 공간에 밀집하므로, 크로스토크(crosstalk)가 심각한 문제가 됩니다. 광섬유는 파장 간 간섭이 제로이므로, 이 문제가 근본적으로 존재하지 않습니다.

3. 대역폭(Bandwidth)가 강제하는 광 전환

AI 가속기의 I/O 대역폭은 세대마다 2배씩 증가하지만, 구리 인터커넥트의 대역폭 확장은 물리적 한계에 봉착했습니다. 이 '대역폭 격차(Bandwidth Gap)'가 구리→광 전환을 불가피하게 만드는 가장 근본적인 이유이며, Scale-Out은 이미 광 전환이 필수 불가결하고, ScaleAcross(데이터센터-데이터 센터 간)는 최근 급격히 확대 중이며, Scale-Up은 단기적으로 구리가 유지되나 대역폭 증가에 따른 손실로 궁극적으로 광 전환이 불가피합니다.

AI 가속기의 연산 성능(FLOPS)은 매년 50~70%씩 성장하고 있으며, 이에 따라 칩 간 데이터 이동 대역폭도 동일한 속도로 증가해야 합니다. 그러나 구리 인터커넥트의 레인당 속도는 물리적 한계로 인해 10~15%/년 수준의 증가에 그치고 있습니다. 이 구조적 격차가 세대를 거듭할수록 기하급수적으로 확대되며, 이것이 광 전환을 강제하는 가장 근본적인 물리법칙입니다.

NVIDIA NVLink 대역폭이 600 GB/s(A100) → 900 GB/s(H100) → 1.8 TB/s(B200) → 3.6 TB/s(GB300)로 세대마다 2배 증가. OFC 2026 세션에서 Meta는 ORW(Open Rack Wide) 아키텍처에서 2 Pbps 이상의 Scale-Up 네트워크 I/O 대역폭이 필요하다고 제시했습니다. 구리 SerDes는 112 Gbps PAM4가 사실상 한계이며, 224 Gbps PAM4는 전력이 2배 이상 증가하여 비실용적이기 때문입니다.

구리 인터커넥트의 대역폭을 결정하는 핵심 기술은 SerDes(Serializer-Deserializer)입니다. SerDes의 레인당 속도가 곧 구리 인터커넥트의 속도 상한을 결정하는데, 현재 이 기술은 명확한 물리적 벽에 도달했습니다. 112G PAM4에서 224G PAM4로의 전환은 단순히 속도를 2배로 올리는 것이 아닙니다. 채널 손실이 비선형적으로 증가하고, 이를 보상하기 위한 DSP의 복잡도와 전력이 2배 이상으로 급증합니다. OFC 2026의 컨센서스는 '224G PAM4가 구리의 마지막 세대'라는 것입니다. 그 이후는 구리로는 물리적으로 불가능한 영역입니다.

표3 SerDes 세대별 실용성 평가
SerDes 세대 레인 속도 변조 방식 채널 손실 전력 효율 실용성 평가
56G (현행) 56 Gbps PAM4 ~25 dB (NRZ) 3~5 pJ/bit 성숙, 양산 중
112G (현행+) 112 Gbps PAM4 ~30 dB 5~8 pJ/bit 양산 초기
224G (차세대) 224 Gbps PAM4 ~35 dB+ 10~15+ pJ/bit 실용적 한계
448G (R&D) 448 Gbps PAM8/10 ~40 dB+ 20+ pJ/bit 사실상 불가능

자료: OFC 2026, 미래에셋증권 리서치센터

Scale-Out 광학 기업은 이미 수혜 구간에 진입했습니다. Scale-Across의 급격한 확대는 OCS, DCI 코히어런트, HCF 기업에 새로운 성장 동력을 제공합니다. Scale-Up은 2027~2028년부터 실리콘 포토닉스와 THz 기업의 수혜가 본격화될 전망입니다. 양산 단계는 상황을 지켜봐야 한다고 OFC 2026에서 밸류체인 업체들의 엔지니어들은 얘기합니다.

표4 Scale-Out, Scale-Across, Scale-up 전환 타임라인 종합
영역 현재 상태 2027~2028 2029~ 광 전환 동인
Scale-Out 광 전환 필수 불가결 1.6T CPO 주류화 3.2T 전면 광학화 대역폭+거리 한계
Scale-Across 급격히 확대 중 OCS+HCF 80km 상용 100K+ GPU 분산 클러스터 전력/부지 한계
Scale-Up 구리 지배 (한계 근접) THz 하이브리드 도입 SiPh 광학 I/O 필수 대 역폭 손실 급증

자료: OFC 2026, 미래에셋증권 리서치센터

Scale-Out: 광 전환 필수 불가결

AI 클러스터의 인터커넥트를 거리에 따라 세 가지 영역으로 분류하면, 각 영역에서 대역폭 증가가 광 전환을 강제하는 메커니즘이 명확해집니다. Scale-Out(서버 간, 5~수백 m)은 구리에서 광으로의 전환이 이미 진행 중이며, 현 시점에서 필수 불가결합니다.

핵심 근거는 1) 대역폭 요구가 구리의 물리적 한계를 초과했습니다. 800G 이더넷은 레인당 100G × 8레인 또는 200G × 4레인으로 구성되는데, 200G/레인에서 구리 DAC의 최대 도달 거리는 2~3m에 불과합니다. 서버 간 거리가 통상 5~100m인 데이터센터에서 이는 완전히 부족합니다. 1.6T(2027~2028)와 3.2T(2029~) 세대로 가면 구리는 물리적으로 역할을 수행할 수 없습니다.

2) AI 분산 훈련의 All-Reduce 통신 오버헤드가 핵심 병목입니다. OFC 2026 데이터에 따르면, Meta 프로덕션 네트워크에서 DNN 훈련 시 통신이 전체 이터레이션 시간의 최대 60%를 차지하는 경우가 관측되었습니다. 이는 대역폭 부족이 GPU 활용률을 40%까지 떨어뜨릴 수 있다는 의미입니다. 광학 인터커넥트로 전환하면 All-Reduce 오버헤드를 1~5% 수준으로 낮출 수 있습니다.

3) OCS(Optical Circuit Switching) 기반 Scale-Out 네트워크가 전기 패킷 스위치(EPS) 대비 압도적인 성능 개선을 보였습니다. OFC 2026에서 발표된 RON(Reconfigurable Optical Network) 아키텍처는 전기 스위치 대비 통신 시간을 656.7% 개선했고, 65,000 GPU 규모에서는 1,049.3%의 개선을 달성했습니다. 이는 Scale-Out에서 광학이 단순히 더 나은 대안이 아니라 유일하게 작동하는 솔루션임을 입증합니다.

표5 Scale Out 스펙 비교
Scale-Out 메트릭 구리 (현재) 광학 (OFC 2026) 개선 효과
최대 링크 속도 800G (한계 근접) 800G → 1.6T → 3.2T 로드맵 확보
All-Reduce 오버헤드 40~60% (이터레이션) 1~5% (목표) 10배+ 개선
도달 거리 (200G/레인) 2~3m 수십 km 1,000배+
10K+ GPU 클러스터 병목 심각 RON 1,049% 개선 대규모 필수
전력 효율 10+ pJ/bit 1~3 pJ/bit 3~10배

자료: OFC 2026, 미래에셋증권 리서치센터

Scale-Across: 최근 급격히 확대 중 - 데이터센터 간 광학 네트워크의 부상

Scale-Across(데이터센터 간, 수 km~80 km)는 최근 가장 빠르게 광 침투가 확대되고 있는 영역입니다. 그 배경에는 AI 클러스터의 물리적 한계가 있습니다.

1) 단일 데이터센터의 전력 용량 한계입니다. AI 훈련에 필요한 GPU 수가 10,000개를 넘어 100,000개 이상으로 확장되면서, 한 건물에 모든 GPU를 수용할 수 없게 되었습니다. 1GW급 데이터센터도 전력이 부족하여, 물리적으로 분산된 여러 데이터센터를 하나의 AI 클러스터로 연결해야 합니다.

2) OFC 2026에서 발표된 OCS(Optical Circuit Switching) 기반 Scale-Across 아키텍처가 실질적 성능을 입증했습니다. ZR(Zero-dispersion Region) 모듈을 활용하면 최대 80km 거리에서 400Gbps 링크가 가능하며, 30km 이내에서는 AI 훈련 작업 완료 시간에 사실상 영향을 주지 않는 것이 검증되었습니다. 이는 같은 도시 내 분산된 데이터센터들을 하나의 논리적 클러스터로 묶을 수 있다는 혁명적 의미를 갖습니다.

3) 600km LLM 분산 훈련이 OFC 2026에서 시연되었습니다. HCF(Hollow-Core Fiber)를 활용하면 RTT(왕복 지연시간)를 33% 줄여, 장거리에서도 분산 훈련의 효율 손실을 5% 미만으로 억제할 수 있습니다. 서울~부산 거리의 데이터센터를 하나의 AI 클러스터로 운영하는 것이 기술적으로 가능해진 것입니다.

4) OCS 기반 Scale-Across 네트워크의 전력 및 확장성 이점이 극적입니다. OFC 2026에서 발표된 OCS-DRP 아키텍처는 기존 ROFT 방식 대비 16배 더 많은 GPU를 연결하면서 전력 소비는 40% 절감하는 성과를 보였습니다.

Scale-Across의 급격한 확대는 AI 산업의 구조적 변화를 반영합니다. 하나의 거대한 데이터센터에서 여러 데이터센터를 광학으로 연결한 분산 AI 클러스터로의 패러다임 전환이 진행 중이며, 이 전환의 핵심이 바로 광학 인터커넥트입니다. 여러 논문에서 비춰보듯이, 여러 선행 기술들(OCS, ZR 모듈, HCF)의 조합이 이를 가능하게 만들고 있습니다.

Scale-Up: 단기 구리 → 장기 광 전환의 마지막 프론티어

Scale-Up(칩 간, 수cm~ 수m)은 현재 구리가 여전히 지배하는 영역입니다. NVLink 4(H100)는 900 GB/s를 구리 기반으로 달성하고 있으며, 짧은 거리(수 cm)에서 구리는 여전히 비용 효율적입니다. 그러나 대역폭 증가가 계속되면, 여기서도 광 전환이 필수가 되는 시점이 반드시 옵니다.

대역폭 증가에 따른 구리의 손실 급증이 핵심 메커니즘입니다. NVLink 대역폭이 세대마다 2배씩 증가하면서, 구리 기반으로 이를 구현하기 위해 필요한 SerDes 레인 수와 레인당 속도가 동시에 증가해야 합니다. 문제는 레인당 속도가 올라갈수록 구리에서의 감쇠(loss)가 비선형적으로 급증한다는 것입니다.

구리에서의 감쇠가 30 dB를 넘으면 리타이머 없이는 신호 전달이 불가능하고, 리타이머 자체가 7~15W의 전력을 소모하며 지연시간을 추가합니다. 35 dB를 넘으면 다중 리타이머가 필요하거나 사실상 구리로는 구현이 불가능해집니다.

NVIDIA가 OFC 2026에서 자체 실리콘 포토닉스 마이크로링 변조기(MRM)를 발표한 것은, Scale-Up에서도 광 전환이 불가피하다는 판단을 GPU 최대 제조사가 내렸다는 강력한 시그널입니다. NVIDIA MRM은 기존 대비 5배의 전력 효율 개선과 10배의 내구성 향상을 달성했으며, 이는 NVLink의 광학 버전을 준비하고 있음을 시사합니다.

또한 THz 인터커넥트(<3 pJ/bit, 50~100m)가 구리와 광의 중간 영역에서 새로운 대안으로 부상하고 있습니다. 표준 ASIC 공정으로 제조 가능하면서 광학 수준의 전력 효율을 달성하므로, Scale-Up에서 구리→광 전환의 가교 역할을 할 것으로 예상됩니다.

단기(2025~2027)에는 1.8 TB/s까지 구리 기반이 유지될 것이나, 3.6 TB/s(2027~2028)부터 THz 하이브리드가 도입되고, 7.2 TB/s+(2029~)에서는 실리콘 포토닉스 기반 광학 Scale-Up이 필수가 됩니다. 결국 구리의 마지막 보루인 Scale-Up도 대역폭 증가가 물리적 손실 한계를 넘는 순간, 광으로의 전환은 시간 문제일 뿐입니다. 다만, 기술 개발이 선행이 되어도 경제성을 고려하여 양산 단계의 선택은 지연될 가능성도 존재합니다.

4. 광의 등장: 메모리 → 인터커넥트로 이어지는 AI 밸류체인 확장

광학 인터커넥트는 전력(1/10), 거리(수십km 이상), 간섭(제로), 밀도(WDM으로 단일 파이버 다채널)에서 구리를 압도합니다. 이는 물리법칙에 기반한 근본적 우위입니다. 광학 인터커넥트는 데이터를 전기 신호가 아닌 빛(레이저)으로 변환하여 광섬유를 통해 전송하는 기술입니다. 원리를 간단히 설명하면 다음과 같습니다:

1단계 송신: 레이저 광원에서 빛을 만들고, 변조기(modulator)가 데이터에 따라 빛의 밝기나 위상을 변화시킵니다.

2단계 전송: 변조된 빛이 광섬유를 따라 이동합니다. 빛은 유리 속에서 거의 손실 없이 수십 km를 이동할 수 있습니다.

3단계 수신: 광검출기(photodetector)가 빛을 다시 전기 신호로 변환합니다.

거리별 최적 인터커넥트 기술

OFC 2026에서 형성된 컨센서스는 하나의 기술이 모든 거리를 커버하는 것이 아니라 거리에 따라 최적의 기술이 다르다는 것입니다. 과거에는 '장거리 = 광학, 단거리 = 구리'라는 단순한 구분이었지만, AI 시대에는 그 경계가 급격히 광학 쪽으로 이동하고 있습니다. 5미터 이상이면 이미 광학이 유리하고, THz 인터커넥트의 등장으로 1~5미터 영역도 잠식당하고 있습니다.

광학 전환은 처음이 아닙니다. 과거에도 장거리 통신(해저 케이블)에서 구리가 광섬유로 대체되었고, 이후 메트로(도시 간) 네트워크, 그리고 액세스(가정까지) 네트워크로 광학이 확대되어 왔습니다. 이번에 OFC 2026에서 확인된 것은 이 광학 침투가 이제 데이터센터 내부까지, 나아가 칩과 칩 사이까지 확대되고 있다는 것입니다. 이는 '광학의 마지막 마일'이라 할 수 있습니다. 장거리에서 시작된 광학 전환이 점점 짧은 거리로 내려와 마침내 칩 수준에 도달한 것입니다.

표6 현재 거리간 최적 기술
거리 최적 기술 핵심 이유 해당 영역
<1m 구리 (PCB 트레이스) 가장 저비용, 충분한 성능 칩-to-칩 (보드 내)
1~5m 구리 DAC / THz 하이브리드 구리 한계 근접, THz 대안 등장 서버 내부
5~100m THz 인터커넥트 / 광학 <3 pJ/bit, 구리 불가 영역 랙 간 연결
100m~2km 광학 (IM/DD) 구리 불가, 광학 필수 데이터센터 내
2~80km 광학 (코히어런트) 장거리 전송 캠퍼스/메트로
80km+ 광학 (장거리 코히어런트) 해저/대륙간 DCI/장거리

자료: OFC 2026, 미래에셋증권 리서치센터