AI 인프라 산업은 GPU 중심의 경쟁에서 벗어나 이제는 전체 데이터센터를 하나의 거대한 컴퓨팅 시스템으로 바라보는 시대로 전환되고 있습니다. 과거에는 GPU 성능이 AI 성능의 거의 전부라고 여겨졌지만, 모델 규모가 기하급수적으로 증가하고 GPU 조합 수가 수백 개, 수천 개로 늘어나는 국면이 시작되면서 전혀 다른 병목이 나타나기 시작했습니다. GPU가 아무리 빠르더라도 다른 GPU들과 데이터를 교환하는 속도가 느리면 전체 시스템은 제 기능을 하지 못합니다. AI 학습은 병렬 연산이 핵심이기 때문에 각 GPU가 서로 연결되어 협업하는 과정이 성능의 절대적 기준이 되었고, GPU와 메모리, GPU와 네트워크, GPU와 CPU, GPU와 스토리지 사이의 모든 통신이 빠르게 이뤄져야 비로소 AI 모델이 정상적인 속도로 학습을 진행할 수 있습니다. 그래서 지금의 AI 인프라 경쟁을 요약하면 컴퓨팅의 시대에서 연결의 시대로 전환되었다고 표현할 수 있습니다. 이 ‘연결’이라는 영역에서 가장 두드러지게 성장하며 AI 서버의 혈관망이라는 수식어를 얻은 기업이 바로 Astera Labs입니다.


Astera Labs는 2017년 미국에서 설립된 비교적 젊은 회사이지만, 현재는 엔비디아·AMD·인텔, 삼성전자·SK하이닉스·마이크론, 브로드컴·마벨 같은 글로벌 반도체·AI 인프라 기업들 사이에서 핵심 연결 플레이어로 자리 잡았습니다. 이 회사가 가진 가장 중요한 가치는 GPU와 GPU, GPU와 메모리, GPU와 스토리지·네트워크를 모두 연결해 데이터가 흐를 수 있도록 해주는 구조적 기술력입니다. 지금의 AI 서버는 단순히 GPU 하나, CPU 하나로 구성된 장비가 아니라 여러 서버, 여러 랙이 하나의 컴퓨팅 집합체처럼 움직이는데, 이 과정에서 수십·수백 개의 고속 인터페이스가 얽히게 됩니다. 고속 신호가 이런 복잡한 환경에서 안정적으로 전달되려면 신호 재생과 보정, 지연 최소화, 라우팅 최적화 같은 전문 기술이 필수인데 Astera Labs는 바로 이 부분에서 세계적인 기술력을 확보했습니다.


이 회사가 제공하는 기술은 크게 세 분야로 나뉘지만, 이 모든 기술이 핵심적으로 해결하는 문제는 하나입니다. AI 서버에서 발생하는 모든 병목을 제거해주는 것입니다. 첫 번째는 초고속 리타이머 및 스마트 케이블 기술입니다. GPU가 늘어날수록 케이블 길이도 길어지고, 신호가 지나가는 경로 또한 복잡해집니다. 케이블이 조금만 길어져도 신호는 왜곡되거나 손실될 수 있습니다. AI 서버는 일반 서버보다 훨씬 높은 주파수로 데이터를 주고받기 때문에 이러한 왜곡을 바로잡지 못하면 전체 시스템이 정상적으로 작동하지 않습니다. Astera Labs는 이런 신호를 안정적으로 보정하고 재생하는 기술을 기반으로 서버와 랙의 연결 구조에서 강력한 영향력을 행사하고 있습니다. 두 번째는 CXL 기반 메모리 확장 기술입니다. AI 모델은 대량의 데이터와 메모리를 요구하기 때문에 기존처럼 CPU에 메모리를 붙이는 방식만으로는 한계가 분명합니다. 이제는 CPU와 GPU, 가속기, DPU 등이 모두 메모리에 직접 접근할 수 있어야 하며, 이때 필요한 기술이 CXL입니다. Astera Labs는 CXL 메모리 컨트롤러, 메모리 스위치, 메모리 확장 모듈 등 CXL 생태계 전체를 아우르는 핵심 기술을 확보했습니다. 이 기술 덕분에 AI 서버는 기존보다 훨씬 더 큰 메모리를 유연하게 활용할 수 있고, GPU 역시 HBM 외에도 외부 메모리 풀에 접근할 수 있어 대규모 모델 학습이 가능해졌습니다. 세 번째는 패브릭 스위치 기술입니다. AI는 GPU 수백 개가 하나로 묶여 연산하는 구조이기 때문에 이를 하나의 거대한 시스템처럼 보이도록 하는 고속 스위칭 기술이 필수입니다. 패브릭 스위치는 GPU 간 데이터를 교환하는 담당자이며, 데이터센터 전체에서 일종의 신경망과 같은 역할을 합니다. Astera Labs는 바로 이 영역에서 점점 더 영향력을 강화하며 브로드컴, 마벨 같은 기존 네트워크 기업들과 경쟁할 수 있는 수준으로 빠르게 성장하고 있습니다.


그렇다면 삼성전자, SK하이닉스, 마이크론 같은 메모리 기업들과 Astera Labs는 어떻게 비교될 수 있을까요. 세 기업은 모두 세계적인 HBM·DDR 메모리 공급자로서 AI 시대의 핵심 역할을 하고 있습니다. 하지만 이들이 담당하는 영역은 AI 인프라 구조에서 하나의 축에 해당합니다. 즉 이들은 연료를 공급하는 기업들입니다. GPU가 빠르게 연산하기 위해서는 HBM이라는 고대역폭 메모리가 필수이기 때문에 이 세 기업은 AI 시대의 절대적 존재입니다. 그러나 연료가 아무리 많아도 엔진과 엔진 사이를 연결하는 파이프라인이 막혀 있다면 전체 성능은 절반 이하로 떨어집니다. HBM이 GPU 바로 옆에 있는 온패키지 메모리라고 하더라도, GPU 수량이 늘어나고 AI 모델이 많아질수록 GPU끼리 데이터를 교환하는 과정에서 미세한 지연만 발생해도 전체 성능이 20~40%까지 떨어지는 구조가 만들어집니다. 그래서 메모리가 아무리 좋아도 연결이 병목이면 전체 성능은 기대 이하가 됩니다. 즉 HBM은 AI 인프라의 연료지만, Astera Labs는 그 연료가 정확한 타이밍과 정확한 양으로 GPU에 도달하도록 하는 혈관망 역할을 합니다. 이 점에서 두 시장의 의미는 다르지만 상호 의존적입니다.


삼성전자와 SK하이닉스는 HBM 생산에서 세계 최강자의 위치를 갖고 있습니다. SK하이닉스는 HBM3와 HBM3E에서 가장 앞서 있으며, 삼성전자는 용량과 발열 구조에서 강점을 가지고 지속적으로 공급망을 넓히고 있습니다. 마이크론은 가격 경쟁력과 미국 제조 기반의 강점이 있습니다. 그러나 이 세 기업 모두 메모리를 만다는 것에 집중되어 있습니다. 메모리를 GPU·CPU·DPU와 연결하고, 이를 랙 단위·데이터센터 단위로 확장하는 영역은 Astera Labs의 영역입니다. 특히 CXL 기반 메모리 확장은 앞으로 데이터센터가 어떻게 설계될지를 결정하는 중요한 변화인데, 이 변화가 커질수록 Astera Labs의 영향력은 더욱 커질 것입니다. 삼성전자와 SK하이닉스도 CXL 메모리 모듈을 만들고 있지만 CXL 메모리 컨트롤러와 스위치를 설계하는 영역은 아직 진입하지 않았습니다. 이 말은 HBM과 DDR이 아무리 늘어나도 그 메모리를 효율적으로 연결하고 확장하는 핵심 기술은 Astera Labs 같은 회사가 담당하게 된다는 뜻입니다.


더 흥미로운 지점은 AI 서버와 데이터센터의 병목 위치가 과거와 완전히 달라졌다는 사실입니다. 과거에는 메모리 대역폭이 병목이었습니다. 그래서 DDR3에서 DDR4, DDR5로 가는 과정이 중요했고, HBM1에서 HBM3E까지 가는 과정이 중요했습니다. 그러나 GPU 아키텍처가 발전하고 HBM이 충분히 공급되면서 병목 위치는 GPU·HBM 자체에서 GPU 간 연결로 이동했습니다. AI 서버를 구성하는 수많은 GPU가 서로 데이터를 교환할 때 이 연결이 느리면 모델 학습이 절반 속도로 떨어지는 현상이 당연하게 나타납니다. 바로 이 지점에서 Astera Labs는 GPU 생태계의 성능을 결정하는 핵심 기업으로 떠올랐습니다. HBM은 반드시 필요하지만, HBM을 100% 활용하려면 GPU끼리 빠르게 데이터를 나눌 수 있어야 하고, 메모리가 GPU로 적시에 전달되어야 하고, 데이터센터 전체가 패브릭 스위치 기반으로 최적화되어야 합니다. 즉 HBM은 필요조건이고, Astera Labs는 충분조건을 만드는 기업입니다.


AI 클러스터 규모가 커질수록 이 회사의 중요성은 지수적으로 증가합니다. 예를 들어 GPU 8개짜리 서버에서는 연결 기술의 중요성이 크지 않습니다. 하지만 GPU 1024개 클러스터를 구축하면 이야기는 달라집니다. GPU 하나에서 발생하는 데이터는 수많은 GPU로 퍼져야 하고, GPU 간 통신량은 트래픽으로 변환되며, 이 트래픽은 패브릭 스위치와 리타이머, CXL 기반 메모리 확장 모듈을 통해 처리됩니다. GPU 1024개 환경에서는 연결 기술이 성능의 60% 이상을 결정하는 경우도 있습니다. GPU가 발전할수록, HBM이 발전할수록, 연결 기술의 중요성은 훨씬 더 커집니다. 그래서 Astera Labs는 GPU·HBM 시대의 새로운 승자라는 평가를 받기 시작했습니다.


그렇다면 한국 기업들은 Astera Labs와 경쟁할 수 있을까요. 현재 기준으로 보면 직접 경쟁한다기보다는 서로 완전히 다른 시장을 담당하는 구조입니다. 하지만 AI 인프라가 구조적으로 성장하면서 한국 기업들도 언젠가 시스템 설계, 패브릭, 연결 기술에서 주도권을 가져야 하는 시점이 올 가능성이 높습니다. 특히 삼성전자가 AI 디바이스·AI 서버 시장에서 자신들의 역할을 확장하려 한다면 인터커넥트 기술까지 내재화해야 합니다. SK하이닉스 역시 HBM 중심 생태계에서 연결 기술을 강화할 필요가 있습니다. 만약 한국 기업이 AI 서버 전반을 하나의 사업 영역으로 만들고 싶다면 결국 연결·스위치·메모리 확장까지 수직 통합해야 하고 그 과정에서 Astera Labs는 경쟁자이면서 동시에 파트너가 될 가능성이 있습니다.


AI 인프라 시장의 미래는 GPU 중심이 아닙니다. 전체 시스템 효율이 승부를 가르는 시장입니다. GPU만 빠르다고 해서 AI 모델이 빠르게 학습되는 시대는 이미 끝났습니다. GPU를 어떻게 묶고, 어떻게 연결하고, 어떻게 메모리를 확장하고, 어떻게 랙 단위로 구성하느냐가 승부를 결정합니다. 이 시스템 전체의 효율을 설계하는 기업이 AI 시대의 진정한 승자가 될 것입니다. Astera Labs는 바로 그 지점에 있습니다. 삼성전자·SK하이닉스·마이크론은 AI 시대의 연료를 공급하는 역할을 맡고 있지만, Astera Labs는 시스템 효율을 결정하는 연결 구조를 장악하고 있습니다. 그래서 이 회사가 지금 가장 주목받는 것이며, 한국 투자자분들이 반드시 이해해야 하는 새로운 성장축입니다. AI 하드웨어는 이제 GPU·HBM·인터커넥트라는 3대 축으로 재편되고 있고, Astera Labs는 그 중에서도 가장 빠르게 성장하는 영역을 차지하고 있습니다. 앞으로 AI 인프라가 더 커지고 복잡해질수록 이 회사의 영향력은 여전히 상승할 가능성이 크고, 전 세계 데이터센터와 AI 기업은 이들의 기술에 의존하는 비중을 계속 늘릴 것입니다.