0004548847_001_20251028180320854.png?type=w800

데이터센터용···NPU 기술 기반
첫 고객은 사우디 기업 '휴메인'
퀄컴 AI 추론 칩셋 AI200·AI250 서버 랙. 사진제공=퀄컴
[서울경제]

퀄컴이 인공지능(AI) 데이터센터용 칩 시장에 뛰어든다. 저전력·고효율 모바일 신경망처리장치(NPU) 기술력을 서버 수준으로 확장해 엔비디아가 장악한 그래픽처리장치(GPU) 시장에 도전하는 전략이다. 미국 빅테크의 한 축인 퀄컴이 AI 가속기 칩 시장에 뛰어들면서 글로벌 양대 메모리 회사인 삼성전자(005930)SK하이닉스(000660)의 실적은 한층 호전될 것이라는 기대에 힘이 실린다.



퀄컴은 27일(현지 시간) 신형 AI 가속기 AI200·AI250 칩셋과 랙 플랫폼을 각각 2026년, 2027년 출시한다고 밝혔다. 이번에 발표한 제품은 퀄컴이 2021년 공개한 독립형 AI 가속기(AI100)에서 나아가 데이터센터에 여러 개의 서버를 저장하는 프레임 형태인 랙 단위로 크기를 확장했다. 퀄컴은 “랙 솔루션은 열 효율성을 위한 액체 냉각, 확장을 위한 커넥터, 160㎾ 랙 수준 전력 소비가 특징”이라며 “추론 등 AI 작업에 최적화해 낮은 총소유비용(TCO)를 제공하도록 설계했다”고 강조했다.

퀄컴은 새 AI 가속기의 첫 고객도 밝혔다. 사우디아라비아의 휴메인이다. 휴메인은 사우디아라비아의 AI 전문 기업으로 수도 리야드와 동부 담맘 지역에 각각 최대 100㎿ 규모의 데이터센터를 구축하고 있고 2030년까지 총 1.9GW 규모의 데이터센터를 추가로 건설할 계획이다.

퀄컴이 새 AI 가속기와 함께 대형 수요처를 밝히며 엔비디아 중심으로 흐르고 있는 시장의 틈새를 공략하겠다는 의지를 강하게 내비친 것이다. 휴메인은 2026년부터 AI200를 토대로 200㎿급 데이터센터를 구축할 계획이다. 데이터센터 AI 가속기 시장 본격 진출과 대형 고객사 확보 소식에 이날 뉴욕 증시에서 퀄컴 주가는 11% 이상 뛰었다.

업계는 퀄컴의 AI 가속기 시장 진출이 반도체 ‘슈퍼사이클’로 가격이 뛰고 있는 D램 가격을 더 끌어올릴 것으로 내다보고 있다. 퀄컴은 2027년 출시할 AI250의 메모리에 대해 “혁신적인 메모리 기반 컴퓨팅 설계로 10배 이상 향상된 유효 메모리 대역폭과 낮은 전력 소비를 제공한다”고 설명했다.

고대역폭메모리(HBM)를 사용하거나 저소비전력 D램(LPDDR)을 적층하는 소캠, 프로세싱인메모리(PIM) 등을 사용하겠다는 의미로 해석된다. 어느 방식이든 삼성전자와 SK하이닉스의 고성능 D램이 필요한 구조다.

삼성전자는 파운드리(반도체 위탁 생산) 수주 가능성도 있다. 최근 삼성전자는 삼성 2나노(SF2) 공정에서 제조한 퀄컴 스냅드래곤8 엘리트 5세대 모바일AP 샘플을 전달한 것으로 전해졌다. 퀄컴의 스냅드래곤8엘리트5의 생산이 순탄할 경우 삼성전자가 퀄컴의 새 AI 가속기 생산을 맡을 가능성도 열려 있다. 퀄컴은 2022년 삼성전자 파운드리에서 만든 칩이 발열 현상 등을 겪자 제조사를 대만 TSMC로 전환했다.