[아이뉴스24 박지은 기자] “인공지능(AI) 성능을 결정하는 병목이 그래픽처리장치(GPU)가 아니라 메모리로 이동하고 있다.”
김정호 한국과학기술원(KAIST) 전기 및 전자공학부 교수가 AI 시대의 경쟁 축이 연산 성능이 아닌 메모리 구조로 옮겨가고 있다고 진단했다.

김 교수는 3일 서울 중구 프레스센터에서 열린 ‘고대역폭플래시(HBF) 기술 개발 성과, 로드맵 그리고 상품과 전략 발표회’에서 “AI 모델이 커질수록 메모리 수요는 지금보다 100배, 길게 보면 1000배까지 늘어난다”며 “기존 고대역폭메모리(HBM) 중심 구조만으로는 한계에 도달한다”고 말했다.
김 교수는 차세대 HBM 개념을 정립한 세계적 석학으로, 업계에서는 ‘HBM의 아버지’로 불린다. 그는 "HBM은 수요 기업들의 요청에 의해 개발과 양산이 이뤄진 면이 있지만, HBF는 다르다"며 "삼성전자와 SK하이닉스가 먼저 메모리 중심의 AI 반도체를 주도해야 한다"고 강조했다.
왜 HBM만으로는 부족한가
현재 엔비디아의 AI GPU는 GPU 주변에 고대역폭메모리(HBM)를 함께 탑재하는 구조를 기본으로 한다.
HBM은 GPU와 매우 가까운 위치에서 연결돼 높은 대역폭과 낮은 지연 시간을 제공하며, 연산에 필요한 데이터를 빠르게 공급하는 데 최적화된 메모리다. 다만 물리적 배치와 패키징 제약으로 인해 탑재할 수 있는 용량에는 구조적 한계가 있다.
AI 모델이 커지면서 병목이 되는 지점은 이 ‘용량’이다. 질문을 이해하고 답을 생성하는 과정에서 중간 데이터인 키밸류 캐시(KV cache)와 컨텍스트 데이터가 급격히 늘어나지만, GPU 주변에 배치할 수 있는 HBM 개수와 면적은 제한적이기 때문이다. HBM을 더 탑재하려면 패키지 면적 확대와 함께 전력 소모와 발열 부담이 커져 현실적인 확장이 쉽지 않다.

이 때문에 대규모 데이터를 처리할 때는 HBM에 올리지 못한 데이터를 외부 메모리나 스토리지로 옮길 수밖에 없고, 이 과정에서 지연 시간이 발생해 성능이 급격히 떨어진다. AI 추론 과정에서 자주 참조되는 데이터가 HBM 밖으로 밀려날수록 응답 속도가 느려지는 구조다.
김 교수가 제시한 대안이 고대역폭플래시(HBF)다. HBF는 HBM보다 속도는 느리지만 훨씬 큰 용량을 확보할 수 있는 낸드 기반 메모리다.
HBM과 스토리지 사이에서 대용량 데이터를 수용하는 중간 계층으로, HBM의 용량 한계를 보완하는 역할을 HBF가 담당하는 것이다.
키밸류 캐시와 컨텍스트 데이터처럼 빈번히 접근되지만 HBM에 모두 담기 어려운 데이터를 HBF에 두고, 필요할 때 GPU로 공급하는 방식이다.
김 교수는 “HBM은 빠르지만 담을 수 있는 양이 제한돼 있고, 이 구조 자체가 AI 성능의 상한선을 만든다”며 “HBM은 속도를, HBF는 용량을 담당하는 역할 분담이 필요하다”고 설명했다.
HBM·HBF 공존의 기술적 난이도
물론 HBM과 HBF가 하나의 기판에 '하이브리드' 형태로 공존하기 위해선 기술적 과제도 남아 있다.
HBF는 낸드 기반 메모리로, 지연 시간 관리와 쓰기 수명(Endurance)에 제약이 따른다. 김 교수는 “사용 빈도가 높아질수록 데이터 손실 가능성이 있어, 쓰기 수명을 획기적으로 늘리는 기술이 필요하다”고 말했다.

어떤 데이터를 HBM에 두고, 어떤 데이터를 HBF로 내려보낼지에 대한 메모리 관리 정책과 시스템 소프트웨어 구조 변화도 요구된다.
GPU, HBM, HBF가 하나의 패키지에 밀집되는 만큼 전력과 발열, 냉각 설계 역시 핵심 변수로 꼽힌다고 설명했다.
CES서 확인된 변화…기업별 준비 상황
기업들도 HBM과 HBF의 공존을 준비하는 분위기다. 김 교수는 지난달 초 미국 라스베이거스에서 열린 ‘CES 2026’에서 관련 변화를 확인했다고 밝혔다.
엔비디아는 CPU를 거치지 않고 데이터를 GPU에 직접 공급하는 구조를 공개하며 메모리 병목 완화에 나섰다. 다만 HBM 중심 전략에 대한 의존도는 여전히 높다.
AMD는 GPU 설계 단계에서부터 메모리 구성 변화를 염두에 둔 접근을 보였다. CES에서 공개한 차세대 AI 가속기는 HBM 의존 이후를 준비하는 실험적 시도로 해석된다.
![김정호 카이스트 교수가 3일 서울 중구 프레스센터에서 열린 'HBF 기술 개발 성과, 로드맵 그리고 상품화 전략 발표회'에서 발언하는 모습. [사진=박지은 기자]](https://image.inews24.com/v1/8dc278d77b5465.jpg)

메모리 기업들의 움직임도 빨라지고 있다.
가장 적극적인 곳은 SK하이닉스와 샌디스크다. 양사는 지난해 HBF 규격 표준화를 위한 MOU를 체결했다. 또 내년 1월 1세대 HBF 양산을 목표로 하는 것으로 알려졌다.
낸드 시장 1위인 삼성전자는 HBM에 집중하면서도, V-낸드를 통해 기술 개발을 유지하고 있다. 삼성전자와 SK하이닉스는 D램과 낸드를 모두 생산하는 만큼 HBM에 이어 HBF까지 대응할 수 있는 강점을 지녔다는 분석이다.
김 교수는 “HBF는 HBM과 동일한 수준의 패키징과 인터커넥트 전제가 필요하다”며 “HBM과 HBF를 동시에 생산할 수 있는 업체가 구조적으로 유리하다”고 말했다.
구글과 애플 역시 대규모 AI 모델 운영 과정에서 HBM 단독 구조의 한계를 인식하고, 메모리 계층 최적화와 시스템 재설계를 검토하는 것으로 알려졌다.
반도체 업계 한 관계자는 "구글이 반도체 설계 실무나 연구 측면에서 열려있다"며 "AMD와 구글이 HBF를 적극 채용해 엔비디아가 주도하는 AI GPU 시장을 흔들 수도 있지 않겠냐"고 예상했다.
![김정호 카이스트 교수가 3일 서울 중구 프레스센터에서 열린 'HBF 기술 개발 성과, 로드맵 그리고 상품화 전략 발표회'에서 발언하는 모습. [사진=박지은 기자]](https://image.inews24.com/v1/b1dec14b347fcd.jpg)
“AI 시대, 기억을 쥔 나라가 이긴다”
김 교수는 AI 경쟁의 본질이 연산 성능이 아니라 메모리 구조에 있다고 강조했다.
그는 “GPU는 아무리 커져도 메모리가 받쳐주지 않으면 성능이 나오지 않는다”며 “AI 경쟁의 핵심은 더 많은 데이터를 얼마나 효율적으로 다루느냐에 있다”고 말했다.
테라랩에서는 GPU 옆에 HBM을, 그 바깥 계층에 HBF를 배치하는 구조를 직접 실험하고 있다. AI를 위한 메모리 중심 컴퓨팅 구조를 선도하고, 'HBM·HBF 하이브리드' 구조를 제안하기 위해서다.
김 교수는 “HBM은 계산을, HBF는 기억을 담당하는 역할 분담이 가장 현실적인 해법”이라며 “AI 시대에는 연산보다 기억이 중요하고, 그 기억을 쥔 나라가 주도권을 갖게 될 것”이라고 말했다.
/박지은 기자([email protected])
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기