SK하이닉스, "HBM 기술 발전으로 AI 서버에서 채택 증가 전망"
페이지 정보
본문
이강욱 SK하이닉스 PKG 개발 담당 부사장은 3일, "고대역폭 메모리(HBM) 기술의 발전에 따라 AI 서버에서 HBM의 사용이 더욱 늘어날 것"이라고 언급했다. 그는 이날 대만 타이베이 난강전시장에서 열린 '이종집적 글로벌 서밋 2024'에서 'AI 시대를 위한 HBM과 어드밴스드 패키징 기술'을 주제로 발표하면서 이같이 밝혔다.
이번 서밋은 '세미콘 타이완 2024'의 세션 중 하나로 열렸으며, HBM이 AI 칩에 필수적인 반도체로서 증가하는 데이터 트래픽과 시스템 병목 현상을 해결하는 데 중요한 역할을 한다는 것이 이 부사장의 설명이다.
HBM은 현재 AI 서버와 고성능 컴퓨팅 분야에서 폭넓게 사용되고 있으며, 이 부사장은 HBM3E가 초당 1.18TB 이상의 데이터를 처리하고 최대 36GB의 용량을 지원한다고 설명했다. 이어 HBM4는 12단 또는 16단으로 공급되어 최대 48GB 용량을 제공하고 초당 1.65TB 이상의 데이터 처리 속도를 달성할 것으로 기대된다고 덧붙였다.
또한, HBM4부터는 성능과 에너지 효율 향상을 위해 베이스 다이에 로직 공정을 적용할 예정이라고 말했다. 이 부사장은 HBM의 성능 향상에 따라 AI 시장에서 HBM의 수요가 더욱 증가할 것으로 전망했다.
업계에 따르면, 생성형 AI 시장은 2032년까지 연평균 27% 성장할 것으로 예상되며, HBM 시장은 2022년부터 2025년까지 연평균 109%의 성장이 예상되고 있다.
박은지기자/2024.09.03
alska3421@naver.com
사진출처-나무위키 캡쳐
댓글목록
등록된 댓글이 없습니다.