HBM4 – SK hynix Newsroom 'SK하이닉스 뉴스룸'은 SK하이닉스의 다양한 소식과 반도체 시장의 변화하는 트렌드를 전달합니다 Thu, 18 Sep 2025 00:24:49 +0000 ko-KR hourly 1 https://wordpress.org/?v=6.7.1 https://skhynix-prd-data.s3.ap-northeast-2.amazonaws.com/wp-content/uploads/2024/12/ico_favi-150x150.png HBM4 – SK hynix Newsroom 32 32 SK하이닉스 ‘델 테크놀로지스 포럼 2025’ 참가… 차세대 AI 시장 선도할 메모리 설루션 공개 /dtf2025/ Thu, 18 Sep 2025 01:00:39 +0000 /?p=53607

▲ 델 테크놀로지스 포럼 2025 SK하이닉스 전시 부스

SK하이닉스는 지난 17일 서울 삼성동 코엑스에서 열린 ‘델 테크놀로지스 포럼(Dell Technologies Forum) 2025’에 참가해 AI 시대를 선도할 다양한 메모리 설루션을 선보였다고 18일 밝혔다.

델 테크놀로지스 포럼은 매년 미국 라스베이거스에서 개최되는 ‘델 테크놀로지스 월드(Dell Technologies World)’와 맥을 같이하는 행사[관련기사]로, 미국 델 테크놀로지스(Dell Technologies)의 한국 지사가 주요 이해관계자들을 초청해 기술 세션, 제품 시연 및 쇼케이스 등을 진행하는 국내 최대 규모의 IT 컨퍼런스다. 올해 행사는 ‘Beyond the Limits of Imagination(상상 속 가능성, 그 한계를 넘어서)’을 주제로 열렸으며, 약 4천 명의 관람객이 이곳에 방문했다.

▲ SK하이닉스 부스에 전시된 AI 메모리 설루션

SK하이닉스는 이번 행사에서 ‘Guardians of the AI – Full Stack AI Memory Provider(인공지능을 지키는 수호자, 풀스택 AI 메모리 프로바이더)’라는 콘셉트 아래, AI 인프라를 완성할 제품 포트폴리오를 공개했다. 특히 캐릭터를 활용한 부스 디자인은 회사의 차별화된 기술 경쟁력을 친근하고 자연스럽게 체감할 수 있는 소재로, 많은 관람객의 호응을 얻었다.

▲ SK하이닉스 부스에 전시된 HBM 기술 3D 구조물

전시의 핵심은 단연 HBM* 라인업이었다. SK하이닉스는 지난 12일 ‘HBM4 12단’을 세계 최초로 개발해 양산 체제를 구축했다고 발표했다[관련기사]. 이 제품은 초당 2TB(테라바이트) 이상의 데이터를 처리하며 세계 최고 속도로 AI 연산 시스템을 지원할 차세대 설루션으로 알려져 있다. 부스에는 HBM4 12단 제품과 함께 ‘TSV*’, ‘어드밴스드 MR-MUF*’ 등 HBM에 적용된 핵심 기술을 시각적으로 표현한 3D 구조물이 설치돼 관람객의 이목을 집중시켰다. 이와 함께 현존 최고 성능과 용량을 갖춘 ‘HBM3E’가 탑재된 엔비디아의 차세대 GPU 모듈인 ‘GB300(Grace Blackwell 300)’이 함께 전시됐다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨
* TSV(Through-Silicon Via): D램 칩에 수천 개의 미세 구멍을 뚫어 칩들을 수직 관통하는 전극으로 연결하는 기술
* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술

▲ SK하이닉스 부스에 전시된 D램 및 D램 모듈 제품

D램 섹션에서는 초고속·저전력 특성이 강점인 ‘LPDDR5X*’가 눈길을 끌었다. 이 제품은 스마트폰, 태블릿, 노트북 등 모바일 기기에 최적화된 설루션으로, 최근 온디바이스 AI 확산과 함께 영향력을 넓히고 있다. 또, 여러 개의 LPDDR5X를 하나의 모듈로 묶어 저전력·고성능을 동시에 실현한 ‘LPCAMM2*’도 메모리 혁신을 이끌 제품으로 주목받았다.

* LPDDR5X: 저전력 동작 특성을 지닌 최신 모바일 D램 제품. 명칭 앞에 LP(Low Power)가 붙으며, LPDDR1-2-3-4-4X-5-5X 순으로 개발됨
* LPCAMM2(Low-Power Compression Attached Memory Module): LPDDR5X 기반의 모듈 제품으로, 기존 DDR5 기반의 SODIMM(노트북/소형PC용 모듈) 2개를 대체하는 성능 효과를 가지면서 공간 절약과 저전력/고성능 특성을 구현

D램 모듈 라인업에서도 한층 강화된 포트폴리오가 공개됐다. SK하이닉스는 10나노(nm)급 6세대(1c)* 미세공정 기술을 적용한 ▲RDIMM* ▲CSODIMM*을 비롯해 ▲3DS* RDIMM ▲Tall MRDIMM* ▲SOCAMM* 등의 제품군을 선보이며 PC부터 AI 서버까지 다양한 애플리케이션에 적용될 수 있는 기술력을 드러냈다.

* 10나노(nm)급 D램 미세공정 기술은 1x-1y-1z-1a-1b-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다
* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* CSODIMM(Compression Attached Small Outline DIMM): 기존 SODIMM 대비 더 얇고 작은 폼팩터로, AI PC나 고성능 노트북에서 고용량을 구현할 수 있도록 설계된 차세대 메모리 모듈
* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징한 고성능 메모리 설루션
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동해 속도가 향상된 서버용 모듈 제품
* SOCAMM(Small Outline Compression Attached Memory Module): 저전력 D램 기반의 AI 서버 특화 메모리 모듈

▲ SK하이닉스 부스에 전시된 eSSD 및 cSSD 제품

스토리지 섹션에서는 eSSD*와 cSSD* 제품군이 관객들을 맞았다. SK하이닉스는 AI 서버 및 데이터센터 환경에 최적화된 ▲PEB110, ▲PS1010, ▲PS1012, ▲PS1101 등의 eSSD 라인업을 전시했다. 이중 ‘PS1012’는 QLC* 기반으로 61TB(테라바이트) 용량을 구현하고 PCIe* 5.0 인터페이스로 이전 세대 대비 두 배의 대역폭을 제공해 고용량·고성능이 요구되는 AI 인프라 환경에 최적화된 제품으로 눈길을 끌었다. 또한, 세계 최대 수준인 245TB 용량을 구현한 ‘PS1101’ 역시 폭증하는 데이터 수요에 대응하는 차세대 스토리지 설루션으로 눈도장을 찍었다. cSSD 제품인 PCB01은 초당 14GB(기가바이트) 연속 읽기, 12GB 연속 쓰기 성능을 구현해 고성능 온디바이스 환경에서의 활용 가능성으로 기대를 모았다.

* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* cSSD(Client Solid State Drive): PC, 태블릿 등 개인용 전자기기에 탑재되는 소비자용 SSD
* 셀(Cell)에 저장 가능한 비트(Bit) 단위에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스

한편, SK하이닉스 박정원 TL, 이교영 TL(SSD제품기획)은 ‘Key Things for AI Storage(AI 스토리지를 위한 핵심 과제)’를 주제로 발표를 진행했다. 이를 통해 AI 성능의 핵심인 cSSD 및 eSSD의 특징과 제품 라인업을 소개하고, 다가올 AI 시대에 요구되는 스토리지 기술과 이에 따른 시장 전망을 제시해 현장 참석자들의 높은 호응을 이끌었다.

SK하이닉스는 “이번 행사를 통해 델 테크놀로지스와의 파트너십을 강화하고, 자사의 풀스택 AI 메모리 프로바이더로서의 위상을 대외 알릴 수 있었다”며, “앞으로도 AI 서버, 데이터센터, 온디바이스 등 다양한 분야에서 혁신적인 메모리 설루션을 지속 선보일 계획”이라고 말했다.

]]>
SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료하고 양산 체제 구축 /mass-production-hbm-4/ Thu, 11 Sep 2025 23:30:04 +0000 /?p=53421 · 현존 최고 성능 HBM4 고객 일정 맞춰 공급…경쟁 우위 실현
· HBM3E 대비 2배로 늘어난 대역폭과 40% 향상된 전력 효율 확보
· “AI 인프라의 한계를 뛰어넘는 상징적 전환점, AI 시대 기술 난제 해결할 것”

SK하이닉스가 초고성능 AI용 메모리 신제품인 HBM4* 개발을 성공적으로 마무리하고, 양산 체제를 세계 최초로 구축했다고 12일 밝혔다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨

회사는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며, “이를 통해 당사의 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 밝혔다.

개발을 이끈 SK하이닉스 조주환 부사장(HBM개발 담당)은 “HBM4 개발 완료는 업계에 새로운 이정표가 될 것”이라며, “고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입(Time to Market)을 실현할 것”이라고 밝혔다.

AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭* 메모리 수요가 최근 급증하고 있다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 설루션(Solution)이 될 것으로 내다봤다.

* 대역폭(Bandwidth): HBM 제품에서 대역폭은, HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻함

새롭게 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2,048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 끌어올렸다. 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것이다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했다.

회사는 또 이 제품에 10Gbps(초당 10기가비트) 이상의 동작 속도를 구현해, HBM4의 JEDEC* 표준 동작 속도인 8Gbps를 크게 뛰어 넘었다.

* JEDEC(Joint Electron Device Engineering Council): 반도체 기기의 규격을 규정하는 반도체 분야 표준화 기구인 국제반도체표준협의기구

회사는 HBM4 개발에 시장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF* 공정과 10나노급 5세대(1bnm) D램 기술을 적용해 양산 과정의 리스크도 최소화했다.

* MR-MUF: 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고, 굳히는 공정. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고, 열 방출에도 효과적이라는 평가. 특히, SK하이닉스의 어드밴스드 MR-MUF는 기존 공정보다 칩을 쌓을 때 가해지는 압력을 줄이고, 휨 현상 제어(Warpage control)도 향상해 HBM 공급 생태계 내에서 안정적인 양산성을 확보하는 데 핵심이 되고 있음

SK하이닉스 김주선 AI Infra 사장(CMO, Chief Marketing Officer)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며, “당사는 AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급하여 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했다.

]]>
HBM4의 속도감을 담은 AI 뮤직비디오 /ai-in-your-area-9/ Tue, 22 Jul 2025 05:00:49 +0000 /?p=50777

미래를 향한 질주, SK하이닉스

EP.9HBM4의 속도감을 담은 AI 뮤직비디오
가장 생생한 AI 체험기
모든 일상에 AI가 스며드는 시대 –
SK하이닉스 뉴스룸이 생성형 AI를 직접 사용하고 AI의 가능성과 변화할 미래 모습을 탐구합니다.

Mission
AI로 뮤직비디오 제작하기
기술이 급변하는 시대, AI로 만들어내는 음악과 영상으로
HBM4의 가치를 생생하게 전하고자 ‘AI 뮤직비디오’를 제작했다.

How To Make It
SK하이닉스의 미래를 향한 레이싱
HBM4의 초고속·초연결 기술력을 탑재한 카레이서가
시공간을 넘나들며 미래를 향해 끊임없이 달린다.

STEP.1
AI 음원 제작
레이싱 특유의 속도감과 역동성을 효과적으로 전달하기 위해,
질주하는 에너지를 담은 사운드를 추출했다.
여기에는 ‘speed(속도)’,
‘intense(강렬한)’, ‘futuristic(미래적인)’ 등의 키워드를 활용했다.

A sleek, high-impact idol-style
track just over 2
minutes,
fast-
paced beats, metallic sounds,
and sharp
drops drive
racing
and combat energy …

세련되고 임팩트 강한 스타일의 트랙으로,
2분 조금 넘는 러닝타임을 가진 곡, 빠른
비트와 메탈릭한 사운드,
날카로운 드롭이
레이싱과 전투의 에너지를 이끌며 …

STEP.2
AI 이미지 제작
에너지 넘치는 리듬, 가사 속 핵심 키워드 ‘기술’, ‘속도’, ‘미래’를
바탕으로
HBM4 기술이 이끄는 초고속·초연결의 여정을 시각화했다.
이를 위해 SK하이닉스의 CI 컬러를 담은 카레이서와 트랙,
그리고
데이터를 형상화한 오렌지색과 보랏빛의 빛줄기를 비주얼 요소로 활용했다.
The person wears a
vibrant
orange
racing suit

with stitched
seams,
sponsor
patches, and
a
high collar …
그의 선명한 오렌지색의 레이싱 슈트는
정교한 스티치
마감과 스폰서 패치,
높게 올라간 칼라가 더해져
강렬한
인상을 주고 …

futuristic orange hover
racing
car with no
wheels,

levitating
just above a
sleek
illuminated
road
in a bright sci-fi city …
바퀴 없이 공중에 떠 있는 미래형 오렌지
색상의 호버
레이싱카가 눈부신 조명으로
가득한 SF 도시의 빛나는
도로 위를
질주하고 있고 …

A modern glass
skyscraper
seen
from the
side under

clear daylight.

Thin

streams of orange
and
purple light rise
smoothly
from the
bottom
맑은 대낮에 측면에서 본
현대적인
유리 고층 빌딩.
아래쪽에서부터
얇은
주황색과 보라색 빛줄기가

부드럽게
솟아오르고 …

STEP.3
역동성을 살린 AI 무빙 연출
레이싱카의 빠른 속도와 빛의 움직임을 표현하기 위해, 아래와 같은 카메라 키워드를 활용했다.
Motion Blur
움직임에 잔상을 더해,
속도감과 자연스러운
흐름을 표현

Long Exposure
움직임을 흐릿하게 담아
몽환적이고 드라마틱한
효과를 연출

Dynamic Camera Angle
카메라 각도를 변형해
몰입감과 역동성을 강화

Rapid zoom-in / Zoom-out
빠른 줌으로 집중 유도,
장면 전환의 강한
임팩트 연출

[Camera Prompt]
The camera tracks the
vehicle
from above
at a dynamic
diagonal
angle …
카메라는 위에서 비스듬하게,
역동적인 각도로 차량을 따라가며 …

[Camera Prompt]
The camera pans around
the
man in the orange
racing suit
with a clock
helmet …
카메라가 시계 헬멧을 쓴 오렌지색
카레이서
남성을 중심으로 회전하며
촬영하고 …

STEP.4
영상 후반 작업
영상 후반 작업은 음악에 맞춰 시각적 몰입감을 강화하는 데 집중했다.
메모리 처리 속도를 잘 보여줄 수 있도록 편집해 영상에 리듬감을 더했다.

Epilogue
속도와 효율을 높이는 AI
이번 에피소드는 SK하이닉스 HBM4의 세계 최고 수준의 속도를
감각적으로 전달하기 위한 시도였다.
뮤직비디오 제작 과정에서 AI는 속도와 효율을 높여주는 핵심 도구이다.
원하는 장르에 맞게 키워드를 입력하면, 복잡하고 긴 편집 없이도 시각적으로
눈길을 끄는
AI 뮤직비디오를 완성할 수 있다.
AI 메모리는 초고속 데이터 처리 능력과 뛰어난 에너지 효율을
바탕으로 다양한 AI 콘텐츠가 빠르게 구현될 수 있도록 해준다.
앞으로도 SK하이닉스는 이와 같은 초고속 AI 메모리 기술을 통해,
복잡한 AI 연산을
원활하게 하는 것은 물론
일상의 모든 기술과 혁신을 통해
사람들이 더욱 편리해지는 미래를 만들어갈 것이다.

연관 기사

]]>
[세미의 시대 1편] 당신의 질문 하나가 데이터센터를 더 뜨겁게 만든다면? /the-semiconductor-era-ep1/ Thu, 17 Jul 2025 00:00:21 +0000 /?p=50954

0과 1로 움직이는 디지털 세상 속에서 ‘반도체가 이끄는 산업의 현재와 미래’를 조망하는 다큐멘터리 시리즈, [세미의 시대; 세상을 설계하는 작은 조각]을 새롭게 선보입니다.
SK하이닉스 뉴스룸이 깊이 있게 준비한 이번 시리즈에서는 산업별 최신 이슈를 심층적으로 분석하고, 전문가와 함께 해법 및 발전 방향을 모색합니다. 이 과정에서 작지만 혁신적인 반도체 기술이 어떤 돌파구를 제시하는지도 살펴봅니다. 1편에서는 AI 데이터센터가 불러온 기후위기의 실태를 짚어보고, 그 해결책으로 주목받는 반도체 기술을 조명합니다.

“챗GPT(ChatGPT)에 ‘고맙다’는 말을 자제해 주세요.”
– 샘 올트먼(Samuel H. Altman) 오픈AI 최고경영자

모든 것을 알고 있고 무엇이든 답하는 생성형 AI이지만, 유독 ‘인사’만은 자제 해달라고 당부한다. 우리가 AI에게 건네는 짧은 인사 한마디가 전력 소비를 증가시키고 지구를 더 뜨겁게 만들어 기후위기를 앞당기고 있기 때문이다. AI를 쓰면 쓸수록 지구가 뜨거워진다는 역설적인 현실 속에서 뉴스룸은 AI가 환경에 미치는 영향을 구조적으로 살펴보고 해결책을 모색해 봤다.

급증하는 데이터센터 전력 소비… 원인은 ‘AI 서버’

지난 2023년 챗GPT의 등장과 함께 생성형 AI가 확산되면서 일상과 산업 전반은 큰 변화를 맞았다. 가장 큰 영향을 받은 분야는 ‘데이터센터(Data Center)’였다. AI 서비스가 급증하면서 AI 연산량도 기하급수적으로 늘었는데, 이로 인해 전력 소비와 탄소 배출도 급격히 증가했다.

국제에너지기구(IEA) 보고서(Energy and AI, 2025)에 따르면, 2024년 전 세계 데이터센터 전력 소비량은 약 415TWh(테라와트시)에 달할 것으로 추정된다. 이는 주행거리 약 500km의 전기차 55억 대를 충전할 수 있는 막대한 양이다. 더 심각한 문제는 이 수치가 앞으로 더욱 증가한다는 사실이다. IEA는 2030년 데이터센터 전력 소비량이 약 945TWh를 기록할 것으로 전망했다.

▲ 이병훈 교수(포스텍 반도체공학과)가 AI 서버의 전력 소비량에 관해 설명하고 있다.

원인은 AI 연산을 담당하는 가속 서버(Accelerated Server), 즉 AI 서버에 있다. 이 서버의 GPU는 CPU 기반의 일반 서버보다 월등히 많은 전력을 소비한다. 이병훈 교수(포스텍 반도체공학과)는 “AI 서버는 일반 서버보다 약 7~8배 많은 전력을 사용하며, 특히 CPU 중심의 AI 연산 과정에서 막대한 전력이 소모된다”고 설명했다.

데이터센터 전력 소비의 상당 부분을 AI 서버가 차지한다는 사실은 IEA 보고서에서도 엿볼 수 있다. IEA에 따르면 2030년 AI 서버의 전력 소비량은 약 300TWh에 이를 전망이다. 이는 전체 소비량의 약 1/3에 해당한다. 정리하자면 AI 활용이 늘수록 AI 서버의 전력 소비량과 탄소 배출도 급격히 증가할 수밖에 없는 것이다.

탄소 배출과 기후변화 우려… 다각적 해결책 필요

정수종 교수(서울대학교 기후테크센터 센터장)는 “2030년 데이터센터 전력 소비량인 945TWh는 일본 전체 전력 소비량과 비슷한 수준”이라며 “이러한 데이터센터 전력 소비로 인해 약 25억 톤의 탄소가 배출될 가능성이 있다”고 경고했다.

▲ 정수종 교수(서울대 기후테크센터 센터장)가 AI 데이터센터의 탄소 배출 문제를 지적하고 있다.

데이터센터에서 촉발된 기후변화 원인 물질이 지구온난화를 가속화해 다양한 부작용을 초래할 수 있다는 게 그의 설명이다.

하지만 AI 발전을 멈출 수 없기에 전문가들은 탄소 배출 최소화를 위한 다각적 해결책을 모색해야 한다고 입을 모은다. IEA에 따르면 AI 기반 에너지 관리와 워크로드 스케줄링 등 소프트웨어 최적화만으로도 최대 15%의 에너지를 절약할 수 있다. 또 데이터센터 효율 개선, 친환경 재생에너지 활용, 소형모듈원자로* 및 탄소포집* 등 새로운 대체 에너지 개발도 검토되고 있다.

* 소형모듈원자로(Small Modular Reactor, SMR): 기존 원전보다 작고 모듈 형태로 제작해 현장에 설치할 수 있으며, 이산화탄소 직접 배출이 없는 친환경 에너지원
탄소포집(Carbon Capture Utilization and Storage, CCUS): 발전소나 산업시설에서 나오는 이산화탄소를 포집해 지하 저장하거나 재활용하는 기술

근본적인 해결책은 반도체 기술 혁신이다. 데이터센터 주요 전력 소모원이 AI 서버인 만큼, 이 서버의 핵심 부품인 반도체의 성능과 효율을 높이는 것은 가장 효과적인 해결책일 수밖에 없다. 관련해 이병훈 교수는 “새로운 반도체 기술로 전력 소모를 기존 대비 1/100 수준까지 줄이는 연구가 진행 중”이라며 “데이터 이동량 감소를 위한 새로운 아키텍처도 고려되고 있다”고 밝혔다.

SK하이닉스, AI 메모리 기술로 데이터센터 전력 문제 해결

SK하이닉스 역시 데이터센터의 전력 효율을 높이기 위해 다양한 AI 메모리를 개발하고 있다.

고대역폭 메모리 HBM(High Bandwidth Memory)에는 어드밴스드 MR-MUF* 기술을 적용해 방열성과 안정성을 높였다. 최근에는 베이스다이(Base Die) 성능과 전력 효율을 개선한 HBM4 샘플도 선보였다.

전력 소모를 줄여주는 AI 데이터센터용 고용량 eSSD(기업용 SSD) 개발도 지속적으로 이뤄지고 있다. QLC* 기반 PS1012는 제한된 공간에 더 많은 데이터를 담고, 빠른 전송 속도로 AI 학습 시간을 줄여 전력 소비를 낮추는 데 기여할 수 있다.

저전력 D램 기반의 AI 서버 특화 메모리 모듈 SOCAMM*도 개발 중이다. 기존 서버용 메모리 대비 작은 폼팩터를 갖춘 이 제품은 AI 데이터센터의 에너지 효율을 높이는 데 기여할 것으로 기대된다.

이와 같이 SK하이닉스는 다양한 고효율 메모리 기술을 개발하며, 데이터센터 문제에 직접적인 해법을 제시하는 중이다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술
* QLC: 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* SOCAMM(Small Outline Compression Attached Memory Module): 기존의 서버용 메모리 모듈보다 더 작은 폼팩터를 가지면서 전력 효율이 높은 저전력 D램 기반의 AI 서버 특화 메모리 모듈

AI 메모리 기술과 함께 AI의 발전은 앞으로도 계속될 전망이다. 투자 또한 계속된다. 스타게이트 사(社)는 2029년까지 수 GW(기가와트)급 데이터센터를 건설할 계획이며, 대만도 엔비디아와 협력해 AI 데이터센터를 건립한다고 밝혔다. 한국의 경우 SK가 AWS와 협력해 울산에 100MW(메가와트)급 친환경 AI 데이터센터를 건설하며, 장기적으로 1GW 규모로 확대한다는 계획이다.

이처럼 세계 곳곳에서 데이터센터의 수가 빠르게 증가하는 가운데, AI의 발전 속도는 결국 얼마나 효율적으로 에너지를 관리하느냐에 달려 있다고 해도 과언이 아니다. 어쩌면 그 시작은 작은 반도체 칩 하나에 달려 있을지도 모른다.

]]>
SK하이닉스, DTW 25에서 AI·서버 시장 공략할 핵심 AI 메모리 선보이다 /dtw-25/ Thu, 22 May 2025 05:00:37 +0000 /?p=48104

SK하이닉스가 19일(미국시간)부터 나흘간 미국 라스베이거스에서 열린 DTW 25(Dell Technologies World 2025)에 참가해 AI 서버 및 PC에 최적화된 메모리 설루션을 선보였다.

DTW는 미국 전자기업 델 테크놀로지스(Dell Technologies, 이하 델)가 주최하는 컨퍼런스로, 미래 기술 트렌드를 한눈에 확인할 수 있는 자리다. ‘아이디어로부터 혁신을 가속하다(Accelerate from ideas to Innovation)’를 주제로 열린 올해 행사에서는 AI 혁신을 이끌어낼 다양한 제품과 기술이 공유됐다.

▲ SK하이닉스 부스에 방문한 많은 관람객들

SK하이닉스는 델 사(社)와 긴밀한 협력 관계를 바탕으로, AI 리더십을 굳건히 하고자 매년 이 행사에 참여하고 있다. 올해 회사는 ▲HBM* ▲CMM(CXL* Memory Module)-DDR5 ▲서버 D램 ▲PC D램 ▲eSSD* ▲cSSD* 등 6개 섹션으로 부스를 꾸리고, D램(DRAM)과 낸드플래시(NAND flash) 전 영역에서 독보적 경쟁력을 갖춘 제품들을 소개했다. 특히 AI 서버와 스토리지, PC 시장을 총망라한 제품으로 부스를 구성해 많은 관객의 호응을 이끌었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨
* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음
* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* cSSD(Client Solid State Drive): PC, 태블릿 등 개인용 전자기기에 탑재되는 소비자용 SSD

HBM 섹션에서는 초당 2TB(테라바이트) 이상의 데이터를 처리하며, AI 메모리에 요구되는 세계 최고 수준의 속도를 구현한 ‘HBM4 12단’, 현존 최고 성능 및 용량을 갖춘 ‘HBM3E 12단’을 공개했다. 이중 HBM4는 베이스 다이(Base Die) 성능을 개선하고 전력 소모를 줄이는 방향으로 개발 중인 차세대 HBM으로, 최근 회사는 세계 최초로 주요 고객사에 샘플을 제공하며 AI 메모리 리더십을 다시 한번 증명한 바 있다[관련기사].

이번 전시에서 회사는 HBM3E를 엔비디아(NVIDIA)의 최신 GPU(블랙웰) 모듈인 ‘B100’과 함께 전시하며 글로벌 고객사들과의 견고한 파트너십 또한 강조했다.

CMM-DDR5 섹션에서는 96/128GB(기가바이트) 고용량의 ‘CMM-DDR5’를 만나볼 수 있었다. 이 제품은 CXL 기술을 적용한 DDR5 메모리 모듈로, 기존 구성 대비 50% 확장된 용량과 30% 늘어난 대역폭을 자랑한다. 전시에서는 영상 데모 시연도 진행됐는데, 주요 CPU 제조사의 서버용 프로세서가 장착된 시스템에서 용량 확장의 한계를 돌파하면서도 안정적인 성능을 보여주며 많은 관객의 이목을 집중시켰다.

서버 D램 섹션에서는 DDR5 D램 기반의 서버용 모듈 라인업이 관객을 맞았다. 현장에서는 10나노(nm)급 6세대(1c)* 미세공정 기술이 적용된 ‘1c DDR5 RDIMM* 및 MRDIMM*’이 눈길을 끌었다. 이외에도 회사는 ‘DDR5 RDIMM(96GB)’, ‘3DS* DDR5 RDIMM(256GB)’, ‘DDR5 MRDIMM(96GB, 256GB)’ 등 AI 서버 성능을 극대화하고, 전략 소모를 줄여줄 D램 제품을 다수 선보였다.

* 10나노(nm)급 D램 공정 기술은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대)-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다.
* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징을 완료한 고대역폭 메모리 제품

PC D램 섹션에서는 LPDDR5X* 여러 개를 하나의 모듈로 묶어 저전력·고성능을 구현한 ‘LPCAMM2’, 세계 최고 사양의 그래픽 메모리 ‘GDDR7’ 등 온디바이스 AI 시장에서 활약할 SK하이닉스의 주력 D램 제품을 확인할 수 있었다.

* LPDDR5X: 스마트폰과 태블릿, 노트북 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성을 갖고 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품

eSSD/cSSD 섹션에서는 차세대 낸드 제품이 대거 공개됐다. 특히 회사는 ‘PS1010’을 장착한 델 서버 시스템(R7625)을 선보였다. PCIe* 5세대 eSSD 제품인 PS1010은 176단 4D 낸드를 다수 결합해 만든 패키지 제품으로, 데이터 사용이 많은 AI 구동 및 데이터센터에 최적화됐다고 회사는 설명했다.

이밖에 ‘PS1012’, ‘PCB01’ 등도 AI 서버 및 PC 시장을 이끌 SSD로 소개됐다. 61TB 대용량을 자랑하는 PS1012는 PCIe 5세대/QLC* 기반의 eSSD로, 급격히 증가한 고용량 eSSD 수요에 대응할 제품으로 주목받고 있다.

* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스
* 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음

PCB01은 초당 14GB 연속 읽기, 초당 12GB 연속 쓰기 속도를 자랑하는 cSSD 제품으로, 이번 전시에서는 데모 시연도 살펴볼 수 있었다. 인텔 PC용 프로세서가 장착된 데스크톱 환경에서 뛰어난 성능과 호환성을 보여준 이 제품은 AI PC 등 온디바이스 AI 시장에서 활약할 것으로 기대를 모으고 있다.

한편, SK하이닉스는 발표 세션을 통해 AI 메모리 및 차세대 기술에 대한 인사이트를 공유하기도 했다. 이교영, 박정원 TL(SSD제품기획)은 ‘AI 스토리지에서 고려해야 할 것(Key things to consider for your AI storage)’을 주제로 발표를 진행했고, 산토시 쿠마르(Santosh Kumar) TL(DRAM TP)은 ‘AI 시대에 CMM 제품이 필요한 이유(Why do we need CMM device in AI era?)’란 주제로 CMM 제품의 미래가치를 강조했다.

SK하이닉스는 “DTW 25를 통해 AI 서버와 PC는 물론 산업 전반에서 AI 메모리 및 스토리지에 대한 수요가 빠르게 증가하고 있음을 확인했다”며 “앞으로도 고객과의 원팀 파트너십을 바탕으로 기술 협업을 강화하고, 고성능·고품질 설루션을 적시에 제공해 나가겠다”고 밝혔다.

]]>
SK하이닉스, ‘COMPUTEX 2025’ 참가… HBM4와 AI 메모리 포트폴리오 공개 /computex-taipei-2025/ Thu, 22 May 2025 01:00:09 +0000 /?p=48099

▲ 컴퓨텍스 2025에 마련된 SK하이닉스 부스

SK하이닉스가 20일부터 23일까지 나흘간 대만 타이베이에서 열리는 ‘컴퓨텍스 타이베이 2025(COMPUTEX TAIPEI 2025, 이하 컴퓨텍스)’에 참가해 AI 서버·PC·모바일 등을 아우르는 폭넓은 제품 포트폴리오를 공개했다.

컴퓨텍스는 글로벌 IT 기업이 모여 최신 기술과 설루션을 소개하는 아시아 최대 규모의 ICT 박람회로, AI, 데이터센터 등 주요 산업의 혁신 기술과 트렌드가 공유되는 자리다. ‘AI Next’를 주제로 열린 올해 행사에는 1,400여 기업이 참가해 AI와 로봇, 차세대 기술, 미래 모빌리티와 관련한 다양한 전시를 진행했다.

이번 행사에서 SK하이닉스는 ‘MEMORY, POWERING AI AND TOMORROW’를 슬로건으로 ▲HBM for AI ▲Data Center ▲Mobile/PC ▲Ethic & ESG 등 4개 섹션의 부스를 꾸리고 다양한 AI 메모리 설루션을 선보였다.

HBM for AI 섹션에서 SK하이닉스는 ‘HBM4* 12단’과 ‘HBM3E 12단’을 공개했다. 이와 함께 회사는 내년을 목표로 개발 중인 HBM4 16단의 로드맵을 제시했다. HBM4는 현존 최고 속도인 초당 2TB(테라바이트)가 특징인 차세대 HBM으로, 지난 3월 SK하이닉스는 12단 제품 샘플을 주요 고객사에 업계 최초로 공급했다[관련기사]. HBM과 로직(Logic) 반도체를 연결해주는 베이스 다이(Base-die) 성능 개선 및 전력 감축을 목표로 개발 중인 HBM4 12단은 올 하반기 양산에 들어갈 예정이라고 회사는 밝혔다.

이밖에도, SK하이닉스는 엔비디아의 AI 서버용 GPU 모듈인 GB200과 여기에 탑재되는 HBM3E 12단 36GB(기가바이트)를 함께 전시했다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨

Data Center 섹션에서는 AI 서버에 장착돼 성능을 극대화하고 전력 소모를 줄여줄 서버 D램 모듈과 eSSD(기업용 SSD) 제품이 공개됐다. 서버 D램 모듈로는 초당 8Gb(기가비트) 속도의 D램이 탑재된 64GB~256GB 용량의 ‘RDIMM*’ 라인업과 초당 12.8Gb 속도의 D램이 들어간 96GB~256GB 용량의 ‘MRDIMM*’ 제품군, 초당 7.5Gb 속도의 ‘LPDDR5X*’가 도입된 128GB 용량의 SOCAMM* 등이 소개됐다.

특히 SK하이닉스가 세계 최초로 개발한 10나노(nm)급 6세대(1c)* 미세공정 기술이 적용된 DDR5 기반 고성능 모듈이 많은 주목을 받았다고 회사는 설명했다.

* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* LPDDR5X: 모바일용 저전력 D램 규격인 LPDDR의 7세대(5X) 제품으로 1-2-3-4-4X-5-5X 순으로 개발됨
* SOCAMM(Small Outline Compression Attached Memory Module): 저전력 D램 기반의 AI 서버 특화 메모리 모듈
* 10나노(nm)급 D램 공정 기술은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대)-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다.

초고용량 스토리지 설루션인 eSSD 존에서는 0.5TB부터 최대 61TB에 이르기까지 다양한 용량의 제품들이 모습을 드러냈다. 특히 238단 4D 낸드 기반의 PCIe* 5세대 제품인 ‘PEB110’과 QLC* 기반 61TB의 고용량을 구현한 ‘PS1012’ 등이 AI 데이터센터에 최적화된 성능을 제공할 것이라고 회사는 강조했다.

* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스
* 낸드플래시 셀(Cell)에 몇 비트를 저장하는지에 따라 SLC(Single Level Cell, 1비트)-MLC(Multi Level Cell, 2비트)-TLC(Triple Level Cell, 3비트)-QLC(Quadruple Level Cell, 4비트)로 나뉨

Mobile/PC 섹션에서는 온디바이스 AI를 이끌 D램 및 낸드 제품이 관객들을 맞았다. 모바일용 제품으로는 초당 10.7Gb 속도의 저전력 D램 ‘LPDDR5X’, 238단 4D 낸드 기반의 스토리지 ‘UFS 4.1’ 등이 공개됐고, PC용 제품으로는 1c DDR5 D램 기반 ‘CSODIMM*’, LPDDR5X 여러 개를 모듈화한 ‘LPCAMM2*’, AI PC 등에 탑재되는 고성능 SSD ‘PCB01’, 단일 칩 기준으로 세계 최고 속도인 초당 28Gb의 그래픽 D램 ‘GDDR7’ 등이 소개됐다.

* CSODIMM(Compression SODIMM): PC에서 사용하는 초소형 모듈 ‘SODIMM(Small Outline DIMM)’을 기반으로 해 새롭게 만든 폼팩터. SODIMM 대비 고성능/고밀도를 구현할 수 있음
* LPCAMM2(Low-Power Compression Attached Memory Module): LPDDR5X 기반의 모듈 설루션 제품으로 기존 DDR5 SODIMM 2개를 LPCAMM2 1개로 대체하는 성능 효과를 가지면서 공간을 절약하고 저전력과 고성능 특성을 구현

또, SK하이닉스는 기가바이트(GIGABYTE), 에이수스(ASUS), 레노보(Lenovo) 등 글로벌 파트너사들의 하드웨어에 장착된 자사 D램 및 낸드 제품을 선보이며, 노트북부터 서버까지 폭넓은 수요에 대응할 수 있는 포트폴리오를 갖췄다고 설명했다.

이외에도 SK하이닉스는 Ethic & ESG 섹션에서 ‘2025년 세계에서 가장 윤리적인 기업(World’s Most Ethical Companies®)’에 선정된 사례를 들며, 글로벌 최고 수준의 윤리경영을 통해 이해관계자와 신뢰를 강화하고 있다고 강조했다[관련기사].

SK하이닉스는 “이번 행사에서 회사의 AI 메모리 리더로서의 인식을 높이고, 글로벌 기업과의 파트너십을 더 견고히 할 수 있었다”며 “AI 서버와 데이터센터는 물론, 온디바이스 AI 등 다양한 분야에서 고객과의 협업을 통해 최적의 제품을 적기에 공급, 풀스택 AI 메모리 프로바이더로서의 위상을 강화해나갈 것”이라고 말했다.

]]>
[ONE TEAM SPIRIT] EP.2 세계 최초인데 흑역사였던 SK하이닉스 HBM 1등 스토리 /one-team-spirit-ep2/ Thu, 15 May 2025 00:00:36 +0000 /?p=47397 SK하이닉스가 AI 메모리 리더십을 확고히 하는 데 결정적인 역할을 한 제품은 단연 HBM*이다. 세계 최초 최고 성능의 HBM 개발, AI 메모리 시장 1등 위상 확보 등의 배경에는 SK하이닉스 고유의 ‘원팀 스피릿(One Team Spirit)’이 있다.

2편에서는 모든 구성원이 합심해 HBM 기술 혁신을 이룬 원동력, 원팀 스피릿이 빛났던 순간을 되짚어 보고, 이 제품에 담긴 성공과 실패 그리고 협력의 성과를 살펴본다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨

HBM을 향한 16년의 집념

원팀스피릿, 원팀, 기업문화, HBM

시작은 2000년대 중반에 떠오른 TSV*였다. TSV는 HBM을 구현하고 메모리 성능과 공정 미세화의 한계를 극복할 해법으로 주목받은 반면, 누구도 선뜻 개발에 나서지 못한 기술이었다. 인프라 구축이 어렵고, 성공도 장담할 수 없었던 탓이다. 가능성에 투자하느냐, 안정을 추구하느냐의 기로에서, 업계는 ‘눈치 싸움’만 벌이고 있었다. 먼저 행동에 나선 것은 SK하이닉스였다. 회사는 TSV, WLP* 등 후공정 기술의 파급력을 미리 내다봤고, 2009년 무렵 개발에 착수했다. 16년의 집념이 시작된 순간이었다.

* TSV(Through Silicon Via): D램 칩에 수천 개의 미세 구멍을 뚫어 상하층 칩의 구멍을 수직 관통하는 전극으로 연결하는 기술
* WLP(Wafer Level Packaging): 웨이퍼를 칩 단위로 잘라 칩을 패키징하는 기존의 컨벤셔널 패키지(Conventional Package)에서 한 단계 발전한 방식으로, 웨이퍼 상(Wafer Level)에서 패키징(Packaging)을 마무리해 완제품을 만드는 기술

TSV를 본격적으로 활용한 시점은 2013년이었다. 이 즈음 GPU(그래픽 연산장치)와 함께 쓸 고성능 니어 메모리*의 수요가 감지됐다. 이에 회사는 TSV와 WLP 기술을 활용해 세계 최초 HBM(1세대)을 내놓게 된다. 안타깝게도 첫 도전은 성공도 실패도 아닌 채로 끝이 났다. ‘너무 빨랐다’는 게 발목을 잡았다. 당시 HPC(고성능 컴퓨팅) 시장은 HBM이 주류로 부상할 만큼 무르익지 않은 상황이었다. 시장 한계에 부딪혀 잠시 주춤하는 사이, HBM 개발 부서에는 ‘오지’라는 오명이 붙었고, HBM에 대한 시장의 기대도 수그러들기 시작했다.

* 니어 메모리(Near-memory): 연산장치(프로세서)에 가깝게 밀착된 메모리로, 더 빠른 데이터 처리가 가능함

그럼에도 회사는 포기할 수 없었다. ‘HPC 시대가 곧 올 것이며, 그 시점에 최고 제품을 만든 회사가 승기를 잡는다’는 확신 때문이었다. 그동안 쌓아온 기술력 또한 HBM을 포기할 수 없는 이유였다. 이에 구성원들은 최고 성능의 HBM을 개발하겠다는 목표 아래 다시 힘을 모았다.

2020년 마침내 판세가 뒤집혔다. HBM2E(3세대), HBM3(4세대)를 우직하게 밀어붙였던 회사는 AI 시대 개막과 함께 반전에 성공했다. AI 및 HPC 수요가 증가하고 HBM 시장이 폭발적으로 성장한 것이 기폭제였다. 한발 앞서 기술력을 쌓아온 SK하이닉스는 점유율을 빠르게 높여나가며 HBM 시장 1위라는 타이틀을 거머쥐게 됐다. 2009년부터 이어진 집념과 혜안, 그리고 D램칩 개발 담당인 전공정 분야와 TSV 등 패키징 담당인 후공정 분야가 원팀 스피릿으로 똘똘 뭉쳐 이룬 값진 성취였다.

세계 최강 HBM3E, 불가능을 가능으로 바꾼 원팀의 힘

원팀스피릿, 원팀, 기업문화, HBM

HBM2E로 HBM 주도권을 확보한 것은 시작에 불과했다. 2021년 초당 819GB(기가바이트) 데이터를 처리하는 HBM3로 기술 우위를 입증한 SK하이닉스는 1위 굳히기에 들어갔다. 특히 D램칩 적층 수를 늘리며 최고 용량을 경신했는데, 2023년 4월에는 36GB 용량의 HBM3 12단을 내놓으며 기술 한계를 돌파했다.

같은 해 8월에는 HBM3E(5세대)를 발표하며 반향을 일으켰다. HBM3 12단을 개발한 지 4개월 만에 거둔 성과였다. HBM3E는 초당 1.15TB(테라바이트)의 데이터 처리 속도로 AI 메모리 시장을 빠르게 장악했다.

SK하이닉스의 HBM이 이렇게 승승장구하게 된 배경에는 MR-MUF* 기술이 있었다. HBM2E에 처음 적용한 MR-MUF는 성능 향상, 발열 개선, 대량 생산까지 한 번에 해결해 주는 특수 패키징 기술이다. 이후 회사는 더 얇은 칩을 휘어짐 없이 쌓고, 신규 보호재로 방열 특성을 높인 어드밴스드 MR-MUF 기술을 HBM3 12단에 적용하며 SK하이닉스의 HBM을 명품 반열에 올려놓았다.

* MR-MUF(Mass Reflow Molded Underfill): 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 공간 사이에 액체 형태의 보호재를 주입하고, 굳히는 공정

당시 HBM 개발진은 ‘세대마다 성능은 50% 높이고, 전력 소모는 유지한다’는 목표로 개발에 전념했다. 불가능으로 여겨졌던 이 목표를 달성하고자 패키징 조직과 HBM 개발 조직 등 전 부서가 힘을 합쳤다. 각 분야 전문가들은 문제 해결 설루션을 즉각적으로 내놓으며 기술 개발에 협력했다. 차원이 달랐던 SK하이닉스의 HBM3E는 이러한 원팀 협력을 통해 세상에 나올 수 있었다.

원팀 스피릿으로 글로벌 AI 시장 완전 접수

원팀스피릿, 원팀, 기업문화, HBM

글로벌 AI 시장을 접수하기 위한 SK하이닉스의 독주는 2025년에도 계속됐다. 회사는 지난 3월 세계 최초로 HBM4(6세대) 12단 샘플을 고객사에 공급했다[관련기사]. 16년의 기술 노하우로 거둔 성과였다.

SK하이닉스는 HBM4의 개발 기간을 단축하면서도 높은 성능을 구현했다. 이 제품은 초당 2TB의 데이터를 처리하는 놀라운 속도를 자랑한다. 이는 FHD(Full-HD) 급 영화(5GB) 400편 이상의 데이터를 1초 만에 처리하는 수준이며, 전 세대 대비 60% 빨라진 속도다. 이로써 회사는 ‘세대마다 50% 이상의 성능 향상을 이룬다’는 목표를 또 한번 달성했다.

비결은 역시 원팀 스피릿이었다. 이번에도 구성원들은 난제 해결을 위해 머리를 맞댔고, 설루션을 공유하며 호흡을 맞췄다. 더불어 회사는 원팀 스피릿을 기업 간 협력으로 한 차원 더 확장했다. SK하이닉스는 베이스 다이(Base-Die)에 글로벌 파운드리 업체의 로직(Logic) 공정을 도입, HBM 성능과 전력 효율을 끌어올린다는 계획이다. 구성원 협력에 글로벌 협력까지 더해 혁신의 기반을 강화한 것이다.

원팀의 시너지를 보여줄 HBM4는 올해 하반기 양산을 앞두고 있다. 회사는 이를 통해 기술 경쟁력을 입증하고, AI 메모리 시장에서의 우위를 공고히 할 계획이다. HBM4를 비롯한 SK하이닉스의 AI 메모리가 앞으로 얼마나 더 큰 파급력으로 시장을 넓혀 나갈지, 다시 한번 기대가 모이고 있다.

]]>
SK하이닉스, ‘TSMC 2025 테크놀로지 심포지엄’ 참가… “HBM4 선보여 AI 메모리 리더십 부각” /tsmc-2025-technology-symposium/ Fri, 25 Apr 2025 00:00:39 +0000 /?p=47310

▲ TSMC 2025 테크놀로지 심포지엄 내 SK하이닉스 전시 부스

SK하이닉스가 23일(현지 시간) 미국 캘리포니아주 산타클라라에서 개최된 ‘TSMC 2025 테크놀로지 심포지엄’에 참가해 HBM4* 등 핵심 메모리 설루션을 공개했다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨

TSMC 테크놀로지 심포지엄은 매년 TSMC가 글로벌 파트너사와 최신 기술 및 제품을 공유하는 행사다. 올해 SK하이닉스는 ‘MEMORY, POWERING AI and TOMORROW’를 슬로건으로, ▲HBM Solution ▲AI/Data Center Solution 등 AI 메모리 분야 선도 기술력을 선보였다.

HBM Solution 존에서 SK하이닉스는 HBM4 12단과 HBM3E 16단 제품을 공개했다. HBM4 12단은 초당 2TB(테라바이트) 이상의 데이터를 처리하는 차세대 HBM으로, 최근 SK하이닉스는 해당 샘플을 세계 최초로 주요 고객사에 공급하고, 올 하반기 내로 양산 준비를 마무리할 계획이라고 밝혔다[관련기사].

이밖에도 HBM3E 8단이 탑재된 엔비디아의 최신 GPU(블랙웰) 모듈인 B100과 함께, TSV*, 어드밴스드 MR-MUF* 등 HBM에 적용된 기술을 알기 쉽게 표현한 3D 구조물을 전시해 많은 관람객의 이목을 끌었다고 회사는 설명했다.

* TSV(Through-Silicon Via): D램 칩에 수천 개의 미세 구멍을 뚫어 상하층 칩의 구멍을 수직 관통하는 전극으로 연결하는 기술
* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술

▲ (상단 왼쪽부터 시계 방향)SK하이닉스가 전시한 1c DDR5 RDIMM, DDR5 3DS RDIMM, DDR5 RDIMM, DDR5 MRDIMM, DDR5 Tall MRDIMM, 1c DDR5 MRDIMM

AI/Data Center Solution 존에서는 서버용 메모리 모듈인 RDIMM*과 MRDIMM* 라인업이 공개됐다. SK하이닉스는 10나노(nm)급 6세대(1c)* 미세공정 기술이 적용된 DDR5 D램 기반 고성능 서버용 모듈을 다수 선보였다.

* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* 10나노(nm)급 D램 공정 기술은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대)-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다.

특히, 초당 12.8Gb(기가비트) 속도와 64GB(기가바이트), 96GB, 256GB의 용량을 지닌 MRDIMM 제품군과 초당 8Gb 속도의 RDIMM(64GB, 96GB), 3DS* RDIMM(256GB) 등 AI 및 데이터센터의 성능을 끌어올리고 전력 소모를 줄여주는 다양한 모듈을 공개했다고 SK하이닉스는 밝혔다.

* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징을 완료한 고대역폭 메모리 제품

SK하이닉스는 “TSMC 2025 테크 심포지엄을 통해 HBM4 등 차세대 설루션에 대한 업계의 많은 관심을 확인할 수 있었다”며 “TSMC 등 파트너사와의 기술 협력을 통해 HBM 제품군을 성공적으로 양산하여 AI 메모리 생태계를 확장하고, 글로벌 리더십을 더 공고히 하겠다”고 밝혔다.

]]>
AI가 SK하이닉스 차세대 AI 메모리를 묻다 /ask-about-ai-memory-ep5/ Tue, 18 Feb 2025 00:00:39 +0000 /?p=48169 AI가 SK하이닉스 HBM을 묻다 /ask-about-ai-memory-ep1/ Fri, 26 Jul 2024 00:00:44 +0000 /?p=48161