라벨이 HBF인 게시물 표시

Pinned Post

ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 (2026 현장 르포)

이미지
ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 AI 얘기를 들으면 우리 머릿속에는 보통 ChatGPT 화면이 떠오릅니다. 그런데 정작 가장 먼저, 가장 깊게 자리 잡은 AI는 클라우드가 아니라 자동차 운전석, 공장 천장, 창고 선반 안에 박혀 있어요. 테슬라가 외부 자극을 0.3초 만에 처리하고, 아마존 창고에선 로봇 75만 대가 배송 4건 중 3건을 만집니다. 같은 시점에 아우디 도장 라인은 사람보다 먼저 결함을 잡아내고 있어요. 이 글에서는 2026년 현재 '진짜 현장에 들어간 AI'의 모습을 사례별로 정리해 보겠습니다. 0.3초, 테슬라 FSD v14.3이 보여주는 차량 안 AI 2026년 4월 테슬라가 공개한 자율주행 소프트웨어 FSD v14.3 의 핵심 숫자는 두 개예요. 차량이 주변 상황을 인지·판단·반응하는 속도가 이전 버전보다 약 20% 빨라졌고 , 인지에서 행동까지 걸리는 시간이 0.3초 수준에 들어왔습니다. 사람의 평균 반응 시간(0.5~0.7초)보다 분명히 빠릅니다. 중요한 건 이 모든 처리가 차량 안 AI 컴퓨터에서 직접 이뤄진다 는 점이에요. 데이터를 클라우드로 보내고 답을 기다릴 시간이 없으니까요. 테슬라는 이번 버전에서 모델 컴파일 방식을 MLIR로 전면 바꾼 것으로 알려졌고, 그게 속도 향상의 큰 축입니다. 다만 구형 하드웨어(HW3) 차량은 v14.3 본체를 못 받고 별도 'FSD V14 Lite'를 2026년 2분기에 받게 됩니다. 같은 브랜드 안에서도 하드웨어가 능력을 가르는 시대가 됐다는 뜻이에요. 아우디·현대 공장은 사람보다 먼저 결함을 잡습니다 자동차를 '만드는' 쪽으로 가도 그림이 비슷해요. 아우디는 독일 넥카르술름 공장에 'ProcessGuardAI' 라는 플랫폼을 깔고, 도장 공정을 실시간으로 모니터링합니다. 전처리 약품 투입량 최적화와 전착도장 이상...

GPU 옆에 SSD를 붙인다? AI 반도체의 다음 카드 'HBF' 쉽게 정리

이미지
도입 GPU 32개로 돌리던 AI 작업을 단 2개로 줄였습니다. 같은 모델, 같은 결과를 더 빠른 속도로요. SK하이닉스가 자체 시뮬레이션에서 공개한 숫자입니다. 비결은 더 강력한 GPU가 아니었어요. 그 옆에 새로 붙이는 메모리 한 종류였습니다. 요즘 AI 반도체 업계의 화제 한가운데에 있는 이름, 바로 HBF(High Bandwidth Flash) 인데요. 도대체 이게 뭐길래 이렇게 시끄러운 걸까요. 핵심 내용 요약 한 줄로 요약하면 이렇습니다. HBF는 "GPU 옆에 직접 붙이는 거대 용량 플래시 메모리" 입니다. 지금까지 AI 칩 옆에 붙던 HBM(고대역폭 메모리)이 빠른 D램으로 채워졌다면, HBF는 같은 적층 패키징을 그대로 가져오되 그 안을 NAND 플래시로 채워요. 결과는요? HBM 대비 용량이 약 8~16배인데 대역폭은 비슷합니다. SK하이닉스는 HBM 단독 대비 동시 쿼리 처리량이 최대 18.8배 늘고, 와트당 성능이 2.69배 올랐다는 시뮬레이션을 공개했어요. 쉽게 풀어 설명 비유로 풀어볼게요. AI 모델은 음식을 만드는 주방 같은 거예요. GPU는 셰프, HBM은 셰프 손이 닿는 작업대 위 재료 트레이입니다. 빠르고 가깝지만, 좁아요. 반대로 SSD는 지하 창고예요. 어마어마한 양을 쌓아둘 수 있지만 갔다 오는 데 시간이 걸리죠. HBF는 그 사이에 놓이는 "주방 옆 대용량 냉장고"입니다. 작업대만큼 빠르진 않아도, 작업대보다 훨씬 큰 양을 손 닿는 거리에 둘 수 있어요. 거대 LLM을 통째로 GPU 옆에 올려두고 부르면 곧장 꺼내 쓰는 식이죠. 기술적으로는 NAND 플래시 다이를 TSV(실리콘 관통 전극) 기술로 수직 적층해서, 인터포저 위에 GPU와 나란히 올리는 구조예요. HBM이 쓰던 패키징 노하우를 그대로 빌려옵니다. 샌디스크와 SK하이닉스는 2025년 8월 함께 표준화하기로 손을 잡았고, 2026년 2월 25일...