라벨이 AI인 게시물 표시

Pinned Post

ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 (2026 현장 르포)

이미지
ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 AI 얘기를 들으면 우리 머릿속에는 보통 ChatGPT 화면이 떠오릅니다. 그런데 정작 가장 먼저, 가장 깊게 자리 잡은 AI는 클라우드가 아니라 자동차 운전석, 공장 천장, 창고 선반 안에 박혀 있어요. 테슬라가 외부 자극을 0.3초 만에 처리하고, 아마존 창고에선 로봇 75만 대가 배송 4건 중 3건을 만집니다. 같은 시점에 아우디 도장 라인은 사람보다 먼저 결함을 잡아내고 있어요. 이 글에서는 2026년 현재 '진짜 현장에 들어간 AI'의 모습을 사례별로 정리해 보겠습니다. 0.3초, 테슬라 FSD v14.3이 보여주는 차량 안 AI 2026년 4월 테슬라가 공개한 자율주행 소프트웨어 FSD v14.3 의 핵심 숫자는 두 개예요. 차량이 주변 상황을 인지·판단·반응하는 속도가 이전 버전보다 약 20% 빨라졌고 , 인지에서 행동까지 걸리는 시간이 0.3초 수준에 들어왔습니다. 사람의 평균 반응 시간(0.5~0.7초)보다 분명히 빠릅니다. 중요한 건 이 모든 처리가 차량 안 AI 컴퓨터에서 직접 이뤄진다 는 점이에요. 데이터를 클라우드로 보내고 답을 기다릴 시간이 없으니까요. 테슬라는 이번 버전에서 모델 컴파일 방식을 MLIR로 전면 바꾼 것으로 알려졌고, 그게 속도 향상의 큰 축입니다. 다만 구형 하드웨어(HW3) 차량은 v14.3 본체를 못 받고 별도 'FSD V14 Lite'를 2026년 2분기에 받게 됩니다. 같은 브랜드 안에서도 하드웨어가 능력을 가르는 시대가 됐다는 뜻이에요. 아우디·현대 공장은 사람보다 먼저 결함을 잡습니다 자동차를 '만드는' 쪽으로 가도 그림이 비슷해요. 아우디는 독일 넥카르술름 공장에 'ProcessGuardAI' 라는 플랫폼을 깔고, 도장 공정을 실시간으로 모니터링합니다. 전처리 약품 투입량 최적화와 전착도장 이상...

ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 (2026 현장 르포)

이미지
ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 AI 얘기를 들으면 우리 머릿속에는 보통 ChatGPT 화면이 떠오릅니다. 그런데 정작 가장 먼저, 가장 깊게 자리 잡은 AI는 클라우드가 아니라 자동차 운전석, 공장 천장, 창고 선반 안에 박혀 있어요. 테슬라가 외부 자극을 0.3초 만에 처리하고, 아마존 창고에선 로봇 75만 대가 배송 4건 중 3건을 만집니다. 같은 시점에 아우디 도장 라인은 사람보다 먼저 결함을 잡아내고 있어요. 이 글에서는 2026년 현재 '진짜 현장에 들어간 AI'의 모습을 사례별로 정리해 보겠습니다. 0.3초, 테슬라 FSD v14.3이 보여주는 차량 안 AI 2026년 4월 테슬라가 공개한 자율주행 소프트웨어 FSD v14.3 의 핵심 숫자는 두 개예요. 차량이 주변 상황을 인지·판단·반응하는 속도가 이전 버전보다 약 20% 빨라졌고 , 인지에서 행동까지 걸리는 시간이 0.3초 수준에 들어왔습니다. 사람의 평균 반응 시간(0.5~0.7초)보다 분명히 빠릅니다. 중요한 건 이 모든 처리가 차량 안 AI 컴퓨터에서 직접 이뤄진다 는 점이에요. 데이터를 클라우드로 보내고 답을 기다릴 시간이 없으니까요. 테슬라는 이번 버전에서 모델 컴파일 방식을 MLIR로 전면 바꾼 것으로 알려졌고, 그게 속도 향상의 큰 축입니다. 다만 구형 하드웨어(HW3) 차량은 v14.3 본체를 못 받고 별도 'FSD V14 Lite'를 2026년 2분기에 받게 됩니다. 같은 브랜드 안에서도 하드웨어가 능력을 가르는 시대가 됐다는 뜻이에요. 아우디·현대 공장은 사람보다 먼저 결함을 잡습니다 자동차를 '만드는' 쪽으로 가도 그림이 비슷해요. 아우디는 독일 넥카르술름 공장에 'ProcessGuardAI' 라는 플랫폼을 깔고, 도장 공정을 실시간으로 모니터링합니다. 전처리 약품 투입량 최적화와 전착도장 이상...

GPU 옆에 SSD를 붙인다? AI 반도체의 다음 카드 'HBF' 쉽게 정리

이미지
도입 GPU 32개로 돌리던 AI 작업을 단 2개로 줄였습니다. 같은 모델, 같은 결과를 더 빠른 속도로요. SK하이닉스가 자체 시뮬레이션에서 공개한 숫자입니다. 비결은 더 강력한 GPU가 아니었어요. 그 옆에 새로 붙이는 메모리 한 종류였습니다. 요즘 AI 반도체 업계의 화제 한가운데에 있는 이름, 바로 HBF(High Bandwidth Flash) 인데요. 도대체 이게 뭐길래 이렇게 시끄러운 걸까요. 핵심 내용 요약 한 줄로 요약하면 이렇습니다. HBF는 "GPU 옆에 직접 붙이는 거대 용량 플래시 메모리" 입니다. 지금까지 AI 칩 옆에 붙던 HBM(고대역폭 메모리)이 빠른 D램으로 채워졌다면, HBF는 같은 적층 패키징을 그대로 가져오되 그 안을 NAND 플래시로 채워요. 결과는요? HBM 대비 용량이 약 8~16배인데 대역폭은 비슷합니다. SK하이닉스는 HBM 단독 대비 동시 쿼리 처리량이 최대 18.8배 늘고, 와트당 성능이 2.69배 올랐다는 시뮬레이션을 공개했어요. 쉽게 풀어 설명 비유로 풀어볼게요. AI 모델은 음식을 만드는 주방 같은 거예요. GPU는 셰프, HBM은 셰프 손이 닿는 작업대 위 재료 트레이입니다. 빠르고 가깝지만, 좁아요. 반대로 SSD는 지하 창고예요. 어마어마한 양을 쌓아둘 수 있지만 갔다 오는 데 시간이 걸리죠. HBF는 그 사이에 놓이는 "주방 옆 대용량 냉장고"입니다. 작업대만큼 빠르진 않아도, 작업대보다 훨씬 큰 양을 손 닿는 거리에 둘 수 있어요. 거대 LLM을 통째로 GPU 옆에 올려두고 부르면 곧장 꺼내 쓰는 식이죠. 기술적으로는 NAND 플래시 다이를 TSV(실리콘 관통 전극) 기술로 수직 적층해서, 인터포저 위에 GPU와 나란히 올리는 구조예요. HBM이 쓰던 패키징 노하우를 그대로 빌려옵니다. 샌디스크와 SK하이닉스는 2025년 8월 함께 표준화하기로 손을 잡았고, 2026년 2월 25일...

사람 손 없이 논문 한 편을 쓴 AI — 자율 ML 에이전트 4가지 사례 (2026)

이미지
도입 논문 한 편을 사람 손 없이 처음부터 끝까지 쓴 AI가 있습니다. 아이디어 발굴, 코드 작성, 실험, 그래프 그리기, 본문 집필, 심지어 자체 동료심사까지요. 비용은 단돈 6~15달러 였습니다. 한 끼 식사 값으로 학술 논문 한 편이 나오는 시대가 정말 온 걸까요. 더 놀라운 건 이게 '먼 미래'가 아니라는 점입니다. 메타, 사카나AI, 허깅페이스에서 이미 일이 벌어지고 있어요. 핵심 내용 요약 최근 1년 사이에 'AI가 AI를 개발한다'는 컨셉은 네 가지 흐름으로 한꺼번에 터져 나왔습니다. 첫째, 사카나AI의 AI Scientist v2 가 Nature에 게재됐고, 처음으로 완전 자동 생성된 논문이 사람 동료심사를 통과했습니다. 둘째, 메타의 REA(Ranking Engineer Agent) 는 광고 랭킹 ML 모델 6개의 정확도를 평균 2배로 끌어올렸어요. 셋째, 허깅페이스의 ml-intern 은 논문 읽기부터 학습·배포까지 자동화하는 오픈소스 ML 엔지니어 에이전트입니다. 넷째, 메타·옥스퍼드·UBC·NYU 공동 연구팀이 3월 19일 공개한 HyperAgents 는 자기개선 전략을 다른 도메인으로 전이시키는 데 성공했습니다. 쉽게 풀어 설명 'AI가 AI를 만든다'는 말이 구체적으로 어떤 모습일까요. ML 엔지니어가 모델 하나를 개선하는 과정을 떠올려 봅시다. 보통 이렇게 진행됩니다. 가설 세우기 → 코드 짜기 → 학습 돌리기 → 실패하면 디버깅 → 결과 분석 → 다음 실험 설계 → 논문이나 제품으로 마무리 . 한 사이클에 며칠, 길면 몇 주가 걸려요. 이 모든 단계를 에이전트 한 무리가 자율적으로 돌리는 게 핵심입니다. 메타 REA는 가설을 만들고 학습 잡(job)을 띄우고 실패한 실험을 디버깅한 뒤 다음 실험을 설계하는 루프를 사람 개입 없이 돕니다. 사카나 AI Scientist는 더 나아가 논문 작성과 자기 동료심사까...

GPT-5.5 vs Claude Opus 4.7, 에이전트로 쓸 때 진짜 차이는 점수가 아니었습니다

이미지
도입 한 모델이 똑같은 코딩 작업을 하면서 다른 모델보다 72% 적은 출력 토큰 으로 끝냅니다. 그게 GPT-5.5와 Claude Opus 4.7 사이의 가장 솔직한 격차예요. 벤치마크 점수만 보면 GPT-5.5가 한 걸음 앞서 있는 것 같은데, 정작 Cursor와 Claude Code를 매일 쓰는 개발자들은 여전히 큰 리팩토링은 Opus 4.7에 맡깁니다. 무슨 일이 벌어지고 있는 걸까요. 두 모델을 에이전트로 쓸 때 무엇이 다른지부터 풀어 볼게요. 핵심 내용 요약 두 모델은 일주일 사이에 연달아 나왔습니다. Claude Opus 4.7은 4월 16일 , GPT-5.5는 4월 23일 에 공개됐어요. 둘 다 1M 토큰 컨텍스트를 지원합니다. 입력 가격은 100만 토큰당 5달러로 같지만, 출력은 GPT-5.5가 30달러, Opus 4.7이 25달러로 후자가 조금 쌉니다. 강점은 칼같이 갈려 있어요. GPT-5.5는 GPT-4.5 이후 처음으로 밑바닥부터 재훈련한 베이스 모델이고, '계획해서 실행하는' 작업에서 앞섭니다. 반대로 Opus 4.7은 코드베이스를 통째로 읽고 이해해서 PR을 마무리하는 쪽에서 우위예요. 그리고 위에서 말한 토큰 효율 — 출력 길이의 차이가 에이전트 비용을 결정하는 실제 변수가 됩니다. 쉽게 풀어 설명 벤치마크를 두 그룹으로 묶어 보면 차이가 분명해집니다. 첫 번째는 '계획·실행' 영역이에요. 터미널을 열고 명령어를 짜서 일을 처리하는 Terminal-Bench 2.0에서 GPT-5.5가 82.7%, Opus 4.7이 69.4%를 받았습니다. 13점 차이는 작지 않죠. 컴퓨터를 직접 조작하는 OSWorld-Verified에서도 GPT-5.5가 78.7%로 앞섭니다. 두 번째는 '코드베이스 이해' 영역입니다. 실제 깃허브 이슈를 해결하는 SWE-bench Pro에서 Opus 4.7은 64.3%, GPT-5.5는...

에이전트 = 모델 + 하네스 — 2026년 AI 업계가 '하네스 엔지니어링'에 꽂힌 이유

도입 AI 에이전트 프로젝트 10개 중 약 9개는 실제 서비스로 올라가지 못한다 고 합니다. 그것도 모델이 멍청해서가 아니에요. 가트너 분석에 따르면 기업 AI 실패의 65%가 모델 바깥의 시스템에서 생긴다고 합니다. 그래서 요즘 실리콘밸리에서 부쩍 자주 들리는 단어가 있어요. "하네스 엔지니어링(harness engineering)"입니다. 도대체 이게 뭐길래 한꺼번에 이렇게 떠들썩한 걸까요. 핵심 내용 요약 한 줄로 정리하면 이렇습니다. 에이전트(Agent) = 모델(Model) + 하네스(Harness). 모델은 우리가 흔히 아는 GPT나 클로드(Claude) 같은 거예요. 하네스는 그 모델을 둘러싸고 있는 모든 것입니다. 어떤 도구를 호출할지, 어디까지 권한을 줄지, 무엇을 기억하고 무엇을 잊을지, 결과물이 제대로 나왔는지 누가 채점할지 같은 것들이죠. 모델이 "뇌"라면, 하네스는 그 뇌가 일할 수 있도록 차려놓은 "작업장"에 가깝습니다. 쉽게 풀어 설명 비유로 풀어볼게요. 천재 외과의사가 한 명 있다고 칩시다. 의사 본인이 아무리 뛰어나도 수술실이 엉망이면 결과가 좋을 리 없겠죠. 메스가 어디 있는지 모르고, 환자 차트도 없고, 마취 기계도 안 켜져 있다면요. AI 모델도 똑같습니다. 모델 자체는 뛰어나도, 도구·기억·권한·검증 같은 "수술실 정돈"이 빠지면 헛발질을 합니다. 소트웍스의 비르기타 뵈켈러는 2026년 4월 2일 마틴 파울러 사이트에 올린 글에서 하네스를 두 방향의 제어 로 설명합니다. 하나는 가이드(feedforward) — 에이전트가 행동하기 전에 미리 막아주는 장치예요. 다른 하나는 센서(feedback) — 행동한 다음 에 결과를 보고 스스로 고치게 하는 장치죠. 코드 작성을 예로 들면, 린터(Linter)나 타입체커가 가이드 역할을 하고, 자동 테스트나 AI 코드 리뷰가 센서 역할을 합니다. 영향 분석 ...