Pinned Post

ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 (2026 현장 르포)

이미지
ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 AI 얘기를 들으면 우리 머릿속에는 보통 ChatGPT 화면이 떠오릅니다. 그런데 정작 가장 먼저, 가장 깊게 자리 잡은 AI는 클라우드가 아니라 자동차 운전석, 공장 천장, 창고 선반 안에 박혀 있어요. 테슬라가 외부 자극을 0.3초 만에 처리하고, 아마존 창고에선 로봇 75만 대가 배송 4건 중 3건을 만집니다. 같은 시점에 아우디 도장 라인은 사람보다 먼저 결함을 잡아내고 있어요. 이 글에서는 2026년 현재 '진짜 현장에 들어간 AI'의 모습을 사례별로 정리해 보겠습니다. 0.3초, 테슬라 FSD v14.3이 보여주는 차량 안 AI 2026년 4월 테슬라가 공개한 자율주행 소프트웨어 FSD v14.3 의 핵심 숫자는 두 개예요. 차량이 주변 상황을 인지·판단·반응하는 속도가 이전 버전보다 약 20% 빨라졌고 , 인지에서 행동까지 걸리는 시간이 0.3초 수준에 들어왔습니다. 사람의 평균 반응 시간(0.5~0.7초)보다 분명히 빠릅니다. 중요한 건 이 모든 처리가 차량 안 AI 컴퓨터에서 직접 이뤄진다 는 점이에요. 데이터를 클라우드로 보내고 답을 기다릴 시간이 없으니까요. 테슬라는 이번 버전에서 모델 컴파일 방식을 MLIR로 전면 바꾼 것으로 알려졌고, 그게 속도 향상의 큰 축입니다. 다만 구형 하드웨어(HW3) 차량은 v14.3 본체를 못 받고 별도 'FSD V14 Lite'를 2026년 2분기에 받게 됩니다. 같은 브랜드 안에서도 하드웨어가 능력을 가르는 시대가 됐다는 뜻이에요. 아우디·현대 공장은 사람보다 먼저 결함을 잡습니다 자동차를 '만드는' 쪽으로 가도 그림이 비슷해요. 아우디는 독일 넥카르술름 공장에 'ProcessGuardAI' 라는 플랫폼을 깔고, 도장 공정을 실시간으로 모니터링합니다. 전처리 약품 투입량 최적화와 전착도장 이상...

GPU 옆에 SSD를 붙인다? AI 반도체의 다음 카드 'HBF' 쉽게 정리

이미지
도입 GPU 32개로 돌리던 AI 작업을 단 2개로 줄였습니다. 같은 모델, 같은 결과를 더 빠른 속도로요. SK하이닉스가 자체 시뮬레이션에서 공개한 숫자입니다. 비결은 더 강력한 GPU가 아니었어요. 그 옆에 새로 붙이는 메모리 한 종류였습니다. 요즘 AI 반도체 업계의 화제 한가운데에 있는 이름, 바로 HBF(High Bandwidth Flash) 인데요. 도대체 이게 뭐길래 이렇게 시끄러운 걸까요. 핵심 내용 요약 한 줄로 요약하면 이렇습니다. HBF는 "GPU 옆에 직접 붙이는 거대 용량 플래시 메모리" 입니다. 지금까지 AI 칩 옆에 붙던 HBM(고대역폭 메모리)이 빠른 D램으로 채워졌다면, HBF는 같은 적층 패키징을 그대로 가져오되 그 안을 NAND 플래시로 채워요. 결과는요? HBM 대비 용량이 약 8~16배인데 대역폭은 비슷합니다. SK하이닉스는 HBM 단독 대비 동시 쿼리 처리량이 최대 18.8배 늘고, 와트당 성능이 2.69배 올랐다는 시뮬레이션을 공개했어요. 쉽게 풀어 설명 비유로 풀어볼게요. AI 모델은 음식을 만드는 주방 같은 거예요. GPU는 셰프, HBM은 셰프 손이 닿는 작업대 위 재료 트레이입니다. 빠르고 가깝지만, 좁아요. 반대로 SSD는 지하 창고예요. 어마어마한 양을 쌓아둘 수 있지만 갔다 오는 데 시간이 걸리죠. HBF는 그 사이에 놓이는 "주방 옆 대용량 냉장고"입니다. 작업대만큼 빠르진 않아도, 작업대보다 훨씬 큰 양을 손 닿는 거리에 둘 수 있어요. 거대 LLM을 통째로 GPU 옆에 올려두고 부르면 곧장 꺼내 쓰는 식이죠. 기술적으로는 NAND 플래시 다이를 TSV(실리콘 관통 전극) 기술로 수직 적층해서, 인터포저 위에 GPU와 나란히 올리는 구조예요. HBM이 쓰던 패키징 노하우를 그대로 빌려옵니다. 샌디스크와 SK하이닉스는 2025년 8월 함께 표준화하기로 손을 잡았고, 2026년 2월 25일...

사람 손 없이 논문 한 편을 쓴 AI — 자율 ML 에이전트 4가지 사례 (2026)

이미지
도입 논문 한 편을 사람 손 없이 처음부터 끝까지 쓴 AI가 있습니다. 아이디어 발굴, 코드 작성, 실험, 그래프 그리기, 본문 집필, 심지어 자체 동료심사까지요. 비용은 단돈 6~15달러 였습니다. 한 끼 식사 값으로 학술 논문 한 편이 나오는 시대가 정말 온 걸까요. 더 놀라운 건 이게 '먼 미래'가 아니라는 점입니다. 메타, 사카나AI, 허깅페이스에서 이미 일이 벌어지고 있어요. 핵심 내용 요약 최근 1년 사이에 'AI가 AI를 개발한다'는 컨셉은 네 가지 흐름으로 한꺼번에 터져 나왔습니다. 첫째, 사카나AI의 AI Scientist v2 가 Nature에 게재됐고, 처음으로 완전 자동 생성된 논문이 사람 동료심사를 통과했습니다. 둘째, 메타의 REA(Ranking Engineer Agent) 는 광고 랭킹 ML 모델 6개의 정확도를 평균 2배로 끌어올렸어요. 셋째, 허깅페이스의 ml-intern 은 논문 읽기부터 학습·배포까지 자동화하는 오픈소스 ML 엔지니어 에이전트입니다. 넷째, 메타·옥스퍼드·UBC·NYU 공동 연구팀이 3월 19일 공개한 HyperAgents 는 자기개선 전략을 다른 도메인으로 전이시키는 데 성공했습니다. 쉽게 풀어 설명 'AI가 AI를 만든다'는 말이 구체적으로 어떤 모습일까요. ML 엔지니어가 모델 하나를 개선하는 과정을 떠올려 봅시다. 보통 이렇게 진행됩니다. 가설 세우기 → 코드 짜기 → 학습 돌리기 → 실패하면 디버깅 → 결과 분석 → 다음 실험 설계 → 논문이나 제품으로 마무리 . 한 사이클에 며칠, 길면 몇 주가 걸려요. 이 모든 단계를 에이전트 한 무리가 자율적으로 돌리는 게 핵심입니다. 메타 REA는 가설을 만들고 학습 잡(job)을 띄우고 실패한 실험을 디버깅한 뒤 다음 실험을 설계하는 루프를 사람 개입 없이 돕니다. 사카나 AI Scientist는 더 나아가 논문 작성과 자기 동료심사까...

GPT-5.5 vs Claude Opus 4.7, 에이전트로 쓸 때 진짜 차이는 점수가 아니었습니다

이미지
도입 한 모델이 똑같은 코딩 작업을 하면서 다른 모델보다 72% 적은 출력 토큰 으로 끝냅니다. 그게 GPT-5.5와 Claude Opus 4.7 사이의 가장 솔직한 격차예요. 벤치마크 점수만 보면 GPT-5.5가 한 걸음 앞서 있는 것 같은데, 정작 Cursor와 Claude Code를 매일 쓰는 개발자들은 여전히 큰 리팩토링은 Opus 4.7에 맡깁니다. 무슨 일이 벌어지고 있는 걸까요. 두 모델을 에이전트로 쓸 때 무엇이 다른지부터 풀어 볼게요. 핵심 내용 요약 두 모델은 일주일 사이에 연달아 나왔습니다. Claude Opus 4.7은 4월 16일 , GPT-5.5는 4월 23일 에 공개됐어요. 둘 다 1M 토큰 컨텍스트를 지원합니다. 입력 가격은 100만 토큰당 5달러로 같지만, 출력은 GPT-5.5가 30달러, Opus 4.7이 25달러로 후자가 조금 쌉니다. 강점은 칼같이 갈려 있어요. GPT-5.5는 GPT-4.5 이후 처음으로 밑바닥부터 재훈련한 베이스 모델이고, '계획해서 실행하는' 작업에서 앞섭니다. 반대로 Opus 4.7은 코드베이스를 통째로 읽고 이해해서 PR을 마무리하는 쪽에서 우위예요. 그리고 위에서 말한 토큰 효율 — 출력 길이의 차이가 에이전트 비용을 결정하는 실제 변수가 됩니다. 쉽게 풀어 설명 벤치마크를 두 그룹으로 묶어 보면 차이가 분명해집니다. 첫 번째는 '계획·실행' 영역이에요. 터미널을 열고 명령어를 짜서 일을 처리하는 Terminal-Bench 2.0에서 GPT-5.5가 82.7%, Opus 4.7이 69.4%를 받았습니다. 13점 차이는 작지 않죠. 컴퓨터를 직접 조작하는 OSWorld-Verified에서도 GPT-5.5가 78.7%로 앞섭니다. 두 번째는 '코드베이스 이해' 영역입니다. 실제 깃허브 이슈를 해결하는 SWE-bench Pro에서 Opus 4.7은 64.3%, GPT-5.5는...

에이전트 = 모델 + 하네스 — 2026년 AI 업계가 '하네스 엔지니어링'에 꽂힌 이유

도입 AI 에이전트 프로젝트 10개 중 약 9개는 실제 서비스로 올라가지 못한다 고 합니다. 그것도 모델이 멍청해서가 아니에요. 가트너 분석에 따르면 기업 AI 실패의 65%가 모델 바깥의 시스템에서 생긴다고 합니다. 그래서 요즘 실리콘밸리에서 부쩍 자주 들리는 단어가 있어요. "하네스 엔지니어링(harness engineering)"입니다. 도대체 이게 뭐길래 한꺼번에 이렇게 떠들썩한 걸까요. 핵심 내용 요약 한 줄로 정리하면 이렇습니다. 에이전트(Agent) = 모델(Model) + 하네스(Harness). 모델은 우리가 흔히 아는 GPT나 클로드(Claude) 같은 거예요. 하네스는 그 모델을 둘러싸고 있는 모든 것입니다. 어떤 도구를 호출할지, 어디까지 권한을 줄지, 무엇을 기억하고 무엇을 잊을지, 결과물이 제대로 나왔는지 누가 채점할지 같은 것들이죠. 모델이 "뇌"라면, 하네스는 그 뇌가 일할 수 있도록 차려놓은 "작업장"에 가깝습니다. 쉽게 풀어 설명 비유로 풀어볼게요. 천재 외과의사가 한 명 있다고 칩시다. 의사 본인이 아무리 뛰어나도 수술실이 엉망이면 결과가 좋을 리 없겠죠. 메스가 어디 있는지 모르고, 환자 차트도 없고, 마취 기계도 안 켜져 있다면요. AI 모델도 똑같습니다. 모델 자체는 뛰어나도, 도구·기억·권한·검증 같은 "수술실 정돈"이 빠지면 헛발질을 합니다. 소트웍스의 비르기타 뵈켈러는 2026년 4월 2일 마틴 파울러 사이트에 올린 글에서 하네스를 두 방향의 제어 로 설명합니다. 하나는 가이드(feedforward) — 에이전트가 행동하기 전에 미리 막아주는 장치예요. 다른 하나는 센서(feedback) — 행동한 다음 에 결과를 보고 스스로 고치게 하는 장치죠. 코드 작성을 예로 들면, 린터(Linter)나 타입체커가 가이드 역할을 하고, 자동 테스트나 AI 코드 리뷰가 센서 역할을 합니다. 영향 분석 ...

AI API 쓰려는데 모델이 너무 많다? — T2I, I2I, TTS, T2V까지 한 번에 정리

이미지
도입 허깅페이스에 올라온 텍스트-이미지 모델 수가 9만 개를 넘었습니다. TTS 모델, 영상 생성 모델까지 합치면 그야말로 모델의 바다죠. 그런데 막상 "AI 기능 하나 붙여보자" 하면 무엇부터 봐야 할지 막막해지실 거예요. 텍스트로 그림 그리기, 사진 한 장 주고 다른 그림 만들기, 같은 캐릭터 유지하기, 글을 음성으로 바꾸기, 짧은 영상 만들기. 이게 다 다른 모델이거든요. 그래서 오늘은 한 발짝 떨어져서 정리해 봅니다. 모델은 도대체 몇 가지 카테고리로 나뉘고, 각 카테고리에서 무엇을 골라야 하는지요. 핵심 내용 요약 생성 AI 모델은 크게 입력과 출력의 조합으로 분류합니다. 텍스트→이미지(T2I), 이미지→이미지(I2I), 참조 이미지+텍스트(in-context), 텍스트→음성(TTS), 텍스트→영상(T2V), 이미지→영상(I2V) 같은 식이죠. 같은 "이미지 생성"이라도 처음부터 그리는 것과 기존 그림을 수정하는 것, 그리고 캐릭터를 유지하면서 새 장면을 만드는 것은 전혀 다른 모델 카테고리입니다. 그리고 각 카테고리 안에서도 GPT Image, FLUX, Gemini, Imagen, Ideogram, Stable Diffusion 등 특기가 다른 모델이 경쟁합니다. API를 쓸 때는 "어떤 입출력이 필요한지"를 먼저 정해야 모델 선택이 쉬워져요. 쉽게 풀어 설명 예를 들어볼까요. 유튜브 채널에 캐릭터를 등장시킨다고 해보겠습니다. 작업은 보통 이렇게 흘러갑니다. 1) 캐릭터 첫 컷 만들기 — Text-to-Image (T2I). "분홍색 후드 입은 20대 여성, 카페 창가, 일러스트 스타일" 같은 텍스트만으로 처음부터 이미지를 만드는 모델입니다. OpenAI의 GPT Image 2, Black Forest Labs의 FLUX 2 Pro, 구글 Imagen 4, Ideogram v3 같은 모델이 여기에 속하죠. 텍스트가 많이 들어가는...

코딩에 이어 디자인까지 — 2026년 AI 디자인 도구가 실무를 바꾸는 방식

이미지
도입 2026년 4월 17일, 트윗 한 개에 디자인 업계 1위 회사의 주가가 7% 빠졌습니다. Anthropic이 Claude Design을 발표한 그날, Figma 주가에서 일어난 일인데요. 그런데 더 흥미로운 건 그 사흘 전에 일어난 일입니다. Anthropic의 최고제품책임자(CPO)가 조용히 Figma 이사회에서 사임했거든요. 이게 우연일까요? 핵심 내용 요약 2026년 디자인 도구 지형은 크게 세 갈래로 갈렸습니다. 첫째, Figma는 Make·Weave 같은 AI 기능을 자체 탑재해 디자인 시스템 본진을 지킵니다. 둘째, v0·Lovable·Bolt 같은 vibe coding 도구는 프롬프트만으로 작동하는 앱을 만들죠. 셋째, 4월에 등장한 Claude Design은 코드베이스에서 브랜드 시스템을 추출하고, 결과물을 Claude Code로 바로 넘겨 구현까지 잇습니다. "아이디어 → 디자인 → 배포"의 전체 흐름을 한 회사가 들고 있는 구조가 처음 등장한 거예요. 쉽게 풀어 설명 Claude Design부터 볼게요. "차분한 명상 앱 프로토타입을 만들어줘"라고 말하면 Claude가 첫 버전을 만들고, 댓글·직접 편집·슬라이더로 다듬어가는 방식입니다. PDF·PPTX·HTML로 내보내거나 Canva로 보낼 수 있고, 마음에 들면 Claude Code에 통째로 넘겨 코드로 구현해버리죠. 교육 스타트업 Brilliant는 "다른 도구로 20번 프롬프트해야 만들던 복잡한 페이지를 두 번 만에 만들었다"고 말했어요. v0·Lovable·Bolt는 결이 다릅니다. "vibe coding" 이라는 용어가 핵심인데요. 2025년 2월 안드레이 카르파시(Andrej Karpathy)가 만든 말로, "스트라이프 결제 페이지처럼 프리미엄하고 미니멀하게"처럼 분위기로 말하면 AI가 작동하는 결과물을 만든다는 발상이에요. v0는 깔끔한 Re...

똑똑한 AI를 만드는 '가상의 한국인' 100만 명? 🇰🇷

이미지
도입 허깅페이스(Hugging Face) 트렌딩 1위에 한국어 데이터셋이 올랐습니다. 그것도 압도적 1위로요. 그런데 외신 기사들은 "700만 명의 페르소나"라고 보도하고, 정작 데이터셋 페이지를 들어가 보면 "1M rows"라고 적혀 있습니다. 700만이라는 걸까요, 100만이라는 걸까요. 그리고 더 중요한 질문 — 이 가상의 한국인들이 도대체 왜 등장했고, 우리 생활과는 어떤 관계가 있을까요. 핵심 내용 요약 엔비디아가 2026년 4월 20일 공개한 Nemotron-Personas-Korea 는 통계청(KOSIS)·대법원·국민건강보험공단·한국농촌경제연구원의 공식 통계를 기반으로 만든 합성 한국인 페르소나 데이터셋입니다. 엔비디아 측은 "전체 페르소나 700만"이라고 발표했지만, 현재 허깅페이스 페이지에는 100만 행이 공개돼 있어요. 단계적으로 풀고 있는 것으로 보입니다. 핵심은 숫자가 아니라 방식이에요. 단순 영어 번역이 아니라 한국 인구의 실제 분포(나이·성별·지역·직업)를 따라 표본을 뽑은 뒤, 그 위에 한국어 서사를 입힌 첫 시도입니다. 라이선스는 CC BY 4.0, 상업적 이용도 허용됩니다. 쉽게 풀어 설명 왜 가상의 사람을 만드냐고요. AI 에이전트가 한국 사용자에게 답하려면 "한국 사람이 어떻게 말하고 어떤 맥락에서 사는지"를 알아야 합니다. 그런데 실제 사람의 데이터는 개인정보보호법(PIPA) 때문에 함부로 못 쓰죠. 그래서 통계 분포는 진짜인데 개인은 가짜인 데이터 가 필요해진 거예요. 데이터셋 한 행을 열어보면 이런 식입니다. "광주 서구의 74세 하역 종사자, 무등산 산행과 동네 목욕탕 모임을 좋아함, 가끔 짜장면을 시켜 먹음." 26개 필드에 17개 광역, 252개 시군구, 2,000개 이상의 직업이 담겨 있어요. 기술적으로는 두 단계입니다. 먼저 PGM(확률 그래프 모델)이 한국 인구통계 분포에서 속성 ...