라벨이 에이전트인 게시물 표시

Pinned Post

ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 (2026 현장 르포)

이미지
ChatGPT는 거들 뿐 — AI는 이미 차·공장·창고 안에 박혀 있습니다 AI 얘기를 들으면 우리 머릿속에는 보통 ChatGPT 화면이 떠오릅니다. 그런데 정작 가장 먼저, 가장 깊게 자리 잡은 AI는 클라우드가 아니라 자동차 운전석, 공장 천장, 창고 선반 안에 박혀 있어요. 테슬라가 외부 자극을 0.3초 만에 처리하고, 아마존 창고에선 로봇 75만 대가 배송 4건 중 3건을 만집니다. 같은 시점에 아우디 도장 라인은 사람보다 먼저 결함을 잡아내고 있어요. 이 글에서는 2026년 현재 '진짜 현장에 들어간 AI'의 모습을 사례별로 정리해 보겠습니다. 0.3초, 테슬라 FSD v14.3이 보여주는 차량 안 AI 2026년 4월 테슬라가 공개한 자율주행 소프트웨어 FSD v14.3 의 핵심 숫자는 두 개예요. 차량이 주변 상황을 인지·판단·반응하는 속도가 이전 버전보다 약 20% 빨라졌고 , 인지에서 행동까지 걸리는 시간이 0.3초 수준에 들어왔습니다. 사람의 평균 반응 시간(0.5~0.7초)보다 분명히 빠릅니다. 중요한 건 이 모든 처리가 차량 안 AI 컴퓨터에서 직접 이뤄진다 는 점이에요. 데이터를 클라우드로 보내고 답을 기다릴 시간이 없으니까요. 테슬라는 이번 버전에서 모델 컴파일 방식을 MLIR로 전면 바꾼 것으로 알려졌고, 그게 속도 향상의 큰 축입니다. 다만 구형 하드웨어(HW3) 차량은 v14.3 본체를 못 받고 별도 'FSD V14 Lite'를 2026년 2분기에 받게 됩니다. 같은 브랜드 안에서도 하드웨어가 능력을 가르는 시대가 됐다는 뜻이에요. 아우디·현대 공장은 사람보다 먼저 결함을 잡습니다 자동차를 '만드는' 쪽으로 가도 그림이 비슷해요. 아우디는 독일 넥카르술름 공장에 'ProcessGuardAI' 라는 플랫폼을 깔고, 도장 공정을 실시간으로 모니터링합니다. 전처리 약품 투입량 최적화와 전착도장 이상...

GPT-5.5 vs Claude Opus 4.7, 에이전트로 쓸 때 진짜 차이는 점수가 아니었습니다

이미지
도입 한 모델이 똑같은 코딩 작업을 하면서 다른 모델보다 72% 적은 출력 토큰 으로 끝냅니다. 그게 GPT-5.5와 Claude Opus 4.7 사이의 가장 솔직한 격차예요. 벤치마크 점수만 보면 GPT-5.5가 한 걸음 앞서 있는 것 같은데, 정작 Cursor와 Claude Code를 매일 쓰는 개발자들은 여전히 큰 리팩토링은 Opus 4.7에 맡깁니다. 무슨 일이 벌어지고 있는 걸까요. 두 모델을 에이전트로 쓸 때 무엇이 다른지부터 풀어 볼게요. 핵심 내용 요약 두 모델은 일주일 사이에 연달아 나왔습니다. Claude Opus 4.7은 4월 16일 , GPT-5.5는 4월 23일 에 공개됐어요. 둘 다 1M 토큰 컨텍스트를 지원합니다. 입력 가격은 100만 토큰당 5달러로 같지만, 출력은 GPT-5.5가 30달러, Opus 4.7이 25달러로 후자가 조금 쌉니다. 강점은 칼같이 갈려 있어요. GPT-5.5는 GPT-4.5 이후 처음으로 밑바닥부터 재훈련한 베이스 모델이고, '계획해서 실행하는' 작업에서 앞섭니다. 반대로 Opus 4.7은 코드베이스를 통째로 읽고 이해해서 PR을 마무리하는 쪽에서 우위예요. 그리고 위에서 말한 토큰 효율 — 출력 길이의 차이가 에이전트 비용을 결정하는 실제 변수가 됩니다. 쉽게 풀어 설명 벤치마크를 두 그룹으로 묶어 보면 차이가 분명해집니다. 첫 번째는 '계획·실행' 영역이에요. 터미널을 열고 명령어를 짜서 일을 처리하는 Terminal-Bench 2.0에서 GPT-5.5가 82.7%, Opus 4.7이 69.4%를 받았습니다. 13점 차이는 작지 않죠. 컴퓨터를 직접 조작하는 OSWorld-Verified에서도 GPT-5.5가 78.7%로 앞섭니다. 두 번째는 '코드베이스 이해' 영역입니다. 실제 깃허브 이슈를 해결하는 SWE-bench Pro에서 Opus 4.7은 64.3%, GPT-5.5는...

에이전트 = 모델 + 하네스 — 2026년 AI 업계가 '하네스 엔지니어링'에 꽂힌 이유

도입 AI 에이전트 프로젝트 10개 중 약 9개는 실제 서비스로 올라가지 못한다 고 합니다. 그것도 모델이 멍청해서가 아니에요. 가트너 분석에 따르면 기업 AI 실패의 65%가 모델 바깥의 시스템에서 생긴다고 합니다. 그래서 요즘 실리콘밸리에서 부쩍 자주 들리는 단어가 있어요. "하네스 엔지니어링(harness engineering)"입니다. 도대체 이게 뭐길래 한꺼번에 이렇게 떠들썩한 걸까요. 핵심 내용 요약 한 줄로 정리하면 이렇습니다. 에이전트(Agent) = 모델(Model) + 하네스(Harness). 모델은 우리가 흔히 아는 GPT나 클로드(Claude) 같은 거예요. 하네스는 그 모델을 둘러싸고 있는 모든 것입니다. 어떤 도구를 호출할지, 어디까지 권한을 줄지, 무엇을 기억하고 무엇을 잊을지, 결과물이 제대로 나왔는지 누가 채점할지 같은 것들이죠. 모델이 "뇌"라면, 하네스는 그 뇌가 일할 수 있도록 차려놓은 "작업장"에 가깝습니다. 쉽게 풀어 설명 비유로 풀어볼게요. 천재 외과의사가 한 명 있다고 칩시다. 의사 본인이 아무리 뛰어나도 수술실이 엉망이면 결과가 좋을 리 없겠죠. 메스가 어디 있는지 모르고, 환자 차트도 없고, 마취 기계도 안 켜져 있다면요. AI 모델도 똑같습니다. 모델 자체는 뛰어나도, 도구·기억·권한·검증 같은 "수술실 정돈"이 빠지면 헛발질을 합니다. 소트웍스의 비르기타 뵈켈러는 2026년 4월 2일 마틴 파울러 사이트에 올린 글에서 하네스를 두 방향의 제어 로 설명합니다. 하나는 가이드(feedforward) — 에이전트가 행동하기 전에 미리 막아주는 장치예요. 다른 하나는 센서(feedback) — 행동한 다음 에 결과를 보고 스스로 고치게 하는 장치죠. 코드 작성을 예로 들면, 린터(Linter)나 타입체커가 가이드 역할을 하고, 자동 테스트나 AI 코드 리뷰가 센서 역할을 합니다. 영향 분석 ...