/goal 누르고 자리 비웠다

Tech Digest 5월 12일 TOP3 — /goal · Rapid-MLX · Zero-Native
DIGEST
  • /goal — Claude Code, 목표가 끝날 때까지 스스로 반복
  • Rapid-MLX — 애플 실리콘 로컬 AI 추론, Ollama 대비 4.2배
  • Zero-Native — Vercel Labs가 Zig로 만든 데스크톱·모바일 셸

오늘 GeekNews TOP3은 한 줄로 묶이는 흐름이 있다. 도구가 사용자의 한 줄 지시를 받아 ‘끝까지’ 알아서 돌아간다는 것. /goal, MLX, Zig 셸 — 형태는 다르지만 모두 자율 실행과 로컬 우선이라는 같은 방향을 가리킨다.

/goal — Claude Code, 목표가 끝날 때까지 스스로 반복

한 번 입력하면 끝까지 알아서 도는 명령

Claude Code에 /goal 명령이 추가됐다. 사용자가 목표를 한 줄로 입력하면, Claude는 그 목표를 달성할 때까지 여러 턴을 자동으로 이어 실행한다. 각 턴이 끝날 때마다 별도의 fast model이 대화 기록을 보고 목표 달성 여부를 판단한다. 미완료면 다음 턴이 자동으로 시작되고, 완료되면 goal 자체가 자동으로 제거된다. 세션당 단 1개의 goal만 활성화할 수 있고, --resume / --continue 로 세션을 복원하면 활성 goal도 함께 복원된다. 구현 측면에서 흥미로운 점은 평가자가 파일이나 명령을 직접 확인하지 않고 오직 대화 기록만 본다는 것 — session-scoped Stop hook 래퍼로 만든 단순한 구조다. auto mode가 ‘도구 승인 자동화’라면, /goal은 ‘턴 반복 자동화’에 더 가깝다.

Tech Insight — Codex CLI에 먼저 같은 이름의 /goal이 들어갔고, Claude Code가 거의 동일한 명령어로 따라붙었다. 채팅형 보조자에서 ‘목표 기반 자율 작업자’로 두 도구 모두 수렴하고 있다는 신호. 단, 평가가 대화 기록만 본다는 점은 양날의 검이다 — 실제 파일 변화 없이 모델이 “끝났다”고 자신할 위험이 남는다. CI 결과나 파일 diff를 함께 보는 후속 보강이 자연스러운 다음 수순.


Rapid-MLX — 애플 실리콘 로컬 AI 추론, Ollama 대비 4.2배

16GB 맥에서도 돈다, OpenAI API 드롭인 대체

Apple Silicon 맥에서 로컬 AI 모델을 돌리는 새 추론 엔진 Rapid-MLX가 공개됐다. Apple의 MLX 프레임워크와 네이티브 Metal 컴퓨트 커널을 활용해, Ollama 대비 최대 4.2배의 추론 속도를 낸다. Phi-4 Mini 14B는 180 tok/s(Ollama 56 대비 3.2배), Qwen3.5-9B는 108 tok/s(Ollama 41 대비 2.6배). 캐시된 상태의 TTFT는 0.08초까지 내려간다. 16GB MacBook Air(Qwen3.5-4B, 160 tok/s)부터 256GB Mac Studio Ultra(DeepSeek V4 Flash 158B, 1M 컨텍스트)까지 RAM별 최적 모델 매핑이 미리 정리돼 있다. 핵심은 OpenAI API 드롭인 대체로 동작한다는 점 — Cursor, Claude Code, Aider, LangChain 같은 기존 도구가 베이스 URL만 localhost:8000/v1 로 바꾸면 그대로 붙는다. 멀티턴 대화 TTFT를 2~5배 줄이는 KV 캐시 트리밍과 DeltaNet 상태 스냅샷, 로컬 프리필이 느린 큰 컨텍스트만 클라우드 LLM으로 자동 라우팅하는 기능까지. Apache 2.0.

Tech Insight — 진짜 무게중심은 ‘4.2배’ 숫자가 아니라 OpenAI 호환이다. 같은 코드 그대로, base URL만 localhost로 바꿔도 Cursor·Claude Code 같은 에이전트가 그대로 돌면 로컬-클라우드 전환 비용이 사실상 0이 된다. 로컬 AI 표준화 논의가 늘어나는 지금, 이 호환성이 채택을 결정한다. 단점은 한국어 품질이 모델별 편차가 커서, 도입 전 실측이 반드시 필요하다는 점.


Zero-Native — Vercel Labs가 Zig로 만든 데스크톱·모바일 셸

Tauri·Wails 옆에 Zig 자리 하나 더

Vercel Labs가 Zig 기반 데스크톱 앱 셸 Zero-Native를 공개했다. 웹 프론트엔드를 맥·윈·리눅스용 네이티브 앱으로 빌드하는 프레임워크다. 시스템 WebView를 쓰면 브라우저 런타임을 번들하지 않아 바이너리가 작고 빠르고, 렌더링 일관성이 필요하면 Chromium(CEF) 번들로 app.zon 매니페스트 한 줄에서 전환할 수 있다. Zig가 C를 직접 호출하므로 플랫폼 SDK·네이티브 라이브러리·코덱 접근에 별도 글루 레이어가 필요 없다는 게 차별점. 보안 모델은 ‘WebView 기본 불신’ — 네이티브 명령·권한·내비게이션·윈도우 API가 모두 옵트인이고, window.zero.invoke() 호출은 사이즈 제한·오리진 체크·권한 체크를 거친다. Next, React, Svelte, Vue 스타터 템플릿이 함께 제공돼 zig build run 한 줄로 실행된다. iOS·Android는 호스트 앱이 libzero-native.a의 C ABI를 링크하는 임베딩 방식으로 모바일까지 커버한다. Apache-2.0.

Tech Insight — Tauri(Rust), Wails(Go) 옆에 Zig가 같은 자리에 등장했다. ‘시스템 언어 + WebView’ 조합은 이제 Electron의 사실상 대체 카테고리가 됐고, 이제 언어 선택지가 늘어나는 단계로 들어선 셈. Vercel이 Next 스타터를 1차로 미는 만큼, JS 개발자가 Zig를 한 줄도 몰라도 시작하는 그림이 가능하다. 모바일 임베딩이 같은 코드베이스에서 떨어진다는 점은 React Native·Flutter 진영과의 직접 경쟁 신호.

관련 글

출처

  1. GeekNews — TOP 토픽 (5/12)
  2. Claude Code 공식 문서 — /goal
  3. Rapid-MLX — GitHub
  4. Vercel Labs zero-native — GitHub

AI Biz Insider · Tech Digest · aibizinsider.com


AI Biz Insider에서 더 알아보기

구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.

코멘트

댓글 남기기

AI Biz Insider에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기

AI Biz Insider에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기