GitHub 미친 셋 발견…

GitHub TOP3: Context Mode, Barman, Fincept Terminal — 개발자 큐레이션 썸네일
DIGEST
  • Context Mode — MCP가 컨텍스트에 쏟아붓는 원시 데이터 315KB를 5.4KB로 줄여 코딩 세션을 약 30분에서 약 3시간으로 6배 연장.
  • Barman — pgBackRest 유지보수 중단의 빈자리를 노리는 PostgreSQL 백업 도구. PITR과 동기식 WAL 스트리밍으로 RPO=0 지원.
  • Fincept Terminal — Bloomberg Terminal($24,000/년)의 무료 대안을 표방하는 오픈소스. C++20+Qt6 네이티브에 AI 에이전트 37개 빌트인.

315KB → 5.4KB. 24,000달러 → 0원. RPO=0. 오늘 GeekNews TOP3는 모두 한 자릿수의 충격 같은 숫자를 들고 나왔다. 토큰을 줄이는 도구, 데이터 손실을 막는 도구, 비용을 무너뜨리는 도구 — 한 줄 요약은 다르지만 셋의 공통점은 분명하다. ‘돈이 되는 문제’에 직접 부딪힌다는 것.

Context Mode: 컨텍스트 윈도우를 98% 압축하다

315KB가 5.4KB로 — 세션 시간이 6배 늘었다

MCP 도구 호출이 컨텍스트 윈도우에 쏟아붓는 원시 데이터를 샌드박스로 격리해 315KB → 5.4KB(98% 감소)로 만든다. 결과적으로 AI 코딩 세션이 약 30분에서 약 3시간으로 6배 늘어난다. 핵심 메커니즘은 두 가지다. 첫째, 파일 편집·git 작업·태스크·에러·사용자 결정 등 모든 세션 이벤트를 SQLite+FTS5에 저장한 뒤 BM25로 검색해 컴팩션 이후에도 맥락이 끊기지 않는다. 둘째, ‘코드로 생각하기’ — LLM이 데이터를 직접 읽는 대신 스크립트를 작성해 결과만 받아온다(예: 함수 개수를 세는 작업에 원본 코드를 통째로 컨텍스트에 올리지 않음).

출력 토큰도 65~75% 줄어든다. Claude Code(플러그인 마켓플레이스), Codex CLI, Gemini CLI, Cursor, OpenCode, Antigravity 등 14개 플랫폼을 지원하며, 각 플랫폼의 훅(PreToolUse/PostToolUse/SessionStart/PreCompact) 수준에 따라 세션 연속성 등급이 다르다. 보안은 Claude Code의 permissions(deny/allow) 설정을 MCP 샌드박스에도 그대로 적용하고, 체이닝된 명령도 개별 검사한다. 텔레메트리·클라우드 동기화·사용량 추적이 없는 완전 로컬 실행이며, Microsoft·Google·Meta·Amazon·NVIDIA·Stripe·Datadog 팀이 사용 중이다. 라이선스는 Elastic License 2.0(소스 공개, 호스팅 서비스 제공 금지).

Tech Insight — ‘토큰 절약’과 ‘컨텍스트 윈도우 절약’은 다른 문제다. Context Mode가 해결하는 건 후자에 가깝다. 같은 작업을 더 적은 토큰으로 처리하는 것이 아니라, 같은 컨텍스트 예산으로 더 많은 작업을 누적할 수 있게 만든다. 장시간 코딩 세션에서 컴팩션이 자주 일어나는 팀이 즉시 효과를 본다.


Barman: pgBackRest의 빈자리를 채우다

PITR + RPO=0 + 증분 백업 — 엔터프라이즈 표준 후보

PostgreSQL 백업 생태계의 한 축이었던 pgBackRest가 최근 유지보수를 중단했다. 그 빈자리를 노리는 후보가 EnterpriseDB의 Barman이다. 핵심 기능은 재해 복구 관점에서 거의 모두 갖춰져 있다. Point-In-Time Recovery(PITR)로 특정 시점 복구가 가능하고, 동기식 WAL 스트리밍을 통해 ‘제로 데이터 손실(RPO=0)’을 달성한다. 증분 백업과 병렬 백업·복구가 표준 기능이며, rsync/SSH 또는 pg_basebackup으로 원격 백업이 가능하고 로컬·원격(SSH) 복구 모두 동일한 카탈로그에서 운영된다.

운영 측면에서도 빠졌던 조각이 채워져 있다. 백업 카탈로그로 여러 풀 백업의 목록화·보관·삭제·아카이브·복구를 일괄 관리하고, WAL 압축(bzip2/gzip/커스텀)과 보존 정책(Retention Policy), 스탠바이 서버와의 WAL 허브 통합까지 지원한다. 복구 시 PGDATA·테이블스페이스 재배치가 가능하고 Pre/Post 백업 훅 스크립트도 붙일 수 있다. 라이선스는 GPL-3.0, 코드는 Python 100%.

Tech Insight — pgBackRest를 운영 중인 팀에게 마이그레이션 검토는 이제 ‘언젠가’가 아니라 ‘분기 안에’로 당겨지는 일이다. 보안 패치 단절이 사실로 닥치기 전에 RPO·RTO를 다시 측정하고, 스테이징에서 Barman의 동기식 WAL·PITR 동작을 검증해 두는 편이 안전하다. 관리형 RDS 의존도가 낮은 자체 운영팀일수록 우선순위를 올릴 사안.


Fincept Terminal: 블룸버그 24,000달러를 0원으로

C++20+Qt6 네이티브, AI 에이전트 37개 빌트인

Bloomberg Terminal($24,000/년)과 Refinitiv Eikon($20,000+/년)의 무료 대안을 표방하는 오픈소스 금융 분석 플랫폼. v4는 C++20 + Qt6 네이티브 앱으로 재작성됐다. CFA 수준의 분석 — DCF 모델, 포트폴리오 최적화, VaR·Sharpe 등 리스크 메트릭, 파생상품 가격 산정 — 을 임베디드 Python으로 처리한다. 단순한 재무 도구를 넘어선 차별점은 37개 AI 에이전트가 빌트인이라는 점이다. Buffett·Graham·Lynch·Munger 등 Trader/Investor 프레임워크와 경제·지정학 프레임워크를 포함하고, OpenAI·Anthropic·Gemini·DeepSeek·Ollama까지 멀티 LLM 프로바이더를 지원한다.

데이터·실행 인프라도 폭이 넓다. 100개 이상의 데이터 커넥터(DBnomics, Polygon, Kraken, Yahoo Finance, FRED, IMF, World Bank, AkShare, 정부 API 등)와 Adanos 같은 시장 센티먼트 오버레이를 묶었고, 실시간 트레이딩은 암호화폐(Kraken/HyperLiquid WebSocket)·주식·알고리듬·페이퍼 트레이딩을 지원하며 Zerodha·IBKR·Alpaca·Tradier·Saxo 등 16개 브로커가 통합돼 있다. QuantLib Suite의 18개 정량 분석 모듈, 노드 에디터 기반 비주얼 워크플로, AI Quant Lab(ML 모델·팩터 발견·HFT·강화학습)이 한 앱에 들어 있다. Windows/Linux/macOS 인스톨러와 Docker가 모두 제공된다. 로드맵은 Q2 2026 옵션 전략 빌더와 50+ AI 에이전트, Q3 2026 프로그래매틱 API와 ML 트레이닝 UI. 라이선스는 AGPL-3.0(오픈소스) + 상용 듀얼, 교육기관용 별도 라이선스($799/월, 20계정).

Tech Insight — 가격 파괴보다 무거운 메시지는 ‘AI 에이전트 빌트인’이다. 블룸버그가 가장 늦게 따라잡는 영역이 LLM 워크플로 통합인데, 오픈소스가 먼저 그 자리를 채우고 있다. 핀테크·헤지펀드 PoC를 빠르게 돌리려는 팀에게는 ‘무료 대안’ 이상의 의미가 있다. 단, 사내 서비스에 임베드한다면 AGPL의 네트워크 사용 조항을 사전에 검토할 것.


관련 글

출처

  1. GeekNews — Context Mode: AI 코딩 에이전트의 컨텍스트 윈도우를 98% 절약하는 MCP 서버
  2. GitHub — mksglu/context-mode
  3. GeekNews — Barman: PostgreSQL용 백업 및 복구 관리자
  4. GitHub — EnterpriseDB/barman
  5. GeekNews — Fincept Terminal: 금융 분석 플랫폼 오픈소스
  6. GitHub — Fincept-Corporation/FinceptTerminal

AI Biz Insider · Tech Digest · aibizinsider.com


AI Biz Insider에서 더 알아보기

구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.

코멘트

댓글 남기기

AI Biz Insider에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기

AI Biz Insider에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기