이 AI가 무료라고?

Google Gemma 4 오픈소스 AI 모델 출시
TL;DR
  • 구글 딥마인드가 Gemma 4를 Apache 2.0 라이선스로 완전 공개 — 상업적 사용, 수정, 재배포 제한 없음
  • 31B Dense 모델이 오픈소스 Arena 랭킹 3위, AIME 2026 수학 벤치마크 89.2% 달성
  • 텍스트, 이미지, 비디오, 오디오 네이티브 처리 + 함수 호출 기반 에이전트 워크플로우 내장
  • E2B(2.3B)부터 31B Dense까지 4개 사이즈, 최대 256K 컨텍스트 윈도우, 140개 이상 언어 지원

오픈소스 AI 모델 하면 ‘성능은 좀 부족하지만 무료니까’ 하는 인식이 보통이었다. 구글 딥마인드가 4월 초 공개한 Gemma 4는 이 공식을 정면으로 뒤집었다. 프론티어급 성능을 Apache 2.0이라는 가장 관대한 라이선스에 담아 세상에 내놨다. 스타트업이든 대기업이든, 제한 없이 가져다 쓸 수 있다.

Apache 2.0이 왜 게임체인저인가

이전 Gemma와 결정적 차이

Gemma 1, 2, 3 시리즈는 구글 자체 라이선스를 적용했다. 상업적 사용에 조건이 붙었고, 재배포에도 제약이 있었다. Gemma 4는 이를 Apache 2.0으로 전환했다. 이는 수정, 재배포, 상업적 활용 어떤 것도 제한하지 않는 완전 개방 라이선스다. Meta의 Llama 시리즈조차 커스텀 라이선스를 유지하는 상황에서, 프론티어급 오픈소스 모델의 완전 공개는 업계 판도를 바꿀 수 있는 결정이다.

스타트업과 기업에 미치는 영향

라이선스 제한이 사라지면서, 스타트업은 법률 검토 비용 없이 제품에 바로 탑재할 수 있다. 엔터프라이즈는 내부 데이터로 파인튜닝한 모델을 자유롭게 배포할 수 있다. HuggingFace에서 이미 수천 개의 파인튜닝 파생 모델이 등장하고 있으며, 이 생태계 확장 속도가 Llama 3 출시 때보다 빠르다.

Trend Insight — Apache 2.0 전환은 단순한 라이선스 변경이 아니다. 구글이 ‘모델 판매’에서 ‘생태계 장악’으로 전략을 전환했다는 신호다. 클라우드(GCP)와 하드웨어(TPU) 매출을 모델 무료 배포로 견인하겠다는 계산이다.


벤치마크가 말해주는 실력

Arena 랭킹 3위의 의미

31B Dense 모델은 업계 표준 Arena AI 텍스트 리더보드에서 오픈소스 모델 중 3위를 기록했다. 26B MoE 모델도 6위에 올랐다. 주목할 점은 이 순위가 단순 벤치마크가 아니라, 실제 사용자들의 블라인드 평가(Elo 레이팅)를 기반으로 한다는 것이다. 실사용 체감 성능에서 프론티어 모델과 경쟁한다는 뜻이다.

수학과 추론에서 압도적 도약

MMLU Pro 85.2%, AIME 2026(수학 올림피아드) 89.2%, GPQA Diamond(대학원 과학) 84.3%를 기록했다. 특히 AIME 2026 점수는 이전 세대 Gemma 3 27B의 20.8%에서 89.2%로 뛰었다. 4배 이상의 도약이다. Gemma 3 12B(37.5%)와 비교해도 격차가 크다. 추론 능력에서 세대 간 질적 변화가 일어났다고 볼 수 있다.

Trend Insight — AIME 89.2%는 유료 API 모델과 동등한 수준이다. 오픈소스 모델이 ‘가성비’가 아니라 ‘성능 자체’로 선택받는 시대가 열리고 있다. 로컬 배포가 가능한 31B 파라미터에서 이 성능이 나온다는 것이 핵심이다.


멀티모달 + 에이전트, 두 마리 토끼

네이티브 멀티모달 처리

Gemma 4의 모든 사이즈는 이미지와 비디오를 네이티브로 처리한다. 가변 해상도를 지원하며, OCR과 차트 이해에서 특히 강점을 보인다. E2B와 E4B 모델은 여기에 오디오 입력까지 추가했다. 음성 인식과 이해를 별도 파이프라인 없이 단일 모델에서 처리할 수 있다는 뜻이다. 엣지 디바이스에서 멀티모달 AI 앱을 구현하려는 개발자에게는 상당한 이점이다.

에이전틱 워크플로우 네이티브 지원

함수 호출(Function Calling), 구조화된 JSON 출력, 네이티브 시스템 인스트럭션을 기본 지원한다. 외부 도구와 API를 연결해 자율적으로 작업을 수행하는 에이전트를 안정적으로 구축할 수 있다. 256K 컨텍스트 윈도우(대형 모델 기준)는 전체 코드베이스나 긴 문서를 한 번에 넣을 수 있어, 에이전트가 충분한 맥락을 가지고 판단하도록 만든다.

4개 사이즈, 어디서든 실행

E2B(2.3B), E4B(4.5B), 26B MoE(활성 4B/전체 26B), 31B Dense 네 가지로 출시됐다. 스마트폰이나 IoT 엣지에서는 E2B, 데스크톱이나 노트북에서는 26B MoE, 서버에서는 31B Dense를 선택하면 된다. MoE 아키텍처 덕분에 26B 모델은 실제로 4B 파라미터만 활성화하면서도 26B급 성능을 낸다. 추론 비용을 극적으로 줄이는 구조다.

Trend Insight — 2026년 AI 업계의 핵심 키워드는 ‘에이전틱 AI’다. Gemma 4가 함수 호출과 에이전트 워크플로우를 네이티브로 탑재한 것은, 오픈소스 생태계에서도 에이전트 시대가 본격화됐음을 보여준다. DeepSeek V4, Llama와의 경쟁에서 에이전트 지원이 핵심 차별점이 될 것이다.


오픈소스 AI 전쟁, 판이 바뀌었다

DeepSeek V4 vs Gemma 4 vs Llama

불과 며칠 전 DeepSeek V4가 토큰당 $0.14라는 파격적 가격으로 업계를 놀라게 했다. Gemma 4는 아예 무료 + 완전 개방으로 응수했다. Meta의 Llama 시리즈는 커스텀 라이선스를 유지 중이고, Mistral과 Qwen도 각자의 전략을 펼치고 있다. 오픈소스 AI 시장은 이제 성능뿐 아니라 라이선스, 멀티모달 지원, 에이전트 기능까지 전방위로 경쟁하는 구도가 됐다.

140개 언어, 글로벌 접근성

140개 이상 언어를 네이티브로 훈련한 점도 주목할 만하다. 한국어, 일본어 등 비영어권 사용자에게도 별도 파인튜닝 없이 높은 성능을 기대할 수 있다. 글로벌 시장을 타겟으로 하는 앱 개발자에게 다국어 지원은 모델 선택의 중요한 기준이 된다.

Trend Insight — 구글의 전략은 명확하다. 모델을 무료로 풀어 개발자 생태계를 장악하고, 그 위에 GCP와 Vertex AI 매출을 올리는 것이다. ‘모델은 인프라의 미끼’가 되는 시대다. 스타트업 입장에서는 API 비용 부담 없이 프론티어급 모델을 로컬에서 돌릴 수 있는 최고의 시기가 왔다.


관련 글

출처

  1. Google Blog – Gemma 4: Byte for byte, the most capable open models
  2. Hugging Face – Welcome Gemma 4: Frontier multimodal intelligence on device
  3. Google DeepMind – Gemma 4 Model Page

AI Biz Insider · AI 트렌드 · aibizinsider.com


AI Biz Insider에서 더 알아보기

구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.

코멘트

댓글 남기기

AI Biz Insider에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기

AI Biz Insider에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기