:root {
–bg: #f5f7fb;
–surface: #ffffff;
–surface-2: #eef3f8;
–text: #17202a;
–muted: #5b6673;
–line: #d9e1ea;
–primary: #0f5f73;
–primary-soft: #dcecf1;
–accent-grad: linear-gradient(135deg, #f7fafc 0%, #eaf4f7 100%);
–radius: 18px;
–shadow: 0 10px 30px rgba(20, 40, 60, 0.08);
}
.ai-wrap { max-width: 1120px; margin: 0 auto; padding: 24px; color: var(–text); font-family: -apple-system, BlinkMacSystemFont, “Segoe UI”, Roboto, “Noto Sans KR”, sans-serif; line-height: 1.7; }
.ai-hero { background: var(–accent-grad); border: 1px solid var(–line); border-radius: 28px; padding: 36px; box-shadow: var(–shadow); margin-bottom: 24px; }
.ai-eyebrow { font-size: 13px; color: var(–primary); letter-spacing: 0.08em; text-transform: uppercase; margin-bottom: 10px; }
.ai-hero h1 { font-size: 34px; line-height: 1.2; margin: 0 0 14px; letter-spacing: -0.02em; }
.ai-lead { font-size: 17px; color: var(–muted); max-width: 760px; margin: 0; }
.ai-grid { display: grid; grid-template-columns: 1.6fr 0.9fr; gap: 24px; }
.ai-card { background: var(–surface); border: 1px solid var(–line); border-radius: var(–radius); padding: 24px; box-shadow: var(–shadow); margin-bottom: 24px; }
.ai-card h2 { font-size: 22px; margin: 0 0 14px; letter-spacing: -0.01em; }
.ai-card h3 { font-size: 18px; margin: 24px 0 10px; }
.ai-summary-list, .ai-link-list, .ai-check-list { margin: 0; padding-left: 18px; }
.ai-summary-list li, .ai-link-list li, .ai-check-list li { margin-bottom: 10px; }
.ai-note { background: var(–surface-2); border-left: 4px solid var(–primary); border-radius: 14px; padding: 16px 18px; color: var(–text); margin-top: 16px; }
.ai-table { width: 100%; border-collapse: collapse; margin-top: 14px; font-size: 15px; }
.ai-table th, .ai-table td { border: 1px solid var(–line); padding: 12px 14px; text-align: left; vertical-align: top; }
.ai-table th { background: #f0f5f9; font-weight: 600; }
.ai-links a { color: var(–primary); text-decoration: none; border-bottom: 1px solid rgba(15, 95, 115, 0.25); }
.ai-links a:hover { border-bottom-color: rgba(15, 95, 115, 0.65); }
.ai-footer-box { margin-top: 8px; padding: 18px; border-radius: 16px; background: #f8fbfd; border: 1px solid var(–line); }
@media (max-width: 900px) { .ai-grid { grid-template-columns: 1fr; } .ai-hero { padding: 28px 22px; } .ai-hero h1 { font-size: 28px; } }
제미나이 3.1 Flash Live, GPT-5.4 mini/nano, Qwen3.5-Omni — 3월 마지막 주 AI 업데이트 총정리
Google이 실시간 음성/영상 에이전트용 Gemini 3.1 Flash Live를 출시했고, OpenAI는 GPT-5.4 라인업을 mini/nano까지 확장했다. Alibaba의 Qwen3.5-Omni는 멀티모달 경쟁에 새 변수를 던졌다. 위키피디아는 AI 생성 콘텐츠를 공식 금지했다.
한눈에 보기
- Google Gemini 3.1 Flash Live — 실시간 음성/영상 대화형 에이전트 구축이 가능한 모델 출시. Google AI Studio Live API로 제공. (3월 26일)
- OpenAI GPT-5.4 mini & nano — 코딩, 도구 사용, 멀티모달 추론에 최적화된 소형 모델 2종 발표. 대량 API 및 서브 에이전트 워크로드 대상. (3월 17일)
- Alibaba Qwen3.5-Omni — 텍스트, 이미지, 오디오, 비디오 처리가 가능한 256k 컨텍스트 윈도우의 하이브리드 MoE 멀티모달 모델. (3월 31일)
- 위키피디아, AI 생성 콘텐츠 공식 금지 — 커뮤니티 투표 40:2로 LLM 기반 작성/편집 금지 결정. 할루시네이션 우려. (3월 31일)
- Anthropic, Claude 파트너 네트워크에 1억 달러 투자 — 기업용 Claude 도입을 지원하는 파트너 생태계 확대. (3월 12일)
무엇이 바뀌었는가
Google: Gemini 3.1 Flash Live 출시
발행일: 2026년 3월 26일
Google이 Gemini 3.1 Flash Live를 공개했다. 핵심은 실시간 음성과 영상을 동시에 처리하는 대화형 AI 에이전트를 만들 수 있다는 점이다. Google AI Studio의 Live API를 통해 개발자에게 제공되며, Google 자체 제품군에도 순차 적용 중이다.
동시에 Google은 Search Live를 AI Mode가 지원되는 모든 언어/지역으로 글로벌 확장했고, Gemini 앱에서 경쟁 AI 플랫폼의 대화 기록과 메모리를 가져올 수 있는 마이그레이션 기능도 추가했다.
의료 분야에서는 MedGemma Impact Challenge 수상작을 발표하며 오픈 의료 모델의 활용 사례를 보여줬다.
OpenAI: GPT-5.4 생태계 완성
발행일: GPT-5.4 (3월 5일) / mini & nano (3월 17일)
OpenAI는 3월 초 플래그십 모델 GPT-5.4를 출시한 데 이어, 3월 17일 GPT-5.4 mini와 nano를 추가로 발표했다. mini와 nano는 코딩, 도구 사용, 멀티모달 추론, 대량 API 호출 및 서브 에이전트 워크로드에 최적화되었다.
같은 달 OpenAI는 Codex Security(AI 애플리케이션 보안 에이전트, 3월 6일)를 리서치 프리뷰로 공개하고, Astral(Python 개발 도구, 3월 19일)과 Promptfoo(AI 보안 플랫폼, 3월 9일)를 인수했다. ChatGPT에는 Agentic Commerce Protocol 기반 쇼핑 기능(3월 24일)과 수학/과학 인터랙티브 학습 기능(3월 10일)이 추가되었다.
보안 측면에서는 Safety Bug Bounty 프로그램(3월 25일)을 신설해 프롬프트 인젝션, 데이터 유출 등 에이전트 취약점 신고를 받기 시작했고, 에이전트의 프롬프트 인젝션 방어 설계에 관한 기술 문서(3월 11일)도 공개했다.
Anthropic: 파트너 생태계 확대
발행일: 2026년 3월 6~18일
Anthropic은 Claude 파트너 네트워크에 1억 달러를 투자한다고 발표했다(3월 12일). 기업들이 Claude를 도입할 때 파트너사들이 컨설팅과 통합을 지원하는 구조다.
81,000명이 참여한 대규모 정성 조사 결과를 공개하며 사용자들이 AI에 실제로 원하는 것이 무엇인지 분석했다(3월 18일). Anthropic Institute라는 새 조직을 설립해 강력한 AI가 사회에 미치는 도전에 대응하겠다고 밝혔고(3월 11일), Mozilla와 협력해 Firefox 보안 개선에도 나섰다(3월 6일).
오픈소스/커뮤니티: Qwen3.5-Omni와 위키피디아 AI 금지
발행일: 2026년 3월 31일
Alibaba가 Qwen3.5-Omni를 발표했다. 텍스트, 이미지, 오디오, 비디오를 모두 처리하는 멀티모달 모델로, 256k 컨텍스트 윈도우와 하이브리드 어텐션 MoE 아키텍처를 탑재했다. 오픈소스 멀티모달 모델 경쟁이 본격화되고 있다.
위키피디아 커뮤니티는 40:2의 압도적 투표로 AI(LLM) 기반 콘텐츠 작성 및 편집을 공식 금지했다. 할루시네이션과 정확성 문제가 주요 이유다. AI 생성 콘텐츠에 대한 품질 기준이 강화되는 흐름을 보여주는 사례다.
바로 써먹는 방법
Gemini 3.1 Flash Live 활용
- Google AI Studio에서 Live API에 접근해 실시간 음성/영상 에이전트 프로토타입을 만들어볼 수 있다.
- 기존 Gemini API 사용자라면 Flash Live 모델로 전환 시 실시간 대화 기능을 추가할 수 있다.
GPT-5.4 mini/nano 도입 체크리스트
- 대량 API 호출이 필요한 서비스라면 nano 모델로 비용 절감 가능성을 테스트한다.
- 멀티 에이전트 시스템에서 서브 에이전트 역할에 mini/nano를 배치하는 구조를 검토한다.
- Codex Security(리서치 프리뷰)를 기존 코드베이스에 적용해 취약점 스캔을 시도한다.
3사 모델 빠른 비교
| 항목 | Gemini 3.1 Flash Live | GPT-5.4 mini/nano | Qwen3.5-Omni |
|---|---|---|---|
| 제공사 | OpenAI | Alibaba | |
| 핵심 강점 | 실시간 음성/영상 에이전트 | 고효율 코딩/도구 사용 | 멀티모달(4종) 처리 |
| 컨텍스트 | 공식 미공개 | 공식 미공개 | 256k 토큰 |
| 접근 방식 | AI Studio Live API | OpenAI API | 오픈소스 |
| 발표일 | 3월 26일 | 3월 17일 | 3월 31일 |
이번 주 주요 흐름
- 에이전트 시대 가속 — Google은 실시간 에이전트 API를, OpenAI는 에이전트 런타임(Responses API + 셸 도구)을 각각 공개. 에이전트 인프라 경쟁이 본격화.
- 모델 경량화 경쟁 — GPT-5.4 nano, Ollama MLX(Apple Silicon 최적화) 등 소형/경량 모델 수요 급증.
- AI 보안 전문화 — OpenAI Codex Security, Safety Bug Bounty, 프롬프트 인젝션 방어 설계 등 보안 관련 발표가 집중.
- AI 콘텐츠 품질 논쟁 — 위키피디아의 AI 금지, GitHub Copilot의 PR 광고 삽입 논란 등 AI 생성물의 품질과 신뢰 문제가 수면 위로.
주의할 점
Qwen3.5-Omni의 컨텍스트 윈도우(256k)는 공식 발표 기준이나, 실제 성능은 벤치마크 검증이 필요하다. 프로덕션 도입 전 자체 테스트 권장.
GPT-5.4 mini/nano는 플래그십 대비 성능 트레이드오프가 있다. 용도에 맞는 모델 선택이 중요하며, OpenAI 공식 벤치마크를 참고할 것.
Codex Security는 아직 리서치 프리뷰 단계다. 프로덕션 보안 도구를 완전히 대체하기보다 보조 수단으로 활용하는 것이 적절하다.
GitHub Copilot PR 광고 삽입 이슈가 보고되고 있다. AI 코드 리뷰 도구 사용 시 생성된 PR 내용을 반드시 확인할 것.

댓글 남기기