- CAD 치수 오류 하나로 수억~수백억 원 손실이 나는 제조업에서, AI는 생산성 도구가 아니라 손실 방지 보험으로 필요하다.
- 그러나 한국 공장 사무실에서 ChatGPT·Claude·Gemini는 접속 차단이 기본이다. 도면·BOM·원가는 회사 자산이고, 외부 API로 나가는 순간 자산 유출이다.
- Papsnet이 PLM을 구축한 30여 개 현장에서 관찰된 공통 패턴: “AI 필요성은 안다. 그러나 클라우드엔 못 올린다.”
- 돌파구는 온프레미스 LLM + 로컬 RAG + Private Endpoint 조합. 휴먼 에러 방지 영역부터 POC 권장.
자동차 부품을 만드는 어느 중견기업의 이야기다. CAD에서 치수 한 자리가 잘못 입력됐다. 설계 리뷰에서도, 시제품에서도 발견되지 않았다. 양산 라인에서 3,000개 제품이 나온 후에야 QA가 잡아냈다. 손실액 약 12억 원. 이 시나리오는 한국 제조업에 드물지 않다. 크고 작은 치수·BOM·공차 오류는 매년 제조업계 전체에서 수천억 단위의 리워크·폐기 비용을 만든다.
2026년 현재 AI는 이런 검증 작업에 이론적으로 가장 잘 맞는 도구다. 패턴 인식, 일관성, 피로 없음 — 전부 인간이 반복 검증에서 실수하는 지점이다. 그런데 한국 공장 사무실에서 직원들은 ChatGPT에 접속조차 하지 못한다. 왜 그런가. 그리고 해결책은 무엇인가. 이 리포트는 그 간극을 다룬다.
공장이 AI를 원하는 진짜 이유: 휴먼 에러
한국 제조업의 AI 도입 동기는 흔히 알려진 “생산성 향상”이나 “자동화”가 아니다. 현장의 진짜 통증은 한 번의 실수로 라인 전체가 멈추거나 출하된 제품을 회수해야 하는 재앙 시나리오다.
휴먼 에러가 만드는 대가
CAD에서 기입한 공차 0.05mm 차이가 정밀 부품에서 조립 불가로 이어진다. 설계 변경(ECO/ECN) 반영이 BOM에 누락되면 협력사가 구버전 도면으로 만든 부품이 입고된다. 원가 산정에서 콤마 위치가 틀리면 견적이 엉뚱하게 나간다. 이런 오류는 보통 이렇게 발견된다 — 양산 3,000개 이후, 고객사 수령 후, 또는 감사 중에.
AI Biz Insider 분석 ― 제조업 에러 비용은 “조기 발견 시 수백만 원, 양산 진입 시 수억 원, 출하 후 수십억 원”의 계단식 구조를 갖는다. AI의 역할은 이 계단의 가장 앞쪽 — 설계·변경 단계에서 틀린 것을 잡아내는 일이다.
AI가 이론적으로 딱 맞는 이유
인간은 반복 검증에서 피로해지고, 시각 패턴 비교에서 세부를 놓치고, 설계 변경이 여러 번 누적되면 일관성을 잃는다. LLM·ML은 정확히 이 지점에서 강하다. 업계에서 검증된 AI 적용 후보 영역을 정리하면 다음과 같다.
그런데 왜 실무에서 못 쓰는가
2026년 4월 현재, 한국 중견 제조업 사무실 PC에서 ChatGPT·Claude·Gemini는 대부분 접속 자체가 차단되어 있다. 방화벽에서 걸러지고, DLP(데이터 유출 방지) 솔루션에서 막는다. 설정 책임자는 CISO 또는 IT 부서장이지만, 진짜 원인은 더 깊은 곳에 있다 — 30년간 누적된 “도면은 회사 자산이다”라는 강력한 인식이다.
5가지 장벽
- 자산 보호 심리 — 도면·BOM·원가·설계변경 이력 = 영업 비밀이자 기술 자산. 경쟁사로 유출되면 시장 지위 소멸.
- 규제 프레임 — 산업기술보호법, 방위사업법, 개인정보보호법, K-ISMS. 특히 방산·반도체·2차전지는 국가핵심기술로 지정, 해외 유출 시 형사 처벌.
- 공급망 계약 — 대기업 OEM이 협력사에 요구하는 보안 서약서에 “외부 클라우드 업로드 금지” 조항이 표준. 위반 시 거래 중단.
- 외부 통신 차단 — Air-gap 네트워크, 화이트리스트 방화벽이 기본 설정. ChatGPT API 도메인은 자동 차단.
- 불신의 학습 — 과거 설계 자료 유출 사고의 트라우마. 한 번 유출된 도면은 회수 불가능하다는 현실적 공포.
현장에서 본 3가지 풍경
Papsnet이 PLM·MES를 구축한 30여 개 현장에서 공통적으로 관찰된 패턴을 3개 업종 사례로 정리한다. 업종·규모·조치 수준으로만 기술하며, 기업명·시점의 세부는 의도적으로 추상화했다.
사례 A. 자동차 부품 제조 (중견, 300인 규모)
OEM 완성차 업체 2차 협력사. 품목은 정밀 가공 부품. 2024년경 협력사 도면이 외부로 유출된 사고 이후 OEM이 협력망 전체에 보안 감사를 실시. 해당 기업은 즉시 전 사원의 사외 클라우드 서비스 접속을 차단하고, 이후 6개월간 외부 API 호출이 보고서에 남도록 DLP를 강화. AI 도입 의지는 강하나 수단 부재로 인해 온프레미스 LLM POC를 2026년에 본격 검토 중이다.
사례 B. 반도체 공정 장비 제조 (중소, 100인 미만)
반도체 장비 부품·모듈 제작. 주요 고객은 국내 종합반도체 대기업 2곳. 공정 노하우 자체가 국가핵심기술로 지정된 영역에 인접해 있어, 외부 AI로 공정 파라미터·레이아웃을 공유하는 것은 법적으로도 차단. 직원 개인이 ChatGPT에 일반 문의를 했다가 내부 키워드를 섞어 이상 트래픽으로 걸려 인사 경고를 받은 사례가 실존. 현재는 사내 게이트웨이형 AI 어시스턴트(내부망 전용)를 자체 POC 중.
사례 C. 의료 장비 제조 (중견, 200인 규모)
MFDS(식약처) 인증 의료기기 제조. ISO 13485 품질 시스템 운영. 설계 변경 이력은 규제 문서로 7년 이상 보존 의무. 여기서는 보안도 중요하지만 감사 추적성(audit trail)이 더 큰 이슈다. 외부 AI를 설계 검증에 쓰는 순간 “AI가 무엇을 입력받고 무엇을 출력했는지”의 기록 요건을 충족하기 어렵다. 해당 기업은 모든 AI 사용을 내부 로깅이 가능한 환경에서만 허용하는 정책을 2025년 말에 수립.
AI Biz Insider 분석 ― 3개 업종의 차단 사유는 서로 다르지만(공급망 계약, 국가핵심기술, 규제 감사 추적성), 결론은 같다. “클라우드로 흘러가는 AI는 못 쓴다”. 그러나 도입 의지는 예외 없이 강하다. 이것이 한국 제조업 AI 시장의 핵심 긴장이다.
가능·경계·불가 — 영역 매트릭스
현장에서 실무자들이 실제로 구분하는 선은 다음과 같다. 이 표는 2026년 4월 기준 한국 제조 중견·대기업에서 사실상 통용되는 가이드라인이다.
돌파구 — 휴먼 에러 방지용 사설 AI 5가지
그렇다면 어떻게 휴먼 에러 방지라는 실무 수요를 충족하면서 자산 유출을 막을 것인가. 2026년 4월 현재, 한국 제조 현장에서 실제로 선택 가능한 5가지 경로는 다음과 같다.
① 온프레미스 LLM
Meta Llama 3.3 70B, Alibaba Qwen 3, Mistral, Naver HyperClova X(엔터프라이즈 온프레미스 옵션) 등 오픈 가중치 모델을 사내 GPU 서버에 배포. 초기 투자(GPU 8장 기준 2~4억 원)가 부담이나, 데이터가 절대로 외부로 나가지 않는다는 절대 보안을 확보.
② 로컬 RAG (Retrieval-Augmented Generation)
사내 도면·BOM·설계 변경 이력을 내부망 벡터 DB(예: Milvus, Qdrant)에 인덱싱. LLM은 질문 시 사내 문서만 참조해 답변 생성. “우리 회사의 ChatGPT”를 만드는 가장 일반적 패턴.
③ 클라우드 AI + Private Endpoint
Azure OpenAI Service의 Private Endpoint, AWS Bedrock의 VPC 전용 배포. 계약서에 “입력 데이터 학습 미사용·로깅 최소화”가 명시. 완전 온프레미스는 부담스럽고 클라우드 편의성은 원하는 조직에 적합. 다만 OEM 계약에 “클라우드 금지” 조항이 있으면 여전히 불가.
④ DLP 연계 AI
Microsoft 365 Copilot Enterprise + Purview(DLP) 조합. 직원이 AI에 민감 문서를 복사할 때 자동으로 마스킹되거나 차단. “AI 전면 금지”가 만드는 Shadow IT 문제에 대한 현실적 타협안.
⑤ Abstraction 레이어
CAD·BOM에서 숫자 특징 벡터만 추출해 외부 AI에 전달. 원본 파일·품번·치수는 로컬에 남기고, 통계적 특성만 공유. 최근 스타트업들이 이 영역에 접근하고 있으나, 현재는 맞춤형 개발이 필요.
PLM 현장에서 “지금 당장” 붙일 수 있는 자리
Papsnet이 구축한 PLM 환경에서 가장 먼저 AI가 효과를 내는 워크플로우 5개. 모두 사설 AI 전제.
- 설계 변경 이력 요약 — ECO/ECN 승인 요청 시 변경 사유·영향 범위 자동 초안 생성.
- BOM diff 영향 분석 — 변경된 품번이 어느 완성품에 들어가는지, 재고·협력사까지 파급 경로 자동 추적.
- 도면 치수 일관성 체크 — 2D/3D 버전 간 치수 불일치, 공차 누락 자동 탐지.
- 품질 부적합 분류 — QA 보고서를 과거 유사 사례와 매칭, 근본 원인 후보 자동 제시.
- 협력사 이메일 요약·분류 — 도면 배포 회신, 이슈 제기, 납기 문의 자동 태깅.
액션 플랜 — 지금 해야 할 것 / 하지 말아야 할 것
- 사내 AI 정책 명문화 (허용·금지 영역 명시)
- 온프레미스 LLM POC (Llama·HyperClova 우선)
- CAD·BOM 검증 워크플로우 1개부터 시작
- DLP + AI 로그 모니터링 구축
- 사원 교육 (Shadow IT 예방)
- 클라우드 AI 전면 금지 (Shadow IT 조장)
- 구체 워크로드 없는 “AI 도입 TF”
- 글로벌 AI 뉴스만 보고 유행 따라가기
- 보안 감사 없이 개별 부서 자율 도입
- ROI·손실 방지 계산 없는 투자
결론 — 한국 제조업 AI의 본질
한국 제조업에게 AI는 생산성 도구가 아니다. 손실 방지 보험이다. 한 번의 휴먼 에러로 날아가는 수억~수백억 원을 막는 도구다. 그리고 보험은 외부에 맡길 수 없다. 계약서·법령·30년 학습된 자산 보호 심리가 그것을 허락하지 않는다.
이 리포트가 제시한 돌파구는 한 문장으로 요약된다. “휴먼 에러 방지 영역에, 사설 AI를, 작은 워크플로우부터.” OpenAI의 $100B 밸류, Anthropic의 멀티 클라우드 전략은 매력적이지만, 한국 공장의 AI 경쟁력은 다른 곳에서 만들어진다 — 사내 GPU 서버 랙 앞, 사내 벡터 DB 콘솔, 그리고 “우리 회사 도면만 아는” 한국형 어시스턴트에서.
다음 월간 리포트(Vol. 02)에서는 한국에서 실제 사용 가능한 온프레미스 LLM 선택지를 비교한다. Llama 3.3 · Qwen 3 · Mistral · HyperClova X 엔터프라이즈 옵션 — 가격·성능·한국어 품질·보안 인증 전수 비교.
출처 · 방법론
- Papsnet 구축 고객사 관찰 (30+ 현장, 2015~2026) — 업종·규모·조치 수준으로만 기술, 기업명·시점 세부는 의도적으로 추상화.
- 산업기술의 유출방지 및 보호에 관한 법률 (국가법령정보센터)
- 정보보호 및 개인정보보호 관리체계 인증 (ISMS-P) (KISA)
- Azure OpenAI Private Endpoints (Microsoft Learn)
- Amazon Bedrock Security and Compliance
- Anthropic Enterprise Privacy Policy
- Meta Llama 3.3 License
- Naver HyperClova X Enterprise
관련 글
- MCP vs Skills: 무엇이 다르고, 왜 중요한가 — 원문 분석
- 에이전틱 AI 얼라이언스 출범, 250개 기관 참여 민관 협력체 완전 분석
- 대한민국 인공지능행동계획 확정, 99개 실행과제로 AI 3강 도약 청사진
- AI 기본법 시행 3개월 현황, 고영향 AI 판단 기준과 과태료 체계
- G7 AI 규제 프레임워크 발표, 한국 기업이 준비해야 할 5가지
AI Biz Insider · AI 비즈니스 · aibizinsider.com
발행 2026-04-14 · 편집장 K.Nardo (킴날도) · 리포트 문의 kimnardo98@gmail.com
댓글 남기기