숫자 하나에 공장이 휘청인다 — 한국 제조업이 AI를 원하면서도 못 쓰는 이유와 현장형 돌파구

182.50 ± 0.05 95.0 ERROR 치수 누락 CAD · BLUEPRINT · SECURED
MONTHLY REPORT · VOL. 01 / 2026.04

숫자 하나에 공장이 휘청인다

한국 제조업이 AI를 간절히 원하면서도 못 쓰는 이유, 그리고 현장형 돌파구 — PLM 구축 30개 현장의 관찰

KK.Nardo · READ 14 MIN · 2026-04-14
Editorial illustration — CAD 블루프린트의 치수 오류(왼쪽)와 사설 AI의 자산 보호(오른쪽)가 만나는 경계선.
TL;DR
  • CAD 치수 오류 하나로 수억~수백억 원 손실이 나는 제조업에서, AI는 생산성 도구가 아니라 손실 방지 보험으로 필요하다.
  • 그러나 한국 공장 사무실에서 ChatGPT·Claude·Gemini는 접속 차단이 기본이다. 도면·BOM·원가는 회사 자산이고, 외부 API로 나가는 순간 자산 유출이다.
  • Papsnet이 PLM을 구축한 30여 개 현장에서 관찰된 공통 패턴: “AI 필요성은 안다. 그러나 클라우드엔 못 올린다.”
  • 돌파구는 온프레미스 LLM + 로컬 RAG + Private Endpoint 조합. 휴먼 에러 방지 영역부터 POC 권장.

자동차 부품을 만드는 어느 중견기업의 이야기다. CAD에서 치수 한 자리가 잘못 입력됐다. 설계 리뷰에서도, 시제품에서도 발견되지 않았다. 양산 라인에서 3,000개 제품이 나온 후에야 QA가 잡아냈다. 손실액 약 12억 원. 이 시나리오는 한국 제조업에 드물지 않다. 크고 작은 치수·BOM·공차 오류는 매년 제조업계 전체에서 수천억 단위의 리워크·폐기 비용을 만든다.

2026년 현재 AI는 이런 검증 작업에 이론적으로 가장 잘 맞는 도구다. 패턴 인식, 일관성, 피로 없음 — 전부 인간이 반복 검증에서 실수하는 지점이다. 그런데 한국 공장 사무실에서 직원들은 ChatGPT에 접속조차 하지 못한다. 왜 그런가. 그리고 해결책은 무엇인가. 이 리포트는 그 간극을 다룬다.

공장이 AI를 원하는 진짜 이유: 휴먼 에러

한국 제조업의 AI 도입 동기는 흔히 알려진 “생산성 향상”이나 “자동화”가 아니다. 현장의 진짜 통증은 한 번의 실수로 라인 전체가 멈추거나 출하된 제품을 회수해야 하는 재앙 시나리오다.

휴먼 에러가 만드는 대가

CAD에서 기입한 공차 0.05mm 차이가 정밀 부품에서 조립 불가로 이어진다. 설계 변경(ECO/ECN) 반영이 BOM에 누락되면 협력사가 구버전 도면으로 만든 부품이 입고된다. 원가 산정에서 콤마 위치가 틀리면 견적이 엉뚱하게 나간다. 이런 오류는 보통 이렇게 발견된다 — 양산 3,000개 이후, 고객사 수령 후, 또는 감사 중에.

제조업 에러 비용의 계단식 증폭 발견 시점이 늦을수록 손실은 10~100배 커진다 AI가 여기서 에러를 잡는다 수백만 원 ① 설계 리뷰 조기 발견 수천만 원 ② 시제품 테스트 단계 수억 원 ③ 양산 진입 라인 가동 후 수십~수백억 원 ④ 출하·리콜 시장 유통 후 100배 증폭 늦게 발견할수록 손실은 기하급수 적으로 커진다
설계 리뷰 단계에서 에러를 잡으면 수백만 원, 출하 후엔 수백억 원 — 100배 이상의 비용 증폭.

AI Biz Insider 분석 ― 제조업 에러 비용은 “조기 발견 시 수백만 원, 양산 진입 시 수억 원, 출하 후 수십억 원”의 계단식 구조를 갖는다. AI의 역할은 이 계단의 가장 앞쪽 — 설계·변경 단계에서 틀린 것을 잡아내는 일이다.

AI가 이론적으로 딱 맞는 이유

인간은 반복 검증에서 피로해지고, 시각 패턴 비교에서 세부를 놓치고, 설계 변경이 여러 번 누적되면 일관성을 잃는다. LLM·ML은 정확히 이 지점에서 강하다. 업계에서 검증된 AI 적용 후보 영역을 정리하면 다음과 같다.

업무 영역AI가 하는 일기대 효과
CAD 치수·공차 검증전/후 버전 차이 자동 탐지, 공차 범위 이상치 플래그양산 진입 전 오류 필터
BOM 변경 추적ECO/ECN 반영 누락 자동 감지, 영향 범위 분석협력사 구버전 사용 방지
설계 변경 이력 요약설계자 의도·변경 사유 자연어 요약감사·리뷰 효율
원가 이상치 탐지견적·원가 계산 로직 역검증, 자릿수 오류 포착손실 견적 방지
QC 부적합 분류품질 부적합 보고서 자동 분류·유사 사례 검색근본 원인 빠른 추적

그런데 왜 실무에서 못 쓰는가

2026년 4월 현재, 한국 중견 제조업 사무실 PC에서 ChatGPT·Claude·Gemini는 대부분 접속 자체가 차단되어 있다. 방화벽에서 걸러지고, DLP(데이터 유출 방지) 솔루션에서 막는다. 설정 책임자는 CISO 또는 IT 부서장이지만, 진짜 원인은 더 깊은 곳에 있다 — 30년간 누적된 “도면은 회사 자산이다”라는 강력한 인식이다.

5가지 장벽

  1. 자산 보호 심리 — 도면·BOM·원가·설계변경 이력 = 영업 비밀이자 기술 자산. 경쟁사로 유출되면 시장 지위 소멸.
  2. 규제 프레임산업기술보호법, 방위사업법, 개인정보보호법, K-ISMS. 특히 방산·반도체·2차전지는 국가핵심기술로 지정, 해외 유출 시 형사 처벌.
  3. 공급망 계약 — 대기업 OEM이 협력사에 요구하는 보안 서약서에 “외부 클라우드 업로드 금지” 조항이 표준. 위반 시 거래 중단.
  4. 외부 통신 차단 — Air-gap 네트워크, 화이트리스트 방화벽이 기본 설정. ChatGPT API 도메인은 자동 차단.
  5. 불신의 학습 — 과거 설계 자료 유출 사고의 트라우마. 한 번 유출된 도면은 회수 불가능하다는 현실적 공포.

현장에서 본 3가지 풍경

Papsnet이 PLM·MES를 구축한 30여 개 현장에서 공통적으로 관찰된 패턴을 3개 업종 사례로 정리한다. 업종·규모·조치 수준으로만 기술하며, 기업명·시점의 세부는 의도적으로 추상화했다.

사례 A. 자동차 부품 제조 (중견, 300인 규모)

OEM 완성차 업체 2차 협력사. 품목은 정밀 가공 부품. 2024년경 협력사 도면이 외부로 유출된 사고 이후 OEM이 협력망 전체에 보안 감사를 실시. 해당 기업은 즉시 전 사원의 사외 클라우드 서비스 접속을 차단하고, 이후 6개월간 외부 API 호출이 보고서에 남도록 DLP를 강화. AI 도입 의지는 강하나 수단 부재로 인해 온프레미스 LLM POC를 2026년에 본격 검토 중이다.

사례 B. 반도체 공정 장비 제조 (중소, 100인 미만)

반도체 장비 부품·모듈 제작. 주요 고객은 국내 종합반도체 대기업 2곳. 공정 노하우 자체가 국가핵심기술로 지정된 영역에 인접해 있어, 외부 AI로 공정 파라미터·레이아웃을 공유하는 것은 법적으로도 차단. 직원 개인이 ChatGPT에 일반 문의를 했다가 내부 키워드를 섞어 이상 트래픽으로 걸려 인사 경고를 받은 사례가 실존. 현재는 사내 게이트웨이형 AI 어시스턴트(내부망 전용)를 자체 POC 중.

사례 C. 의료 장비 제조 (중견, 200인 규모)

MFDS(식약처) 인증 의료기기 제조. ISO 13485 품질 시스템 운영. 설계 변경 이력은 규제 문서로 7년 이상 보존 의무. 여기서는 보안도 중요하지만 감사 추적성(audit trail)이 더 큰 이슈다. 외부 AI를 설계 검증에 쓰는 순간 “AI가 무엇을 입력받고 무엇을 출력했는지”의 기록 요건을 충족하기 어렵다. 해당 기업은 모든 AI 사용을 내부 로깅이 가능한 환경에서만 허용하는 정책을 2025년 말에 수립.

AI Biz Insider 분석 ― 3개 업종의 차단 사유는 서로 다르지만(공급망 계약, 국가핵심기술, 규제 감사 추적성), 결론은 같다. “클라우드로 흘러가는 AI는 못 쓴다”. 그러나 도입 의지는 예외 없이 강하다. 이것이 한국 제조업 AI 시장의 핵심 긴장이다.

가능·경계·불가 — 영역 매트릭스

현장에서 실무자들이 실제로 구분하는 선은 다음과 같다. 이 표는 2026년 4월 기준 한국 제조 중견·대기업에서 사실상 통용되는 가이드라인이다.

영역클라우드 AI 사용사유
사무 문서 · 이메일 · 번역가능기밀성 낮음, 일반적 텍스트
개발자 코드 (내부 로직 없음)가능오픈소스 성격
CAD API 스크립트 (치수 정보 제외)조건부추상 구조만 공유 시 가능
BOM 일부 (민감 품번 제외)조건부추상화·샘플링 필수
CAD 파일 직접 업로드불가자산 유출 즉발
BOM 전체 · 원가 정보불가영업 비밀 · 계약 위반
공정 파라미터 · 레시피불가국가핵심기술 해당
설계 변경 이력 · QA 데이터불가규제 감사 추적성 위반 우려

돌파구 — 휴먼 에러 방지용 사설 AI 5가지

그렇다면 어떻게 휴먼 에러 방지라는 실무 수요를 충족하면서 자산 유출을 막을 것인가. 2026년 4월 현재, 한국 제조 현장에서 실제로 선택 가능한 5가지 경로는 다음과 같다.

클라우드 AI vs 사설 AI — 데이터 경로 비교 ① 클라우드 AI · 자산 유출 위험 공장 · 도면 데이터 CAD · BOM · 원가 OpenAI Claude · Gemini 외부 서버 위험 요인 • OEM 보안 계약 위반 (공급 중단) • 산업기술보호법 · 영업비밀 유출 • 방화벽 · DLP 자동 차단 대상 • 이용 약관상 학습 데이터 재사용 VS ② 사설 AI · 자산 안전 INTRANET · 내부망 공장 Factory 내부 API 온프레미스 LLM GPU Server 외부 통신 차단 데이터 · 모델 가중치 모두 내부망에만 상주 사용 가능한 모델 • Meta Llama 3.3 70B · Alibaba Qwen 3 • Mistral · Naver HyperClova X (온프레미스)
도면·BOM이 외부로 나가는 순간 자산 유출(왼쪽). 내부망에 GPU 서버를 두면 절대 보안 확보(오른쪽).

① 온프레미스 LLM

Meta Llama 3.3 70B, Alibaba Qwen 3, Mistral, Naver HyperClova X(엔터프라이즈 온프레미스 옵션) 등 오픈 가중치 모델을 사내 GPU 서버에 배포. 초기 투자(GPU 8장 기준 2~4억 원)가 부담이나, 데이터가 절대로 외부로 나가지 않는다는 절대 보안을 확보.

② 로컬 RAG (Retrieval-Augmented Generation)

사내 도면·BOM·설계 변경 이력을 내부망 벡터 DB(예: Milvus, Qdrant)에 인덱싱. LLM은 질문 시 사내 문서만 참조해 답변 생성. “우리 회사의 ChatGPT”를 만드는 가장 일반적 패턴.

③ 클라우드 AI + Private Endpoint

Azure OpenAI Service의 Private Endpoint, AWS Bedrock의 VPC 전용 배포. 계약서에 “입력 데이터 학습 미사용·로깅 최소화”가 명시. 완전 온프레미스는 부담스럽고 클라우드 편의성은 원하는 조직에 적합. 다만 OEM 계약에 “클라우드 금지” 조항이 있으면 여전히 불가.

④ DLP 연계 AI

Microsoft 365 Copilot Enterprise + Purview(DLP) 조합. 직원이 AI에 민감 문서를 복사할 때 자동으로 마스킹되거나 차단. “AI 전면 금지”가 만드는 Shadow IT 문제에 대한 현실적 타협안.

⑤ Abstraction 레이어

CAD·BOM에서 숫자 특징 벡터만 추출해 외부 AI에 전달. 원본 파일·품번·치수는 로컬에 남기고, 통계적 특성만 공유. 최근 스타트업들이 이 영역에 접근하고 있으나, 현재는 맞춤형 개발이 필요.

PLM 현장에서 “지금 당장” 붙일 수 있는 자리

Papsnet이 구축한 PLM 환경에서 가장 먼저 AI가 효과를 내는 워크플로우 5개. 모두 사설 AI 전제.

  • 설계 변경 이력 요약 — ECO/ECN 승인 요청 시 변경 사유·영향 범위 자동 초안 생성.
  • BOM diff 영향 분석 — 변경된 품번이 어느 완성품에 들어가는지, 재고·협력사까지 파급 경로 자동 추적.
  • 도면 치수 일관성 체크 — 2D/3D 버전 간 치수 불일치, 공차 누락 자동 탐지.
  • 품질 부적합 분류 — QA 보고서를 과거 유사 사례와 매칭, 근본 원인 후보 자동 제시.
  • 협력사 이메일 요약·분류 — 도면 배포 회신, 이슈 제기, 납기 문의 자동 태깅.

액션 플랜 — 지금 해야 할 것 / 하지 말아야 할 것

✓ DO · 해야 할 것
  • 사내 AI 정책 명문화 (허용·금지 영역 명시)
  • 온프레미스 LLM POC (Llama·HyperClova 우선)
  • CAD·BOM 검증 워크플로우 1개부터 시작
  • DLP + AI 로그 모니터링 구축
  • 사원 교육 (Shadow IT 예방)
✗ DON’T · 피해야 할 것
  • 클라우드 AI 전면 금지 (Shadow IT 조장)
  • 구체 워크로드 없는 “AI 도입 TF”
  • 글로벌 AI 뉴스만 보고 유행 따라가기
  • 보안 감사 없이 개별 부서 자율 도입
  • ROI·손실 방지 계산 없는 투자

결론 — 한국 제조업 AI의 본질

한국 제조업에게 AI는 생산성 도구가 아니다. 손실 방지 보험이다. 한 번의 휴먼 에러로 날아가는 수억~수백억 원을 막는 도구다. 그리고 보험은 외부에 맡길 수 없다. 계약서·법령·30년 학습된 자산 보호 심리가 그것을 허락하지 않는다.

이 리포트가 제시한 돌파구는 한 문장으로 요약된다. “휴먼 에러 방지 영역에, 사설 AI를, 작은 워크플로우부터.” OpenAI의 $100B 밸류, Anthropic의 멀티 클라우드 전략은 매력적이지만, 한국 공장의 AI 경쟁력은 다른 곳에서 만들어진다 — 사내 GPU 서버 랙 앞, 사내 벡터 DB 콘솔, 그리고 “우리 회사 도면만 아는” 한국형 어시스턴트에서.

다음 월간 리포트(Vol. 02)에서는 한국에서 실제 사용 가능한 온프레미스 LLM 선택지를 비교한다. Llama 3.3 · Qwen 3 · Mistral · HyperClova X 엔터프라이즈 옵션 — 가격·성능·한국어 품질·보안 인증 전수 비교.

출처 · 방법론

  1. Papsnet 구축 고객사 관찰 (30+ 현장, 2015~2026) — 업종·규모·조치 수준으로만 기술, 기업명·시점 세부는 의도적으로 추상화.
  2. 산업기술의 유출방지 및 보호에 관한 법률 (국가법령정보센터)
  3. 정보보호 및 개인정보보호 관리체계 인증 (ISMS-P) (KISA)
  4. Azure OpenAI Private Endpoints (Microsoft Learn)
  5. Amazon Bedrock Security and Compliance
  6. Anthropic Enterprise Privacy Policy
  7. Meta Llama 3.3 License
  8. Naver HyperClova X Enterprise

관련 글

MONTHLY REPORT · VOL. 01

AI Biz Insider · AI 비즈니스 · aibizinsider.com

발행 2026-04-14 · 편집장 K.Nardo (킴날도) · 리포트 문의 kimnardo98@gmail.com


AI Biz Insider에서 더 알아보기

구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.

코멘트

댓글 남기기

AI Biz Insider에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기

AI Biz Insider에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기