티스토리 뷰

728x90

 값을 비교하지 말고, “정상이라고 말할 수 있는 범위”를 비교하라

1️⃣ Batch 비교 자동화가 실패하는 이유는 거의 하나다

자동화를 시작할 때, 대부분 이렇게 묻는다.

“이 batch가 이전 batch랑 얼마나 다른가요?”

이 질문 자체가 이미 함정이다.

왜냐하면:

  • 이전 batch는 기준이 아니고
  • 다르다는 말에는 방향도, 의미도 없기 때문이다.

그래서 실패하는 자동화는:

  • batch A vs batch B
  • 값 차이 %, fold change
  • threshold 초과 여부

같은 숫자 비교에 머문다.

👉 하지만 batch 비교의 목적은
“다른지”가 아니라
“정상 범위 안에 있는지”다.

2️⃣ 비교 기준의 출발점은 ‘reference batch’가 아니다

많은 조직이 이렇게 시작한다.

  • “Golden batch랑 비교하자”
  • “지난 run 평균이 기준이다”
  • “QC mean이 reference다”

하지만 이 접근은 오래 못 간다.

왜냐하면:

  • 단일 batch는 변동성을 대표하지 못하고
  • 평균값은 분포를 숨기며
  • QC는 일부 지점만 반영하기 때문이다.

성공한 조직은 기준을 이렇게 정의한다.

비교 기준 =
과거 안정 구간에서 관찰된 ‘정상 분포의 경계’

즉:

  • 점(point)이 아니라 영역(region)이다.

3️⃣ “무엇을 비교할 것인가”보다 먼저 정해야 할 것

비교 기준을 만들기 전에
조직이 반드시 먼저 합의해야 할 질문이 있다.

“이 비교 결과로 무엇을 판단할 것인가?”

예를 들면:

  • batch accept / reject?
  • 추가 조사 필요 여부?
  • 장비 이상 신호?
  • 장기 drift 감지?

이 목적이 정해지지 않으면:

  • 기준은 계속 바뀌고
  • threshold는 계속 논쟁이 되며
  • 자동화는 신뢰를 잃는다.

👉 비교 기준은 통계 문제가 아니라, 의사결정 문제다.

4️⃣ 비교 기준은 반드시 ‘다층 구조’여야 한다

성공 조직의 batch 비교 자동화에는
공통적인 구조가 있다.

① 1차 기준: 물리적 안정성

  • RT shift
  • peak width
  • tailing factor

👉 시스템이 정상인가?

② 2차 기준: 응답 특성

  • response ratio
  • area CV
  • IS normalization stability

👉 정량 시스템이 흔들렸는가?

③ 3차 기준: QC 기반 성능

  • accuracy / precision
  • QC 위치 패턴
  • 반복 failure 여부

👉 결과 신뢰성이 유지되는가?

중요한 점은:

  • 이 기준들이 동시에 비교되지 않는다는 것
  • 층별로 해석된다는 것

RT가 살짝 벗어나도:

  • QC가 안정적이면 → monitor
  • QC도 흔들리면 → investigation

👉 자동화는 결론이 아니라, triage를 만든다.

5️⃣ 비교 기준을 ‘절대값’으로 고정하면 반드시 망가진다

실패 사례의 공통점:

  • RT ±0.1 min
  • area ±20%
  • CV ≤15%

이 기준들은:

  • SOP에는 깔끔하지만
  • 현실에선 너무 빡빡하거나 너무 느슨하다.

성공 조직은 이렇게 바꾼다.

  • RT drift = Golden batch 분포 대비 percentile
  • area 변화 = historical CV 기반 z-score
  • QC 성능 = 연속 batch trend

👉 기준이 데이터에 반응한다.

6️⃣ 자동화에서 가장 중요한 기준: “방향성”

단순 차이보다 중요한 건
어느 쪽으로 움직였는가다.

  • RT가 빨라지는가 vs 느려지는가
  • response가 점점 감소하는가
  • QC fail이 특정 위치에 몰리는가

성공한 자동화는:

  • 단일 batch 비교보다
  • 연속 batch trajectory를 본다.

이건 사람이 느끼던 “뭔가 이상하다”를
👉 수치화한 것이다.

7️⃣ 비교 기준은 반드시 ‘설명 가능한 언어’로 남아야 한다

자동화 실패 조직의 리포트는 이렇다.

“Batch deviation score = 0.87 (FAIL)”

이건 audit에서 바로 공격받는다.

성공 조직의 리포트는 이렇게 말한다.

“본 batch는 Golden batch RT 분포의 하위 95% 경계를 초과하였으며,
동시에 IS-normalized response CV가 historical median 대비 1.8배 증가하였다.”

👉 비교 기준은 숫자가 아니라 문장으로 복원 가능해야 한다.

8️⃣ 비교 기준을 SOP로 고정하는 방식의 차이

실패 SOP:

“Batch 간 비교를 수행하여 이상 여부를 판단한다.”

성공 SOP:

“Batch 비교는 사전 정의된 reference distribution 대비
RT, response variability, QC performance의 상대적 위치를 평가하며,
자동화 결과는 batch accept 여부 결정의 참고 자료로 활용한다.”

차이는:

  • 자동화의 권한 범위
  • 사람 판단의 잔존 영역
  • audit 대응력

9️⃣ Batch 비교 자동화에서 기준이 완성되는 순간

비교 기준이 잘 정해진 조직에서는
회의에서 이런 말이 나온다.

  • “이번 batch, 기준선 안에 있나요?”
  • “어느 레이어에서 벗어났죠?”
  • “Golden 대비 위치만 보면 accept 가능하죠?”

이때 자동화는:

  • 논쟁을 줄이고
  • 판단을 빠르게 하며
  • 책임을 명확히 한다.

마무리 문장

Batch 비교 자동화의 핵심은
‘얼마나 다른가’가 아니라
‘정상이라고 설명할 수 있는가’다.

비교 기준은:

  • 알고리즘이 아니라
  • 조직의 판단 철학이 코드로 굳어진 형태다.

Batch 비교 자동화에서 ‘비교 기준’을 정하는 법
Batch 비교 자동화에서 ‘비교 기준’을 정하는 법

728x90