티스토리 뷰
값을 비교하지 말고, “정상이라고 말할 수 있는 범위”를 비교하라
1️⃣ Batch 비교 자동화가 실패하는 이유는 거의 하나다
자동화를 시작할 때, 대부분 이렇게 묻는다.
“이 batch가 이전 batch랑 얼마나 다른가요?”
이 질문 자체가 이미 함정이다.
왜냐하면:
- 이전 batch는 기준이 아니고
- 다르다는 말에는 방향도, 의미도 없기 때문이다.
그래서 실패하는 자동화는:
- batch A vs batch B
- 값 차이 %, fold change
- threshold 초과 여부
같은 숫자 비교에 머문다.
👉 하지만 batch 비교의 목적은
“다른지”가 아니라
“정상 범위 안에 있는지”다.
2️⃣ 비교 기준의 출발점은 ‘reference batch’가 아니다
많은 조직이 이렇게 시작한다.
- “Golden batch랑 비교하자”
- “지난 run 평균이 기준이다”
- “QC mean이 reference다”
하지만 이 접근은 오래 못 간다.
왜냐하면:
- 단일 batch는 변동성을 대표하지 못하고
- 평균값은 분포를 숨기며
- QC는 일부 지점만 반영하기 때문이다.
성공한 조직은 기준을 이렇게 정의한다.
비교 기준 =
과거 안정 구간에서 관찰된 ‘정상 분포의 경계’
즉:
- 점(point)이 아니라 영역(region)이다.
3️⃣ “무엇을 비교할 것인가”보다 먼저 정해야 할 것
비교 기준을 만들기 전에
조직이 반드시 먼저 합의해야 할 질문이 있다.
“이 비교 결과로 무엇을 판단할 것인가?”
예를 들면:
- batch accept / reject?
- 추가 조사 필요 여부?
- 장비 이상 신호?
- 장기 drift 감지?
이 목적이 정해지지 않으면:
- 기준은 계속 바뀌고
- threshold는 계속 논쟁이 되며
- 자동화는 신뢰를 잃는다.
👉 비교 기준은 통계 문제가 아니라, 의사결정 문제다.
4️⃣ 비교 기준은 반드시 ‘다층 구조’여야 한다
성공 조직의 batch 비교 자동화에는
공통적인 구조가 있다.
① 1차 기준: 물리적 안정성
- RT shift
- peak width
- tailing factor
👉 시스템이 정상인가?
② 2차 기준: 응답 특성
- response ratio
- area CV
- IS normalization stability
👉 정량 시스템이 흔들렸는가?
③ 3차 기준: QC 기반 성능
- accuracy / precision
- QC 위치 패턴
- 반복 failure 여부
👉 결과 신뢰성이 유지되는가?
중요한 점은:
- 이 기준들이 동시에 비교되지 않는다는 것
- 층별로 해석된다는 것
RT가 살짝 벗어나도:
- QC가 안정적이면 → monitor
- QC도 흔들리면 → investigation
👉 자동화는 결론이 아니라, triage를 만든다.
5️⃣ 비교 기준을 ‘절대값’으로 고정하면 반드시 망가진다
실패 사례의 공통점:
- RT ±0.1 min
- area ±20%
- CV ≤15%
이 기준들은:
- SOP에는 깔끔하지만
- 현실에선 너무 빡빡하거나 너무 느슨하다.
성공 조직은 이렇게 바꾼다.
- RT drift = Golden batch 분포 대비 percentile
- area 변화 = historical CV 기반 z-score
- QC 성능 = 연속 batch trend
👉 기준이 데이터에 반응한다.
6️⃣ 자동화에서 가장 중요한 기준: “방향성”
단순 차이보다 중요한 건
어느 쪽으로 움직였는가다.
- RT가 빨라지는가 vs 느려지는가
- response가 점점 감소하는가
- QC fail이 특정 위치에 몰리는가
성공한 자동화는:
- 단일 batch 비교보다
- 연속 batch trajectory를 본다.
이건 사람이 느끼던 “뭔가 이상하다”를
👉 수치화한 것이다.
7️⃣ 비교 기준은 반드시 ‘설명 가능한 언어’로 남아야 한다
자동화 실패 조직의 리포트는 이렇다.
“Batch deviation score = 0.87 (FAIL)”
이건 audit에서 바로 공격받는다.
성공 조직의 리포트는 이렇게 말한다.
“본 batch는 Golden batch RT 분포의 하위 95% 경계를 초과하였으며,
동시에 IS-normalized response CV가 historical median 대비 1.8배 증가하였다.”
👉 비교 기준은 숫자가 아니라 문장으로 복원 가능해야 한다.
8️⃣ 비교 기준을 SOP로 고정하는 방식의 차이
실패 SOP:
“Batch 간 비교를 수행하여 이상 여부를 판단한다.”
성공 SOP:
“Batch 비교는 사전 정의된 reference distribution 대비
RT, response variability, QC performance의 상대적 위치를 평가하며,
자동화 결과는 batch accept 여부 결정의 참고 자료로 활용한다.”
차이는:
- 자동화의 권한 범위
- 사람 판단의 잔존 영역
- audit 대응력
9️⃣ Batch 비교 자동화에서 기준이 완성되는 순간
비교 기준이 잘 정해진 조직에서는
회의에서 이런 말이 나온다.
- “이번 batch, 기준선 안에 있나요?”
- “어느 레이어에서 벗어났죠?”
- “Golden 대비 위치만 보면 accept 가능하죠?”
이때 자동화는:
- 논쟁을 줄이고
- 판단을 빠르게 하며
- 책임을 명확히 한다.
마무리 문장
Batch 비교 자동화의 핵심은
‘얼마나 다른가’가 아니라
‘정상이라고 설명할 수 있는가’다.
비교 기준은:
- 알고리즘이 아니라
- 조직의 판단 철학이 코드로 굳어진 형태다.

'제약산업' 카테고리의 다른 글
| Golden batch 개념을 조직 표준으로 만드는 방법 (0) | 2026.02.19 |
|---|---|
| QC 자동화가 실패하는 조직의 공통 특징 (0) | 2026.02.18 |
| Excel-driven 분석팀을 데이터 파이프라인으로 전환한 실제 과정 (0) | 2026.02.17 |
| R 기반 LC-MS 자동화에서 절대 건드리면 안 되는 영역 (0) | 2026.02.16 |
| 21 CFR Part 11을 LC-MS 환경에서 현실적으로 구현하는 방법 (0) | 2026.02.15 |
| Bioanalytical audit 대비용 내부 mock inspection 운영 전략 (0) | 2026.02.14 |
| “왜 이 batch를 accept했는가?”를 설명하는 데이터 구조 (0) | 2026.02.13 |
| Audit에서 가장 자주 공격받는 bioanalysis 코멘트 문장들 (0) | 2026.02.12 |
- Total
- Today
- Yesterday
- Targeted Metabolomics
- 디지털헬스케어
- 신약 개발
- Multi-omics
- 대사체 분석
- 약물개발
- 시스템
- 제약
- bioanalysis
- 치료제
- Spatial metabolomics
- ich m10
- 머신러닝
- 미래산업
- LC-MS
- 정량분석
- 바이오마커
- metabolomics
- 분석
- lc-ms/ms
- 제약산업
- audit
- 신약개발
- 분석팀
- 정밀의료
- matrix effect
- 데이터
- 임상시험
- 약물분석
- AI
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
