티스토리 뷰
– 성능보다 먼저 필요한 건 “이 결과를 누가 책임질 수 있는가”다

1️⃣ LC-MS 분석은 ‘맞추는 기술’이 아니라 ‘설명해야 하는 기술’이다
일반적인 AI 적용 사례에서는
정확도가 어느 정도 높으면 실사용이 가능하다.
하지만 LC-MS는 다르다.
- 결과 하나가 임상 의사결정으로 이어지고
- 규제 문서에 포함되며
- 수년 뒤 audit에서 다시 꺼내진다
즉 LC-MS 결과는 항상 이 질문을 동반한다.
“왜 이렇게 나왔는가?”
Explainable AI가 없으면
이 질문에 답할 방법이 없다.
👉 LC-MS 분석에서 설명 불가능한 결과는
틀린 결과와 동일한 취급을 받는다.
2️⃣ QA와 규제는 ‘모델’을 보지 않고 ‘판단 경로’를 본다
현장에서 자주 벌어지는 장면이 있다.
- 데이터 사이언티스트:
“이 모델은 accuracy가 98%입니다” - QA의 첫 질문:
“이 결과는 누가 판단했나요?”
이때 Explainable AI가 없는 모델은:
- 판단 주체가 모호해지고
- 책임이 시스템으로 이동하며
- 즉시 운영 불가 판정을 받는다
QA는 AI가 똑똑한지에 관심이 없다.
QA가 보고 싶은 건 이거다.
이 모델은
무엇을 보고
어디까지 판단하며
그 이후는 누가 책임지는가
Explainable AI는
👉 판단의 경계를 명확히 그려주는 도구다.
3️⃣ LC-MS 데이터는 ‘이상 탐지’보다 ‘원인 설명’이 중요하다
PoC 단계의 AI-LC-MS 프로젝트는
대부분 anomaly detection으로 시작한다.
- “이 batch는 이상입니다”
- “이 peak는 비정상입니다”
하지만 운영 단계에서는
이 말만으로는 아무 일도 일어나지 않는다.
현장에서는 곧바로 이런 질문이 나온다.
- RT 때문인가?
- matrix effect인가?
- IS 문제인가?
- column aging인가?
Explainable AI가 없다면:
- AI는 이상을 던지고
- 사람은 다시 원인을 추적해야 한다
👉 이건 자동화가 아니라 알람 생성기다.
Explainable AI는:
- anomaly + 원인 후보
- feature 기여도
- 변동 방향성
을 함께 제공해
조사 시간을 줄이는 도구가 된다.
4️⃣ LC-MS 분석은 ‘절대값’이 아니라 ‘상대적 판단’의 세계다
LC-MS 분석에서 대부분의 판단은 이렇게 이루어진다.
- Golden batch 대비 위치
- historical distribution 대비 편차
- 동일 조건 대비 상대 변화
Explainable AI가 없으면:
- 모델 점수는 나오지만
- “왜 이 점수인가”는 설명되지 않는다
성공적인 XAI-LC-MS 시스템은
이렇게 말할 수 있어야 한다.
“이 batch는
Golden batch 대비 RT drift가 주요 기여 요인이며,
response variability가 그 다음 원인이다.”
👉 이 문장으로 복원 가능해야 audit을 통과한다.
5️⃣ Explainable AI는 ‘규제 대응용 장식’이 아니다
많은 팀이 XAI를 이렇게 취급한다.
- SHAP plot 몇 장
- feature importance 그림
- appendix에 슬라이드 추가
하지만 LC-MS에서 Explainable AI는:
- 보고서용 장식이 아니라
- 운영 도구다
실제로 잘 쓰이는 XAI는:
- deviation triage에 사용되고
- CAPA 원인 가설 설정에 쓰이며
- batch accept 논의의 근거가 된다
👉 XAI가 “사람의 언어”로 번역되지 않으면
그건 XAI가 아니다.
6️⃣ Explainable AI가 없으면 AI는 SOP에 들어갈 수 없다
SOP는 이런 문장으로 구성된다.
- “~인 경우 ~을 수행한다”
- “~기준을 초과하면 ~을 검토한다”
Black-box AI 결과는
이 문장으로 번역할 수 없다.
- anomaly score 0.93 → 무엇을?
- confidence 0.87 → 그래서?
Explainable AI는:
- 결과를 조건문으로 바꾸고
- 조건문을 SOP 문장으로 바꾼다
👉 SOP에 들어갈 수 있는 AI만이 ‘운영 가능한 AI’다.
7️⃣ AI-LC-MS에서 Explainable AI는 ‘신뢰’의 최소 조건이다
흥미로운 사실 하나.
현장에서 실제로 신뢰받는 모델들은:
- 가장 정확한 모델이 아니라
- 가장 설명하기 쉬운 모델인 경우가 많다
왜냐하면:
- 설명이 가능하면
- 예외를 다룰 수 있고
- 책임을 질 수 있기 때문이다
LC-MS 분석에서 신뢰는:
- 모델 성능이 아니라
- 설명 가능성의 축적으로 만들어진다.
8️⃣ Explainable AI가 성공한 LC-MS 프로젝트들의 공통점
PoC를 넘어 운영까지 간 프로젝트들은:
- XAI를 “추가 기능”이 아니라
- 첫 설계 조건으로 넣었다
그래서:
- feature는 SOP 용어로 정의되고
- 결과는 판단 보조 신호로 제한되며
- 사람의 판단과 명확히 분리된다
AI는:
- 판단을 대신하지 않고
- 판단을 빠르게 만든다
마무리 문장
LC-MS 분석에서 Explainable AI는
‘왜 맞았는지’를 설명하는 기술이 아니라,
‘왜 써도 되는지’를 설명하는 기술이다.
정확한 AI는 많다.
하지만 책임질 수 있는 AI는 드물다.
LC-MS에서 Explainable AI가 중요한 이유는
그 AI가
👉 결과를 내기 때문이 아니라,
설명을 남기기 때문이다.
'제약산업' 카테고리의 다른 글
| 왜 대부분의 AI-LC-MS 프로젝트는 PoC에서 멈추는가 (0) | 2026.02.22 |
|---|---|
| R 자동화 결과를 QA가 신뢰하게 만드는 문서 구조 (0) | 2026.02.21 |
| Batch 비교 자동화에서 ‘비교 기준’을 정하는 법 (0) | 2026.02.20 |
| Golden batch 개념을 조직 표준으로 만드는 방법 (0) | 2026.02.19 |
| QC 자동화가 실패하는 조직의 공통 특징 (0) | 2026.02.18 |
| Excel-driven 분석팀을 데이터 파이프라인으로 전환한 실제 과정 (0) | 2026.02.17 |
| R 기반 LC-MS 자동화에서 절대 건드리면 안 되는 영역 (0) | 2026.02.16 |
| 21 CFR Part 11을 LC-MS 환경에서 현실적으로 구현하는 방법 (0) | 2026.02.15 |
- Total
- Today
- Yesterday
- 정량분석
- bioanalysis
- 미래산업
- LC-MS
- 대사체 분석
- ich m10
- 분석팀
- 임상시험
- 분석
- audit
- 신약개발
- lc-ms/ms
- 디지털헬스케어
- Spatial metabolomics
- 데이터
- Targeted Metabolomics
- Multi-omics
- 약물분석
- AI
- 제약산업
- 머신러닝
- 정밀의료
- 제약
- matrix effect
- 시스템
- 치료제
- 바이오마커
- 신약 개발
- metabolomics
- 약물개발
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
