티스토리 뷰
– 속도의 문제가 아니라, “판단의 일관성”에 대한 이야기

LC-MS/MS 분석은 흔히 이렇게 표현된다.
“장비는 정밀하지만, 결과는 사람이 만든다.”
이 말은 과장이 아니다.
같은 장비, 같은 method, 같은 시료를 사용해도
누가 데이터를 처리하느냐에 따라 결과 해석이 달라지는 경우는 지금도 흔하다.
그래서 LC-MS/MS 데이터 자동화의 본질적인 목적은
✔ 분석 속도를 높이는 것도
✔ 인력을 줄이는 것도 아니라
👉 “사람마다 다른 판단을, 하나의 일관된 논리로 고정시키는 것”이다.
1. LC-MS/MS 데이터 처리, 왜 이렇게 사람이 많이 개입할까?
LC-MS/MS 데이터 흐름을 차분히 뜯어보면 자동화가 어려웠던 이유가 분명해진다.
1-1. 전통적인 데이터 처리 흐름
- Raw data acquisition (vendor software)
- Peak detection & integration
- Calibration curve fitting
- QC acceptance 판단
- Outlier 제거 및 재적분
- Report 생성
- LIMS 입력
표면적으로는 모두 소프트웨어가 수행하는 것처럼 보이지만,
실제 핵심 결정 지점은 대부분 분석가의 손에서 이루어진다.
- 이 peak는 살릴 것인가?
- 자동 integration을 믿을 것인가?
- 이 QC failure는 system issue인가, random error인가?
- 이 batch는 재분석해야 하는가?
즉, LC-MS/MS 데이터는
👉 계산은 기계가 하고, 판단은 사람이 하는 구조로 설계돼 왔다.
2. 데이터 자동화의 출발점: “판단을 코드로 옮길 수 있는가”
AI 기반 데이터 자동화는
갑자기 등장한 기술이 아니라,
수십 년간 분석가 머릿속에만 존재하던 판단 로직을 끄집어내는 작업에 가깝다.
2-1. 자동화의 첫 번째 단계는 ‘명시화’
자동화를 시도하면 가장 먼저 드러나는 문제가 있다.
“우리는 사실,
왜 이 판단을 했는지 명확히 정의한 적이 없다.”
예를 들어,
- 언제 re-integration이 허용되는가?
- RT shift가 어느 수준이면 허용 불가인가?
- IS response 감소는 어느 지점부터 위험 신호인가?
이 질문에 사람마다 다른 답을 내놓는 조직에서는
AI 자동화는 절대 성공할 수 없다.
👉 데이터 자동화는 기술 프로젝트이기 이전에
조직의 판단 기준을 정렬하는 프로젝트다.
3. LC-MS/MS 데이터 자동화가 실제로 가능한 영역들
현실적인 자동화는 “전부 자동”이 아니라 “단계적 자동”이다.
3-1. Peak detection & integration 자동화
가장 먼저 자동화가 시도되는 영역이다.
- Peak shape (width, symmetry)
- S/N ratio
- RT consistency
- baseline noise 패턴
AI는 수천~수만 개의 과거 chromatogram을 학습해
👉 “이런 조건이면 사람이 이 peak를 살렸다”는 패턴을 재현한다.
중요한 점은
AI가 새로운 기준을 만드는 것이 아니라,
숙련 분석가의 판단을 평균화해 고정한다는 것이다.
3-2. Calibration curve & weighting 선택 자동화
실무에서 calibration 문제는 반복된다.
- 왜 이 batch에서는 1/x²가 안 맞는가?
- linearity는 통과했는데 accuracy가 흔들리는 이유는?
- 고농도 쪽에 끌리는 curve가 정말 맞는가?
AI 기반 자동화는,
- concentration 구간별 residual 패턴
- QC bias 방향성
- 반복 batch에서의 fitting 안정성
을 학습해
👉 “이 조건에서는 이 모델이 가장 안정적이었다”는 근거를 제시한다.
3-3. QC 판단 및 재분석 필요성 자동 분류
기존 QC 시스템은 기준 초과 여부만 본다.
AI 자동화는 질문을 바꾼다.
“이 QC failure는 어떤 유형인가?”
- random noise형
- preparation error형
- system drift형
- 특정 analyte-specific issue형
이 분류가 가능해지면,
- 무조건 재분석 ❌
- 의미 있는 재분석만 선택 ⭕️
으로 전략이 바뀐다.
4. 데이터 자동화의 핵심 가치: 속도보다 ‘재현성’
많은 조직이 자동화를 도입한 뒤 가장 크게 체감하는 변화는
속도가 아니라 데이터 해석의 균질화다.
4-1. “분석가 A batch” vs “분석가 B batch” 문제의 해소
자동화 이전에는,
- 같은 method
- 같은 시료
- 같은 장비
임에도
👉 분석가가 바뀌면 결과 해석 스타일이 바뀌었다.
자동화 이후에는,
- 판단 기준이 시스템에 고정되고
- 개인의 성향이 결과에 미치는 영향이 급격히 줄어든다.
이는 특히,
- multi-site lab
- CRO 환경
- 장기 프로젝트
에서 압도적인 장점으로 작용한다.
5. 어디까지 자동화할 수 있고, 어디서 멈춰야 하는가
가장 중요한 질문이다.
5-1. 자동화가 적합한 영역
- 반복적 판단
- 패턴 기반 결정
- 과거 데이터로 충분히 학습 가능한 영역
5-2. 사람이 반드시 개입해야 하는 영역
- 새로운 matrix
- 새로운 analyte
- method 변경 초기 단계
- 규제 해석이 필요한 판단
즉,
AI는 ‘판단을 대신’하는 것이 아니라
‘판단의 일관성을 유지’하는 도구다.
6. 데이터 자동화 실패 사례의 공통점
실패한 프로젝트를 보면 원인은 거의 비슷하다.
- 학습 데이터의 품질이 낮음
- 사람의 판단 기준이 정리되지 않음
- SOP와 AI 판단 로직이 불일치
- “자동이니까 믿자”는 태도
이 경우 자동화는
👉 효율이 아니라 리스크 증폭기가 된다.
맺음말: 데이터 자동화는 분석가를 대체하지 않는다
LC-MS/MS 데이터 자동화가 궁극적으로 바꾸는 것은
분석가의 역할이다.
- 반복 판단을 하는 사람 ❌
- 판단 기준을 설계하고, 검증하는 사람 ⭕️
자동화가 잘 작동할수록,
분석가는 더 많은 시간을
👉 해석, 리스크 평가, 의사결정 지원에 쓰게 된다.
그리고 그것이
AI × LC-MS/MS 데이터 자동화가
제약·바이오 분석에서 반드시 필요한 이유다.
- Total
- Today
- Yesterday
- 디지털헬스케어
- Targeted Metabolomics
- 시스템
- 분석팀
- Multi-omics
- bioanalysis
- 미래산업
- 대사체 분석
- 팬데믹
- 분석
- 정밀의료
- 약물분석
- 머신러닝
- matrix effect
- 치료제
- 데이터
- lc-ms/ms
- 제약산업
- 제약
- 신약개발
- 정량분석
- LC-MS
- 바이오마커
- metabolomics
- 신약 개발
- 약물개발
- Spatial metabolomics
- AI
- 바이오의약품
- 임상시험
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
