티스토리 뷰

728x90

– 속도의 문제가 아니라, “판단의 일관성”에 대한 이야기

 

AI × LC-MS/MS 데이터 자동화
AI × LC-MS/MS 데이터 자동화

LC-MS/MS 분석은 흔히 이렇게 표현된다.

“장비는 정밀하지만, 결과는 사람이 만든다.”

이 말은 과장이 아니다.
같은 장비, 같은 method, 같은 시료를 사용해도
누가 데이터를 처리하느냐에 따라 결과 해석이 달라지는 경우는 지금도 흔하다.

그래서 LC-MS/MS 데이터 자동화의 본질적인 목적은
✔ 분석 속도를 높이는 것도
✔ 인력을 줄이는 것도 아니라

👉 “사람마다 다른 판단을, 하나의 일관된 논리로 고정시키는 것”이다.

1. LC-MS/MS 데이터 처리, 왜 이렇게 사람이 많이 개입할까?

LC-MS/MS 데이터 흐름을 차분히 뜯어보면 자동화가 어려웠던 이유가 분명해진다.

1-1. 전통적인 데이터 처리 흐름

  1. Raw data acquisition (vendor software)
  2. Peak detection & integration
  3. Calibration curve fitting
  4. QC acceptance 판단
  5. Outlier 제거 및 재적분
  6. Report 생성
  7. LIMS 입력

표면적으로는 모두 소프트웨어가 수행하는 것처럼 보이지만,
실제 핵심 결정 지점은 대부분 분석가의 손에서 이루어진다.

  • 이 peak는 살릴 것인가?
  • 자동 integration을 믿을 것인가?
  • 이 QC failure는 system issue인가, random error인가?
  • 이 batch는 재분석해야 하는가?

즉, LC-MS/MS 데이터는
👉 계산은 기계가 하고, 판단은 사람이 하는 구조로 설계돼 왔다.

2. 데이터 자동화의 출발점: “판단을 코드로 옮길 수 있는가”

AI 기반 데이터 자동화는
갑자기 등장한 기술이 아니라,
수십 년간 분석가 머릿속에만 존재하던 판단 로직을 끄집어내는 작업에 가깝다.

2-1. 자동화의 첫 번째 단계는 ‘명시화’

자동화를 시도하면 가장 먼저 드러나는 문제가 있다.

“우리는 사실,
왜 이 판단을 했는지 명확히 정의한 적이 없다.”

예를 들어,

  • 언제 re-integration이 허용되는가?
  • RT shift가 어느 수준이면 허용 불가인가?
  • IS response 감소는 어느 지점부터 위험 신호인가?

이 질문에 사람마다 다른 답을 내놓는 조직에서는
AI 자동화는 절대 성공할 수 없다.

👉 데이터 자동화는 기술 프로젝트이기 이전에
조직의 판단 기준을 정렬하는 프로젝트다.

3. LC-MS/MS 데이터 자동화가 실제로 가능한 영역들

현실적인 자동화는 “전부 자동”이 아니라 “단계적 자동”이다.

3-1. Peak detection & integration 자동화

가장 먼저 자동화가 시도되는 영역이다.

  • Peak shape (width, symmetry)
  • S/N ratio
  • RT consistency
  • baseline noise 패턴

AI는 수천~수만 개의 과거 chromatogram을 학습해
👉 “이런 조건이면 사람이 이 peak를 살렸다”는 패턴을 재현한다.

중요한 점은
AI가 새로운 기준을 만드는 것이 아니라,
숙련 분석가의 판단을 평균화해 고정한다는 것이다.

3-2. Calibration curve & weighting 선택 자동화

실무에서 calibration 문제는 반복된다.

  • 왜 이 batch에서는 1/x²가 안 맞는가?
  • linearity는 통과했는데 accuracy가 흔들리는 이유는?
  • 고농도 쪽에 끌리는 curve가 정말 맞는가?

AI 기반 자동화는,

  • concentration 구간별 residual 패턴
  • QC bias 방향성
  • 반복 batch에서의 fitting 안정성

을 학습해
👉 “이 조건에서는 이 모델이 가장 안정적이었다”는 근거를 제시한다.

3-3. QC 판단 및 재분석 필요성 자동 분류

기존 QC 시스템은 기준 초과 여부만 본다.

AI 자동화는 질문을 바꾼다.

“이 QC failure는 어떤 유형인가?”

  • random noise형
  • preparation error형
  • system drift형
  • 특정 analyte-specific issue형

이 분류가 가능해지면,

  • 무조건 재분석 ❌
  • 의미 있는 재분석만 선택 ⭕️

으로 전략이 바뀐다.

4. 데이터 자동화의 핵심 가치: 속도보다 ‘재현성’

많은 조직이 자동화를 도입한 뒤 가장 크게 체감하는 변화는
속도가 아니라 데이터 해석의 균질화다.

4-1. “분석가 A batch” vs “분석가 B batch” 문제의 해소

자동화 이전에는,

  • 같은 method
  • 같은 시료
  • 같은 장비

임에도
👉 분석가가 바뀌면 결과 해석 스타일이 바뀌었다.

자동화 이후에는,

  • 판단 기준이 시스템에 고정되고
  • 개인의 성향이 결과에 미치는 영향이 급격히 줄어든다.

이는 특히,

  • multi-site lab
  • CRO 환경
  • 장기 프로젝트

에서 압도적인 장점으로 작용한다.

5. 어디까지 자동화할 수 있고, 어디서 멈춰야 하는가

가장 중요한 질문이다.

5-1. 자동화가 적합한 영역

  • 반복적 판단
  • 패턴 기반 결정
  • 과거 데이터로 충분히 학습 가능한 영역

5-2. 사람이 반드시 개입해야 하는 영역

  • 새로운 matrix
  • 새로운 analyte
  • method 변경 초기 단계
  • 규제 해석이 필요한 판단

즉,

AI는 ‘판단을 대신’하는 것이 아니라
‘판단의 일관성을 유지’하는 도구다.

6. 데이터 자동화 실패 사례의 공통점

실패한 프로젝트를 보면 원인은 거의 비슷하다.

  • 학습 데이터의 품질이 낮음
  • 사람의 판단 기준이 정리되지 않음
  • SOP와 AI 판단 로직이 불일치
  • “자동이니까 믿자”는 태도

이 경우 자동화는
👉 효율이 아니라 리스크 증폭기가 된다.

맺음말: 데이터 자동화는 분석가를 대체하지 않는다

LC-MS/MS 데이터 자동화가 궁극적으로 바꾸는 것은
분석가의 역할이다.

  • 반복 판단을 하는 사람 ❌
  • 판단 기준을 설계하고, 검증하는 사람 ⭕️

자동화가 잘 작동할수록,
분석가는 더 많은 시간을
👉 해석, 리스크 평가, 의사결정 지원에 쓰게 된다.

그리고 그것이
AI × LC-MS/MS 데이터 자동화가
제약·바이오 분석에서 반드시 필요한 이유다.

728x90
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2026/02   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
글 보관함