티스토리 뷰

728x90

– 성능보다 먼저 필요한 건 “이 결과를 누가 책임질 수 있는가”다

Explainable AI가 LC-MS 분석에서 중요한 진짜 이유
Explainable AI가 LC-MS 분석에서 중요한 진짜 이유

1️⃣ LC-MS 분석은 ‘맞추는 기술’이 아니라 ‘설명해야 하는 기술’이다

일반적인 AI 적용 사례에서는
정확도가 어느 정도 높으면 실사용이 가능하다.

하지만 LC-MS는 다르다.

  • 결과 하나가 임상 의사결정으로 이어지고
  • 규제 문서에 포함되며
  • 수년 뒤 audit에서 다시 꺼내진다

즉 LC-MS 결과는 항상 이 질문을 동반한다.

“왜 이렇게 나왔는가?”

Explainable AI가 없으면
이 질문에 답할 방법이 없다.

👉 LC-MS 분석에서 설명 불가능한 결과는
틀린 결과와 동일한 취급을 받는다.

2️⃣ QA와 규제는 ‘모델’을 보지 않고 ‘판단 경로’를 본다

현장에서 자주 벌어지는 장면이 있다.

  • 데이터 사이언티스트:
    “이 모델은 accuracy가 98%입니다”
  • QA의 첫 질문:
    “이 결과는 누가 판단했나요?”

이때 Explainable AI가 없는 모델은:

  • 판단 주체가 모호해지고
  • 책임이 시스템으로 이동하며
  • 즉시 운영 불가 판정을 받는다

QA는 AI가 똑똑한지에 관심이 없다.
QA가 보고 싶은 건 이거다.

이 모델은
무엇을 보고
어디까지 판단하며
그 이후는 누가 책임지는가

Explainable AI는
👉 판단의 경계를 명확히 그려주는 도구다.

3️⃣ LC-MS 데이터는 ‘이상 탐지’보다 ‘원인 설명’이 중요하다

PoC 단계의 AI-LC-MS 프로젝트는
대부분 anomaly detection으로 시작한다.

  • “이 batch는 이상입니다”
  • “이 peak는 비정상입니다”

하지만 운영 단계에서는
이 말만으로는 아무 일도 일어나지 않는다.

현장에서는 곧바로 이런 질문이 나온다.

  • RT 때문인가?
  • matrix effect인가?
  • IS 문제인가?
  • column aging인가?

Explainable AI가 없다면:

  • AI는 이상을 던지고
  • 사람은 다시 원인을 추적해야 한다

👉 이건 자동화가 아니라 알람 생성기다.

Explainable AI는:

  • anomaly + 원인 후보
  • feature 기여도
  • 변동 방향성

을 함께 제공해
조사 시간을 줄이는 도구가 된다.

4️⃣ LC-MS 분석은 ‘절대값’이 아니라 ‘상대적 판단’의 세계다

LC-MS 분석에서 대부분의 판단은 이렇게 이루어진다.

  • Golden batch 대비 위치
  • historical distribution 대비 편차
  • 동일 조건 대비 상대 변화

Explainable AI가 없으면:

  • 모델 점수는 나오지만
  • “왜 이 점수인가”는 설명되지 않는다

성공적인 XAI-LC-MS 시스템은
이렇게 말할 수 있어야 한다.

“이 batch는
Golden batch 대비 RT drift가 주요 기여 요인이며,
response variability가 그 다음 원인이다.”

👉 이 문장으로 복원 가능해야 audit을 통과한다.

5️⃣ Explainable AI는 ‘규제 대응용 장식’이 아니다

많은 팀이 XAI를 이렇게 취급한다.

  • SHAP plot 몇 장
  • feature importance 그림
  • appendix에 슬라이드 추가

하지만 LC-MS에서 Explainable AI는:

  • 보고서용 장식이 아니라
  • 운영 도구

실제로 잘 쓰이는 XAI는:

  • deviation triage에 사용되고
  • CAPA 원인 가설 설정에 쓰이며
  • batch accept 논의의 근거가 된다

👉 XAI가 “사람의 언어”로 번역되지 않으면
그건 XAI가 아니다.

6️⃣ Explainable AI가 없으면 AI는 SOP에 들어갈 수 없다

SOP는 이런 문장으로 구성된다.

  • “~인 경우 ~을 수행한다”
  • “~기준을 초과하면 ~을 검토한다”

Black-box AI 결과는
이 문장으로 번역할 수 없다.

  • anomaly score 0.93 → 무엇을?
  • confidence 0.87 → 그래서?

Explainable AI는:

  • 결과를 조건문으로 바꾸고
  • 조건문을 SOP 문장으로 바꾼다

👉 SOP에 들어갈 수 있는 AI만이 ‘운영 가능한 AI’다.

7️⃣ AI-LC-MS에서 Explainable AI는 ‘신뢰’의 최소 조건이다

흥미로운 사실 하나.

현장에서 실제로 신뢰받는 모델들은:

  • 가장 정확한 모델이 아니라
  • 가장 설명하기 쉬운 모델인 경우가 많다

왜냐하면:

  • 설명이 가능하면
  • 예외를 다룰 수 있고
  • 책임을 질 수 있기 때문이다

LC-MS 분석에서 신뢰는:

  • 모델 성능이 아니라
  • 설명 가능성의 축적으로 만들어진다.

8️⃣ Explainable AI가 성공한 LC-MS 프로젝트들의 공통점

PoC를 넘어 운영까지 간 프로젝트들은:

  • XAI를 “추가 기능”이 아니라
  • 첫 설계 조건으로 넣었다

그래서:

  • feature는 SOP 용어로 정의되고
  • 결과는 판단 보조 신호로 제한되며
  • 사람의 판단과 명확히 분리된다

AI는:

  • 판단을 대신하지 않고
  • 판단을 빠르게 만든다

마무리 문장

LC-MS 분석에서 Explainable AI는
‘왜 맞았는지’를 설명하는 기술이 아니라,
‘왜 써도 되는지’를 설명하는 기술이다.

정확한 AI는 많다.
하지만 책임질 수 있는 AI는 드물다.

LC-MS에서 Explainable AI가 중요한 이유는
그 AI가
👉 결과를 내기 때문이 아니라,
설명을 남기기 때문
이다.

728x90