티스토리 뷰

728x90

Scan speed가 peptide detection을 바꾸는 방식
Scan speed가 peptide detection을 바꾸는 방식

— 더 빨리 본다는 것은 더 많이 보는 것이 아니라, 다른 것을 보게 되는 일이다

처음 LC-MS 데이터를 다루다 보면
scan speed는 그렇게 중요해 보이지 않는다.

resolution이나 mass accuracy처럼
눈에 보이는 성능 지표도 아니고,
설정값도 상대적으로 단순해 보인다.

그래서 많은 경우
이건 그냥 기본값으로 두고 넘어간다.

하지만 어느 순간부터
이 변수의 존재가 드러나기 시작한다.

  • 같은 샘플인데 peptide 수가 달라지고
  • 어떤 run에서는 보이던 것이 다른 run에서는 사라지고
  • replicate 간 변동이 설명되지 않는다

이쯤 되면 자연스럽게
샘플이나 장비를 의심하게 된다.

하지만 조금 더 자세히 보면
문제는 전혀 다른 곳에 있다.

👉 얼마나 빨리 스캔했는가

LC peak는 기다려주지 않는다

LC-MS에서 가장 중요한 사실 하나는
데이터가 우리가 준비될 때까지 기다려주지 않는다는 점이다.

peptide는 LC를 따라 흘러가고
정해진 시간 동안만 검출 가능한 상태로 존재한다.

이 시간을 놓치면
그 peptide는 존재했더라도 기록되지 않는다.

scan speed는 바로 이 지점에서 작동한다.

👉 그 짧은 시간 동안 몇 번 관찰할 수 있는가

한 번 본 것과 여러 번 본 것의 차이

예를 들어 어떤 peptide가
약 10초 동안 elute된다고 가정해보자.

scan speed가 충분히 빠르면
그 10초 동안 여러 번 관찰할 수 있다.

  • peak가 부드럽게 그려지고
  • intensity 변화가 자연스럽게 이어지고
  • area 계산도 안정적이다

하지만 scan speed가 느려지면
상황은 완전히 달라진다.

  • peak의 일부만 찍히고
  • 최고점이 놓치고
  • 신호가 끊겨 보인다

이건 단순히 “덜 정확하다”가 아니라

👉 아예 다른 데이터가 된다

detection은 ‘존재’의 문제가 아니라 ‘포착’의 문제다

많은 사람들이 놓치는 부분이다.

우리는 흔히
“이 peptide가 존재한다 / 존재하지 않는다”
이렇게 생각한다.

하지만 LC-MS에서는
조금 다르게 봐야 한다.

👉 존재하는 것과 검출되는 것은 다르다

scan speed가 충분히 빠르면
짧게 나타나는 peptide도 포착할 수 있다.

하지만 느리면
그 peptide는 그냥 지나간다.

결과적으로

  • 실제로는 존재했지만
  • 데이터에는 없는 상태

가 된다.

특히 low abundance peptide에서 더 치명적이다

abundance가 낮은 peptide일수록
검출 가능 시간은 더 짧다.

signal이 약하기 때문에
peak가 넓게 유지되지 않는다.

이 경우 scan speed가 느리면

  • peak apex를 놓치고
  • threshold를 넘지 못하고
  • identification에서 제외된다

그래서 어떤 peptide는

  • 특정 조건에서는 보이고
  • 다른 조건에서는 완전히 사라진다

이걸 그대로 해석하면

→ biological variation처럼 보인다

하지만 실제로는

👉 sampling 문제

DDA에서의 영향: 선택되지 않은 것들은 존재하지 않는다

DDA에서는 이 문제가 더 극적으로 드러난다.

DDA는 기본적으로
“선택된 것만 분석”하는 구조다.

scan speed가 느려지면

  • 한 cycle 동안 분석 가능한 precursor 수가 줄어든다
  • 많은 peptide가 선택되지 못한 채 지나간다

실제 상황

같은 샘플에서

  • scan speed 빠름 → peptide 50,000개
  • scan speed 느림 → peptide 30,000개

이 차이는 sensitivity 문제가 아니다.

👉 선택 기회의 차이

DIA에서도 완전히 자유롭지 않다

DIA는 모든 것을 수집하기 때문에
scan speed 영향이 덜할 것처럼 보인다.

하지만 실제로는 그렇지 않다.

scan speed가 느려지면

  • cycle time 증가
  • peak sampling 감소

결과적으로

  • quantification 정확도 저하
  • peak integration 오류

peak shape를 바꾸는 보이지 않는 변수

scan speed는 peak shape 자체에도 영향을 준다.

빠른 scan

  • smooth peak
  • 정확한 apex
  • 안정적인 area

느린 scan

  • jagged peak
  • apex miss
  • 불안정한 quant

이 차이는 downstream 분석까지 이어진다.

  • fold change
  • statistical significance
  • pathway 결과

실제 사례: fold change 왜곡

같은 peptide에서

  • 빠른 scan → fold change 2.0
  • 느린 scan → fold change 1.2

이건 noise가 아니라

👉 sampling에 의해 왜곡된 결과

resolution과 scan speed의 연결

이 문제는 단독으로 존재하지 않는다.

scan speed는 항상
resolution과 연결되어 있다.

resolution ↑

→ scan time ↑
→ scan speed ↓

즉,

👉 resolution을 올리는 순간
우리는 자동으로 sampling을 포기하고 있다

우리가 자주 하는 착각

“scan speed는 데이터 품질과 큰 관련이 없다”

이 생각이다.

하지만 실제로는

👉 데이터의 존재 자체를 결정한다

가장 위험한 순간

데이터가 “그럴듯하게 보일 때”다.

  • peak가 몇 개 보이고
  • 값도 계산되고
  • 통계도 돌아간다

이 상태에서는
문제를 인식하기 어렵다.

하지만 실제로는

  • 많은 peptide가 누락되고
  • 일부만 반복적으로 선택되고
  • 결과가 편향된다

실무에서 반드시 확인해야 할 것

1) peak당 data point 수

👉 최소 8~10개 확보

2) cycle time vs peak width

cycle time이 너무 길면
sampling 실패

3) replicate 간 consistency

sampling 문제는 재현성으로 나타남

4) low abundance peptide behavior

가장 먼저 영향 받는 영역

핵심 정리

scan speed는

  • 단순한 속도가 아니다
  • 관찰 기회다

그리고

  • 빠르면 더 많이 보는 것이 아니라
    👉 놓치지 않게 되는 것이다

결론

LC-MS에서 우리가 보는 데이터는
연속적인 현실이 아니라

👉 불연속적인 샘플링 결과

scan speed를 바꾸는 순간

  • 같은 샘플을 보는 것이 아니라
    👉 다른 방식으로 기록된 샘플을 보게 된다

마지막 질문

다음에 데이터를 볼 때
이 질문을 반드시 떠올려야 한다.

“이 peptide는 실제로 없는 걸까,
아니면 내가 충분히 빠르게 보지 못한 걸까?”

이 질문 하나가
데이터 해석을 완전히 바꾼다.

728x90
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2026/05   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
글 보관함