티스토리 뷰

— 더 선명하게 볼 것인가, 더 많이 포착할 것인가, 그리고 언제 무엇을 포기해야 하는가
LC-MS를 처음 다루기 시작하면
대부분은 장비 스펙을 먼저 보게 된다.
resolution, scan rate, sensitivity…
숫자가 크고 높을수록 더 좋아 보인다.
특히 resolution은 직관적이다.
“더 잘 구분해준다”는 설명만으로도 충분히 매력적이다.
그래서 자연스럽게 이렇게 생각한다.
“가능하면 resolution을 최대한 높여서 쓰는 게 맞지 않을까?”
실제로 많은 초보 method는 그렇게 시작된다.
그리고 몇 번의 분석을 거치면서
이 생각이 서서히 흔들리기 시작한다.
분명 더 좋은 조건이라고 생각했는데
- protein 수가 줄어들고
- peptide가 사라지고
- chromatogram이 어딘가 이상하다
이상하다는 느낌은 분명하지만
원인을 바로 찾기는 어렵다.
이 지점에서부터
resolution과 scan speed의 관계를 제대로 이해하지 않으면
계속 같은 문제를 반복하게 된다.
resolution을 높인다는 것의 진짜 의미
resolution은 흔히 “분해능”이라고 부른다.
서로 가까운 m/z를 얼마나 잘 구분하느냐의 문제다.
하지만 실제 데이터에서는
조금 다른 방식으로 작동한다.
resolution을 높인다는 것은
단순히 “더 잘 본다”가 아니라
👉 하나의 신호를 더 세밀하게 쪼개서 본다는 의미다.
이게 중요한 이유는 간단하다.
하나로 보이던 peak가 여러 개로 나뉘면
각각의 signal intensity는 낮아진다.
처음 raw data를 볼 때는 이 차이가 크게 느껴지지 않는다.
하지만 identification 단계로 넘어가는 순간 상황이 달라진다.
threshold의 벽
대부분의 peptide identification은
일정 threshold를 기준으로 이루어진다.
- intensity
- signal-to-noise
- score
이 기준을 넘지 못하면
존재하더라도 “없다”고 판단된다.
resolution을 높이면
signal이 나뉘면서 일부 peak가 이 기준 아래로 떨어진다.
결과적으로
- 이전에는 보이던 peptide가 사라지고
- protein coverage가 줄어든다
이건 장비가 나빠진 것이 아니라
👉 관찰 기준이 바뀐 것이다.
scan speed는 ‘시간의 문제’다
반대로 scan speed는
완전히 다른 차원의 변수다.
이건 정밀도의 문제가 아니라
👉 시간을 어떻게 쓰느냐의 문제다.
LC peak는 생각보다 빠르게 지나간다.
특히 최근에는 fast LC가 많아지면서
peak width가 5~15초 정도로 짧은 경우도 흔하다.
이 짧은 시간 동안
MS가 몇 번 스캔을 하느냐에 따라
데이터의 품질이 결정된다.
실제로 벌어지는 차이
예를 들어 peak width가 10초라고 가정해보자.
- scan speed 빠름 → 10~15 points 확보
- scan speed 느림 → 3~5 points 확보
이 차이는 단순히 “조금 덜 정확하다” 수준이 아니다.
- peak shape이 무너지고
- area 계산이 불안정해지고
- quantification이 흔들린다
특히 label-free에서는
이게 그대로 fold change로 이어진다.
Orbitrap에서 이 trade-off가 더 중요한 이유
Orbitrap 계열 장비는
resolution과 scan time이 매우 밀접하게 연결되어 있다.
resolution을 높일수록
transient acquisition 시간이 길어지고
scan 하나에 필요한 시간이 증가한다.
대표적으로 많이 쓰는 설정을 보면
- 15k → 빠름
- 30k → 중간
- 60k → 느림
- 120k → 매우 느림
이건 단순히 숫자 차이가 아니라
cycle time 전체를 바꿔버린다.
DDA에서의 실제 영향
DDA는 특히 이 trade-off에 민감하다.
왜냐하면 DDA는
👉 “선택 기반 분석”이기 때문이다.
한 cycle 동안 선택할 수 있는 precursor 수가 제한되어 있고
scan speed가 느려지면 그 기회 자체가 줄어든다.
실제 실험 상황
같은 샘플에서
- MS1 resolution 30k
- MS2 resolution 15k
→ protein 5,000개
- MS1 resolution 120k
- MS2 resolution 30k
→ protein 3,500개
처음 보면 이상하다.
더 좋은 설정인데 결과는 나쁘다.
하지만 실제로는
- scan 속도 감소
- MS/MS 횟수 감소
- sampling 감소
이게 누적된 결과다.
DDA 실무 추천 세팅 (Orbitrap 기준)
Discovery 목적
- MS1 resolution: 30k ~ 60k
- MS2 resolution: 15k ~ 30k
- TopN: 최대 확보 (Top15~Top20)
- cycle time: 1~2초 유지
👉 핵심: 최대한 많은 precursor sampling
Sensitivity보다 coverage가 중요할 때
- resolution 낮춤
- scan speed 확보
주의할 점
- MS1만 높이고 MS2를 무시하면 의미 없음
- 전체 cycle을 기준으로 판단해야 함
DIA에서의 상황은 조금 다르다
DIA는 DDA와 달리
모든 ion을 수집한다.
그래서 scan speed보다는
👉 resolution의 역할이 더 중요해진다
하지만 여전히 trade-off 존재
resolution을 너무 높이면
- scan 수 감소
- peak sampling 부족
resolution을 너무 낮추면
- fragment interference 증가
- deconvolution 어려움
DIA 실무 세팅 (Orbitrap 기준)
일반적인 proteomics
- MS1: 60k
- MS2: 30k ~ 60k
- window: 8~20 m/z
복잡한 샘플 (plasma 등)
- MS2 resolution 높게 유지
- 대신 window 수 조정
fast LC 대응
- resolution 낮추고
- scan speed 확보
실제 실험에서 가장 중요한 지표
설정을 아무리 바꿔도
결국 확인해야 하는 건 이것이다.
1) points per peak
👉 최소 8~10개 확보
이게 안 되면 quantification 신뢰 불가
2) cycle time
LC peak보다 충분히 짧아야 함
3) identification 수 vs reproducibility
- 많다고 좋은 게 아님
- 재현성까지 같이 봐야 함
실무에서 자주 겪는 실패 패턴
이건 실제로 많이 발생하는 문제다.
1) “최대 resolution 사용”
→ 데이터는 깨끗하지만
→ 대부분 peptide 놓침
2) “scan speed만 강조”
→ 많은 peptide 검출
→ 하지만 false positive 증가
3) “기존 method 그대로 사용”
→ 샘플 특성 무시
→ 최적화 실패
현실적인 최적화 접근
실무에서는 이렇게 접근하는 것이 가장 안정적이다.
Step 1: 중간값 설정
- MS1: 30k
- MS2: 15k
Step 2: chromatogram 확인
- peak sampling 충분한지
Step 3: 결과 확인
- protein 수
- reproducibility
Step 4: 조정
- sampling 부족 → resolution 낮춤
- interference 많음 → resolution 높임
결국 남는 질문
이 모든 과정을 거쳐도
결국 하나의 질문으로 돌아온다.
“나는 지금 무엇을 얻고 싶은가?”
- 더 많은 단백질인가
- 더 정확한 정량인가
이 질문이 명확하지 않으면
어떤 설정도 정답이 될 수 없다.
결론
Resolution과 scan speed는
단순한 장비 설정이 아니다.
이건
👉 데이터의 형태를 결정하는 변수다
그리고 우리는 항상
그 사이에서 선택을 한다.
- 더 선명하게 볼 것인가
- 더 넓게 볼 것인가
이 선택은 피할 수 없다.
다만 중요한 건
👉 그 선택을 “의도적으로” 하고 있는가다.
다음에 method를 설정할 때
이 질문을 그냥 지나치지 말아야 한다.
“이 데이터는 내가 보고 싶은 방향으로 만들어진 것인가,
아니면 아무 생각 없이 설정된 조건의 결과인가?”
이 질문 하나가
결과 해석의 깊이를 완전히 바꾼다.
'제약산업' 카테고리의 다른 글
| MS resolution이 identification 결과에 미치는 영향 (0) | 2026.05.05 |
|---|---|
| Co-elution이 protein quantification을 망치는 이유 (0) | 2026.05.04 |
| Ion suppression이 peptide quantification을 왜곡하는 방식 (0) | 2026.05.03 |
| LC gradient 하나로 proteome이 바뀌는 이유 (0) | 2026.05.02 |
| Peptide = Protein이라고 생각하는 위험성 (0) | 2026.05.01 |
| Normalization 방법별 비교 (실무 가이드 + 추천 전략) (0) | 2026.04.30 |
| Normalization이 결과를 왜곡하는 순간 (0) | 2026.04.29 |
| Missing value가 만들어내는 착각 (0) | 2026.04.28 |
- Total
- Today
- Yesterday
- LC-MS
- 제약
- Targeted Metabolomics
- 약물분석
- matrix effect
- 치료제
- Spatial metabolomics
- ich m10
- 미래산업
- 분석
- 분석팀
- lc-ms/ms
- Multi-omics
- audit
- 바이오마커
- 정밀의료
- 대사체 분석
- metabolomics
- Proteomics
- biological signal
- 데이터
- 임상시험
- 정량분석
- bioanalysis
- Biomarker
- 시스템
- 신약개발
- 제약산업
- AI
- 해석
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
