AI가 뇌 영상을 읽는 시대 — fMRI 분석 자동화 현황
딥러닝이 fMRI 뇌 영상 분석을 어떻게 바꾸고 있는가. FreeSurfer에서 BrainGPT까지, 신경영상 분석 자동화의 현재와 미래를 실무 경험과 함께 정리합니다.

fMRI 분석, 왜 이렇게 오래 걸렸나
fMRI(기능적 자기공명영상) 데이터를 다뤄본 사람은 안다. 한 명의 피험자 데이터를 전처리하는 데만 수 시간에서 하루가 걸린다. 모션 보정, 공간 정규화, 스무딩, 통계 분석… 각 단계마다 수십 개의 파라미터를 설정하고, 결과를 시각적으로 확인하고, 필요하면 다시 돌려야 한다.
나는 2019년부터 연구 프로젝트에서 fMRI 데이터를 다루기 시작했다. SPM, FSL, FreeSurfer를 번갈아 사용하면서 수백 명의 뇌 영상을 분석했다. 솔직히 말하면, 이 과정의 80%는 반복적인 노동이었다. 파이프라인을 설정하고, 에러를 잡고, QC(Quality Control)를 하고, 다시 돌리는 루프.
2024년부터 딥러닝 기반 도구들이 이 과정을 근본적으로 바꾸기 시작했다. 이 글에서는 실제 사용 경험을 기반으로 fMRI 분석 자동화의 현황을 정리한다.
전통적 파이프라인 vs AI 기반 파이프라인
전통적 파이프라인 (2020년 이전)
- 전처리: SPM/FSL로 모션 보정, 슬라이스 타이밍 보정, 공간 정규화
- 1차 분석: GLM(일반선형모델) 기반 뇌 활성화 맵 생성
- 2차 분석: 그룹 비교, ROI 분석, 연결성 분석
- QC: 수동 시각 검사
각 단계가 독립적이고, 연구자의 수동 개입이 필수적이었다.
AI 기반 파이프라인 (2024-현재)
- 자동 전처리: fMRIPrep + 딥러닝 기반 세그멘테이션
- 자동 QC: MRIQC의 딥러닝 분류기가 불량 데이터 자동 탐지
- 특징 추출: 사전학습된 뇌 인코더(Brain Encoder)로 잠재 표현 추출
- 예측/분류: 질환 분류, 인지 상태 디코딩
가장 큰 변화는 QC 자동화다. 이전에는 한 명당 10-15분씩 눈으로 확인하던 것을 AI가 수 초 만에 판별한다.
주요 AI 도구 리뷰
1. fMRIPrep — 표준화의 게임 체인저
fMRIPrep은 엄밀히 말하면 "AI 도구"는 아니지만, 딥러닝 기반 세그멘테이션(SynthSeg)을 내장하고 있다. BIDS 형식의 데이터를 넣으면 재현 가능한 전처리 결과를 자동으로 생성한다.
실제 사용 경험: 200명의 데이터를 fMRIPrep으로 돌렸을 때, 수동 QC가 필요한 케이스가 전체의 5% 미만이었다. 이전 SPM 파이프라인에서는 15-20%였다.
2. SynthSeg — 어떤 해상도에서도 세그멘테이션
FreeSurfer 팀이 개발한 SynthSeg는 합성 데이터로 학습된 뇌 세그멘테이션 모델이다. 1mm T1이 아니어도, 심지어 임상용 저해상도 MRI에서도 뇌 영역을 분할할 수 있다.
Nature에 발표된 SynthSeg 논문은 이 도구가 임상 환경에서 얼마나 강건한지를 보여준다.
3. BrainLM / Brain Encoder — 뇌의 Foundation Model
2025년부터 등장한 뇌 영상 전용 Foundation Model이 가장 흥미로운 발전이다. 대규모 fMRI 데이터(UK Biobank 등)로 사전학습된 모델이 다양한 하위 과제(질환 분류, 나이 예측, 인지 디코딩)에서 fine-tuning으로 높은 성능을 달성한다.
arXiv에 발표된 BrainLM 논문은 fMRI 시계열 데이터에 대한 Foundation Model의 가능성을 보여줬다.
4. Mind-Vis / Brain Diffusion — 뇌에서 이미지 복원
가장 대중적으로 주목받은 분야는 뇌 활동으로부터 이미지 재구성이다. 피험자가 본 이미지를 fMRI 데이터만으로 복원하는 연구가 2023년부터 폭발적으로 늘었다.
Stable Diffusion과 fMRI 데이터를 결합한 연구들이 Nature Neuroscience에 발표되면서, "AI가 마음을 읽을 수 있는가"라는 질문이 현실이 되고 있다.
실무에서의 제한점
이런 도구들을 실제로 사용하면서 느낀 제한점도 솔직히 공유한다.
데이터 편향
대부분의 모델이 서양인 데이터로 학습되었다. 한국인 뇌 영상에 적용할 때 세그멘테이션 정확도가 떨어지는 경우를 여러 번 경험했다. 특히 측뇌실(lateral ventricle) 크기 추정에서 오차가 컸다.
계산 자원
fMRIPrep은 피험자당 6-12시간의 계산 시간이 필요하다. 200명 데이터를 처리하려면 클라우드 비용이 상당하다. 로컬 GPU 클러스터가 없으면 비용이 문제가 된다 — 이 부분은 로컬 AI 시스템 구축에서도 다룬 적 있는 주제다.
해석 가능성
딥러닝 모델이 "이 뇌 영상은 ADHD"라고 분류했을 때, 왜 그런 판단을 했는지 설명하기 어렵다. Grad-CAM 등의 시각화 기법이 있지만, 신경과학적으로 의미 있는 해석까지는 아직 거리가 있다.
앞으로의 전망
단기 (1-2년)
- fMRIPrep 2.0 + SynthSeg 통합으로 전처리 완전 자동화
- 임상 현장에서의 AI 기반 QC 도입 가속화
- Hugging Face에 뇌 영상 전용 모델 허브 등장
중기 (3-5년)
- 뇌 영상 Foundation Model의 성숙 → few-shot 학습으로 희귀 질환 분류
- 실시간 fMRI + AI → 뉴로피드백 치료의 개인화
- 다기관 연합학습(Federated Learning)으로 데이터 프라이버시 문제 해결
장기 (5-10년)
- 뇌-컴퓨터 인터페이스(BCI)와의 통합
- AI가 신경과학 가설을 자동으로 생성하고 검증하는 시대
마치며
fMRI 분석은 지난 30년간 "연구자의 수작업"에 크게 의존했다. AI가 이 병목을 해소하면서, 신경과학 연구의 속도와 규모가 근본적으로 달라지고 있다. 하지만 도구가 좋아질수록 연구자의 도메인 지식은 더 중요해진다. AI가 잘못된 결과를 내놓았을 때 그것을 알아채려면, 뇌과학에 대한 깊은 이해가 필수이기 때문이다.
도구는 바뀌어도 질문은 같다 — "뇌는 어떻게 작동하는가?"
참고 자료 및 관련 링크
- Nature — SynthSeg: 범용 뇌 세그멘테이션
- arXiv — BrainLM: fMRI Foundation Model
- Nature Neuroscience — 뇌 활동에서 이미지 재구성
- Hugging Face — 오픈소스 AI 모델 허브
- 생물정보학 데이터 분석 — 뇌 영상 데이터 처리 기법
- 유전체-뇌영상 통합 연구 — 이미징 유전체학
- AI 인프라 구축 경험 — 연구용 GPU 서버 구축
- 한국 뇌과학 연구 커뮤니티 — 국내 뇌영상 연구 네트워크