안녕하세요~ 유니스트 컴공 3학년에 재학 중인 학생입니다 !

 

  구글에 대통령과학장학금 3학년 합격 후기가 몇 개 있는데, 저는 지원할 때 해당 글들 보고 도움을 많이 받았어서ㅎㅎ 제 글도 지원을 생각하시는 분들께 도움이 될까 싶어 간단하게 후기를 남겨 보려고 합니다 !!

 

1. 서류

 

  정말 많은 서류들을 준비해야 하고, 서류 통과 인원이 최종 선발 인원의 1.5배이기 때문에 서류심사에 합격했다면 최종합격까지 거의 다 왔다고 볼 수 있습니다ㅎㅎ

  과학활동내역서 : 저는 대회나 해커톤 같은데서 받은 상이 하나도 없고 인턴 경험으로만 과학활동내역서를 채웠는데, 이 점 때문에 지원할때 조금 걱정이 되기도 했었습니다,, 그래도 제가 했던 활동이 우수함을(?) 최대한 어필하려고 인턴 수행했던 연구센터의 센터장님께 한 페이지 짜리 연구 참여 증명서를 부탁드렸습니다. 센터장님께서 부탁을 흔쾌히 들어주셔서 제가 인턴 기간동안 했던 활동들을 간략하게 설명한 증명서를 받을 수 있었습니다. 다시 한번 감사드립니다..!! 과학활동내역서의 작성 요령을 보셨다면 다들 아시겠지만, 과학활동내역서에는 느낀점 같은걸 쓰지 않고 그냥 활동 자체가 얼마나 우수한지, 팀 활동이었다면 지원자가 얼마나 기여했는지 등등을 쓰기 때문에, 주절주절 적다 보면 금방 분량 채워집니다ㅎㅎ

  인재성장계획서 : 성장 과정과 다양한 가치관, 학업 계획 및 사회 기여 계획을 적는 인재성장계획서입니다. 개인적으로 서류 작성 고민의 90%는 이녀석이었지 않나 싶네요ㅎㅎ 저는 제가 죽을때 제가 얼마나 많은 사람에게 필요한 사람이었는지 되돌아보면서 제 삶이 가치 있었는지를 생각해 볼 것 같아서, 이 가치관을 바탕으로 제 관심 분야인 인공지능 헬스케어 분야에 대해 작성하였습니다.

  봉사활동기술서 : 요건 다들 잘 쓰실 것 같습니다ㅎㅎ 저는 봉사활동에서 배우고 느꼈던 점을 진로와 연관시켜서 작성했어요!

  아, 성적도 꽤 중요한 것 같습니다..! 서류평가가 100점 만점인데 모든 지원자들의 성적을 정렬해놓고 앞에부터 20 19 18 ... 이런식으로 20점 만점의 학업성적 점수를 받게 됩니다. 나머지 80점에서 다들 좋은 점수를 받으시다 보니 학업성적에서 1점씩 차이나는 부분도 꽤 크게 작용하는 것 같아요 (뇌피셜입니다) !

 

2. 면접

 

  서류에 합격하게 되면 면접 날짜와 시간을 알려주는 메일이 날아옵니다. 면접은 올해도 작년에도 서대문구 위드스페이스에서 진행했습니다. 평일 중에 진행하게 되므로 학교 수업을 결석할 확률이 매우 큽니다.

  대기 장소가 좁아서 일찍 오지 말아 달라는 문자가 와서 저는 그냥 면접 15분 전에 도착했는데, 도착하고 핸드폰 보니 장학재단 측에서 부재중 전화와 문자가 엄청나게 와있었습니다,, 대기실(에어컨빵빵)에 10명은 있을수 있으니 1시간 전에 가시는걸 추천 드립니다,,, 대기실에서 노트북 태블릿 다 쓸수있어요~

  면접 날짜와 시간을 알려주는 메일에 같이 오는 공지가 하나 있는데, 작년에는 1분 자기소개를 준비해 오라는 거였고 올해는 1분 학업계획 발표를 준비해 오라는 거였습니다. 면접은 15분이고, 면접 시작하자마자 1분 학업계획 발표를 한 다음에, 14분동안 본 면접을 진행하였습니다.

  면접 내용을 알려드릴 순 없지만 도움될만한 팁과 경험담을 조금 말씀드린다면 , ,

  면접장에 종이와 필기구가 구비되어 있습니다. 저의 경우 면접관님께서 질문하시는 내용이 매우 길었는데요, 메모 안했으면 큰일날뻔 했습니다.

  굉장히 생소한?당황스러운? 질문을 받아서 에라 모르겠다 하고 어떻게든 지어내서 '논리적이고 자신감있게' 답변을 했었는데요, 나중에 보니 틀린 답이었습니다 ㅋㅋ 아무튼 정말 논리적이고 자신감 있게 대답하긴 했습니다.

 

 

  읽어주셔서 감사합니다ㅎㅎ 모든 지원자분들께 좋은 결과 있으시길 바랍니다 !!

  안녕하세요. Metal Artifact Reduction 분야 논문을 하나 리뷰합니다. 저는 MAR 연구 진행 당시 최신(2022년) 논문을 읽어보고 싶어 이 논문을 선택했었습니다.

 

  논문 제목이 DuDoDR-Net: Dual-domain data consistent recurrent network for simultaneous sparse view and metal artifact reduction in computed tomography 인데, 꽤 길기 때문에 일부 단어를 진하게 표시해 보았습니다.

  network for sparse view and metal artifact reduction. 즉, SVCT(sparse view CT)와 MAR(metal artifact reduction)을 위한 network를 만들었다고 하네요.

 

  CT 도메인의 수많은 딥러닝 연구 주제 중에는 SVCT reconstruction 연구와 MAR 연구가 있습니다.

  SVCT reconstruction이 무엇인지 궁금하시다면 [https://unist.tistory.com/5] 를 참고해 주세요.

  MAR이 무엇인지 궁금하시다면 [https://unist.tistory.com/2] 를 참고해 주세요.

 

  이제 시작하겠습니다.

  SVCT reconstruction과 MAR은 별개의 연구 분야입니다. 각각에 대한 다양한 연구들이 공개되었죠. 하지만 SVCT를 찍는데 환자가 metal implant까지 착용하고 있다면 어떨까요? metal implant가 있는 환자의 SVCT를 찍으면 그 최초 결과 (예시 : 위 그림)는 알아보기가 굉장히 힘들어서 복원을 해야 하는데, SVCT reconstruction과 MAR을 각각 적용해서는 깔끔한 결과를 얻기 힘듭니다. 즉, "reconstruction of SVCT with metal artifact" 이라는 새로운 과제가 생긴 것이죠.

  이 새로운 문제를 딥러닝으로 시도한 것은 2021년으로, 굉장히 최근에 제기된 문제임을 알 수 있습니다. 2021년의 첫 시도 연구는 첫 시도라 그런지 결과가 썩 좋지 못해서, 우리가 더 좋은 결과를 냈다는 것이 이 논문의 개요입니다.

 

  어떤 모델 구조를 만들었는지 살펴보겠습니다.

  $I_{SVMA}$는 Image - Sparse View and Metal Artifact 라는 뜻으로, 금속을 착용한 환자를 SVCT 기법으로 촬영해 얻은 (더러운) 최초 이미지입니다. 이것을 깔끔한 이미지($I_{out}$)로 바꾸는 것이 이 모델의 목표이죠.

  참고로, $I_{???}$는 Image, $S_{???}$는 Sinogram을 뜻하는데, 사이노그램에 대해서도 [https://unist.tistory.com/5]에 간략히 설명해 두었으니 참고 바랍니다.

  가장 위 한 줄만 보겠습니다. $I_{SVMA}$가 빨간색 구조를 통과해 $I_{syn}$이 됩니다. 이미지를 입력으로 받아 이미지를 출력으로 내는 구조가 하나 있네요. $I_{syn}$은 $iDCL$이라는 구조를 통과해 $S_{dc}$가 됩니다. 이미지를 입력으로 받아 사이노그램을 출력으로 내는 구조도 하나 있군요. $S_{dc}$는 초록색 구조를 통과해 $S_{syn}$이 됩니다. 사이노그램을 입력으로 받아 사이노그램을 출력으로 내는 구조도 하나 있네요. 마지막으로 $S_{syn}$은 $sDCL$이라는 구조를 통과해 $I_{dc}$가 됩니다. 이건 사이노그램을 입력으로 받아 이미지를 출력으로 내는 구조네요.

  다시 논문 제목을 보면 "Dual-domain data consistent recurrent network" 입니다. 보시다시피 빨간색 구조는 이미지 도메인 모델이고 초록색 구조는 사이노그램 도메인 모델이죠. 그래서 Dual-domain입니다. $DCL$(Data Consistency Layer)이라는 독자적 구조를 사용해 data consistent라는 이름도 붙었습니다. 마지막으로 위 그림을 보시면 한 줄짜리 구조가 계속해서 반복되어 최종 결과를 출력합니다. 그래서 recurrent 까지 이름에 포함되었네요.

 

  앞서 설명할 때 4가지 구조를 진하게 표시하였습니다. 사실 빨간색 구조와 초록색 구조가 거의 동일하고(아래 그림 1번), $iDCL$과 $sDCL$이 거의 동일한 구조이어서(아래 그림 2번) 총 2가지 구조만 설명하면 됩니다. 추가로 한 줄의 구조가 여러번 반복되는 구조(아래 그림 3번)에 대해서도 설명하면 총 3가지 구조를 설명하게 되겠습니다.

    먼저 1번입니다. 1번은 U-shape model 입니다. U-shape model은 U-net을 시초로 하는 말 그대로 U 모양으로 생긴 딥러닝 모델 구조입니다. U-net은 정말 유명한 구조라 검색해 보시면 바로 많은 정보들을 얻으실 수 있습니다.

  U-net은 Convolution block 이후 Pooling 이후 Convolution Block 이후 Pooling 이후 ~~~ 이렇게 구성되어 있는데, 이 연구에서는 Convolution block이 아닌 AttRDB(Attention Residual Dense Block)을 사용한 것이 첫 번째 차이점 입니다. 두 번째 차이점은 U 모양의 가장 아래에서 ConvGRU라는 구조를 사용했다는 점입니다. 차이점 두 가지에 대해 살펴보겠습니다.

  첫번째, AttRDB. 하나의 AttRDB 블록은 위 그림처럼 생겼습니다. 말 그대로, Dense connection을 적용하였고, Residual connection을 적용하였으며, Attention을 위해 SE(Squeeze and Excitation) block을 적용하였습니다. 각각에 대한 설명은 생략하겠습니다.

 

  두번째, ConvGRU. 이 연구의 전체 네트워크가 반복되는 구조라고 했었습니다. 한 줄의 구조를 통과한 이미지가 다음 줄의 구조에 입력으로 사용되는 것이죠. ConvGRU를 사용하면 n번째 줄의 구조에서 n번째 줄의 입력은 물론 n-1번째 줄의 입력 또한 사용할 수 있습니다. ConvGRU에 대해 궁금하시다면 검색해 보시기를 바랍니다. (이것도 따로 포스팅으로 다루고 싶었는데 새로운 연구가 시작되어 시간 관계상 ㅠㅠ)

 

  이제 2번, DCL에 대해 살펴보겠습니다.

  DCL의 구조는 위 그림과 같이 생겼습니다. 앞서 iDCL은 이미지를 입력받아 사이노그램을 출력하고, sDCL은 사이노그램을 입력받아 이미지를 출력한다고 했었는데, CT이미지와 사이노그램은 서로 변환될 수 있는 관계이므로 iDCL과 sDCL 둘다 내부적으로는 사이노그램을 입력받아 사이노그램을 출력하는 구조가 핵심입니다.

  Data Consistency Layer라는 이름에 맞게, DCL은 '복원하지 말아야 할 부분'을 보존하는것이 목적입니다. '복원하지 말아야 할 부분'이라니, 이게 무슨 뜻일까요?

  Metal Artifact Reduction에서, 메탈 아티팩트를 제외한 부분은 '복원하지 말아야 할 부분' 입니다. 해당 부분은 제대로 찍힌 부분이기 때문에 이 부분이 변하는 것은 환자의 CT를 왜곡하는 것이고, 큰 문제입니다.

  SVCT의 사이노그램은 일반 CT와 달리 촬영되지 않은 틈이 사이사이에 있는 것이 특징인데요(https://unist.tistory.com/5), 그 틈들을 복원하는 것도 중요하지만 제대로 찍힌 나머지 부분을 변형시키지 않는 것도 중요합니다. 역시 환자의 CT를 왜곡하는 것이니까요.

  따라서, 우선 메탈 부분과 SVCT의 틈 부분이 어디인지 수 있는 binary mask가 필요합니다. 이 둘을 더하면 '복원해야 하는 부분 (want to generate)'에 해당하는 binary mask를 얻을 수 있죠. 해당 binary mask를 1에서 빼면 나머지 부분인 '보존해야 하는 부분 (want to maintain)'에 해당하는 binary mask를 얻을 수 있습니다. 따라서, want to generate binary mask와 want to maintain binary mask를 획득하였습니다.

  DCL 구조의 입력은 앞서 살펴본 U-shape 모델의 출력입니다. 즉, U-shape model이 복원한 결과죠. 이 결과에 want to generate binary mask를 곱하면, '복원해야 하는 부분에 대한 복원 결과'가 얻어집니다. 이제, original input(최초 CT 사진, 즉 $I_{SVMA}$)에 want to maintain binary mask를 곱하여 '보존해야 하는 부분에 대한 원본 이미지'를 얻습니다. '복원해야 하는 부분에 대한 복원 결과'에 '보존해야 하는 부분에 대한 원본 이미지'를 더하여 DCL의 최종 출력이 완성됩니다.

 

  마지막으로 3번, 반복구조 입니다.

  논문에도 딱히 자세한 설명은 없고, 그냥 반복구조를 사용했더니 성능이 좋았다고 합니다.

 

  다음으로 손실 함수를 살펴보겠습니다.

  복잡해 보이지만 간단합니다. $L_{img}$는 각 줄의 빨간색 구조의 출력 이미지와 정답 이미지와의 차이를 모든 줄에 대해 다 더한 것이고, $L_{sino}$는 각 줄의 초록색 구조의 출력 사이노그램과 정답 이미지와의 차이를 모든 줄에 대해 다 더한 것입니다. $L_{out}$은 조금 특이하게 metal이 없는 곳에 대해서만 최종 출력과 정답 이미지와의 차이를 구합니다. $L_{out}$으로는 보존을 체크하고 싶었던 것 같습니다. 하여 최종 손실 함수는 $L_{total}=L_{img}+L_{sino}+L_{out}$입니다.

 

  이제 결과를 살펴보겠습니다.

  Original이 정답, w/o가 최초 이미지, our이 본 연구의 결과입니다. 역시 좋은 결과를 냈다고 설명하고 있으며, 특히 보존에 있어서 타 연구들에 비해 좋은 결과를 냈음을 강조하고 있습니다. (Original과 노란색 화살표로 연결된 가장 아랫줄은 쉬운 비교를 위해 제가 복사한 이미지들입니다.)

 

  마지막으로 개인적 결론입니다.

  해당 연구 분야가 문제 제기된지 얼마 안된 신규 분야이고, 의미 있는 접근법으로 좋은 결과를 내었습니다. 특히 복원하지 말아야 할 부분을 최대한 보존하려고 하는 시도가 인상적이었습니다. 다만 실제 환자 데이터에 대한 평가 결과를 첨부하지 않은 점은 많이 아쉽습니다. (위에서 등장하는 w/o 사진은 합성 사진입니다.)

 

  DuDoDR-Net: Dual-domain data consistent recurrent network for simultaneous sparse view and metal artifact reduction in computed tomography 논문을 리뷰해 보았습니다. 감사합니다:)

  CT를 얻는 방법을 한 줄로 요약하면 "projection들로 sinogram을 만들고 reconstruction하여 CT를 얻는다" 입니다. 이에 대해 심화 이론 없이 간단하게 알아보겠습니다.

 

  먼저 projection과 sinogram에 대해 설명하겠습니다.

출처) UNIST course NE493 이지민 교수님

  CT 촬영을 원하는 부위를 360도 조금씩 회전하며 X-ray를 조사합니다. 한 번 조사할 때마다 환자를 통과한 X-ray들의 세기가 반대쪽 판에 기록됩니다. (예를 들어, 뼈를 통과한 X-ray는 세기가 많이 약해진 상태로 반대쪽 판에 도달하고, 말랑한 조직을 통과한 X-ray는 세기가 별로 약해지지 않은 상태로 반대쪽 판에 도달합니다.) 이를 projection이라고 부르며, 즉 X-ray 조사 한 번 마다 projection을 하나씩 얻을 수 있습니다. 0.1도씩 회전하며 찍으면 3600개의 projection을 얻을 수 있는 것이죠.

  이 projection들을 0도부터 360도까지 쌓아올린 그림이 sinogram 입니다. 위 그림을 보면 sinogram의 y축이 0도부터 360도(2파이) 인 것을 확인할 수 있습니다. 즉, sinogram은 환자를 한바퀴 돌아가며 촬영한 모든 정보를 지니고 있는 것입니다.

 

  이렇게 얻은 sinogram을 reconstruction 하면 CT를 얻을 수 있습니다.

  보통 위 그림처럼 (가시성을 위해) 필터를 한번 거친 후 reconstruction을 하게 됩니다. 자세한 reconstruction algorithm은 다음 기회에 설명하도록 하겠습니다. 자세한 알고리즘 보다, CT 관련 인공지능 프로젝트를 진행할 때 중요한 개념은 "sinogram과 CT는 서로 변환될 수 있는 관계이다" 입니다.

 

  그렇다면 SVCT는 무엇일까요? 우선 SVCT는 Sparse(드문, 희박한) View CT의 약자입니다.

  위에서 CT를 설명할 때 "예를들어 360도를 0.1도씩 돌아가면서 찍으면 3600장의 projection들을 얻을 수 있다" 라고 했었는데요, 이처럼 sinogram은 정말 많은 수의 projection들을 쌓아올려 만들어야 합니다.

  하지만 projection을 많이 얻는다는 것은 환자에게 그만큼 많은 양의 방사선을 조사한다는 뜻입니다. SVCT는 일반 CT에 비해 촬영 각도의 간격이 훨씬 큽니다. 즉 sinogram을 구성하는 projection들의 수가 훨씬 적은 것이죠. 방사선 조사량을 줄일 수 있지만, 위 그림처럼 SVCT의 sinogram은 일반 CT의 sinogram보다 정보량이 빈약합니다. 그 결과로 위 그림의 오른쪽과 같은 뭔가 이상한 SVCT 사진을 얻게 됩니다.

 

  추가로,

  그런 SVCT를 일반 CT처럼 복원하는 연구 주제가 SVCT reconstruction입니다.

 

  CT와 SVCT의 생성 방법에 대해 간단히 알아보았습니다. 감사합니다:)

딥러닝, 특히 이미지 프로젝트를 수행하면 위 단어들을 정말 많이 보게 됩니다.

이것들이 어떤 뜻인지 직관적으로 알아보겠습니다.

 

Representation은 말 그대로 '표현' 입니다.

고양이 이미지를 어떻게 표현할 수 있을까요?

픽셀 별로 0~255 범위의 숫자 세 개를 조합하여 표현할 수도 있겠군요. 아시다시피 이것이 고양이 이미지를 RGB로 표현하는 방법입니다.

그렇다면 고양이 이미지 하나를 n차원의 벡터로 표현하는건 어떨까요? 이것이 딥러닝 모델이 이미지를 표현하는 방법입니다. (나중에 설명할텐데, 이 n차원 벡터를 Feature Vector라고 부릅니다)

 

이미지들을 '표현'하는 방법을 배우는 것은 딥러닝 모델의 성능에 있어 절대적인 영향을 미칩니다.

출처)

위 그림은 두 딥러닝 모델 (a)와 (b)가 이미지들(비행기, 새, 사슴 등)을 n차원 벡터로 어떻게 표현했는지 보여줍니다. (나중에 설명할텐데, 이것이 Latent Space입니다.)

참고로, 위 그림처럼 n차원 벡터들을 2차원으로 시각화하는 방법은 t-SNE 등 '차원 축소'를 검색해 보시면 됩니다!

어떤 모델이 더 잘 표현을 하고 있는 걸까요? 직관적으로 (b) 모델 처럼 분류가 깔끔하게 되면 각각의 클래스들을 구분하기가 훨씬 쉬울 것 같습니다. 실제로, (b) 모델의 정확도가 훨씬 높습니다.

 

이렇듯 딥러닝 모델은 자신에게 주어진 입력을 '표현'하는 방법을 배웁니다. 이제 나머지 단어들로 넘어가 보겠습니다.

 

Feature, Latent Space, Encoder는 아래 그림과 함께 모두 설명하겠습니다.

출처) unist.tistory.com

위 그림은 가장 기본적인 CNN 구조를 나타낸 그림입니다.

기본적인 CNN은 Convolution layer들 뒤에 Fully connected layer들이 연결된 구조이죠.

입력 이미지는 먼저 Convolution layer들을 통과합니다. Convolution layer들을 모두 통과하면 Fully connected layer로 들어갈 벡터를 얻게 되는데, 이 벡터가 바로 Feature vector 입니다. 위의 개 이미지를 가장 잘 표현하는 feature를 뽑아 vector 형태로 나타낸 것이죠.

위 그림에서는 하나의 feature vector가 100개의 원소를 가집니다. 즉, 100차원 feature vector 입니다.

 

이렇게 얻은 feature vector들의 공간이 Latent space 입니다. 한국어로는 해공간, 잠재공간 등으로 부릅니다.

만약 Convolution layer들이 좋은 latent space를 만들었다면 (ex. 개 이미지들에 해당하는 feature vector들과 고양이 이미지들에 해당하는 feature vector들이 섞이지 않고 경계가 명확함) 뒤에 연결된 fully connected layer들은 클래스들을 쉽게 구분할 것입니다. 하지만, 반대의 경우라면 fully connected layer들은 클래스들을 구분할 경계선을 찾을 수 없을 것입니다.

 

마지막으로, 위 예시에서의 convolution layer들처럼 입력으로부터 유용한 feature를 뽑아내는 역할을 하는 구조를 Encoder라고 부릅니다.

Encoder 다음에 위 그림의 fully connected layer와 같은 classifier를 연결하여 classification 문제를 해결할 수도 있고, 독창적인 Decoder 구조를 연결하여 segmentation(ex. 이미지에서 종양에 해당하는 부분만 알아내기) 등의 다른 문제를 해결할 수도 있습니다.

 

딥러닝 기초를 배울 때 자주 등장하는 용어인 Representation, Feature, Latent Space, Encoder에 대해 알아보았습니다. 감사합니다:)

  Metal Artifact Reduction, 줄여서 보통 MAR 이라고 부르며 한국어로는 금속음영제거, 금속인공음영제거 등으로 불립니다.

 

  Metal Artifact는 많은 방사선 촬영기법에서 발생되는 문제이지만, 가장 대표적인 경우인 CT에 대해서 설명드리겠습니다.

 

출처) shutterstock

  위 이미지는 흔히 접할 수 있는 두(머리)부 CT 사진입니다. 금속류를 전혀 착용하지 않은 환자의 CT 사진이죠.

만약 환자가 금속(ex.금니)을 착용하고 있다면 어떨까요?

 

출처) shutterstock

  만약 오른쪽 치아에 금니를 착용하고 있다면 왠지 위 사진과 같이 해당 부분만 조금 다르게 찍힐 것 같습니다.

하지만 실제로는 전혀 그렇지 않으며...

 

출처) shutterstock

  직접 그리자면 대략 위 그림과 같이 찍히게 되고, 이를 'Metal Artifact'가 생성되었다고 합니다.

  Metal Artifact의 생성 원리는 자세히 알려면 꽤 복잡하지만, 직관적으로 "방사선이 메탈을 만나면 메탈 뒤에 있는 성분들에 대한 정보는 하나도 알 수 없기 때문" 이라고 이해하시면 좋겠습니다.

 

츨처) Metal artifact reduction techniques in musculoskeletal CT-imaging

  실제 예시로는 위 이미지를 참고하시면 좋겠습니다.

 

  이러한 Metal Artifact를 제거하는 기술을 모두 Metal Artifact Reduction 이라고 부릅니다.

실제 예시를 아래에 첨부합니다.

 

출처) siemens

  위 사진은 시멘스 헬스케어의 iMAR 기술입니다. 메탈이 있는 환자의 CT를 찍으면 왼쪽 사진처럼 나오고, 여기에 MAR을 적용해 오른쪽 사진을 얻어 의사분들이 사용하시는 것이죠.

 

  지금까지 MAR 이란 무엇인지에 대해 간단히 살펴 보았는데, 이 기술은 왜 중요할까요?

 

  가장 단순하고도 직관적인 생각은 "의사분들이 CT를 보고 진단하는데에 도움을 주기 위해" 입니다.

  의사분께서 CT 사진을 보고 환자분에게 어떤 문제가 있는지 (ex. 골절) 판단하는 경우는 정말 많죠. 환자분이 금속을 착용하고 있다면 MAR 기술의 도움을 받을 수 있을 것입니다.

 

  물론 진단 분야에서도 MAR 기술이 중요하지만, MAR 기술이 굉장히 중요한 분야가 하나 더 있습니다.

  바로 방사선종양학과의 방사선치료 분야입니다.

 

  방사선을 활용한 종양 치료를 아주 간단히 설명하자면 아래 그림과 같습니다.

출처) unist.tistory.com

  치료의 핵심은 "암 부위에는 정해진 높은 양의 방사선을 조사한다", "암 이외의 부위에는 낮은 양의 방사선을 조사한다" 두가지 입니다. 이 둘을 위해 여러 방향에서 암 부위를 교차하도록 방사선을 조사합니다.

 

  이때, 방사선은 물질에 따라 투과되는 정도가 다르기 때문에, 방사선을 조사할 경로에 어떤 물질이 얼마나 크게 있는지를 정확히 알아야 합니다. 위 그림에서, 조사하는 3개의 방사선이 암 부위에 같은 세기의 영향을 주게 하고 싶다면, 조사 경로에 뼈가 있는 1번과 3번 방사선은 2번 방사선보다 더 강해야 하는 것이죠.

 

  잠시 더 좋은 이해를 위해 실제 사진을 첨부하겠습니다.

출처) Metal artifacts in computed tomography for radiation therapy planning: dosimetric effects and impact of metal artifact reduction.

  앞서 언급드렸던 "방사선을 조사할 경로에 어떤 물질이 얼마나 크게 있는지를 정확히 알아야 합니다" 에서, 조사 경로에 어떤 물질이 얼마나 크게 있는지를 알 수 있는 방법은 무엇일까요?

  바로 CT입니다. CT를 보면 어느 부위에 얼마나 단단한(고밀도의) 물질이 있는지 모두 파악할 수 있으며, 이를 활용해 방사선종양학과 의사분들이 방사선 치료계획을 수립하게 됩니다.

 

  하지만 환자가 금속을 착용하고 있다면, 앞서 보여드린 것과 같이 CT가 매우 난잡해져 어느 부위에 어떤 물질이 있는지 판단할 수 없습니다. 부정확한 조사량 계산은 방사선 치료에 있어 치명적이므로, 최대한 정확한 조사량을 구하기 위해 MAR 기술을 적용한 CT를 활용해 방사선 치료 계획을 세웁니다.

 

 

 

  MAR이 무엇인지, 그리고 왜 중요한지에 대해 방사선치료와 관련하여 알아보았습니다. 감사합니다:)

'Metal Artifact Reduction > concepts' 카테고리의 다른 글

CT, SVCT 생성법 설명 (매우 간단)  (0) 2022.02.24

+ Recent posts