내방에서 보는 우리집의 위성사진 구글어스가 일반화되면서 예전에는 소수의 전문가들만 이용할 수 있었던 위성사진 서비스를 누구나 손쉽게 사용할 수 있게 되었다.
구글어스에 사용되는 위성사진은 지상으로부터 약 600~800km 떨어진 곳에서 촬영된 위성사진으로 해상도는 보통은 1m급(가로세로 각각 1m를 한 개의 점으로 표시하는 수준)이며 주요 지역은 0.6m까지 지원한다.
0.6m를 지도로 표현하자면 1/3,000의 축적을 가진 지도 크기로 동네의 아주 작은 골목길까지 표현할 수 있는 해상도이며, 소형승용차는 물론이고 오토바이와 사람까지도 판독이 가능한 정도의 선명한 해상도다.
참고로 우리나라 최고의 해상도를 가진 아리랑 2호의 해상도는 칼라 4m, 흑백 1m의 해상도를 가지고 있으며 미국의 군사 위성인 키홀 12호의 경우 15cm의 고해상도를 가지고 있다.
이처럼 다양한 해상도로 찍히는 위성사진..과연 위성은 어떻게 찍는 것일까? 인공위성에서 위성사진을 찍는 방식은 크게 두 가지로 나눠진다.
그 첫 번째는 우리가 디지털 카메라로 사진을 찍듯이 인공위성 내부에 장착된 광학 카메라를 통해 촬영하는 방식이고 두 번째는 합성개구레이더를 통해 영상을 얻는 방법이다.
첫째, 광학 카메라를 이용하는 방식 보통 위성사진을 촬영하는 인공위성은 지상에서 600~800km 떨어진 고도에서 시속 약 27,000km의 속도로 비행하며 사진을 찍는다.
최초의 위성사진은 1959년 미국의 익스플로러 6호가 지구를 찍은 것이지만, 본격적으로 지구의 모습을 위성으로 촬영하기 시작한 것은 1972년부터 시작된 미국의 랜드셋 프로그램(Landsat Program)부터다.
랜드셋 위성은 1972년부터 1999년까지 랜드셋1호부터 7호까지 전체 6대의 위성이 사용되었는데(랜드셋6호는 궤도 진입에 실패했다.), 현재 5호와 7호만이 운용되고 있고 나머지 위성은 수명을 다한 상태다.
초기 위성사진은 위성내부에 장착된 필름 카메라를 통해 촬영하고, 위성에서 필름이 든 캡슐을 떨어뜨리는 형태로 진행되었다.
이렇게 진행할 경우 다시 캡슐을 수거해 필름을 현상한 다음 필름 스캐너로 스캔을 받아야 했기 때문에 사진을 판독하는데 시간이 많이 걸렸다.
하지만, 1977년 미국의 군사위성인 KH-11호부터 광학 디지털 카메라를 사용했고, 현재는 실시간으로 데이터를 전송 받고 있다.
광학 카메라가 내장된 위성의 해상도는 10m급에서 0.4cm에 이르기까지 해상도가 다양한데 낮은 해상도는 주로 광범위한 지역의 탐사나 지속적인 관찰이 필요한 부분에서 사용하고 있으며, 고해상도로 갈수록 군사용이나 특수 목적으로 사용된다.
광학 카메라를 이용한 촬영은 우리가 사용하는 카메라의 촬영방식과 동일하다.
이는 우리 눈에 익숙한 화면이 촬영된다는 장점이 있지만 촬영지역에 구름이 끼거나 밤이되면 사진을 찍지 못하는 단점도 있다.
둘째, 합성개구레이더(SAR Synthetic Aperture Rader)를 이용하는 방식 위성영상을 촬영하는 위성들은 정지위성과 달리 특정 궤도로 하루에도 몇 바퀴씩 지구를 회전하며 비행한다.
이 때문에 촬영을 해야 할 특정 지역의 촬영 타이밍을 놓치게 되면 다시 촬영하기까지 많은 시간이 소요된다.
이런 문제를 해결하기 위해 등장한 방식이 바로 합성개구레이더 촬영 방식이다.
합성개구레이더는 마이크로파를 지상에 쏘고 나서 반사되어 돌아오는 전파를 수신, 판독하여 지도 형태로 다시 꾸미는 방식이다.
촬영하는 방식이 빛의 반사를 이용하여 촬영하는 광학식이 아니라, 구름이나 빗물 등을 투과하여 지상에 도달하는 마이크로파를 이용하기 때문에 어둠이나 구름, 빗방울이나 눈과 같은 악천후의 영향을 받지 않는다.
이 때문에 합성개구레이더를 이용하는 위성사진의 경우 군사용으로 사용하는 경우가 대부분이고, 때문에 합성개구레이더를 활용하는 위성은 당국에 의해 확인이 거부되기도 한다.
합성개구레이더를 이용하는 대표적인 위성으로는 미국의 래크로스(Lacrosse)위성과 오닉스(Onyx)위성이 있는데, 이가운데 래크로