크림에서 벽 투시 기술 개발돼

Getty Images
예전에 벽 투시는 공상과학소설에서만 가능했다. 그러나 지금은 현실이 돼 가고 있다. 러시아 과학자들이 최대 50m 거리에서 벽을 투시해 움직임을 스캔할 수 있는 기술을 개발했다.

크림에 위치한 기술개발사 ‘EMIIA’가 벽을 투시할 수 있는 혁신기술 ‘#emonocle’을 개발했다. 이 시스템은 대상이 움직일 때 전파 변화가 나타나는 현상인 도플러 효과를 기반으로 한다. “이는 모노비전으로, 칩을 기반으로 한 알고리즘을 갖고 있는 전자안(electronic eye)이다. 모바일 디바이스 및 기타 여러 기기,  장비에 심을 수 있다.” EMIIA의 사장 블라디미르 스타로스틴이 본지에 설명했다.

#emonocle

(사진제공=Press photo)

군사용과 민간용으로 사용 가능

개발자들의 생각에 따르면 이 시스템은 군사용으로는 물론 민간용으로도 사용될 수 있다. 예를 들면 비상사태부에서 붕괴물 아래에 깔린 사람을 찾는 데 쓰일 수 있다. 또는 건물 경비에 쓰일 수 있는데, 이 기술은 주인이 없는 집의 가스 누출, 온도변화 및 모든 움직임을 감지할 수 있기 때문이다. 민간용 하드웨어 및 소프트웨어 솔루션의 가격은 약 15달러 밖에 안 된다.

개발자들은 2016년까지 30~50m 거리에서 움직임을 스캔할 수 있는 구글글래스 타입의 특수 안경을 개발할 계획이다. 이 안경을 쓴 병사들은 어떤 건물에서든 벽 너머에 있는 적의 형체와 움직임을 볼 수 있게 된다.

러시아 및 해외 개발자들은 이전에도 광학적으로 불투명한 장애물을 투시할 수 있는 기술을 만든 적이 있다. 2014년부터 러시아군에서는 벽 너머의 움직임을 볼 수 있는 레이더의 테스트가 진행 중이다. 그러나 이 레이더는 약 3m 거리에서만 투시가 가능하다. 미국에서도 다른 원리로 만들어진 유사 시스템의 테스트가 6개월 전 시작됐다. 특수요원들이 건물의 각 벽에 휴대전화와 비슷하게 생긴 센서를 설치하면, 센서들이 상호작용하면서 전파를 만들어 화면에 이미지를 출력한다.

“우리의 뚜렷한 강점은 휴대성, 투시거리, 가격이다. 모든 정보가 휴대용 전자기기에 출력된다. 그리고 유사제품보다 저렴하다.” 스타로스틴 사장의 설명이다. “우리는 #emonocle을 사물인터넷에서 적용하는 경우 큰 수요와 전망이 있다고 본다.” 시장조사업체 ‘버그인사이트(Berg Insight)’의 예상에 따르면, 2025년 해당 시장의 규모는 19조 달러에 달할 것이다.

'개나소나' 벽 투시?

스타로스틴 사장의 말에 따르면, 이 개발품은 무엇보다 다양한 상황에서의 인명구출을 주 목적으로 한다. “우리는 일반인 누구나 타인을 감시할 수 있는 제품을 만들지 않을 것이다. 민간용 제품의 알고리듬은 기능이 제한될 것이기 때문에 제한된 정보만을 볼 수 있게 될 것이다.”

스타로스틴 사장에 따르면, 현재 회사 상황은 불안정한 경제상황과 크림반도 지위의 변화로 인한 어려움 때문에 위축되어 있다. “크림이 러시아로 병합된 이후 우리는 외부 자금 유치 없이도 운영을 가능하게 해줬던 사업을 잃었다. 지금 크림반도 내에서는 자금조달이 매우 힘들다. 여기에는 아직 완전한 금융시스템이 갖춰지지 못했다. 대출을 받는 데 제한이 있고, 벤처회사들이 없다. 이러한 금융사막에서 우리는 자기자신밖에 기댈 곳이 없다.” 스타로스틴 사장이 본지에 말했다.

스타로스틴 사장의 말에 따르면, 독일과 미국이 개발품에 관심을 보이고 있으나 회사는 정보보안을 위해 러시아 국내 생산을 원하고 있다. 그는 프로젝트에 대한 대중적 관심이 오히려 프로젝트에 해가 되었다고 우려를 표했다. “우리는 기술개발작업이 아니라, 중요한 일에 집중할 수 없게 만드는 불필요한 행동에 자원을 소모하게 될 것이다.”

개발자들은 그들의 기술이 세상을 바꿀 것이라 확신한다. “이것은 환상이 아니다. 현실이다. 시장이 붕괴되면 모든 것이 변할 것이다.” 스타로스틴 사장이 말한다. “세계적 차원에서 이러한 프로세스를 멈추는 것은 불가능하다. 이것은 통화체제를 포함해 세계 경제관계 구조 전체를 바꿀 수 있는 기술이다. 이 기술은 소비경제에서 정보경제로의 교체를 촉진할 것이다.”

This website uses cookies. Click here to find out more.

Accept cookies