[go: up one dir, main page]

KR102072550B1 - 우주 사진관 - Google Patents

우주 사진관 Download PDF

Info

Publication number
KR102072550B1
KR102072550B1 KR1020180124191A KR20180124191A KR102072550B1 KR 102072550 B1 KR102072550 B1 KR 102072550B1 KR 1020180124191 A KR1020180124191 A KR 1020180124191A KR 20180124191 A KR20180124191 A KR 20180124191A KR 102072550 B1 KR102072550 B1 KR 102072550B1
Authority
KR
South Korea
Prior art keywords
satellite
content
ground station
shooting
display panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180124191A
Other languages
English (en)
Inventor
우한별
사공영보
장수민
Original Assignee
주식회사 솔탑
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 솔탑 filed Critical 주식회사 솔탑
Priority to KR1020180124191A priority Critical patent/KR102072550B1/ko
Application granted granted Critical
Publication of KR102072550B1 publication Critical patent/KR102072550B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

우주환경상에서 운영되는 인공위성을 이용한 촬영 방법 및 장치가 제공된다. 일 실시예에 따른 인공위성은 적어도 하나의 지상국으로부터 콘텐츠를 포함하는 미션을 수신하고, 콘텐츠를 디스플레이 패널에 표시하고, 영상 센서를 이용하여, 우주 공간을 배경으로 디스플레이 패널에 표시된 콘텐츠를 촬영하며, 촬영 영상을 적어도 하나의 지상국으로 전송할 수 있다.

Description

우주 사진관{Cosmos Studio}
아래의 실시예들은 우주환경상에서 운영되는 인공위성을 이용한 촬영 방법 및 지상국의 동작 방법에 관한 것으로, 보다 상세하게는 우주환경상에서 운영되는 인공위성을 이용하여 지상국으로부터 수신한 콘텐츠를 촬영하는 방법 및 장치에 관한 것이다.
기존 인공위성 수요처가 공공시장 위주였다면 최근에는 민간시장까지 확장됨에 따라 저비용· 고효율의 소형 위성에 대한 수요가 꾸준히 증가하고 있다. 지속 성장이 예상되는 위성산업 가운데서도, 최근 급격한 성장을 보여주고 있는 분야는 소형 위성이다. 소형 위성은 무게 100kg 내외의 위성을 뜻한다. 소형 위성의 대표적인 예로 큐브샛(Cubesat)이 있다.
일반적으로 큐브샛(Cubesat)은 1U(10cm(가로) * 10cm(세로) * 10cm(높이))를 기준으로 적층이 가능한 1U, 2U, 3U, 6U의 크기를 갖는 정육면체 상자 모양의 초소형 위성으로, 상용 위성에 비해 적은 비용으로 조립하고 쏘아 올릴 수 있으며, 생물 실험이나 우주 입자 검출 등의 우주 과학 연구, 중대형 위성용 기술의 사전 검증 그리고 우주 탐사 등의 다양한 용도로 사용될 수 있다.
본 발명은 초소형 위성(예를 들어, 큐브샛)의 전면부에 패널을 장착하고, 패널에는 지상으로부터 수신된 영상, 동영상, 텍스트 등이 디스플레이 되며, 패널에 콘텐츠를 디스플레이한 상태에서 실제 우주를 배경으로 하여 영상 또는 동영상을 촬영한 뒤, 지상으로 전송하는 방법 및 장치에 관한 것이다.
일 실시예에 따른 인공위성을 이용한 촬영 방법은 우주환경상에서 운영되는 인공위성을 이용한 촬영 방법에 있어서, 적어도 하나의 지상국으로부터 콘텐츠를 포함하는 미션을 수신하는 단계, 상기 콘텐츠를 디스플레이 패널에 표시하는 단계, 영상 센서를 이용하여, 우주 공간을 배경으로 상기 디스플레이 패널에 표시된 상기 콘텐츠를 촬영하는 단계, 및 상기 촬영된 영상을 상기 적어도 하나의 지상국으로 전송하는 단계를 포함한다.
상기 미션은 선호 정보를 더 포함하고, 상기 촬영하는 단계는 상기 선호 정보에 기초하여 촬영하는 단계를 포함할 수 있다.
상기 촬영 방법은 현재 위치가 상기 적어도 하나의 지상국과 통신 가능한 영역인지 판단하는 단계, 및 통신 가능한 영역일 경우, 통신 가능한 자원에 대한 정보를 획득하는 단계를 더 포함할 수 있다. 상기 미션을 수신하는 단계 및 상기 촬영된 영상을 전송하는 단계는 상기 통신 가능한 자원을 활용하여 수행될 수 있다.
상기 촬영 방법은 다른 인공위성으로부터 상기 미션을 수신하는 단계; 및 상기 다른 인공위성으로 상기 촬영된 영상을 전송하는 단계 중 적어도 하나를 더 포함할 수 있다.
상기 촬영 방법은 촬영환경에 대한 정보를 상기 적어도 하나의 지상국으로 전송하는 단계를 더 포함할 수 있다.
상기 촬영환경에 대한 정보는 촬영을 진행한 상기 인공위성의 일련번호, 촬영 시간, 촬영 시 상기 인공위성의 위치, 및 촬영 시 상기 인공위성의 자세 중 적어도 하나를 포함할 수 있다.
상기 콘텐츠는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함할 수 있다.
상기 표시하는 단계는 상기 배경에 기초하여, 상기 콘텐츠를 조정하는 단계; 및 상기 조정된 콘텐츠를 표시하는 단계를 포함할 수 있다.
상기 촬영된 영상은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다.
상기 촬영하는 단계는 상기 디스플레이 패널과 상기 영상 센서 사이의 위치를 결정하는 단계, 및 상기 영상 센서의 촬영 영역을 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 지상국의 동작 방법은 콘텐츠를 포함하는 주문 정보를 수신하는 단계, 인공위성이 통신 가능한 영역에 위치했는지 판단하는 단계, 상기 콘텐츠를 포함하는 미션을 상기 인공위성으로 전송하는 단계, 및 상기 인공위성에 의하여 우주 공간을 배경으로 상기 콘텐츠가 촬영된 촬영 영상을 수신하는 단계를 포함한다.
상기 지상국의 동작 방법은 상기 미션은 선호 정보를 더 포함하고, 상기 미션을 인공위성으로 전송하는 단계는 상기 주문 정보에 기초하여 상기 선호 정보를 생성하는 단계를 포함할 수 있다.
상기 지상국의 동작 방법은 촬영을 진행한 인공위성의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보를 수신하는 단계, 및 상기 촬영환경에 대한 정보에 기초하여, 인증서를 생성하는 단계를 더 포함할 수 있다.
일 실시예에 따른 인공위성은 적어도 하나의 지상국으로부터 콘텐츠를 포함하는 미션을 수신하는 인공위성 본체, 상기 콘텐츠를 표시하는 디스플레이 패널, 및 우주 공간을 배경으로 상기 디스플레이 패널에 표시된 상기 콘텐츠를 촬영하는 영상 센서를 포함하고, 상기 인공위성 본체는 상기 촬영된 영상을 상기 적어도 하나의 지상국으로 전송한다.
상기 인공위성 본체는 선호 정보에 기초하여 상기 영상 센서의 촬영을 제어할 수 있다.
상기 인공위성 본체는 다른 인공위성으로부터 상기 콘텐츠를 수신할 수 있다.
상기 인공위성 본체는 촬영을 진행한 인공위성의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보를 상기 적어도 하나의 지상국으로 전송할 수 있다.
상기 인공위성 본체는 상기 디스플레이 패널과 상기 영상 센서 사이의 위치를 결정하고, 상기 영상 센서의 촬영 영역을 결정할 수 있다.
상기 인공위성 본체는 상기 배경에 기초하여, 상기 디스플레이 패널에 표시되는 상기 콘텐츠를 조정할 수 있다.
상기 인공위성 본체는 큐브샛을 포함할 수 있다.
본 발명은 초소형 위성(예를 들어, 큐브샛)을 이용하여 실제 우주 공간을 배경으로 고객이 원하는 영상, 동영상 또는 텍스트 등을 촬영하고, 지상에서 촬영 영상을 수신할 수 있다. 보다 구체적으로, 고객이 선호하는 촬영 시간, 장소에 관한 촬영 계획을 결정하고, 결정된 촬영 계획에 기초하여 촬영을 진행할 수 있다. 또한, 촬영을 진행한 인공위성의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보에 기초하여, 인증서를 생성할 수 있다.
도 1은 일 실시예에 따른 인공위성 시스템을 도시한 도면.
도 2는 일 실시예에 따른 인공위성의 구성을 도시한 도면.
도 3은 일 실시예에 따른 인공위성을 이용한 촬영 방법의 순서도를 도시한 도면.
도 4는 일 실시예에 따른 촬영 영상을 도시한 도면.
도 5는 일 실시예에 따른 촬영 영역을 결정하는 방법을 도시한 도면.
도 6은 일 실시예에 따른 지상국의 동작 방법을 도시한 순서도를 도시한 도면.
도 7은 일 실시예에 따른 인증서가 포함된 촬영 영상을 도시한 도면.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 일 실시예에 따른 인공위성 시스템을 도시한 도면이다.
도 1에 따르면, 일 실시예에 따른 인공위성 시스템은 인공위성(110)과 지상국(120)을 포함할 수 있다.
인공위성(110)은 로켓을 사용하여 대기권 밖으로 쏘아 올려진 주로 지구 둘레의 원 또는 타원 궤도를 위성처럼 비행하는 인공의 물체로, 인공적으로 행성 주위를 회전하도록 만든 물체일 수 있다. 인공위성(110)은 지상국(120)과의 통신, 지구관측, 해양관측, 기상관측, 항행 및 측위, 우주과학 연구 등과 같은 임무를 수행할 수 있다. 우주로 쏘아 올린 인공위성(110)을 관제하기 위해 지구에는 지상국(120)이 설치될 수 있다.
지상국(120)은 인공위성(110) 임무 중 지상에서 일어나는 모든 과정을 수행하는 운영 조직, 시스템 등 지상부분의 총체를 담당하는 기지국으로, 지상국(120)은 우주에서 인공위성(110)이 임무를 수행할 수 있도록 인공위성(110)의 위치, 자세를 조절하고, 스케줄을 명령하며, 인공위성(110)이 관측한 자료를 안테나로 수신, 처리 후에 서비스, 연구, 활용 등의 역할을 수행할 수 있다.
인공위성(110)은 미리 정해진 중량(예를 들어, 무게 100kg) 내외의 소형 위성 또는 초소형 위성일 수 있다. 예를 들어 인공위성(110)은 큐브샛일 수 있다. 일반적으로 큐브샛(Cubesat)은 1U(10cm(가로) * 10cm(세로) * 10cm(높이))를 기준으로 적층이 가능한 1U, 2U, 3U, 6U의 크기를 갖는 정육면체 상자 모양의 초소형 위성으로, 상용 위성에 비해 적은 비용으로 조립하고 쏘아 올릴 수 있다.
인공위성(110)은 사용 목적이 미리 정해질 수 있다. 인공위성(110)의 사용 목적을 미션이라 할 수 있다. 미션은 인공위성(110)이 궤도상에서 실시하는 계획상의 임무를 의미할 수 있다. 예를 들어, 미션은 통신, 지구관측, 해양관측, 기상관측, 항행 및 측위, 우주과학 연구 등과 같은 임무들을 포함할 수 있으나, 기재된 실시예로 한정되지 않는다. 인공위성(110)은 지상국(120)으로부터 미션을 수신하고, 미션에 따라 임무를 수행하고, 그 결과물을 지상국(120)으로 전송할 수 있다.
인공위성(110)은 지상국(120)으로부터 실제 우주 공간을 배경으로 고객이 원하는 영상, 동영상 또는 텍스트 등을 촬영하고, 지상국(120)으로 촬영 영상을 전송하라는 미션을 수신할 수 있다. 보다 구체적으로, 고객이 선호하는 촬영 시간, 장소에 관한 촬영 계획을 결정하고, 결정된 촬영 계획에 기초하여 촬영을 진행할 수 있다.
도면에는 설명의 편의를 위하여 하나의 지상국만을 도시하였으나, 인공위성(110)은 적어도 하나의 지상국과 통신할 수 있다. 아래에서, 도 2 내지 도 7을 참조하여 우주환경상에서 운영되는 인공위성을 이용한 촬영 방법에 대해 상세히 설명된다.
도면에 도시하지 않았으나, 인공위성 시스템은 고객과의 인터페이싱을 제공하는 서비스 서버를 더 포함할 수 있다. 서비스 서버는 웹, 앱, 이메일 등 다양한 방식으로 고객으로부터 주문 정보를 수신할 수 있다. 또한, 서비스 서버는 주문 정보에 따라 촬영된 촬영 영상을 웹, 앱, 이메일 등 다양한 방식으로 고객에게 제공할 수 있다.
지상국(120)을 직접 운영하는 서비스 시나리오에서, 서비스 서버는 지상국(120)에 포함되거나, 지상국(120)과 연동하도록 구현될 수 있다. 또는, 타 서비스 업체에 의하여 운영되는 지상국을 이용하는 경우, 서비스 서버는 해당 지상국과 통신 가능하도록 구현될 수 있다.
도 2는 일 실시예에 따른 인공위성의 구성을 도시한 도면이다.
도 2를 참조하면, 일 실시예에 따른 인공위성(200)은 인공위성 본체(210), 디스플레이 패널(230), 및 영상 센서(220)를 포함한다.
인공위성 본체(210)는 적어도 하나의 지상국과 통신할 수 있다. 예를 들어, 적어도 하나의 지상국으로부터 콘텐츠를 포함하는 미션을 수신하고, 영상 센서(220)에 의해 촬영된 촬영 영상을 적어도 하나의 지상국으로 전송할 수 있다.
인공위성 본체(210)는 프로세서(211), 메모리, 배터리(212), 센서부(214), 항법부(213), 구동부(215), 및 통신부(216)를 포함할 수 있다. 센서부(214)는 태양 센서를 포함할 수 있고, 항법부(213)는 GPS를 포함할 수 있다. 센서부(214)와 항법부(213)를 이용하여 위성의 상태 및 위치 정보를 획득할 수 있다. 구동부(215)는 예를 들어 추력기일 수 있고, 구동부(215)를 이용하여 자세 또는 속도를 바꿀 수 있다.
통신부(216)는 센서부(214), 항법부(213), 프로세서(211) 및 메모리와 연결되어 지상국과 데이터를 송수신할 수 있다. 통신부(216)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.
통신부(216)는 인공위성(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(216)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(216)는 인공위성(200)과 외부의 장치를 연결하는 요소일 수 있다. 통신부(216)는 인터페이스(interface)일 수 있다. 통신부(216)는 외부의 장치로부터 데이터를 수신하여, 프로세서(211) 및 메모리에 데이터를 전송할 수 있다.
프로세서(211)는 통신부(216)가 수신한 데이터 및 메모리에 저장된 데이터를 처리할 수 있다. "프로세서(211)"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(211)는 메모리(예를 들어, 메모리)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(211)에 의해 유발된 인스트럭션들을 실행할 수 있다.
메모리는 통신부(216)가 수신한 데이터 및 프로세서(211)가 처리한 데이터를 저장한다. 예를 들어, 메모리는 프로그램을 저장할 수 있다. 저장되는 프로그램은 사용자의 보행을 보조할 수 있도록 코딩되어 프로세서(211)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리는 보행 보조 장치를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장할 수 있다. 인공위성(200)을 동작 시키는 명령어 세트는 프로세서(211)에 의해 실행될 수 있다.
영상 센서(220)는 우주 공간을 배경으로 디스플레이 패널(230)에 표시된 콘텐츠를 촬영할 수 있다. 영상 센서(220)는, 일 예로, 카메라일 수 있다.
디스플레이 패널(230)은 지상국으로부터 수신한 콘텐츠를 표시할 수 있다. 디스플레이 패널(230)은 LCD(Liquid Cristal Display), TFT-LCD(Thin Film Transistor-Liquid Crystal Display), LED(Liquid Emitting Diode) 디스플레이, OLED(Organic LED) 디스플레이, AMOLED(Active Matrix OLED) 디스플레이 또는 플렉서블(flexible) 패널로 구현될 수 있으나, 이에 한정되는 것은 아니다. 디스플레이 패널(230)은 우주 환경에서 동작하기 때문에 내열 특성이 강화된 패널일 수 있다. 또는, 디스플레이 패널(230)은 투명 디스플레이 패널로 구현될 수 있다.
도 3은 일 실시예에 따른 인공위성을 이용한 촬영 방법의 순서도를 도시한 도면이다.
도 3을 참조하면, 일 실시예에 따른 단계들(310 내지 340)은 도 2를 참조하여 전술된 인공위성(200)에 의해 수행된다. 인공위성(200)은 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다. 인공위성(200)은 우주환경상에서 운영될 수 있다.
단계(310)에서, 인공위성(200)은 적어도 하나의 지상국으로부터 콘텐츠를 포함하는 미션을 수신한다. 미션은 패널에 디스플레이할 콘텐츠 및 선호 정보를 포함할 수 있다. 선호 정보는 고객의 주문 정보에 기초하여 생성되는 정보로, 촬영 시간 또는 촬영 장소에 관한 정보를 포함할 수 있다. 예를 들어, 미션은 고객이 원하는 시간 및 장소에서, 실제 우주 공간을 배경으로 고객이 원하는 영상, 동영상 또는 텍스트 등을 촬영하고, 적어도 하나의 지상국으로 촬영 영상을 전송하라는 미션일 수 있다.
인공위성(200)은 지상국 뿐만 아니라, 다른 인공위성으로부터 콘텐츠를 수신할 수 있다. 예를 들어, 인공위성(200)은 지상국이 아닌, 기 존재하는 다른 인공위성으로부터 콘텐츠를 포함하는 미션을 수신할 수 있다. 다른 인공위성은 타 서비스 업체에 의하여 운영될 수 있으며, 해당 인공위성은 타 서비스 업체에 의하여 운영되는 별도의 지상국과 통신할 수 있다. 아래에서 상세하게 설명하겠으나, 일 실시예에 따른 서비스 서버는 네트워크를 통하여 고객의 주문 정보를 수신하고, 주문 정보에 기반한 미션을 타 서비스 업체의 지상국으로 전송할 수 있다.
단계(320)에서, 인공위성(200)은 콘텐츠를 디스플레이 패널에 표시한다. 콘텐츠는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함할 수 있다. 콘텐츠가 표시될 위치 및 크기는 미리 정해질 수 있다. 예를 들어, 텍스트는 디스플레이 패널의 정중앙에 위치하도록 미리 정해질 수 있다. 또는, 정지 영상은 디스플레이 패널에 전체 화면으로 표시되도록 미리 정해질 수 있다.
인공위성(200)은 배경에 기초하여, 콘텐츠를 조정하여 표시할 수 있다. 배경에 따라 콘텐츠의 색감, 밝기 등을 다르게 조정하여 표시할 수 있다. 또는, 배경에 따라 미리 정해진 시각 효과를 부가할 수 있다. 예를 들어, 지구가 배경일 경우와 지구가 아닌 공간이 배경일 경우에 콘텐츠를 조정하여 다르게 표시할 수 있다.
단계(330)에서, 인공위성(200)은 영상 센서를 이용하여, 우주 공간을 배경으로 디스플레이 패널에 표시된 콘텐츠를 촬영한다. 인공위성(200)은 선호 정보에 기초하여, 고객이 원하는 시간 및 장소에서, 실제 우주 공간을 배경으로 고객이 원하는 정지 영상, 동영상 또는 텍스트 등을 촬영할 수 있다. 촬영된 결과물인 촬영 영상은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다.
인공위성(200)의 회전 속도, 빛의 밝기 등을 고려하여 영상 센서의 조리개 값, 셔터 스피드, 감도 등이 결정될 수 있다. 예를 들어, 인공위성(200)이 빠르게 회전하는 경우 셔터 스피드를 빠르게 하여 촬영 영상의 흔들림을 방지할 수 있다. 영상 센서를 이용하여, 무중력 환경을 응용해서 특수 효과를 가미하여 촬영할 수 있다. 일 실시예에 따르면, 우주환경에서만 촬영 가능한 시각적 효과를 이용하여 영상에 워터마크가 삽입될 수도 있다.
단계(340)에서, 인공위성(200)은 촬영 영상을 적어도 하나의 지상국으로 전송한다. 촬영 영상은 하나 이상일 수 있다. 인공위성(200)은 지상국 뿐만 아니라, 다른 인공위성으로 촬영된 영상을 전송할 수 있다. 예를 들어, 인공위성(200)은 지상국이 아닌, 타 서비스 업체에 의하여 운영되는 다른 인공위성으로 촬영된 영상을 전송할 수 있다. 이 경우, 촬영 영상은 타 서비스 업체의 인공위성 및 지상국을 통하여 서비스 서버에 전달될 수 있다. 서비스 서버는 수신된 촬영 영상을 고객에게 전달할 수 있다.
도 4는 일 실시예에 따른 촬영 영상을 도시한 도면이다.
도 4를 참조하면, 일 실시예에 따른 촬영 영상은 콘텐츠(410)와 배경(420)을 포함할 수 있다.
콘텐츠(410)는 디스플레이 패널에 표시될 수 있고, 배경(420)은 선호 정보에 기초하여 결정될 수 있다. 선호 정보는 고객이 원하는 시간 및 장소를 포함할 수 있고, 이에 기초하여 촬영 영상의 배경(420)이 결정될 수 있다.
선호 정보는 고객의 니즈를 포함할 수 있다. 예를 들어, 선호 정보는 태풍을 배경으로 하기를 원하거나, 지구와 우주의 경계를 배경으로 하기를 원하거나, 특정 별자리를 배경으로 하기를 원하는 등 다양한 니즈를 포함할 수 있다. 또는, 선호 정보는 지구 배경에서 시작하여 달 배경에 이르기까지 우주공간 상의 시야각을 변경하는 촬영을 요청하는 정보를 포함할 수도 있다.
콘텐츠(410)는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함할 수 있고, 촬영 영상은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다. 예를 들어, 콘텐츠(410)가 정지 영상인 경우, 촬영 영상도 정지 영상일 수 있다. 또는, 콘텐츠(410)가 동영상인 경우, 촬영 영상도 동영상일 수 있다. 촬영 영상이 동영상인 경우, 배경(420)도 변경될 수 있다.
도 5는 일 실시예에 따른 촬영 영역을 결정하는 방법을 도시한 도면이다.
도 5를 참조하면, 일 실시예에 따른 인공위성은 지상국과 통신 가능한 시간이 제한되어 있다. 예를 들어, 약 98분 만에 지구를 한 바퀴 도는 위성의 경우, 하루 동안 지구를 14바퀴 반 돌 수 있고, 이 경우 지상국에서 하루 3~4회 정도 인공 위성과 교신할 수 있으며, 한 번 교신할 때 10분 정도만 가능하다. 만일 지구를 선회할 때마다 지나가는 북극이나 남극 지역에 지상국이 있다면, 하루에 위성이 지구를 도는 횟수 가운데 약 90%까지, 즉 10회 이상 통신이 가능할 수 있다.
인공위성은 지상국과 통신하기 위하여, 현재 위치가 적어도 하나의 지상국과 통신 가능한 영역인지 판단할 수 있고, 통신 가능한 영역일 경우, 통신 가능한 자원에 대한 정보를 획득할 수 있다. 인공위성은 통신 가능한 자원을 활용하여 적어도 하나의 지상국으로부터 미션을 수신하고, 적어도 하나의 지상국으로 촬영된 영상을 전송할 수 있다.
도면에 도시하지 않았으나, 일 실시예에 따른 인공위성은 촬영 영역을 변경할 수 있다. 예를 들어, 촬영 영상에서 디스플레이 패널의 크기 및 위치를 변경할 수 있다.
미리 정해진 범위 이내에서, 인공위성은 디스플레이 패널과 영상 센서 사이의 위치를 결정할 수 있다. 예를 들어, 디스플레이 패널을 영상 센서와 가까이 할 수도, 멀게 할 수도 있다. 디스플레이 패널을 영상 센서에 가까이 위치시켜 촬영하는 경우, 촬영 영상에서 배경이 차지하는 비율이 줄어들 수 있다. 반대로, 디스플레이 패널을 영상 센서에 멀리 위치시켜 촬영하는 경우, 촬영 영상에서 배경이 차지하는 비율이 늘어날 수 있다. 인공위성의 디스플레이 패널과 영상 센서 사이의 위치는 미리 결정될 수 있다.
인공위성은 영상 센서의 촬영 영역을 결정할 수 있다. 예를 들어, 디스플레이 패널을 촬영 영상의 정중앙에 위치시킬 수 있다. 또는 디스플레이 패널을 촬영 영상의 가장자리에 위치시킬 수도 있다.
촬영 영역을 결정하는 동작은 영상 센서 조작을 통해 수행될 수 있다. 예를 들어, 카메라의 배율을 조절하여 디스플레이 패널과 영상 센서 사이의 위치를 결정할 수 있다. 또한, 카메라의 앵글을 조절하여 촬영 영역을 결정할 수 있다.
도 6은 일 실시예에 따른 지상국의 동작 방법을 도시한 순서도를 도시한 도면이다.
도 6을 참조하면, 일 실시예에 따른 단계들(610 내지 640)은 도 1을 참조하여 전술된 지상국(120)에 의해 수행된다. 지상국(120)은 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다.
단계(610)에서, 지상국(120)은 콘텐츠를 포함하는 주문 정보를 수신한다. 주문 정보는 촬영 영상에 관한 고객의 요청 정보로, 패널에 디스플레이할 콘텐츠, 촬영 시간 또는 촬영 장소에 관한 정보를 포함할 수 있다. 예를 들어, 주문 정보는 태풍이 발생한 지구를 배경으로 콘텐츠를 촬영해달라는 요청일 수 있다.
단계(620)에서, 지상국(120)은 인공위성이 통신 가능한 영역에 위치했는지 판단한다. 일 실시예에 따른 지상국은 인공위성과 통신 가능한 시간이 제한되어 있기 때문이다.
단계(630)에서, 지상국(120)은 콘텐츠를 포함하는 미션을 인공위성으로 전송한다. 미션은 패널에 디스플레이할 콘텐츠 및 선호 정보를 포함할 수 있다. 선호 정보는 고객의 주문 정보에 기초하여 생성되는 정보로, 촬영 시간 또는 촬영 장소에 관한 정보를 포함할 수 있다. 선호 정보는 주문 정보와 인공위성의 비행역학에 기초하여 결정될 수 있다. 예를 들어, 주문 정보가 태풍이 발생한 지구를 배경으로 콘텐츠를 촬영해달라는 요청인 경우, 지상국은 주문 정보에 기초하여 인공위성의 궤도를 예측할 수 있다. 예측된 인공위성의 궤도에 기초하여, 구체적인 시간과 좌표에 관한 선호 정보를 결정할 수 있다.단계(640)에서, 지상국(120)은 인공위성에 의하여 우주 공간을 배경으로 콘텐츠가 촬영된 촬영 영상을 수신한다. 촬영 영상은 도2 내지 도4를 참조하여 전술된 촬영영상일 수 있다.
도 7은 일 실시예에 따른 인증서가 포함된 촬영 영상을 도시한 도면이다.
도 7을 참조하면, 일 실시예에 따른 촬영 영상은 인증서(730)를 더 포함할 수 있다.
인공위성은 영상 센서를 이용하여 촬영 시, 촬영환경에 대한 정보를 획득하여, 지상국으로 전송할 수 있다. 촬영환경에 대한 정보는 촬영을 진행한 인공위성의 일련번호, 촬영 시간, 촬영 시 상기 인공위성의 위치, 및 촬영 시 상기 인공위성의 자세 중 적어도 하나를 포함할 수 있다. 촬영환경에 대한 정보는 인공위성의 가속도, 속도, 및/또는 각속도 등 모션 정보를 더 포함할 수 있다. 지상국은 촬영환경에 대한 정보에 기초하여, 인증서(730)를 생성할 수 있다. 인증서(730)는 촬영 영상과 함께 표시될 수 있고, 촬영 영상과 별개로 생성될 수도 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (23)

  1. 우주환경상에서 운영되며, 적어도 하나의 지상국으로부터 수신한 콘텐츠를 표시하는 디스플레이 패널 및 우주 공간을 배경으로 상기 디스플레이 패널에 표시된 콘텐츠를 촬영하는 영상센서를 구비한 인공위성을 이용한 촬영 방법에 있어서,
    상기 적어도 하나의 지상국으로부터 상기 콘텐츠를 포함하는 미션을 수신하는 단계;
    상기 콘텐츠를 상기 인공위성에 포함된 상기 디스플레이 패널에 표시하는 단계;
    상기 디스플레이 패널과 상기 영상 센서 사이의 위치를 결정하고, 상기 영상 센서의 촬영 영역을 결정하며, 상기 영상 센서를 이용하여, 우주 공간을 배경으로 상기 디스플레이 패널에 표시된 상기 콘텐츠를 촬영하는 단계; 및
    상기 촬영된 영상을 상기 적어도 하나의 지상국으로 전송하는 단계를 포함하고,
    상기 미션은 고객의 주문 정보에 기초하여 생성되는 촬영 시간 또는 촬영 장소에 관한 정보와, 실제 우주 공간을 배경으로 상기 고객이 원하는 영상, 동영상 또는 텍스트 중 적어도 하나의 촬영 요청을 더 포함하고,
    상기 촬영하는 단계는
    상기 영상 센서를 이용하여, 상기 미션에 포함된 촬영 시간 또는 촬영 장소에서 실제 우주 공간을 배경으로 상기 콘텐츠를 촬영하는 것을 특징으로 하는 인공위성을 이용한 촬영 방법.
  2. 삭제
  3. 제1항에 있어서,
    현재 위치가 상기 적어도 하나의 지상국과 통신 가능한 영역인지 판단하는 단계; 및
    통신 가능한 영역일 경우, 통신 가능한 자원에 대한 정보를 획득하는 단계
    를 더 포함하고,
    상기 미션을 수신하는 단계 및 상기 촬영된 영상을 전송하는 단계는 상기 통신 가능한 자원을 활용하여 수행되는 인공위성을 이용한 촬영 방법.
  4. 제1항에 있어서,
    상기 미션을 수신하는 단계는
    다른 인공위성으로부터 상기 미션을 수신하는 단계-상기 다른 인공위성은 상기 적어도 하나의 지상국으로부터 상기 미션을 수신함-
    를 포함하고,
    상기 촬영된 영상을 전송하는 단계는
    상기 다른 인공위성으로 상기 촬영된 영상을 전송하는 단계-상기 다른 인공위성은 상기 적어도 하나의 지상국으로 상기 촬영된 영상을 전송함-
    를 포함하는, 인공위성을 이용한 촬영 방법.
  5. 제1항에 있어서,
    촬영환경에 대한 정보를 상기 적어도 하나의 지상국으로 전송하는 단계
    를 더 포함하는 인공위성을 이용한 촬영 방법.
  6. 제5항에 있어서,
    상기 촬영환경에 대한 정보는
    촬영을 진행한 상기 인공위성의 일련번호, 촬영 시간, 촬영 시 상기 인공위성의 위치, 및 촬영 시 상기 인공위성의 자세 중 적어도 하나를 포함하는, 인공위성을 이용한 촬영 방법.
  7. 제1항에 있어서,
    상기 콘텐츠는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함하는, 인공위성을 이용한 촬영 방법.
  8. 제1항에 있어서,
    상기 표시하는 단계는
    상기 배경에 기초하여, 상기 콘텐츠를 조정하는 단계; 및
    상기 조정된 콘텐츠를 표시하는 단계
    를 포함하는, 인공위성을 이용한 촬영 방법.
  9. 제1항에 있어서,
    상기 촬영된 영상은 정지 영상 및 동영상 중 적어도 하나를 포함하는, 인공위성을 이용한 촬영 방법.
  10. 삭제
  11. 우주환경상에서 운영되며, 적어도 하나의 지상국으로부터 수신한 콘텐츠를 표시하는 디스플레이 패널 및 우주 공간을 배경으로 상기 디스플레이 패널에 표시된 콘텐츠를 촬영하는 영상센서를 구비한 인공위성과 교신하는 지상국의 동작 방법에 있어서,
    상기 콘텐츠를 포함하는 고객의 주문 정보를 수신하는 단계;
    상기 인공위성이 통신 가능한 영역에 위치했는지 판단하는 단계;
    상기 콘텐츠를 포함하는 미션을 상기 인공위성으로 전송하는 단계; 및
    상기 인공위성에 의하여 우주 공간을 배경으로 상기 콘텐츠가 촬영된 촬영 영상을 수신하는 단계를 포함하고,
    상기 미션은 상기 고객의 주문 정보에 기초하여 생성되는 촬영 시간 또는 촬영 장소에 관한 정보와, 실제 우주 공간을 배경으로 상기 고객이 원하는 영상, 동영상 또는 텍스트 중 적어도 하나의 촬영 요청을 더 포함하고,
    상기 촬영 영상은
    상기 인공위성에 포함된 상기 디스플레이 패널과 상기 영상 센서 사이의 위치가 결정되고, 상기 영상 센서의 촬영 영역이 결정된 뒤, 상기 영상 센서를 이용하여, 상기 미션에 포함된 촬영 시간 또는 촬영 장소에서 실제 우주 공간을 배경으로 상기 디스플레이 패널에 표시된 상기 콘텐츠가 촬영된 영상인 것을 특징으로 하는 지상국의 동작 방법.
  12. 삭제
  13. 제11항에 있어서,
    촬영을 진행한 인공위성의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보를 수신하는 단계; 및
    상기 촬영환경에 대한 정보에 기초하여, 인증서를 생성하는 단계
    를 더 포함하는 지상국의 동작 방법.
  14. 우주환경상에서 운영되며, 적어도 하나의 지상국으로부터 수신한 콘텐츠를 표시하고, 우주 공간을 배경으로 상기 콘텐츠를 촬영하며, 상기 콘텐츠가 촬영된 촬영 영상을 상기 적어도 하나의 지상국으로 전송하는 인공위성으로서,
    상기 적어도 하나의 지상국으로부터 상기 콘텐츠를 포함하는 미션을 수신하는 인공위성 본체;
    상기 적어도 하나의 지상국으로부터 수신한 상기 콘텐츠를 표시하는 디스플레이 패널; 및
    우주 공간을 배경으로 상기 디스플레이 패널에 표시된 상기 콘텐츠를 촬영하는 영상 센서를 포함하고,
    상기 미션은 고객의 주문 정보에 기초하여 생성되는 촬영 시간 또는 촬영 장소에 관한 정보와, 실제 우주 공간을 배경으로 상기 고객이 원하는 영상, 동영상 또는 텍스트 중 적어도 하나의 촬영 요청을 더 포함하고,
    상기 인공위성 본체는 상기 디스플레이 패널과 상기 영상 센서 사이의 위치를 결정하고, 상기 영상 센서의 촬영 영역을 결정하며,
    상기 영상 센서는
    상기 미션에 포함된 촬영 시간 또는 촬영 장소에서 실제 우주 공간을 배경으로 상기 콘텐츠를 촬영하는 것을 특징으로 하는, 인공위성.
  15. 삭제
  16. 제14항에 있어서,
    상기 인공위성 본체는
    다른 인공위성으로부터 상기 콘텐츠를 수신하는, 인공위성.
  17. 제14항에 있어서,
    상기 인공위성 본체는
    촬영을 진행한 인공위성의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보를 상기 적어도 하나의 지상국으로 전송하는, 인공위성.
  18. 제14항에 있어서,
    상기 콘텐츠는 정지 영상, 및 동영상 중 적어도 하나를 포함하는, 인공위성.
  19. 삭제
  20. 제14항에 있어서,
    상기 콘텐츠는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함하는, 인공위성.
  21. 제14항에 있어서,
    상기 인공위성 본체는
    상기 배경에 기초하여, 상기 디스플레이 패널에 표시되는 상기 콘텐츠를 조정하는, 인공위성.
  22. 제14항에 있어서,
    상기 촬영된 영상은 정지 영상 및 동영상 중 적어도 하나를 포함하는, 인공위성.
  23. 제14항에 있어서,
    상기 인공위성 본체는
    큐브샛(cubesat)을 포함하는, 인공위성.

KR1020180124191A 2018-10-18 2018-10-18 우주 사진관 Active KR102072550B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180124191A KR102072550B1 (ko) 2018-10-18 2018-10-18 우주 사진관

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180124191A KR102072550B1 (ko) 2018-10-18 2018-10-18 우주 사진관

Publications (1)

Publication Number Publication Date
KR102072550B1 true KR102072550B1 (ko) 2020-02-04

Family

ID=69571054

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180124191A Active KR102072550B1 (ko) 2018-10-18 2018-10-18 우주 사진관

Country Status (1)

Country Link
KR (1) KR102072550B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230054170A1 (en) * 2021-08-23 2023-02-23 Soletop Co., Ltd. Satellite

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054552A (ko) * 2000-06-12 2000-09-05 김민수 통신망을 이용한 합성사진물 판매방법
JP2004320091A (ja) * 2002-12-03 2004-11-11 Make Softwear:Kk 写真プリント提供装置および方法ならびにプログラム
KR20060041083A (ko) * 2004-11-08 2006-05-11 한국전자통신연구원 위성영상정보 제공 장치 및 그 방법
KR101120587B1 (ko) * 2011-07-05 2012-03-09 (주)그린공간정보 디지털영상이미지와 지피에스 위성신호의 합성을 통한 실시간 영상도화정보 업그레이드시스템
KR20150091798A (ko) * 2014-02-04 2015-08-12 엘지전자 주식회사 단말기 및 상기 단말기에서의 이미지 합성 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054552A (ko) * 2000-06-12 2000-09-05 김민수 통신망을 이용한 합성사진물 판매방법
JP2004320091A (ja) * 2002-12-03 2004-11-11 Make Softwear:Kk 写真プリント提供装置および方法ならびにプログラム
KR20060041083A (ko) * 2004-11-08 2006-05-11 한국전자통신연구원 위성영상정보 제공 장치 및 그 방법
KR101120587B1 (ko) * 2011-07-05 2012-03-09 (주)그린공간정보 디지털영상이미지와 지피에스 위성신호의 합성을 통한 실시간 영상도화정보 업그레이드시스템
KR20150091798A (ko) * 2014-02-04 2015-08-12 엘지전자 주식회사 단말기 및 상기 단말기에서의 이미지 합성 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230054170A1 (en) * 2021-08-23 2023-02-23 Soletop Co., Ltd. Satellite

Similar Documents

Publication Publication Date Title
Maki et al. The Mars 2020 Engineering Cameras and microphone on the perseverance rover: A next-generation imaging system for Mars exploration
Bos et al. Touch And Go Camera System (TAGCAMS) for the OSIRIS-REx asteroid sample return mission
Cheng Aerial photography and videography using drones
ES2758558T3 (es) Sistema de gestión de plataforma móvil en tiempo real
EP2735902A1 (en) Multi-lens array system and method
Madiedo et al. A large lunar impact blast on 2013 September 11
JP6257439B2 (ja) 撮像装置及び撮像方法
KR20210007825A (ko) 인공위성과 이동장치 간의 실시간 통신 방법 및 시스템
US12069376B2 (en) Image exposure method and device, unmanned aerial vehicle
CN115439528B (zh) 一种获取目标对象的图像位置信息的方法与设备
KR102037504B1 (ko) 위경 고도 좌표계를 기반으로 하는 비행 모델의 입체영상 생성 장치 및 그 방법
KR102072550B1 (ko) 우주 사진관
US7386187B2 (en) Method and system for pseudo-autonomous image registration
US20230054170A1 (en) Satellite
JP2015118213A (ja) 画像処理装置およびそれを備えた撮像装置、画像処理方法、プログラム、記憶媒体
KR102366513B1 (ko) 다중 카메라를 이용한 물체 검출 및 추적 방법 및 이를 포함하는 인공위성
US8995440B1 (en) In-flight information distribution system, device, and method for a portable electronic device
CN102164244A (zh) 摄像装置
JP2019145947A (ja) 撮影システム及び撮影制御装置
Strange Orbital Determination Feasibility of LEO Nanosatellites Using Small Aperture Telescopes
Redfern International Space Station and Satellites
JP7454145B2 (ja) 映像処理システム、映像処理装置、プログラム及び映像処理方法
Killough et al. A Multi-Faceted Approach to Enabling Large-Scale Science in a Microsat Constellation
Cho et al. SunbYte: an autonomous pointing framework for low-cost robotic solar telescopes on high altitude balloons
Cho et al. Sheffield University solar balloon lifted telescope (SUNBYTE-BEXUS 25, HASP 2018, HASP 2019)

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181018

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20181029

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20181018

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20181204

Patent event code: PE09021S01D

AMND Amendment
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190516

Patent event code: PE09021S01D

AMND Amendment
PE0601 Decision on rejection of patent

Patent event date: 20191002

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20190516

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

Patent event date: 20181204

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

X091 Application refused [patent]
AMND Amendment
PX0901 Re-examination

Patent event code: PX09011S01I

Patent event date: 20191002

Comment text: Decision to Refuse Application

Patent event code: PX09012R01I

Patent event date: 20190816

Comment text: Amendment to Specification, etc.

Patent event code: PX09012R01I

Patent event date: 20190304

Comment text: Amendment to Specification, etc.

PX0701 Decision of registration after re-examination

Patent event date: 20191220

Comment text: Decision to Grant Registration

Patent event code: PX07013S01D

Patent event date: 20191203

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

Patent event date: 20191002

Comment text: Decision to Refuse Application

Patent event code: PX07011S01I

Patent event date: 20190816

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

Patent event date: 20190304

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

X701 Decision to grant (after re-examination)
GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20200128

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20200129

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20221125

Start annual number: 4

End annual number: 4