KR20170019777A - Apparatus and method for controling capturing operation of flying bot - Google Patents
Apparatus and method for controling capturing operation of flying bot Download PDFInfo
- Publication number
- KR20170019777A KR20170019777A KR1020150114035A KR20150114035A KR20170019777A KR 20170019777 A KR20170019777 A KR 20170019777A KR 1020150114035 A KR1020150114035 A KR 1020150114035A KR 20150114035 A KR20150114035 A KR 20150114035A KR 20170019777 A KR20170019777 A KR 20170019777A
- Authority
- KR
- South Korea
- Prior art keywords
- flying
- bot
- shooting
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000003384 imaging method Methods 0.000 claims description 25
- 230000033001 locomotion Effects 0.000 claims description 15
- 238000012952 Resampling Methods 0.000 claims description 3
- 230000001788 irregular Effects 0.000 claims description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 14
- 241000288673 Chiroptera Species 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 3
- 235000017491 Bambusa tulda Nutrition 0.000 description 3
- 241001330002 Bambuseae Species 0.000 description 3
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 3
- 239000011425 bamboo Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H04N5/23216—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/06—Aircraft not otherwise provided for having disc- or ring-shaped wings
-
- H04N5/225—
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 카메라가 장착된 플라잉 봇(Flying Bot)을 이용하여 사용자 선택 영역을 효과적으로 촬영할 수 있는 플라잉 봇의 촬영 제어 장치 및 그 제어방법에 관한 것으로, 적어도 하나 이상의 카메라를 장착한 플라잉 봇(Flying Bot); 및 상기 플라잉 봇의 카메라에서 촬영된 이미지를 디스플레이부에 표시하고, 상기 디스플레이부에 표시된 촬영 이미지상에서 사용자가 설정한 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 촬영 영역을 재촬영하는 플라잉 봇 제어장치;를 포함한다.The present invention relates to a photographing control apparatus and a control method of a flying bot capable of effectively photographing a user-selected region by using a flying boat equipped with a camera, ); And an image picked up by the camera of the flying robot is displayed on the display unit and the moving and rotating of the flying bots is controlled according to the photographing area set by the user on the photographing image displayed on the display unit, And a flying bot controller.
Description
본 발명은 카메라가 장착된 플라잉 봇(Flying Bot)을 이용하여 사용자 선택 영역을 효과적으로 촬영할 수 있는 플라잉 봇의 촬영 제어 장치 및 그 제어방법에 관한 것이다. BACKGROUND OF THE INVENTION Field of the Invention [0001] The present invention relates to an imaging control apparatus and a control method thereof for a flying bot capable of effectively photographing a user-selected region by using a flying boat equipped with a camera.
플라잉 봇(Flying Bot)은 "플라이 로봇"의 약자로 조종사 없이 무선전파의 유도에 의하여 조정 가능한 소형 비행체를 의미한다. 상기 플라잉 봇의 일 예로는 "드론"을 들 수 있다. 이러한 플라잉 봇은 현재 기술의 발달로 그 크기가 더욱 소형화 되면서도, 고화질의 카메라 또는 다양한 센서를 장착하여 사용자가 접근하기 어려운 장소 또는 공중에서 수집된 다양한 정보들을 다른 장치(예: 이동 단말기, 스마트폰, 기타 통신 디바이스)와 무선 통신을 통하여 사용자에게 제공할 수 있다. Flying Bot is an abbreviation for "fly robot" and means small aircraft that can be adjusted by induction of radio waves without pilots. One example of the flying bots is a "drones ". These flying bots are equipped with a high-resolution camera or a variety of sensors so that various information collected in a place or in the air that is difficult for the user to access can be transmitted to other devices such as a mobile terminal, Other communication device) through wireless communication.
그런데, 플라잉 봇은 무선전파로 조종되기 때문에 플라잉 봇에 장착된 카메라를 사용자가 수동으로 제어하여 사진 촬영영역을 지정하는 것은 특별한 조정 기술을 요한다. However, since the flying bots are controlled by radio waves, it is necessary for the user to manually control the camera mounted on the flying bots to designate the photographing area by a special adjustment technique.
따라서, 단순한 비행 기능 뿐만 아니라, 플라잉 봇에 추가되는 다양한 기능들을 보다 효율적으로 제어할 수 있도록 하기 위한 플라잉 봇의 제어 장치 및 제어 방법이 현재 활발하게 연구되고 있는 실정이다. Accordingly, a control device and a control method of a flying robot for more efficiently controlling various functions added to a flying robot, as well as a simple flying function, have been studied actively.
따라서, 본 발명의 일 목적은 각종 촬영모드에서 플라잉 봇)에 의한 촬영을 제어할 수 있는 플라잉 봇의 촬영 제어 장치 및 그 방법을 제공하는데 있다. It is therefore an object of the present invention to provide an image pickup control apparatus and method for a flying robot capable of controlling image pickup by a flying robot in various image pickup modes.
본 발명의 다른 목적은 플라잉 봇에 의한 촬영 시 사용자가 사진 촬영 영역을 직관적으로 설정할 수 있는 플라잉 봇의 촬영 제어 장치 및 그 방법을 제공하는데 있다. It is another object of the present invention to provide a photographing control apparatus and method of a flying bot in which a user can intuitively set a photographing area when photographing by a flying bot.
상기와 같은 목적을 달성하기 위하여 본 발명의 실시예에 따른 플라잉 봇의 촬영 제어장치는, 적어도 하나 이상의 카메라를 장착한 플라잉 봇(Flying Bot); 및 상기 플라잉 봇의 카메라에서 촬영된 이미지를 디스플레이부에 표시하고, 상기 디스플레이부에 표시된 촬영 이미지상에서 사용자가 설정한 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 촬영 영역을 재촬영하는 플라잉 봇 제어장치;를 포함한다.According to an aspect of the present invention, there is provided an imaging control apparatus for a flying bot, including: a flying bot equipped with at least one camera; And an image picked up by the camera of the flying robot is displayed on the display unit and the moving and rotating of the flying bots is controlled according to the photographing area set by the user on the photographing image displayed on the display unit, And a flying bot controller.
상기와 같은 목적을 달성하기 위하여 본 발명의 실시예에 따른 플라잉 봇의 촬영 제어방법은, 촬영 모드에 따라 플라잉 봇의 이동 방향 또는 회전 방향을 결정하여 플라잉 봇(Flying Bot)을 이동시키는 단계; 플라잉 봇에 장착된 카메라를 제어하여 초기 촬영을 수행하고, 플라잉 봇으로부터 초기 촬영 이미지를 수신하여 디스플레이부에 표시하는 단계; 상기 디스플레이부에 표시된 초기 촬영 이미지상에서 사용자가 설정한 촬영 영역을 감지하는 단계; 및 상기 설정된 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 설정된 촬영 영역을 재촬영하는 단계;를 포함한다. According to another aspect of the present invention, there is provided an imaging control method for a flying bot, the method comprising: moving a flying boat by determining a moving direction or a rotating direction of the flying bot in accordance with an imaging mode; Performing an initial photographing by controlling a camera mounted on the flying bot, receiving an initial photographing image from the flying bot, and displaying the initial photographing image on the display unit; Sensing an imaging area set by a user on an initial imaging image displayed on the display unit; And controlling the movement and rotation of the flying robot according to the set shooting area to photograph the set shooting area again.
본 발명은 플라잉 봇을 이용하여 근접 및 원격 촬영을 수행할 때 사진 촬영 영역을 직관적으로 설정함으로써 사용자가 일일이 플라잉 봇을 조작하지 않고도 편리하게 원하는 영역만 선택적으로 촬영할 수 있는 장점이 있다. The present invention is advantageous in that a photographing area is intuitively set when a close-up and a remote photographing are performed using a flying bot, so that a user can conveniently photograph only a desired area conveniently without operating a flying bot.
그리고, 본 발명은 다양한 촬영 모드에 따라 플라잉 봇의 위치 및 회전방향을 제어하여 촬영을 수행함으로써 일반 촬영뿐만 아니라 특수 촬영(동영상, 연속촬영, 3D촬영 3D스캔)을 보다 쉽고 편리하게 수행할 수 있는 장점이 있다. In addition, the present invention can perform special shooting (moving picture, continuous shooting, 3D scanning, 3D scanning) as well as general shooting by performing the shooting by controlling the position and the rotational direction of the flying bats according to various shooting modes There are advantages.
도 1은 본 발명의 실시 예에 따른 플라잉 봇의 제어 장치 및 플라잉 봇을 설명하기 위한 블록도.
도 2a, 도 2b 및, 도 2c는 본 발명의 실시 예에 따른 플라잉 봇의 제어 장치 및 플라잉 봇의 예를 도시한 개념도.
도 3은 스마트폰을 이용하여 플라잉 봇(180)을 제어하여 촬영 동작을 수행하는 개념을 나타낸 순서도.
도 4는 본 발명의 실시예에 따른 플라잉 봇의 촬영 제어방법을 나타낸 순서도.
도 5는 일반 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
도 5는 일반 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 다른 실시예.
도 7a 및 도 7b는 촬영 이미지상에서 촬영 영역을 선택하는 방법을 나타낸 실시예.
도 8은 자율 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
도 9는 자율 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 다른 실시예.
도 10은 동영상 및 연속 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
도 11은 3D 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
도 12는 스캔모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram for explaining a controller and a flying bot of a flying robot according to an embodiment of the present invention; FIG.
FIGS. 2A, 2B, and 2C are conceptual diagrams illustrating an example of a controller and a flying bot of a flying bot according to an embodiment of the present invention. FIG.
3 is a flowchart illustrating a concept of performing a photographing operation by controlling a flying
FIG. 4 is a flowchart showing a photographing control method of a flying bot according to an embodiment of the present invention. FIG.
5 is an embodiment of a method of controlling a shooting area of a flying bamboo according to an embodiment of the present invention in a general shooting mode.
5 is another embodiment of the method of controlling the shooting area of the flying bots according to the embodiment of the present invention in the general shooting mode.
FIGS. 7A and 7B illustrate a method of selecting an image capturing area on a captured image. FIG.
8 is an embodiment of a method of controlling a shooting area of a flying bot according to an embodiment of the present invention in an autonomous shooting mode.
9 is a view showing another embodiment of the method of controlling the shooting area of the flying robot according to the embodiment of the present invention in the autonomous shooting mode.
10 is an embodiment of a method of controlling an imaging area of a flying bot according to an embodiment of the present invention in a moving image and continuous shooting mode.
11 is an embodiment of a method for controlling an imaging area of a flying bot according to an embodiment of the present invention in a 3D imaging mode.
12 is an embodiment of a method of controlling an imaging area of a flying bot according to an embodiment of the present invention in a scan mode.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like or similar elements are denoted by the same or similar reference numerals, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
이하의 본 명세서에서는, 플라잉 봇(Flying bot)이 4개의 회전익(rotter)을 가지는 쿼드콥터(quardcopter)임을 가정하여 설명하기로 한다. 그러나 플라잉 봇은, 이처럼 4개의 회전익을 가지는 형태 뿐만 아니라, 2개, 6개 또는 8개의 회전익을 가지는 멀티콥터(Multicopter)일 수 있음은 물론이다. 또한 본 발명은, 이처럼 회전익을 이용하여 비행하는 형태 뿐만 아니라, 회전익을 이용하지 않는 다른 방식, 예를 들어 제트 추진 방식 등을 이용하는 플라잉 봇에도 얼마든지 적용될 수 있음은 물론이다. In the following description, it is assumed that a flying boat is a quadcopter having four rotor rotors. However, it is needless to say that the flying bot may be a multi-copter having two, six, or eight rotor blades as well as four rotor blades. Further, the present invention can be applied not only to the flying type using the rotor blades, but also to the flying bots using other methods that do not use the rotor blades, for example, a jet propulsion type.
우선 도 1을 참조하여 살펴보면, 도 1은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100) 및 플라잉 봇(180)을 설명하기 위한 블록도이다. First, referring to FIG. 1, FIG. 1 is a block diagram for explaining a flying
우선 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 카메라(120), 통신부(130), 감지부(140), 출력부(150), 사용자 입력부(160), 제어부(110), 메모리(170) 및 전원 공급부(도시되지 않음) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 플라잉 봇 제어 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 플라잉 봇 제어 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. A
보다 구체적으로, 상기 구성요소들 중 카메라(120)는 영상 신호를 입력받을 수 있다. 카메라(120)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함할 수 있다. More specifically, the
카메라(120)와 레이저 센서는 서로 조합되어, 사용자의 시선 또는 사용자의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호에 따라 감지대상의 움직임을 스캐닝할 수 있다. 이에 따라, 포토 센서는 수신된 영상으로부터 사용자의 안면이 향하는 방향 및, 사용자의 시선을 감지할 수 있다. The
통신부(130)는, 기 설정된 주파수 대역의 무선 신호를 이용하여 상기 플라잉 봇(180)과 직접적으로 통신을 수행하거나, 또는 기 설정된 무선 통신 시스템의 중계기 등을 통해 상기 플라잉 봇(180)과의 무선 통신을 수행할 수 있다. 이를 위해 통신부(130)는 플라잉 봇(180)과 통신을 가능하게 하는 적어도 하나의 통신 모듈을 포함할 수 있다. The
또한 통신부(130)는 플라잉 봇 제어 장치(100) 위치를 획득하기 위한 모듈을 더 포함할 수 있다. 이러한 위치정보 획득 모듈로서 대표적인 예로는 GPS(Global Positioning System) 모듈이 있을 수 있다. 예를 들어, 플라잉 봇 제어 장치(100)는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 플라잉 봇 제어 장치(100)의 위치를 획득할 수 있다.The
감지부(140)는 플라잉 봇을 제어하기 위한 다양한 센서 및, 플라잉 봇 제어 장치(100) 주변을 둘러싼 주변 환경을 감지하기 위한 적어도 하나 이상의 센서를 포함할 수 있다. 예를 들어 감지부(140)는 사용자의 시선을 인식하기 위한 광 센서(optical sensor, 예를 들어, 카메라(120 참조)), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), 관성 센서(inertial sensor), 방위 센서(direction sensor) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 플라잉 봇 제어 장치(100)의 제어부(110)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The
사용자 입력부(160)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(160)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 플라잉 봇(180)의 동작을 제어하기 위한 신호를 플라잉 봇(180)으로 전송할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 전, 후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The
출력부(150)는 시각, 청각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치스크린은, 플라잉 봇 제어 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(160)로써 기능함과 동시에, 플라잉 봇 제어 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The
또한, 메모리(170)는 플라잉 봇 제어 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 플라잉 봇 제어 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 플라잉 봇(180)의 동작을 제어하기 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 출고 당시부터 플라잉 봇 제어 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 플라잉 봇 제어 장치(100) 상에 설치되어, 제어부(180)에 의하여 플라잉 봇(180)의 동작(또는 기능)이 제어되도록 구동될 수 있다.In addition, the
제어부(110)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 플라잉 봇 제어 장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 플라잉 봇(180)을 제어하기 위해 필요한 정보 또는 기능을 제공하며, 사용자의 입력 또는 설정에 따라 플라잉 봇(180)을 제어하기 위한 신호를 전송할 수 있다.In addition to the operations related to the application program, the
예를 들어 제어부(110)는 사용자 입력부(160)를 통한 사용자의 입력에 따라 상기 플라잉 봇(180)의 비행 방향 또는 비행 속도와 고도를 결정할 수 있다. 또한 제어부(110)는 플라잉 봇(180)으로부터 수신되는 신호로부터 상기 플라잉 봇(180)의 위치 및 상태를 인식하고, 인식된 결과에 따라 플라잉 봇(180)의 비행을 제어하기 위한 다양한 제어 모드를 사용자에게 제공할 수 있다. For example, the
예를 들어 제어부(110)는, 플라잉 봇(180)의 시점에서 사용자가 플라잉 봇(180)을 제어할 수 있도록 하는 제어 모드(이하 1인칭 제어 모드라고 칭하기로 한다) 또는, 비행 중인 플라잉 봇(180)을 제3자의 관점에서 관측하며 플라잉 봇을 제어할 수 있도록 하는 제어 모드(이하 3인칭 제어 모드라고 칭하기로 한다)를 사용자에게 제공할 수 있다. 또는 제어부(110)는 현재 플라잉 봇(180)의 사용자로부터 지정된 위치에 따라 플라잉 봇(180)의 이동을 제어하는 제어 모드(이하 위치 지정 모드라고 칭하기로 한다)를 사용자에게 제공할 수 있다.For example, the
이러한 경우 제어부(110)는 상기 다양한 제어 모드 중, 사용자에 의해 선택 또는 자동으로 설정된 어느 하나에 따라, 사용자가 상기 플라잉 봇(180)을 제어하기 위한 다양한 정보를 상기 출력부(150)를 통해 표시할 수 있다. 예를 들어 제어부(110)는 플라잉 봇(180)의 제어 모드가 ‘1인칭 제어 모드’인 경우, 상기 플라잉 봇(180)에 구비된 카메라로부터 수신되는 영상을 디스플레이부(151) 상에 표시할 수 있으며, ‘3인칭 제어 모드’인 경우, 상기 플라잉 봇(180)의 고도 및 상기 플라잉 봇(180)에서 감지되는 기상 환경(예를 들어 풍속 등)등에 대한 정보를 상기 디스플레이부(151) 또는 음향 출력부(150) 중 적어도 하나를 통해 표시할 수 있다. 또는 제어부(110)는 플라잉 봇(180)의 제어 모드가 ‘위치 지정 모드’인 경우, 상기 플라잉 봇(180)의 현재 위치를 상기 디스플레이부(151) 상에 표시할 수 있다. 그리고 제어부(110)는 이러한 제어 모드들 중 어느 하나에 따른 사용자의 입력에 따라 상기 플라잉 봇(180)의 이동 및 비행 상태를 제어할 수 있다. In this case, the
한편 전원공급부(도시되지 않음)는 제어부(110)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 플라잉 봇(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.Under the control of the
한편 플라잉 봇(180)은 봇 카메라(183), 봇 통신부(184), 봇 센싱부(186), 비행 구동부(185)를 포함할 수 있다. 도 1에 도시된 구성요소들은 플라잉 봇(180)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 플라잉 봇(180)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. Meanwhile, the flying
보다 구체적으로, 상기 구성요소들 중, 상기 봇 카메라(183)는 영상 신호를 입력받을 수 있다. 봇 카메라(183)는 CCD, CMOS 등의 카메라 센서를 포함할 수 있으며, 봇 제어부(182)의 제어에 따라 상기 카메라 센서에 감지되는 영상을 촬영할 수 있다. More specifically, among the components, the
봇 센싱부(186)는 플라잉 봇(180) 주변을 둘러싼 환경을 감지하기 위한 적어도 하나의 센서를 포함할 수 있다. 예를 들어 봇 센싱부(186)는 근접 센서proximity sensor), 조도 센서(illumination sensor), 가속도 센서, 자기 센서, 중력 센서, 자이로스코프 센서, 관성 센서, 모션 센서, 적외선 센서, 초음파 센서, 방위 센서 중 적어도 하나의 센서를 포함할 수 있다. 또한 환경 센서(예를 들어, 기압계, 습도계, 온도계, 풍속계 등)등을 더 포함할 수 있다. 이러한 센서들 중 대표적인 센서들에 설명하면 다음과 같다. The
먼저 근접 센서는 플라잉 봇(180)의 주변 일정 거리 이내에 다른 물체가 있는지 없는지 여부를 검출할 수 있다. 예를 근접 센서는, 레이저 또는 초음파나 적외선 등을 이용하여 플라잉 봇(180)에 접근하는 물체 또는 근방에 존재하는 물체를 검출할 수 있다. First, the proximity sensor can detect whether or not there is another object within a certain distance of the vicinity of the flying
또한 자이로 센서와 방위 센서, 및 관성 센서는 플라잉 봇(180)의 회전 시, 회전 방향을 감지하고 플라잉 봇(180)이 향하고 있는 방향을 감지할 수 있다. 또한 모션 센서는 플라잉 봇(180)의 현재 비행 상태나 기울어진 상태(틸트(tilt)) 상태 및 회전이나 이동 상태등을 감지할 수 있으며, 가속도 센서는 플라잉 봇의 비행 속도를, 상기 중력 센서나 자기 센서는 현재 플라잉 봇(180)의 고도 등을 감지할 수 있다. 또한 환경 센서는 상기 플라잉 봇(180) 주변의 기압, 습도, 온도, 풍속 등 다양한 기상 상황을 감지할 수 있다. In addition, the gyro sensor, the orientation sensor, and the inertial sensor sense the direction of rotation when the flying
봇 통신부(184)는, 기 설정된 주파수 대역의 무선 신호를 이용하여 상기 플라잉 봇 제어 장치(100)와 통신을 수행하기 위한 적어도 하나의 통신 모듈을 포함할 수 있다. 봇 통신부(184)는 상기 플라잉 봇 제어 장치(100)로부터 수신된 신호를 봇 제어부(182)에 입력하거나, 상기 봇 제어부(182)의 제어에 따라 상기 봇 카메라(183)에서 감지되는 영상 및 봇 센싱부(186)에서 감지되는 감지값들을 플라잉 봇 제어 장치(100)로 전송할 수 있다. The
또한 봇 통신부(184)는 플라잉 봇 제어 장치(100) 위치를 획득하기 위한 모듈을 더 포함할 수 있다. 이러한 플라잉 봇(180)의 위치 정보를 획득하기 위한 모듈로서 GPS 모듈이 있을 수 있다. 예를 들어, 플라잉 봇(180)은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 플라잉 봇(180)의 위치를 획득할 수 있다. 그리고 획득된 플라잉 봇(180)의 위치 정보는 상기 봇 통신부(184)를 통해 플라잉 봇 제어 장치(100)로 전송될 수 있다. In addition, the
비행 구동부(185)는 봇 제어부(182)의 제어에 따라 플라잉 봇(180)의 비행을 가능하게 한다. 비행 구동부(185)는 봇 제어부(182)의 제어에 따른 방향으로 상기 플라잉 봇(180)이 비행하도록 할 수 있으며, 또한 봇 제어부(182)의 제어에 따른 고도에 플라잉 봇(180)이 비행할 수 있도록 한다. The
봇 제어부(182)는 플라잉 봇(180)의 전반적인 동작을 제어한다. 봇 제어부(182)는 봇 통신부(184)를 통해 수신되는 제어 신호에 따른 고도 및 방향으로 상기 플라잉 봇(180)이 비행할 수 있도록 상기 비행 구동부(185)를 제어한다. 예를 들어 봇 제어부(182)는 플라잉 봇 제어 장치(100)에서 수신되는 제어 신호에 따라 플라잉 봇(180)의 이동 방향 및 회전 방향을, 상기 플라잉 봇 제어 장치(100)의 사용자 입력부(160)에 동기화하고, 상기 플라잉 봇 제어 장치(100)의 사용자 입력부(160)를 통해 입력되는 제어 신호에 따라 상기 플라잉 봇(180)이 비행할 수 있도록 한다. The
또한 플라잉 봇 제어 장치(100)로부터 요구되는 각종 신호들을 플라잉 봇 제어 장치(100)에 전송할 수 있다. 이처럼 플라잉 봇 제어 장치(100)로 전송되는 신호들은 상기 봇 센싱부(186)의 센서들 중 적어도 하나로부터 감지되는 감지값일 수 있으며, 상기 봇 카메라(183)에서 촬영된 영상일 수도 있다. 또한 상기 전송되는 신호들은 상기 봇 통신부(184)로부터 획득된 플라잉 봇(180)의 위치 정보일 수도 있다. Also, various signals required from the flying
한편 도 2a, 도 2b, 및 도 2c는 이러한 본 발명의 실시 예에 따른 플라잉 봇(180) 및 상기 플라잉 봇(180)을 제어할 수 있는 제어 장치(100)의 예를 보이고 있는 것이다. 2A, 2B, and 2C illustrate an example of a
우선 도 2a를 참조하여 살펴보면, 도 2a는 본 발명의 실시 예에 따른 플라잉 봇(180)의 예를 보이고 있는 것이다. Referring first to FIG. 2A, FIG. 2A shows an example of a flying
도 2a를 참조하여 살펴보면, 본 발명의 실시 예에 따른 플라잉 봇(180)은 적어도 하나의 회전익(185a, 185b, 185c, 185d)과, 봇 카메라(183)를 포함하여 구성될 수 있다. 플라잉 봇(180)의 봇 제어부(182)는 이러한 회전익들(185a, 185b, 185c, 185d)의 구동을 플라잉 봇 제어 장치(100)에서 수신되는 제어 신호에 따라 각각 제어하여, 비행 상태에 있는 플라잉 봇(180)의 방향을 회전시키거나 이동되도록 할 수 있으며, 또는 일정 각도 이상 기울어진 상태(틸트 상태)로 비행하도록 할 수도 있다. Referring to FIG. 2A, the flying
또한 봇 제어부(182)는 구비된 다양한 센서들과, 봇 카메라(183)를 이용하여 주변 환경에 대한 다양한 감지값과, 상기 봇 카메라(183)를 통해 영상을 촬영할 수 있다. 여기서 상기 봇 카메라(183)는 적어도 두 개 이상 구비될 수 있으며, 이러한 경우 상기 봇 제어부(182)는 적어도 두 개의 방향에서 수신되는 영상을 동시에 촬영할 수 있다. 또한 이처럼 봇 카메라(183)가 적어도 두 개인 경우, 봇 제어부(182)는 적어도 두 개의 봇 카메라(183)들 중 어느 하나를 주 카메라(main camera)로 결정할 수 있으며, 상기 주 카메라로 지정된 봇 카메라(183)가 향하는 방향에 따라 상기 플라잉 봇(180)이 이동하는 방향을 결정할 수도 있다. Further, the
한편 상기 도 2a에서는 회전익이 4개인 경우를 예로 들어 보이고 있으나, 본 발명이 적용가능한 플라잉 봇(180)은 회전익이 4개보다 적거나 많은 경우는 물론, 회전익 방식을 사용하지 않는 방식, 예를 들어 제트 추진 방식을 이용하는 것일 수도 있음은 물론이다. 2A, the number of the rotor blades is four. However, the number of the
한편, 도 2b 및 도 2c는 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 구현된 다양한 예를 보이고 있는 것이다. Meanwhile, FIGS. 2B and 2C show various examples in which the flying
우선 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)의 예를 보이고 있는 도 2b를 참조하여 살펴보면, 본 발명의 일 실시 예에 따른 플라잉 봇 제어 장치(100)는 디스플레이부(151) 및 카메라, 그리고 사용자로부터 플라잉 봇(180)을 제어하기 위한 신호를 입력받을 수 있는 적어도 하나의 사용자 입력부의 키들(160a, 160b, 160c)을 포함할 수 있다. 여기서 상기 키들(160a, 160b, 160c)은 각각 플라잉 봇(180)의 이동 방향을 제어하기 위한 이동키(160a), 플라잉 봇(180)의 틸트 상태나 회전 상태를 제어하기 위한 회전키(160b) 및, 플라잉 봇(180)의 고도를 제어하기 위한 고도키(160c)를 포함하여 구성될 수 있다. 한편 도 2b에서 보이고 있는 키들(160a, 160b, 160c)에 본 발명이 한정되는 것이 아님은 물론이며, 얼마든지 도 2b에서 보이고 있는 것보다 더 많은 키나 더 적은 키를 포함하여 구성될 수도 있음은 물론이다. Referring to FIG. 2B showing an example of a flying
한편 제어부(110)는 디스플레이부(151)를 통해, 플라잉 봇(180)의 제어를 위한 다양한 화상 정보들을 디스플레이부(151) 상에 표시할 수 있다. 예를 들어 제어부(110)는 플라잉 봇(180)의 봇 카메라(183)에서 촬영되는 영상 및, 플라잉 봇(180)의 각종 센서로부터 감지되는 감지값들, 예를 들어 고도(altitude(ALT) : 170a) 및 풍속(wind : 170b) 등을 상기 디스플레이부(151) 상에 표시할 수 있다. 또한 제어부(110)는 사용자의 시선을 인식하고, 사용자의 시선이 인식된 시간에 근거하여 상기 플라잉 봇(180)의 비행 제어 모드를 변경할 수 있다. 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 사용자의 시선을 감지하기 위해 다양한 수단을 이용할 수 있다. 예를 들어 플라잉 봇 제어 장치(100)는 카메라(120)를 상기 사용자의 시선을 인식하기 위한 수단으로 이용할 수 있으며, 제어부(110)는 카메라(120)를 통해 수신되는 영상으로부터 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)를 응시하는 사용자의 시선 및 상기 사용자의 시선이 플라잉 봇 제어 장치(100)을 응시한 시간을 감지할 수 있다. Meanwhile, the
예를 들어, 제어부(110)는 사용자의 시선 인식 결과 또는 플라잉 봇(180)의 위치나 상태로부터 결정되는 플라잉 봇(180)의 비행 제어 모드에 따라 플라잉 봇(180)의 이동 방향 또는 회전 방향등이 결정되도록 할 수 있다. 즉, 제어부(110)는 현재 설정된 비행 제어 모드에 근거하여, 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 상기 이동키(160a)의 입력에 따른 상기 플라잉 봇(180)의 이동 방향 및/또는 회전 방향을 결정할 수 있다. For example, the
한편 도 2b에서 보이고 있는 것과 같이, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 플라잉 봇(180)의 제어를 위해 별도로 고안된 것일 수도 있으나, 스마트 폰과 같은 이동 단말기에 설치되는 애플리케이션 또는 프로그램의 형태로 구현될 수도 있다. 이러한 경우 상기 애플리케이션 또는 프로그램이 구동되면, 상기 스마트 폰은 플라잉 봇(180)을 제어할 수 있는 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)로서 동작할 수 있다. Meanwhile, as shown in FIG. 2B, the flying
도 2c는 이처럼 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 애플리케이션 또는 프로그램의 형태로 구현된 경우, 상기 애플리케이션 또는 프로그램이 구동된 스마트 폰(200)의 예를 보이고 있는 것이다. FIG. 2C shows an example of a
도 2c를 참조하여 살펴보면, 스마트 폰(200)은 본 발명의 실시 예에 따른 플라잉 봇 제어 애플리케이션 또는 프로그램이 실행되면, 스마트 폰(200)의 제어부는 상기 플라잉 봇(180)의 제어를 위한 다양한 화상 정보를 스마트 폰(200)의 디스플레이부(251)를 통해 표시할 수 있다. 예를 들어 스마트 폰(200)의 제어부는 플라잉 봇(180)의 비행 상태를 제어하기 위한 다양한 그래픽 객체들(260a, 260b, 260c)을 디스플레이부(251) 상에 표시할 수 있다. 2C, when a flying robot control application or a program according to an embodiment of the present invention is executed, the control unit of the
이러한 그래픽 객체들은, 각각 플라잉 봇(180)의 이동 방향을 제어하기 위한 이동키(160a)에 대응되는 제1 가상키(260a), 플라잉 봇(180)의 회전 방향 또는 틸트 상태를 제어하기 위한 회전키(160b)에 대응되는 제2 가상키(260b) 및, 플라잉 봇(180)의 고도를 제어하기 위한 고도키(160c)에 대응되는 제3 가상키(260c)가 될 수 있다. 이러한 키들은 본 발명의 이해를 돕기 위한 것일 뿐, 본 발명이 이에 한정되는 것은 아니어서, 스마트 폰(200)의 제어부는 얼마든지 더 많거나 더 적은 플라잉 봇(180)을 제어하기 위한 가상 키들을 상기 디스플레이부(251) 상에 표시할 수 있음은 물론이다. These graphic objects include a first
한편 본 발명의 실시 예에 따른 플라잉 봇 제어 애플리케이션 또는 프로그램이 실행되면, 스마트 폰(200)의 제어부는 스마트 폰(200)의 전면에 구비된 카메라를 이용하여 사용자의 시선을 인식할 수 있으며, 사용자의 시선이 인식된 시간에 근거하여 상기 플라잉 봇(180)의 비행 제어 모드를 변경할 수 있다. Meanwhile, when the Flying BOT control application or the program according to the embodiment of the present invention is executed, the control unit of the
예를 들어, 스마트 폰(200)의 제어부는 사용자의 시선 인식 결과 또는 플라잉 봇(180)의 위치나 상태로부터 결정되는 플라잉 봇(180)의 비행 제어 모드에 따라 플라잉 봇(180)의 이동 방향 또는 회전 방향등이 결정되도록 할 수 있다. 즉, 스마트 폰(200)의 제어부는 현재 설정된 비행 제어 모드에 근거하여, 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 상기 제1 가상키(260a)의 입력에 따른 상기 플라잉 봇(180)의 이동 방향 및/또는 회전 방향을 결정할 수 있다. For example, the control unit of the
그리고 스마트 폰(200)의 제어부(110)는 현재 결정된 비행 제어 방식과 관련된 다양한 화상 정보를 상기 디스플레이부(251) 상에 표시할 수 있다. 예를 들어 스마트 폰(200)의 제어부는, 봇 카메라(183)에서 촬영되는 영상 및, 플라잉 봇(180)의 각종 센서로부터 감지되는 다양한 감지값들을 상기 디스플레이부(251) 상에 표시할 수 있다.The
한편 이상의 설명에서는, 플라잉 봇(180)을 제어하기 위해 별도로 고안된 플라잉 봇 제어 장치(100)와, 본 발명의 실시 예에 따른 플라잉 봇 제어 방법에 따라 플라잉 봇(180)을 제어하기 위한 애플리케이션 또는 프로그램이 구동되는 스마트 폰(200)을 각각 구분하여 설명하였으나, 이하의 설명에서는 설명의 편의상, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 스마트 폰(200)에서 상기 애플리케이션 또는 프로그램이 구동되는 형태임을 가정하여 명하기로 한다. 이러한 경우, 스마트 폰(200)은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 될 수 있으며, 스마트 폰(200)의 제어부, 디스플레이부(251) 및 카메라(220)는, 각각 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)의 제어부(110), 디스플레이부(151), 카메라(120)로 구동될 수 있다. In the above description, the flying
이하에서는 이와 같이 구성된 플라잉 봇 제어 장치(100)에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. Hereinafter, embodiments related to a control method that can be implemented in the flying
이하 본 발명은 플라잉 봇(180)을 제어하기 위한 애플리케이션 또는 프로그램이 구동되는 스마트 폰(200)을 예로들어 사진 촬영 영역의 설정 및 제어하는 동작을 설명하기로 한다. 상기 플라잉 봇은 플라잉 로봇의 약어이다. Hereinafter, an operation for setting and controlling a photographing area will be described with reference to a
본 발명에서 플라잉 봇 제어 장치는 이동 단말기, 스마트폰 및 이동식 플라잉 봇 제어기로 구현될 수 있다. In the present invention, the flying bot controller may be implemented as a mobile terminal, a smart phone, and a mobile flying bot controller.
도 3은 스마트폰을 이용하여 플라잉 봇(180)을 제어하여 촬영 동작을 수행하는 개념을 나타낸 순서도이다. 3 is a flowchart illustrating a concept of performing a photographing operation by controlling the flying
도 3을 참조하여 살펴보면, 본 발명의 실시 예에 따른 스마트폰(200)의 제어부는 플라잉 봇(180)의 구동 시, 초기 설정된 제어 방식에 따라 플라잉 봇(180)의 비행을 제어할 수 있다(S100). 이러한 초기 설정 제어 방식은, 사용자에 의해 미리 결정된 것이거나 또는 플라잉 봇(180) 및 플라잉 봇 제어 장치(100)의 출고시 또는 스마프폰의 애플리케이션에서 미리 정해진 것일 수 있다. 3, the control unit of the
상기 초기 설정된 기본 제어 방식은 3인칭 제어 모드일 수 있다. 여기서 3인칭 제어 모드라는 것은, 사용자가 육안으로 플라잉 봇(180)을 관찰하면서 플라잉 봇(180)의 비행 상태를 제어하는 비행 제어 방식일 수 있다. The initial basic control method may be a third person control mode. Here, the third person control mode may be a flight control method for controlling the flying state of the flying
플라잉 봇(180)이 비행이 시작되면 플라잉 봇(180)의 봇 제어부(182)는 주변의 다양한 상황을 감지한 정보들을 플라잉 봇 제어 장치(100) 또는 스마트폰(200)으로 전송할 수 있다. 여기서 상기 플라잉 봇(180)에서 수신되는 정보들은, 플라잉 봇(180)의 센서들로부터 감지된 감지값 또는 상기 플라잉 봇(180)의 위치 등에 대한 정보를 포함할 수 있다. 이러한 경우 스마트폰(200)의 제어부는 상기 수신된 정보들로부터 플라잉 봇(180)의 위치 및 상태를 판단할 수 있다(S110). When the flying
한편, 제어부는 플라잉 봇(180)의 위치 및 상태 중 적어도 하나에 근거하여 플라잉 봇(180)의 비행 제어 방식을 결정할 수 있다. 또는 상기 카메라를 통해 사용자의 시선이 스마트폰(200)을 응시한 시간을 감지한 결과에 따라 상기 플라잉 봇(180)의 비행 제어 방식을 결정할 수도 있다. Meanwhile, the controller may determine the flight control method of the flying
한편, 제어부는 플라잉 봇(180)의 위치로부터, 플라잉 봇(180)과 스마트폰 (100)) 사이의 이격 거리를 검출할 수 있고, 검출된 이격 거리에 근거하여, 현재 플라잉 봇(180)에 보다 적합한 비행 제어 방식을 결정할 수도 있다. On the other hand, the control unit can detect the separation distance between the flying
상기 플라잉 봇(180)의 비행중에 사용자가 스마트폰(200)을 통해 소정 촬영모드를 선택할 수 있으며(S120), 스마트폰 제어부는 촬영모드에 관련된 제어신호를 플라잉 봇(180)으로 전송한다. 상기 촬영 모드는 셀피모드, 지형 촬영모드, 동영상 촬영모드, 3D촬영모드와 같이 모든 카메라 촬용모드를 포함한다. The user can select a predetermined shooting mode through the
상기 촬영 제어신호에 따라 플라잉 봇(180)의 제어부(182)는 선택된 촬영모드에 따른 비행 제어 방식을 결정한 다음 플라잉 봇(180)의 전방 (front), 후방(rear), 좌측(left) 및, 우측(right) 방향을 결정하여, 해당 방향으로 플라잉 봇(180)을 이동시킨다(S130). 예를 들어, 플라잉 봇(180)의 비행 제어 방식이, "셀피 모드"로 변경된 경우라면, 스마트폰 제어부는 플라잉 봇(180)에서 봇 카메라(183)가 향하는 방향을 '전방'으로 결정하고, 상기 결정된 ‘전방’을 기준으로 ‘후방’, ‘좌측’ 및 ‘우측’을 결정할 수 있다. 또한, 제어부는 변경된 비행 제어 방식에 따라, 플라잉 봇(180)의 이동 방향 및 회전 방향 등을 결정할 수 있다. The
뿐만 아니라 스마트폰 제어부는, 상기 결정된 ‘전방’을 기준으로 상기 플라잉 봇(180)의 회전 상태 및, 틸트 상태가 동기화되도록, 상기 플라잉 봇(180)의 모션이나 관성, 및 회전을 감지하는 센서들, 즉 모션 센서, 관성 센서, 자이로스코프 센서를 제어하기 위한 신호를 플라잉 봇(180)에 전송할 수 있다. 이에 따라 플라잉 봇(180)은 선택된 촬영모드에 따른 비행 제어 방식에 따라 이동 방향 뿐만 아니라, 회전 방향이나 틸트 상태등이 스마트폰내의 사용자 입력부의 키들과 동기화될 수 있다. In addition, the smartphone control unit may include sensors for sensing the motion, inertia, and rotation of the flying
즉, 스마트 폰(200)의 제어부는 현재 설정된 촬영 모드에 근거하여 플라잉 봇(180)의 이동 방향 또는 회전 방향등을 결정할 수 있다. 즉, 스마트 폰(200)의 제어부는 현재 설정된 비행 제어 모드에 근거하여, 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 상기 제1 가상키(260a)의 입력에 따른 상기 플라잉 봇(180)의 이동 방향 및/또는 회전 방향을 결정할 수 있다. That is, the control unit of the
또한, 스마트 폰(200)의 제어부는 플라잉 봇(180)으로부터 전송된 플라잉 봇(180)의 현재 상황에 대한 다양한 정보(예 : 신호세기)들을 근거로 플라잉 봇(180)의 위치를 검출할 수 있다. 그리고, 제어부는 검출된 플라잉 봇(180)의 위치로부터 플라잉 봇(180)과 스마트폰(200) 사이의 이격 거리를 검출할 수 있다. The control unit of the
그리고 스마트 폰(200)의 제어부는 현재 결정된 비행 제어 방식과 관련된 다양한 화상 정보를 상기 디스플레이부(251) 상에 표시할 수 있다. 예를 들어 스마트 폰(200)의 제어부는, 봇 카메라(183)에서 촬영되는 영상 및, 플라잉 봇(180)의 각종 센서로부터 감지되는 다양한 감지값들을 상기 디스플레이부(251) 상에 표시할 수 있다.The control unit of the
따라서, 플라잉 봇(180)이 촬영 모드에 따라 결정된 위치 및 방향으로 이동되면 스마트폰(200)의 제어부에서 전송된 제어신호에 따라 붓 카메라(183)가 동작되어 파시체를 촬영한다(140). 상기 촬영된 피시체 영상은 붓 통신부(184)를 통해 스마트폰(200)으로 전송되어(S150), 도 2c의 스마트폰(200)의 디스플레이부(251)에 표시된다. Accordingly, when the flying
도 4는 본 발명의 실시예에 따른 플라잉 봇의 촬영 제어방법을 나타낸 순서도이다. 4 is a flowchart illustrating a photographing control method of a flying bot according to an embodiment of the present invention.
도 4에 도시된 바와같이, 플라잉 봇(180)은 스마트폰 제어부의 제어에 따라 초기 비행을 수행한다. 이 상태에서 사용자가 스마트폰(200)의 메뉴를 통해 촬영 모드를 선택하면, 플라잉 봇(180)이 상기 선택된 촬영모드에 대응되는 위치로 이동하여, 선택된 촬영모드에 따른 제어신호에 따라 이동하여 피사체를 촬영한다. 상기 촬영된 영상은 스마트폰(200)으로 전송되어 디스플레이부(151)에 표시된다(S200).As shown in FIG. 4, the flying
이때, 스마트폰 제어부는 플라잉 봇(180)으로부터 초기 사진 촬영시의 카메라 포즈(pose)를 메모리에 저장한다. At this time, the smartphone control unit stores the camera pose at the time of the initial photographing from the flying
사용자는 디스플레이부(251)에 표시된 초기 촬영 영상에서 재촬영을 위한 촬영 영역을 선택할 수 있다(S210). 상기 촬영 영역은 사용자가 터치 제스처에 의해 직접 입력하거나, 재촬영 메뉴 선택시 디스플에이부(251에 표시되는 가이드 정보를 이동시켜 설정할 수 있다. The user can select an imaging area for re-imaging in the initial imaging image displayed on the display unit 251 (S210). The photographing area can be set by the user directly by the touch gesture or by moving the guide information displayed on the
일단 재촬영을 위한 촬영 영역이 선택되면, 스마트폰 제어부는 선택영역을 촬영하기 위한 카메라 포즈를 산출한 후(S220), 상기 산출된 카메라 포즈에 대응되는 제어신호를 플라잉 봇(180)로 전송한다(S230).Once the photographing area for re-photographing is selected, the smartphone controller calculates a camera pose for photographing the selected area (S220), and transmits a control signal corresponding to the calculated camera pose to the flying bot 180 (S230).
일 실시예로, 상기 선택영역을 촬영하기 위한 카메라 포즈는 기저장된 카메라 포즈(pose)에 따른 촬영 영상과 기 선택된 촬영 영역을 비교하여 산출할 수 있다. 상기 제어신호는 현재 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 초기 촬영화면과 상기 선택된 촬영 영역을 비교하여, 플라잉 봇(180) 또는 봇 카메라(183)의 이동 방향 및/또는 회전 방향을 포함한다. In one embodiment, the camera pose for photographing the selected region may be calculated by comparing the photographed image according to the stored camera pose with the previously selected photographed region. The control signal compares the initial photographing screen and the selected photographing area with respect to the direction of the current camera or the direction of the
따라서, 플라잉 봇(180)은 스마트폰 제어부에서 전송된 제어신호에 따라 플라잉 봇(180) 또는 봇 카메라(183)를 이동시키거나 회전시켜 사용자가 선택한 촬영 영역을 재촬영한다(S24, S250). 상기 이동은 봇(180)의 전방 (front), 후방(rear), 좌측(left) 및, 우측(right) 방향 중 적어도 일 방향을 포함한다. Accordingly, the flying
도 5는 일반 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이다. 5 is an embodiment of a method of controlling a shooting area of a flying bamboo according to an embodiment of the present invention in a general shooting mode.
도 5를 참조하면, 일반 촬영 모드인 경우, 봇 제어부(182)는 스마트폰(200)의 제어에 따른 위치 및 이동 방향으로 플라잉 봇(180)을 이동 및/또는 회전시킬 수 있으며, 이에 따라 봇 카메라(183)가 향하는 방향 또한 달라지게 된다. 따라서 이동 후에, 상기 봇 카메라(183)는 사용자의 제어에 따라 서로 다른 방향의 이미지를 촬영할 수 있으며, 스마트폰(200)은 상기 촬영된 초기 촬영 이미지를 수신하여 디스플레이부(251) 상에 표시할 수 있다.5, in the case of the general photographing mode, the
사용자는 디스플레이부(251)에 표시된 초기 촬영 이미지를 보고 재촬영을 결정할 수 있다. 이 경우, 사용자는 초기 촬영 이미지상에 터치 제스처(터치 & 드래그)를 입력하여 촬영 영역(50)을 선택하거나, 재촬영 메뉴 선택시 디스플에이부(251에 표시되는 가이드 영역의 사이즈를 조정하여 촬영 영역(50)을 선택할 수 있다. 도 5는 원하는 영역보다 넣은 영역이 촬영된 경우로, 이 경우 상기 촬영 영역(50)은 촬영된 이미지 영역보다 작게 선택된다. 특히, 제어부는 터치 제스처의 모양과 기 저장된 모양(예: 도형)을 비교하여, 유사도에 근거하여 자동으로 상기 입력된 터치 제스처에 해당하는 형태의 촬영 영역(50)을 표시할 수 있다. The user can determine the re-photographing by viewing the initial photographing image displayed on the
본 발명에서 촬영 모드는, 사용자에 의해 직접 선택될 수도 있지만, 기 설정된 조건에 근거하여 자동으로 선택될 수도 있다. 예를 들어 스마트폰 제어부는 플라잉 봇(180)으로부터 수신된 이미지의 분석 결과 또는 위치에 근거하여 촬영 모드를 결정할 수 있다. 일 예로 제어부는 수신된 이미지의 객체 및 배경을 분석하여, 복수의 인물이 포착된 경우에는 일반 촬영 모드로, 단일 인물이 포착된 경우는 셀피 모드 자동 변경할 수 있으며, 플라잉 봇(180)이 높은 고도에 위치하는 경우에는 파노라마 모드 또는 풍경 촬영 모드로 자동 변경할 수 있다. In the present invention, the photographing mode may be directly selected by the user, but may be automatically selected based on predetermined conditions. For example, the smartphone control unit can determine the shooting mode based on the analysis result or position of the image received from the flying
사진 촬영 영역(50)이 선택되면, 스마트폰 제어부는 초기 촬영 이미지에 대한 카메라 포즈(pose)를 근거로 상기 선택된 촬영 영역에 대한 카메라 포즈를 산출하여 플라잉 봇(180)으로 전송한다. When the photographing
봇 제어부(182)는 스마트폰(200)에서 전송된 카메라 포즈에 대응되는 위치 및 방향으로 플라잉 봇(180)을 이동 및/또는 회전시킨 후 봇 카메라(183)를 제어하여 상기 촬영 영역(50)에 대한 재 촬영을 수행하며, 스마트폰(200)은 상기 재촬영된 이미지를 수신하여 디스플레이부(251) 상에 표시한다. The
도 6은 일반 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 다른 실시예이다. 도 6에 도시된 실시예는 초기 촬영 이미지가 사용자가 원하는 영역보다 좁은 영역이 촬영된 경우 재촬영을 수행하는 예이다. 6 is another embodiment of a method of controlling a shooting area of a flying bamboo according to an embodiment of the present invention in a general shooting mode. The embodiment shown in FIG. 6 is an example in which a retake is performed when an area in which an initial photographing image is narrower than an area desired by the user is photographed.
도 6에 도시된 바와같이, 사용자는 초기 촬영 이미지상에 터치 제스처를 입력하여 촬영 영역(50)을 선택한다. 상기 선택된 촬영 영역(50)이 현재 표시된 초기 촬영 이미지의 크기보다 큰 경우, 사용자는 초기 촬영 이미지를 축소한 후 상기 축소된 이미지보다 큰 촬영 영역(50)을 선택할 수 있다. As shown in FIG. 6, the user inputs a touch gesture on the initial shot image to select the
사진 촬영 영역(50)이 선택되면, 도 5에서와 동일하게 스마트폰 제어부는 초기 촬영 이미지에 대한 카메라 포즈(pose)를 근거로 상기 선택된 촬영 영역에 대한 카메라 포즈를 산출하여 플라잉 봇(180)으로 전송한다. 5, the smartphone control unit calculates a camera pose for the selected shooting area on the basis of a camera pose for the initial shot image, and outputs the camera pose to the flying
따라서, 봇 제어부(182)는 스마트폰(200)에서 전송된 카메라 포즈에 대응되는 위치 및 방향으로 플라잉 봇(180)을 이동 및/또는 회전시킨 후 봇 카메라(183)를 제어하여 상기 선택 여역(50)에 대한 재촬영을 수행한다. 상기 재촬영된 이미지는 스마트폰(200)으로 전송되어 디스플레이부(251)에 표시된다. Accordingly, the
도 7a 및 도 7b는 촬영 이미지상에서 촬영 영역을 선택하는 방법을 나타낸 실시예이다. Figs. 7A and 7B show an embodiment showing a method of selecting an image capturing area on a captured image.
전술한 바와같이, 사용자는 초기 촬영된 이미지가 마음에 들지 않을 경우 초기 촬영 이미지상에서 소정 크기의 촬영 영역(50)을 선택(설정)하여 재촬영을 수행할 수 있다. As described above, if the user does not like the initial photographed image, the user can select (set) the photographed
이 경우 상기 촬영 영역(50)은 도 7a에 도시된 바와같이, 최초 표시된 촬영영역(50a)을 드래그하여 확대/축소하거나, 도 7b에 도시된 바와같이, 최초 표시된 촬영영역(50a)은 그대로 둔 상태에서 초기 촬영 이미지를 줌 인/아웃하여 설정할 수 있다. 상기 두 방법 모두 동일한 효과를 갖음은 자명할 것이다. In this case, as shown in FIG. 7A, the photographing
전술한 바와같이, 스마트폰 제어부는 플라잉 봇(180)으로부터 수신된 이미지의 분석 결과 또는 위치에 근거하여 촬영 모드를 자동으로 결정할 수 있다. 일 예로 제어부는 플라잉 봇(180)이 높은 고도에 위치할 때 촬영 명령이 입력되면 자율 촬영모드로 자동 변경하여, 플라잉 봇(180)으로 자율 촬영을 위한 제어신호를 전송한다. As described above, the smartphone control unit can automatically determine the shooting mode based on the analysis result or position of the image received from the flying
도 8은 자율 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이다. FIG. 8 is an embodiment of a method of controlling an imaging area of a flying robot according to an embodiment of the present invention in an autonomous imaging mode.
도 8을 참조하면, 플라잉 봇(180)은 봇 카메라(183)를 제어하여 높은 고도에서 초기 사진을 촬영하여 스마트폰(200)으로 전송하고, 스마트폰 제어부는 전송된 초기 촬영 이미지를 디스플레이부(251)에 표시함과 함께 메모리에 초기 촬영 이미지에 대한 카메라 포즈를 저정한다. 8, the flying
초기 촬영 이미지 확인 결과 원하는 공간보다 더 넓은 영역이 촬영된 경우, 사용자는 소정 영역을 드래그하여 작은 크기의 촬영 영역(50)을 선택할 수 있다. 상기 선택된 촬영 영역(50)은 손가락이 드래그된 궤적을 따라 설정되며, 후속 터치 드래그 입력에 따라 크기 및 모양이 조정될 수 있다. If an area larger than the desired space is photographed as a result of checking the initial photographed image, the user can select a photographed
촬영 영역(50)이 선택되면 스마트폰 제어부는 상기 선택된 촬영 영역(50)에 대한 위치정보를 산출하여 플라잉 봇(180)으로 전송하고, 플라잉 봇(180)은 상기 위치정보에 따라 촬영 영역(50)을 자율 비행하면서 복수의 사진을 촬영하며, 상기 촬영된 복수의 이미지는 스마트폰의 디스플레이부(251)에 표시된다. When the photographing
도 9는 자율 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 다른 실시예이다. 9 is another embodiment of a method of controlling an imaging area of a flying robot according to an embodiment of the present invention in an autonomous imaging mode.
도 9에 도시된 바와같이, 플라잉 봇(180)은 봇 카메라(183)를 제어하여 높은 고도에서 초기 사진을 촬영하여 스마트폰(200)으로 전송하고, 스마트폰 제어부는 전송된 초기 촬영 이미지를 디스플레이부(251)에 표시함과 함께 메모리에 초기 촬영 이미지에 대한 카메라 포즈를 저정한다. 9, the flying
초기 촬영 이미지 확인 결과 원하는 공간보다 더 좁은 영역이 촬영된 경우, 사용자는 소정 영역을 드래그하여 큰 크기의 촬영 영역(50)을 선택할 수 있다. 이때, 사용자는 초기 촬영 이미지를 축소한 후 촬영 영역(50)을 설정할 수 있다. 상기 촬영 영역(50)은 손가락이 드래그된 모양으로 설정되며, 후속 터치 드래그 입력에 따라 크기 및 모양이 조정될 수 있다. 즉 규칙적인 형태의 도형이나 불규칙적인 곡면 형태로 설정될 수 있다. If a region narrower than the desired space is photographed as a result of checking the initial photographed image, the user can select a photographed
촬영 영역(50)이 선택되면 스마트폰 제어부는 상기 선택된 촬영 영역(50)에 대한 위치정보를 산출하여 플라잉 봇(180)으로 전송하고, 플라잉 봇(180)은 상기 위치정보에 따라 촬영 영역(50)을 자율 비행하면서 복수의 사진을 촬영하며, 상기 촬영된 복수의 이미지는 스마트폰의 디스플레이부(251)에 표시된다. When the photographing
도 10은 동영상 및 연속 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이다.10 is a view illustrating an embodiment of a method of controlling a shooting area of a flying robot according to an embodiment of the present invention in a moving picture and continuous shooting mode.
도 10을 참조하면, 동영상 및 연속 촬영 모드에서 사용자는 플라잉 봇(180)은 봇 카메라(183)에서 촬영된 이미지에서 촬영 영역(50)을 지정할 수 있다. 촬영 영역(50)이 지정되면, 스마트폰 제어부는 플라잉 봇(180)을 촬영 영역(50)내의 객체의 주위로 회전시키면서, 다양한 각도에서 상기 객체의 동영상을 촬영한다. 이때, 스마트폰 제어부는 촬영 영역(50)내에서 객체의 특징점을 추출하여 플라잉 봇(180)을 제어하고, 새로운 객체의 특징점을 추출할 수 있도록 플라잉 봇(180)을 화전시킨다. Referring to FIG. 10, in the moving image and continuous shooting mode, the user can designate the
한편 본 발명에서 봇 카메라(183)는 적어도 두 개 이상 구비될 수 있으며, 이러한 경우 상기 봇 제어부(182)는 적어도 두 방향에서 영상을 동시에 촬영할 수 있다. 또한, 봇 카메라(183)가 적어도 두 개인 경우, 봇 제어부(182)는 적어도 두 개의 봇 카메라(183)들 중 어느 하나를 주 카메라(main camera)로 결정할 수 있으며, 상기 주 카메라로 지정된 봇 카메라(183)가 향하는 방향에 따라 상기 플라잉 봇(180)이 이동하는 방향을 결정할 수도 있다. 상기 붓 카메라(183)는 Depth카메라 또는 3D 스캔 카메라를 포함할 수 있다. In the present invention, at least two or
도 11은 3D 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이고, 도 12는 스캔모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이다.FIG. 11 shows an embodiment of a method of controlling an imaging area of a flying robot according to an embodiment of the present invention in a 3D imaging mode, FIG. 12 is a flowchart illustrating a method of controlling an imaging area of a flying robot according to an embodiment of the present invention in a scan mode Yes.
도 11에 도시된 바와같이, 초기 촬영 이미지가 디스플레이부(251)에 표시된 상태에서 사용자가 직육면체 또는 구 형태의 3차원 촬영 영역(60)을 설정한다. 3차원 촬영 영역(60)이 설정되면, 스마트폰 제어부는 3차원 촬영 영역(60)을 기준으로 소정거리 이격되어 회전하도록 플라잉 봇(180)을 제어함으로써 플라잉 봇(180)에 장착된 Depth카메라를 통해 3차원 이미지를 촬영한다. 11, the user sets a rectangular parallelepiped or spherical three-dimensional photographing
또한 다른 실시예로, 도 12에 도시된 바와같이, 3D스캔모드에서 스캔 영역(70)을 설정되면, 스마트폰 제어부는 스캔 영역(60)내의 객체를 기준으로 소정거리 이격되어 회전하도록 플라잉 봇(180)을 제어함으로써 플라잉 봇(180)에 장착된 D 스캔 카메라를 통해 3차원 스캔 이미지를 촬영한다. 이때, 스마트폰 제어부는 스캔 영역의 각 복셀(Voxel)별 스캔 데이타가 부족한 부분을 감지하여 추가 스캔하도록 제어할 수 있다. 12, when the
본 발명은 설명의 편의를 위하여 스마트폰(200)을 예로들어 플라잉 봇(180)의 봇 카메라(183)의 촬영 동작을 제어하는 예를 설명하였으나, 이에 한정되지 않고, 플라잉 봇 제어 장치(100)를 적용할 경우에도 동일하게 적용된다. The present invention is not limited to this example. For example, the flying
상술한 바와같이 본 발명은 플라잉 봇을 이용하여 근접 및 원격 촬영을 수행할 때 사진 촬영 영역을 직관적으로 설정함으로써 사용자가 일일이 플라잉 봇을 조작하지 않고도 편리하게 원하는 영역만 선택적으로 촬영할 수 있는 장점이 있다. As described above, the present invention is advantageous in that a photographing area is intuitively set when performing a close-up and a remote photographing using a flying robot, so that a user can selectively photograph only a desired area conveniently without operating a flying bot .
그리고, 본 발명은 다양한 촬영 모드에 따라 플라잉 봇의 위치 및 회전방향을 제어하여 촬영을 수행함으로써 일반 촬영뿐만 아니라 특수 촬영(동영상, 연속촬영, 3D촬영 3D스캔)을 보다 쉽고 편리하게 수행할 수 있는 장점이 있다. In addition, the present invention can perform special shooting (moving picture, continuous shooting, 3D scanning, 3D scanning) as well as general shooting by performing the shooting by controlling the position and the rotational direction of the flying bats according to various shooting modes There are advantages.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). Also, the computer may include a
50, 50a : 촬영 영역
60 : 3차원 촬영 영역
70 : 스캔 영역
100 : 플라잉 봇 제어 장치
180; 플라잉 봇
182 : 봇 제어부
183 : 봇 카메라
200 : 스마트폰
251 : 디스플레이부
50, 50a: photographing area 60: three-dimensional photographing area
70: Scan area 100: Flying bot controller
180; Flying bot 182:
183: Bot camera 200: Smartphone
251:
Claims (19)
상기 플라잉 봇의 카메라에서 촬영된 이미지를 디스플레이부에 표시하고, 상기 디스플레이부에 표시된 촬영 이미지상에서 사용자가 설정한 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 촬영 영역을 재촬영하는 플라잉 봇 제어장치;를 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. A flying boat equipped with at least one camera; And
And a control unit for controlling the movement and rotation of the flying bots according to the shooting area set by the user on the shooting image displayed on the display unit, And a controller for controlling the shooting of the flying bot.
사용자가 터치 제스처에 의해 입력력된 영역 또는 재촬영 메뉴 선택시 자동으로 표시되는 가이드 정보인 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. 2. The apparatus according to claim 1,
Wherein the guide information is automatically displayed in a region input by a user with a touch gesture or when a resampling menu is selected.
초기 촬영된 이미지보다 작게 설정되거나 크게 설정되며,
상기 촬영 영역은 규칙적인 도형 형태 또는 불규칙 곡면 형태로 설정되는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. 2. The apparatus according to claim 1,
Is set to be smaller or larger than that of the initially photographed image,
Wherein the photographing area is set to a regular figure shape or an irregular curved shape.
직육면체 또는 구 형태의 3차원 촬영 영역을 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. 2. The apparatus according to claim 1,
And a three-dimensional imaging area of a rectangular parallelepiped or spherical shape.
촬영 모드에 근거하여 플라잉 봇의 이동 방향 또는 회전 방향을 결정하여 제어하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. The method according to claim 1,
Wherein the control unit determines and controls the moving direction or the rotating direction of the flying robot based on the shooting mode.
이동 단말기, 스마트폰 및 플라잉 봇 제어기 중 하나인 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. The method according to claim 1,
The mobile terminal, the smart phone, and the flying bot controller.
플라잉 봇의 카메라에서 촬영된 초기 촬영 이미지에 대한 카메라 포즈를 저장하고, 상기 저장된 초기 촬영 이미지에 대한 카메라 포즈를 이용하여 상기 선택된 촬영 영역에 대한 카메라 포즈를 산출하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. The method according to claim 1,
Wherein the camera pose for the initial shot image captured by the camera of the flying bot is stored and the camera pose for the selected shot area is calculated using the camera pose for the stored initial shot image, Device.
플라잉 봇 제어장치에서 전송된 카메라 포즈에 대응되는 위치 및 방향으로 이동 및/또는 회전되어 카메라를 이용하여 상기 설정된 촬영 영역에 대한 재촬영을 수행하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. 8. The method according to claim 7,
Wherein the control unit moves and / or rotates in a position and direction corresponding to the camera pose transmitted from the flying bot control unit, and re-captures the set shooting area using the camera.
플라잉 봇으로부터 수신된 초기 촬영 이미지의 분석 결과 또는 거리에 근거하여 촬영 모드를 자동으로 결정하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. The method according to claim 1,
And automatically determines the shooting mode based on the result of analysis or the distance of the initial shot image received from the flying robot.
플라잉 봇의 현재 고도 및, 플라잉 봇으로부터 감지되는 기상 상황을 더 감지한 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 변경하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. The method according to claim 1,
Wherein the flying control system changes the flying control method of the flying bot based on a result of further sensing a current altitude of the flying bot and a weather condition sensed by the flying bot.
일반 촬영모드, 자율 촬영 모드, 동영상 및 연속 촬영 모드, 3D 촬영모드 및 스캔모드중 하나이며, 상기 동영상 및 연속 촬영 모드, 3D 촬영모드 및 스캔모드에서 플라잉 봇은 촬영 영역 또는 촬영 대상을 화전하면서 촬영하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치. 6. The method according to claim 5,
The continuous shooting mode, the normal shooting mode, the autonomous shooting mode, the moving picture and continuous shooting mode, the 3D shooting mode, and the scan mode. In the moving picture and continuous shooting mode, 3D shooting mode and scan mode, Wherein the controller is configured to control the shooting controller.
플라잉 봇에 장착된 카메라를 제어하여 초기 촬영을 수행하고, 플라잉 봇으로부터 초기 촬영 이미지를 수신하여 디스플레이부에 표시하는 단계;
상기 디스플레이부에 표시된 초기 촬영 이미지상에서 사용자가 설정한 촬영 영역을 감지하는 단계; 및
상기 설정된 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 설정된 촬영 영역을 재촬영하는 단계;를 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.Determining a moving direction or a rotating direction of the flying bot according to the shooting mode and moving the flying boat;
Performing an initial photographing by controlling a camera mounted on the flying bot, receiving an initial photographing image from the flying bot, and displaying the initial photographing image on the display unit;
Sensing an imaging area set by a user on an initial imaging image displayed on the display unit; And
And controlling the movement and rotation of the flying robot according to the set shooting area to re-photograph the set shooting area.
사용자가 터치 제스처에 의해 입력력된 영역 또는 재촬영 메뉴 선택시 자동으로 표시되는 가이드 정보인 것을 특징으로 하는 플라잉 봇의 촬영 제어방법. 13. The apparatus according to claim 12,
Wherein the guide information is automatically displayed in a region input by a user with a touch gesture or when a resampling menu is selected.
초기 촬영된 이미지보다 작게 설정되거나 크게 설정되며,
상기 촬영 영역은 규칙적인 도형 형태 또는 불규칙 곡면 형태로 설정되는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법. 13. The apparatus according to claim 12,
Is set to be smaller or larger than that of the initially photographed image,
Wherein the shooting region is set to a regular graphic form or an irregular curved surface form.
직육면체 또는 구 형태의 3차원 촬영 영역을 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법. 13. The apparatus according to claim 12,
And a three-dimensional photographing area of a rectangular parallelepiped or spherical shape.
상기 재촬영하는 단계에서 상기 저장된 초기 촬영 이미지에 대한 카메라 포즈를 이용하여 상기 선택된 촬영 영역에 대한 카메라 포즈를 산출하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법. 13. The method of claim 12, further comprising storing a camera pose for an initial shot image taken by a camera of the flying bot,
Wherein the camera pose for the selected shooting area is calculated using the camera pose for the stored initial shot image in the re-shooting step.
플라잉 봇 제어장치에서 전송된 카메라 포즈에 대응되는 위치 및 방향으로 이동 및/또는 회전되어 카메라를 이용하여 상기 설정된 촬영 영역에 대한 재촬영을 수행하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.17. The method of claim 16, wherein the flying bot
Moving and / or rotating the camera in a position and direction corresponding to the camera pose transmitted from the flying bot control device, and re-capturing the set shooting area using the camera.
일반 촬영모드, 자율 촬영 모드, 동영상 및 연속 촬영 모드, 3D 촬영모드 및 스캔모드중 하나이며,
상기 동영상 및 연속 촬영 모드, 3D 촬영모드 및 스캔모드에서 플라잉 봇은 촬영 영역 또는 촬영 대상을 화전하면서 촬영하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법. 13. The method according to claim 12,
A normal shooting mode, an autonomous shooting mode, a moving picture and continuous shooting mode, a 3D shooting mode, and a scan mode,
Wherein in the moving image and continuous shooting mode, the 3D shooting mode, and the scan mode, the flying bot captures an image of a shooting area or an object to be shot.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150114035A KR20170019777A (en) | 2015-08-12 | 2015-08-12 | Apparatus and method for controling capturing operation of flying bot |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150114035A KR20170019777A (en) | 2015-08-12 | 2015-08-12 | Apparatus and method for controling capturing operation of flying bot |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20170019777A true KR20170019777A (en) | 2017-02-22 |
Family
ID=58314669
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150114035A Withdrawn KR20170019777A (en) | 2015-08-12 | 2015-08-12 | Apparatus and method for controling capturing operation of flying bot |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20170019777A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102402949B1 (en) * | 2021-07-28 | 2022-05-30 | 주식회사 네스앤텍 | Acquisition method of image information with improved precision |
-
2015
- 2015-08-12 KR KR1020150114035A patent/KR20170019777A/en not_active Withdrawn
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102402949B1 (en) * | 2021-07-28 | 2022-05-30 | 주식회사 네스앤텍 | Acquisition method of image information with improved precision |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11914370B2 (en) | System and method for providing easy-to-use release and auto-positioning for drone applications | |
| US11340606B2 (en) | System and method for controller-free user drone interaction | |
| US11649052B2 (en) | System and method for providing autonomous photography and videography | |
| US11632497B2 (en) | Systems and methods for controlling an image captured by an imaging device | |
| KR102700830B1 (en) | Method and electronic device for controlling unmanned aerial vehicle | |
| US10191487B2 (en) | Control device and control method for flying bot | |
| CN111596649A (en) | Single-hand remote control device for aerial system | |
| CN110119154A (en) | Control method, device and the equipment and aircraft of aircraft | |
| KR20180068411A (en) | Controlling method for operation of unmanned vehicle and electronic device supporting the same | |
| JP2003267295A (en) | Remote control system | |
| CN107205111B (en) | Image pickup apparatus, mobile apparatus, image pickup system, image pickup method, and recording medium | |
| CN110771137A (en) | Time-delay shooting control method and device | |
| JP2018129063A (en) | Method for controlling unmanned aircraft, unmanned aircraft, and system for controlling unmanned aircraft | |
| WO2018112848A1 (en) | Flight control method and apparatus | |
| JP6685742B2 (en) | Operating device, moving device, and control system thereof | |
| JP2017112438A (en) | Imaging system and control method therefor, communication device, mobile imaging device, program | |
| JP6855616B2 (en) | Operating devices, mobile devices, and their control systems | |
| CN113632037B (en) | Control method and device for movable platform | |
| KR20170019777A (en) | Apparatus and method for controling capturing operation of flying bot | |
| KR20180060403A (en) | Control apparatus for drone based on image | |
| CN117678235A (en) | Control method, head-mounted device, system and storage medium for removable platform |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150812 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination |