[go: up one dir, main page]

KR20170019777A - Apparatus and method for controling capturing operation of flying bot - Google Patents

Apparatus and method for controling capturing operation of flying bot Download PDF

Info

Publication number
KR20170019777A
KR20170019777A KR1020150114035A KR20150114035A KR20170019777A KR 20170019777 A KR20170019777 A KR 20170019777A KR 1020150114035 A KR1020150114035 A KR 1020150114035A KR 20150114035 A KR20150114035 A KR 20150114035A KR 20170019777 A KR20170019777 A KR 20170019777A
Authority
KR
South Korea
Prior art keywords
flying
bot
shooting
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020150114035A
Other languages
Korean (ko)
Inventor
김태형
이가민
이은주
김성진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150114035A priority Critical patent/KR20170019777A/en
Publication of KR20170019777A publication Critical patent/KR20170019777A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • H04N5/23216
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/06Aircraft not otherwise provided for having disc- or ring-shaped wings
    • H04N5/225

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 카메라가 장착된 플라잉 봇(Flying Bot)을 이용하여 사용자 선택 영역을 효과적으로 촬영할 수 있는 플라잉 봇의 촬영 제어 장치 및 그 제어방법에 관한 것으로, 적어도 하나 이상의 카메라를 장착한 플라잉 봇(Flying Bot); 및 상기 플라잉 봇의 카메라에서 촬영된 이미지를 디스플레이부에 표시하고, 상기 디스플레이부에 표시된 촬영 이미지상에서 사용자가 설정한 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 촬영 영역을 재촬영하는 플라잉 봇 제어장치;를 포함한다.The present invention relates to a photographing control apparatus and a control method of a flying bot capable of effectively photographing a user-selected region by using a flying boat equipped with a camera, ); And an image picked up by the camera of the flying robot is displayed on the display unit and the moving and rotating of the flying bots is controlled according to the photographing area set by the user on the photographing image displayed on the display unit, And a flying bot controller.

Description

플라잉 봇의 촬영 제어 장치 및 그 제어방법{APPARATUS AND METHOD FOR CONTROLING CAPTURING OPERATION OF FLYING BOT}TECHNICAL FIELD [0001] The present invention relates to an image capture control apparatus and a control method thereof,

본 발명은 카메라가 장착된 플라잉 봇(Flying Bot)을 이용하여 사용자 선택 영역을 효과적으로 촬영할 수 있는 플라잉 봇의 촬영 제어 장치 및 그 제어방법에 관한 것이다. BACKGROUND OF THE INVENTION Field of the Invention [0001] The present invention relates to an imaging control apparatus and a control method thereof for a flying bot capable of effectively photographing a user-selected region by using a flying boat equipped with a camera.

플라잉 봇(Flying Bot)은 "플라이 로봇"의 약자로 조종사 없이 무선전파의 유도에 의하여 조정 가능한 소형 비행체를 의미한다. 상기 플라잉 봇의 일 예로는 "드론"을 들 수 있다. 이러한 플라잉 봇은 현재 기술의 발달로 그 크기가 더욱 소형화 되면서도, 고화질의 카메라 또는 다양한 센서를 장착하여 사용자가 접근하기 어려운 장소 또는 공중에서 수집된 다양한 정보들을 다른 장치(예: 이동 단말기, 스마트폰, 기타 통신 디바이스)와 무선 통신을 통하여 사용자에게 제공할 수 있다. Flying Bot is an abbreviation for "fly robot" and means small aircraft that can be adjusted by induction of radio waves without pilots. One example of the flying bots is a "drones ". These flying bots are equipped with a high-resolution camera or a variety of sensors so that various information collected in a place or in the air that is difficult for the user to access can be transmitted to other devices such as a mobile terminal, Other communication device) through wireless communication.

그런데, 플라잉 봇은 무선전파로 조종되기 때문에 플라잉 봇에 장착된 카메라를 사용자가 수동으로 제어하여 사진 촬영영역을 지정하는 것은 특별한 조정 기술을 요한다. However, since the flying bots are controlled by radio waves, it is necessary for the user to manually control the camera mounted on the flying bots to designate the photographing area by a special adjustment technique.

따라서, 단순한 비행 기능 뿐만 아니라, 플라잉 봇에 추가되는 다양한 기능들을 보다 효율적으로 제어할 수 있도록 하기 위한 플라잉 봇의 제어 장치 및 제어 방법이 현재 활발하게 연구되고 있는 실정이다. Accordingly, a control device and a control method of a flying robot for more efficiently controlling various functions added to a flying robot, as well as a simple flying function, have been studied actively.

따라서, 본 발명의 일 목적은 각종 촬영모드에서 플라잉 봇)에 의한 촬영을 제어할 수 있는 플라잉 봇의 촬영 제어 장치 및 그 방법을 제공하는데 있다. It is therefore an object of the present invention to provide an image pickup control apparatus and method for a flying robot capable of controlling image pickup by a flying robot in various image pickup modes.

본 발명의 다른 목적은 플라잉 봇에 의한 촬영 시 사용자가 사진 촬영 영역을 직관적으로 설정할 수 있는 플라잉 봇의 촬영 제어 장치 및 그 방법을 제공하는데 있다. It is another object of the present invention to provide a photographing control apparatus and method of a flying bot in which a user can intuitively set a photographing area when photographing by a flying bot.

상기와 같은 목적을 달성하기 위하여 본 발명의 실시예에 따른 플라잉 봇의 촬영 제어장치는, 적어도 하나 이상의 카메라를 장착한 플라잉 봇(Flying Bot); 및 상기 플라잉 봇의 카메라에서 촬영된 이미지를 디스플레이부에 표시하고, 상기 디스플레이부에 표시된 촬영 이미지상에서 사용자가 설정한 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 촬영 영역을 재촬영하는 플라잉 봇 제어장치;를 포함한다.According to an aspect of the present invention, there is provided an imaging control apparatus for a flying bot, including: a flying bot equipped with at least one camera; And an image picked up by the camera of the flying robot is displayed on the display unit and the moving and rotating of the flying bots is controlled according to the photographing area set by the user on the photographing image displayed on the display unit, And a flying bot controller.

상기와 같은 목적을 달성하기 위하여 본 발명의 실시예에 따른 플라잉 봇의 촬영 제어방법은, 촬영 모드에 따라 플라잉 봇의 이동 방향 또는 회전 방향을 결정하여 플라잉 봇(Flying Bot)을 이동시키는 단계; 플라잉 봇에 장착된 카메라를 제어하여 초기 촬영을 수행하고, 플라잉 봇으로부터 초기 촬영 이미지를 수신하여 디스플레이부에 표시하는 단계; 상기 디스플레이부에 표시된 초기 촬영 이미지상에서 사용자가 설정한 촬영 영역을 감지하는 단계; 및 상기 설정된 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 설정된 촬영 영역을 재촬영하는 단계;를 포함한다. According to another aspect of the present invention, there is provided an imaging control method for a flying bot, the method comprising: moving a flying boat by determining a moving direction or a rotating direction of the flying bot in accordance with an imaging mode; Performing an initial photographing by controlling a camera mounted on the flying bot, receiving an initial photographing image from the flying bot, and displaying the initial photographing image on the display unit; Sensing an imaging area set by a user on an initial imaging image displayed on the display unit; And controlling the movement and rotation of the flying robot according to the set shooting area to photograph the set shooting area again.

본 발명은 플라잉 봇을 이용하여 근접 및 원격 촬영을 수행할 때 사진 촬영 영역을 직관적으로 설정함으로써 사용자가 일일이 플라잉 봇을 조작하지 않고도 편리하게 원하는 영역만 선택적으로 촬영할 수 있는 장점이 있다. The present invention is advantageous in that a photographing area is intuitively set when a close-up and a remote photographing are performed using a flying bot, so that a user can conveniently photograph only a desired area conveniently without operating a flying bot.

그리고, 본 발명은 다양한 촬영 모드에 따라 플라잉 봇의 위치 및 회전방향을 제어하여 촬영을 수행함으로써 일반 촬영뿐만 아니라 특수 촬영(동영상, 연속촬영, 3D촬영 3D스캔)을 보다 쉽고 편리하게 수행할 수 있는 장점이 있다. In addition, the present invention can perform special shooting (moving picture, continuous shooting, 3D scanning, 3D scanning) as well as general shooting by performing the shooting by controlling the position and the rotational direction of the flying bats according to various shooting modes There are advantages.

도 1은 본 발명의 실시 예에 따른 플라잉 봇의 제어 장치 및 플라잉 봇을 설명하기 위한 블록도.
도 2a, 도 2b 및, 도 2c는 본 발명의 실시 예에 따른 플라잉 봇의 제어 장치 및 플라잉 봇의 예를 도시한 개념도.
도 3은 스마트폰을 이용하여 플라잉 봇(180)을 제어하여 촬영 동작을 수행하는 개념을 나타낸 순서도.
도 4는 본 발명의 실시예에 따른 플라잉 봇의 촬영 제어방법을 나타낸 순서도.
도 5는 일반 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
도 5는 일반 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 다른 실시예.
도 7a 및 도 7b는 촬영 이미지상에서 촬영 영역을 선택하는 방법을 나타낸 실시예.
도 8은 자율 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
도 9는 자율 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 다른 실시예.
도 10은 동영상 및 연속 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
도 11은 3D 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
도 12는 스캔모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram for explaining a controller and a flying bot of a flying robot according to an embodiment of the present invention; FIG.
FIGS. 2A, 2B, and 2C are conceptual diagrams illustrating an example of a controller and a flying bot of a flying bot according to an embodiment of the present invention. FIG.
3 is a flowchart illustrating a concept of performing a photographing operation by controlling a flying bot 180 using a smartphone.
FIG. 4 is a flowchart showing a photographing control method of a flying bot according to an embodiment of the present invention. FIG.
5 is an embodiment of a method of controlling a shooting area of a flying bamboo according to an embodiment of the present invention in a general shooting mode.
5 is another embodiment of the method of controlling the shooting area of the flying bots according to the embodiment of the present invention in the general shooting mode.
FIGS. 7A and 7B illustrate a method of selecting an image capturing area on a captured image. FIG.
8 is an embodiment of a method of controlling a shooting area of a flying bot according to an embodiment of the present invention in an autonomous shooting mode.
9 is a view showing another embodiment of the method of controlling the shooting area of the flying robot according to the embodiment of the present invention in the autonomous shooting mode.
10 is an embodiment of a method of controlling an imaging area of a flying bot according to an embodiment of the present invention in a moving image and continuous shooting mode.
11 is an embodiment of a method for controlling an imaging area of a flying bot according to an embodiment of the present invention in a 3D imaging mode.
12 is an embodiment of a method of controlling an imaging area of a flying bot according to an embodiment of the present invention in a scan mode.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like or similar elements are denoted by the same or similar reference numerals, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

이하의 본 명세서에서는, 플라잉 봇(Flying bot)이 4개의 회전익(rotter)을 가지는 쿼드콥터(quardcopter)임을 가정하여 설명하기로 한다. 그러나 플라잉 봇은, 이처럼 4개의 회전익을 가지는 형태 뿐만 아니라, 2개, 6개 또는 8개의 회전익을 가지는 멀티콥터(Multicopter)일 수 있음은 물론이다. 또한 본 발명은, 이처럼 회전익을 이용하여 비행하는 형태 뿐만 아니라, 회전익을 이용하지 않는 다른 방식, 예를 들어 제트 추진 방식 등을 이용하는 플라잉 봇에도 얼마든지 적용될 수 있음은 물론이다. In the following description, it is assumed that a flying boat is a quadcopter having four rotor rotors. However, it is needless to say that the flying bot may be a multi-copter having two, six, or eight rotor blades as well as four rotor blades. Further, the present invention can be applied not only to the flying type using the rotor blades, but also to the flying bots using other methods that do not use the rotor blades, for example, a jet propulsion type.

우선 도 1을 참조하여 살펴보면, 도 1은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100) 및 플라잉 봇(180)을 설명하기 위한 블록도이다. First, referring to FIG. 1, FIG. 1 is a block diagram for explaining a flying robot control apparatus 100 and a flying bot 180 according to an embodiment of the present invention.

우선 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 카메라(120), 통신부(130), 감지부(140), 출력부(150), 사용자 입력부(160), 제어부(110), 메모리(170) 및 전원 공급부(도시되지 않음) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 플라잉 봇 제어 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 플라잉 봇 제어 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. A control unit 110, a memory 110, a display unit 120, a display unit 140, an output unit 150, a user input unit 160, A power supply unit 170 and a power supply unit (not shown). The components shown in Fig. 1 are not essential for implementing the flying bot control apparatus 100, so that the flying bot control apparatus 100 described in this specification can have more or fewer components than those listed above Elements.

보다 구체적으로, 상기 구성요소들 중 카메라(120)는 영상 신호를 입력받을 수 있다. 카메라(120)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함할 수 있다. More specifically, the camera 120 among the components may receive a video signal. The camera 120 may include at least one of a camera sensor (e.g., CCD, CMOS, etc.), a photo sensor (or an image sensor), and a laser sensor.

카메라(120)와 레이저 센서는 서로 조합되어, 사용자의 시선 또는 사용자의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호에 따라 감지대상의 움직임을 스캐닝할 수 있다. 이에 따라, 포토 센서는 수신된 영상으로부터 사용자의 안면이 향하는 방향 및, 사용자의 시선을 감지할 수 있다. The camera 120 and the laser sensor can be combined with each other to sense a user's gaze or a user's touch. The photosensor may be stacked on a display device. The photosensor may be configured to mount a photo diode and a transistor (TR) on a row / column to scan the movement of the sensing object according to an electrical signal that varies according to the amount of light applied to the photo diode. can do. Accordingly, the photosensor can sense the direction of the user's face from the received image and the user's gaze.

통신부(130)는, 기 설정된 주파수 대역의 무선 신호를 이용하여 상기 플라잉 봇(180)과 직접적으로 통신을 수행하거나, 또는 기 설정된 무선 통신 시스템의 중계기 등을 통해 상기 플라잉 봇(180)과의 무선 통신을 수행할 수 있다. 이를 위해 통신부(130)는 플라잉 봇(180)과 통신을 가능하게 하는 적어도 하나의 통신 모듈을 포함할 수 있다. The communication unit 130 communicates directly with the flying bot 180 using a wireless signal of a predetermined frequency band or wirelessly communicates with the flying bot 180 via a repeater of a predetermined wireless communication system. Communication can be performed. The communication unit 130 may include at least one communication module for communicating with the flying bot 180.

또한 통신부(130)는 플라잉 봇 제어 장치(100) 위치를 획득하기 위한 모듈을 더 포함할 수 있다. 이러한 위치정보 획득 모듈로서 대표적인 예로는 GPS(Global Positioning System) 모듈이 있을 수 있다. 예를 들어, 플라잉 봇 제어 장치(100)는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 플라잉 봇 제어 장치(100)의 위치를 획득할 수 있다.The communication unit 130 may further include a module for acquiring the position of the flying bot controller 100. A typical example of such a location information acquisition module may be a Global Positioning System (GPS) module. For example, using the GPS module, the flying bot control device 100 can acquire the position of the flying controller 100 by using signals transmitted from the GPS satellites.

감지부(140)는 플라잉 봇을 제어하기 위한 다양한 센서 및, 플라잉 봇 제어 장치(100) 주변을 둘러싼 주변 환경을 감지하기 위한 적어도 하나 이상의 센서를 포함할 수 있다. 예를 들어 감지부(140)는 사용자의 시선을 인식하기 위한 광 센서(optical sensor, 예를 들어, 카메라(120 참조)), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), 관성 센서(inertial sensor), 방위 센서(direction sensor) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 플라잉 봇 제어 장치(100)의 제어부(110)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include various sensors for controlling the flying bots and at least one sensor for sensing the surrounding environment around the flying bots controller 100. For example, the sensing unit 140 may include an optical sensor (e.g., a camera 120) for recognizing the user's gaze, a magnetic sensor, a G-sensor, a gyroscope And may include at least one of a gyroscope sensor, a motion sensor, an inertial sensor, and a direction sensor. Meanwhile, the control unit 110 of the flying robot control apparatus 100 disclosed in this specification can combine and utilize information sensed by at least two sensors among these sensors.

사용자 입력부(160)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(160)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 플라잉 봇(180)의 동작을 제어하기 위한 신호를 플라잉 봇(180)으로 전송할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 전, 후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The user input unit 160 is used to receive information from the user. When information is inputted through the user input unit 160, the control unit 180 outputs a signal for controlling the operation of the flying bot 180 so as to correspond to the inputted information. To the flying bot (180). The user input unit 123 may include a mechanical input unit (or a mechanical key such as a button located at the front, rear or side, a dome switch, a jog wheel, a jog switch, etc.) And an expression input means. For example, the touch-type input means may comprise a virtual key, a soft key or a visual key displayed on the touch screen through software processing, And a touch key disposed on the touch panel. Meanwhile, the virtual key or the visual key can be displayed on a touch screen having various forms, for example, a graphic, a text, an icon, a video, As shown in FIG.

출력부(150)는 시각, 청각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치스크린은, 플라잉 봇 제어 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(160)로써 기능함과 동시에, 플라잉 봇 제어 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 generates at least one of a display unit 151 and an audio output unit 152 for generating an output related to time, hearing, and the like. The display unit 151 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. The touch screen functions as a user input unit 160 that provides an input interface between the flying bot control apparatus 100 and a user and can provide an output interface between the flying bot control apparatus 100 and a user .

또한, 메모리(170)는 플라잉 봇 제어 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 플라잉 봇 제어 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 플라잉 봇(180)의 동작을 제어하기 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 출고 당시부터 플라잉 봇 제어 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 플라잉 봇 제어 장치(100) 상에 설치되어, 제어부(180)에 의하여 플라잉 봇(180)의 동작(또는 기능)이 제어되도록 구동될 수 있다.In addition, the memory 170 stores data that supports various functions of the flying bot control device 100. The memory 170 may store a plurality of application programs (application programs or applications) driven by the flying bot controller 100, data for controlling the operation of the flying bot 180, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Also, at least some of these application programs may reside on the flying bot control device 100 from the time of shipment. The application program may be stored in the memory 170 and installed on the flying bot control device 100 so that the operation of the flying bot 180 may be controlled by the control unit 180 .

제어부(110)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 플라잉 봇 제어 장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 플라잉 봇(180)을 제어하기 위해 필요한 정보 또는 기능을 제공하며, 사용자의 입력 또는 설정에 따라 플라잉 봇(180)을 제어하기 위한 신호를 전송할 수 있다.In addition to the operations related to the application program, the control unit 110 typically controls the overall operation of the flying bot control apparatus 100. [ The control unit 180 processes signals, data, information, and the like input or output through the above-described components, or drives an application program stored in the memory 170 to provide information necessary for the user to control the flying bot 180 And may transmit a signal for controlling the flying bot 180 according to a user's input or setting.

예를 들어 제어부(110)는 사용자 입력부(160)를 통한 사용자의 입력에 따라 상기 플라잉 봇(180)의 비행 방향 또는 비행 속도와 고도를 결정할 수 있다. 또한 제어부(110)는 플라잉 봇(180)으로부터 수신되는 신호로부터 상기 플라잉 봇(180)의 위치 및 상태를 인식하고, 인식된 결과에 따라 플라잉 봇(180)의 비행을 제어하기 위한 다양한 제어 모드를 사용자에게 제공할 수 있다. For example, the control unit 110 may determine the flying direction or the flying speed and the altitude of the flying bot 180 according to a user's input through the user input unit 160. The control unit 110 also recognizes the position and the state of the flying robot 180 from signals received from the flying robot 180 and controls various control modes for controlling the flying of the flying robot 180 according to the recognized result Can be provided to the user.

예를 들어 제어부(110)는, 플라잉 봇(180)의 시점에서 사용자가 플라잉 봇(180)을 제어할 수 있도록 하는 제어 모드(이하 1인칭 제어 모드라고 칭하기로 한다) 또는, 비행 중인 플라잉 봇(180)을 제3자의 관점에서 관측하며 플라잉 봇을 제어할 수 있도록 하는 제어 모드(이하 3인칭 제어 모드라고 칭하기로 한다)를 사용자에게 제공할 수 있다. 또는 제어부(110)는 현재 플라잉 봇(180)의 사용자로부터 지정된 위치에 따라 플라잉 봇(180)의 이동을 제어하는 제어 모드(이하 위치 지정 모드라고 칭하기로 한다)를 사용자에게 제공할 수 있다.For example, the control unit 110 may be a control mode (hereinafter referred to as a first-person control mode) for allowing a user to control the flying bot 180 at the time of the flying bot 180, 180) from a third party's viewpoint and control the flying bots (hereinafter, referred to as third-person control mode) to the user. Alternatively, the control unit 110 may provide the user with a control mode (hereinafter referred to as a positioning mode) for controlling the movement of the flying bot 180 according to the position designated by the user of the flying bot 180.

이러한 경우 제어부(110)는 상기 다양한 제어 모드 중, 사용자에 의해 선택 또는 자동으로 설정된 어느 하나에 따라, 사용자가 상기 플라잉 봇(180)을 제어하기 위한 다양한 정보를 상기 출력부(150)를 통해 표시할 수 있다. 예를 들어 제어부(110)는 플라잉 봇(180)의 제어 모드가 ‘1인칭 제어 모드’인 경우, 상기 플라잉 봇(180)에 구비된 카메라로부터 수신되는 영상을 디스플레이부(151) 상에 표시할 수 있으며, ‘3인칭 제어 모드’인 경우, 상기 플라잉 봇(180)의 고도 및 상기 플라잉 봇(180)에서 감지되는 기상 환경(예를 들어 풍속 등)등에 대한 정보를 상기 디스플레이부(151) 또는 음향 출력부(150) 중 적어도 하나를 통해 표시할 수 있다. 또는 제어부(110)는 플라잉 봇(180)의 제어 모드가 ‘위치 지정 모드’인 경우, 상기 플라잉 봇(180)의 현재 위치를 상기 디스플레이부(151) 상에 표시할 수 있다. 그리고 제어부(110)는 이러한 제어 모드들 중 어느 하나에 따른 사용자의 입력에 따라 상기 플라잉 봇(180)의 이동 및 비행 상태를 제어할 수 있다. In this case, the control unit 110 displays various information for controlling the fingertip 180 through the output unit 150 according to any one of the various control modes selected or automatically set by the user can do. For example, when the control mode of the flying bot 180 is 'first person control mode', the control unit 110 displays an image received from the camera provided on the flying bot 180 on the display unit 151 Information about the altitude of the flying robot 180 and the weather environment (for example, wind velocity) sensed by the flying robot 180 may be displayed on the display unit 151 or the ' May be displayed through at least one of the audio output unit 150 and the audio output unit 150. Alternatively, the control unit 110 may display the current position of the flying robot 180 on the display unit 151 when the control mode of the flying robot 180 is the 'positioning mode'. The control unit 110 may control the movement and the flying state of the flying bot 180 according to a user's input according to any of the control modes.

한편 전원공급부(도시되지 않음)는 제어부(110)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 플라잉 봇(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.Under the control of the controller 110, a power supply unit (not shown) receives power from an external power source and supplies power to internal components of the flying bots 100. Such a power supply unit includes a battery, which may be an internal battery or a replaceable battery.

한편 플라잉 봇(180)은 봇 카메라(183), 봇 통신부(184), 봇 센싱부(186), 비행 구동부(185)를 포함할 수 있다. 도 1에 도시된 구성요소들은 플라잉 봇(180)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 플라잉 봇(180)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. Meanwhile, the flying bot 180 may include a bot camera 183, a bot communication unit 184, a bot sensing unit 186, and a flight driving unit 185. 1 are not required to implement the flying bot 180, so that the flying bot 180 described herein may have more or fewer components than those listed above have.

보다 구체적으로, 상기 구성요소들 중, 상기 봇 카메라(183)는 영상 신호를 입력받을 수 있다. 봇 카메라(183)는 CCD, CMOS 등의 카메라 센서를 포함할 수 있으며, 봇 제어부(182)의 제어에 따라 상기 카메라 센서에 감지되는 영상을 촬영할 수 있다. More specifically, among the components, the bot camera 183 can receive a video signal. The bot camera 183 may include a camera sensor such as a CCD or a CMOS, and may capture an image sensed by the camera sensor under the control of the bot controller 182.

봇 센싱부(186)는 플라잉 봇(180) 주변을 둘러싼 환경을 감지하기 위한 적어도 하나의 센서를 포함할 수 있다. 예를 들어 봇 센싱부(186)는 근접 센서proximity sensor), 조도 센서(illumination sensor), 가속도 센서, 자기 센서, 중력 센서, 자이로스코프 센서, 관성 센서, 모션 센서, 적외선 센서, 초음파 센서, 방위 센서 중 적어도 하나의 센서를 포함할 수 있다. 또한 환경 센서(예를 들어, 기압계, 습도계, 온도계, 풍속계 등)등을 더 포함할 수 있다. 이러한 센서들 중 대표적인 센서들에 설명하면 다음과 같다. The bot sensing unit 186 may include at least one sensor for sensing the environment surrounding the flying bot 180. For example, the boss sensing unit 186 may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gravity sensor, a gyroscope sensor, an inertial sensor, a motion sensor, an infrared sensor, And at least one of the sensors. And may further include an environmental sensor (for example, a barometer, a hygrometer, a thermometer, an anemometer, etc.). Representative sensors among these sensors will be described as follows.

먼저 근접 센서는 플라잉 봇(180)의 주변 일정 거리 이내에 다른 물체가 있는지 없는지 여부를 검출할 수 있다. 예를 근접 센서는, 레이저 또는 초음파나 적외선 등을 이용하여 플라잉 봇(180)에 접근하는 물체 또는 근방에 존재하는 물체를 검출할 수 있다. First, the proximity sensor can detect whether or not there is another object within a certain distance of the vicinity of the flying bot 180. For example, the proximity sensor can detect an object approaching or approaching the flying bot 180 by using a laser, an ultrasonic wave, an infrared ray, or the like.

또한 자이로 센서와 방위 센서, 및 관성 센서는 플라잉 봇(180)의 회전 시, 회전 방향을 감지하고 플라잉 봇(180)이 향하고 있는 방향을 감지할 수 있다. 또한 모션 센서는 플라잉 봇(180)의 현재 비행 상태나 기울어진 상태(틸트(tilt)) 상태 및 회전이나 이동 상태등을 감지할 수 있으며, 가속도 센서는 플라잉 봇의 비행 속도를, 상기 중력 센서나 자기 센서는 현재 플라잉 봇(180)의 고도 등을 감지할 수 있다. 또한 환경 센서는 상기 플라잉 봇(180) 주변의 기압, 습도, 온도, 풍속 등 다양한 기상 상황을 감지할 수 있다. In addition, the gyro sensor, the orientation sensor, and the inertial sensor sense the direction of rotation when the flying robot 180 rotates, and sense the direction in which the flying robot 180 is heading. In addition, the motion sensor can detect the current flying state, tilted state (tilt), rotation, or moving state of the flying bot 180, and the acceleration sensor can detect the flying speed of the flying bot 180, The magnetic sensor can sense the altitude and the like of the flying robot 180 at present. In addition, the environmental sensor can detect various weather conditions such as air pressure, humidity, temperature, and wind speed around the flying bats.

봇 통신부(184)는, 기 설정된 주파수 대역의 무선 신호를 이용하여 상기 플라잉 봇 제어 장치(100)와 통신을 수행하기 위한 적어도 하나의 통신 모듈을 포함할 수 있다. 봇 통신부(184)는 상기 플라잉 봇 제어 장치(100)로부터 수신된 신호를 봇 제어부(182)에 입력하거나, 상기 봇 제어부(182)의 제어에 따라 상기 봇 카메라(183)에서 감지되는 영상 및 봇 센싱부(186)에서 감지되는 감지값들을 플라잉 봇 제어 장치(100)로 전송할 수 있다. The bot communication unit 184 may include at least one communication module for performing communication with the flying bot control apparatus 100 using a radio signal of a predetermined frequency band. The bot communication unit 184 inputs a signal received from the flying bot control apparatus 100 to the bot control unit 182 or controls the robot and the bot that are detected by the bot camera 183 under the control of the bot control unit 182. [ The sensed values sensed by the sensing unit 186 may be transmitted to the flying bot controller 100. [

또한 봇 통신부(184)는 플라잉 봇 제어 장치(100) 위치를 획득하기 위한 모듈을 더 포함할 수 있다. 이러한 플라잉 봇(180)의 위치 정보를 획득하기 위한 모듈로서 GPS 모듈이 있을 수 있다. 예를 들어, 플라잉 봇(180)은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 플라잉 봇(180)의 위치를 획득할 수 있다. 그리고 획득된 플라잉 봇(180)의 위치 정보는 상기 봇 통신부(184)를 통해 플라잉 봇 제어 장치(100)로 전송될 수 있다. In addition, the bot communication unit 184 may further include a module for acquiring the position of the flying bot control apparatus 100. There may be a GPS module as a module for acquiring position information of the flying bot 180. For example, using the GPS module, the flying bot 180 can acquire the position of the flying bot 180 using signals transmitted from the GPS satellites. The acquired position information of the flying robot 180 may be transmitted to the flying robot controller 100 through the robot communication unit 184.

비행 구동부(185)는 봇 제어부(182)의 제어에 따라 플라잉 봇(180)의 비행을 가능하게 한다. 비행 구동부(185)는 봇 제어부(182)의 제어에 따른 방향으로 상기 플라잉 봇(180)이 비행하도록 할 수 있으며, 또한 봇 제어부(182)의 제어에 따른 고도에 플라잉 봇(180)이 비행할 수 있도록 한다. The flight driver 185 enables flying of the flying bot 180 under the control of the bot controller 182. The flight driving unit 185 may cause the flying bot 180 to fly in a direction controlled by the bot controller 182 and may also cause the flying bot 180 to fly at an altitude that is controlled by the bot controller 182 .

봇 제어부(182)는 플라잉 봇(180)의 전반적인 동작을 제어한다. 봇 제어부(182)는 봇 통신부(184)를 통해 수신되는 제어 신호에 따른 고도 및 방향으로 상기 플라잉 봇(180)이 비행할 수 있도록 상기 비행 구동부(185)를 제어한다. 예를 들어 봇 제어부(182)는 플라잉 봇 제어 장치(100)에서 수신되는 제어 신호에 따라 플라잉 봇(180)의 이동 방향 및 회전 방향을, 상기 플라잉 봇 제어 장치(100)의 사용자 입력부(160)에 동기화하고, 상기 플라잉 봇 제어 장치(100)의 사용자 입력부(160)를 통해 입력되는 제어 신호에 따라 상기 플라잉 봇(180)이 비행할 수 있도록 한다. The bot controller 182 controls the overall operation of the flying bot 180. The bot controller 182 controls the flight driver 185 so that the flying bot 180 can fly in the altitude and direction according to the control signal received through the bot communicator 184. For example, the bot controller 182 controls the moving direction and the rotating direction of the flying robot 180 according to a control signal received from the flying controller 100, to the user input unit 160 of the flying controller 100, And allows the flying robot 180 to fly according to a control signal input through the user input unit 160 of the flying robot controlling apparatus 100. [

또한 플라잉 봇 제어 장치(100)로부터 요구되는 각종 신호들을 플라잉 봇 제어 장치(100)에 전송할 수 있다. 이처럼 플라잉 봇 제어 장치(100)로 전송되는 신호들은 상기 봇 센싱부(186)의 센서들 중 적어도 하나로부터 감지되는 감지값일 수 있으며, 상기 봇 카메라(183)에서 촬영된 영상일 수도 있다. 또한 상기 전송되는 신호들은 상기 봇 통신부(184)로부터 획득된 플라잉 봇(180)의 위치 정보일 수도 있다. Also, various signals required from the flying bot control device 100 can be transmitted to the flying bot control device 100. The signals transmitted to the flying bot controller 100 may be sensed values sensed from at least one of the sensors of the bot sensor 186 and may be images captured by the bot camera 183. The transmitted signals may be position information of the flying robot 180 obtained from the robot communication unit 184.

한편 도 2a, 도 2b, 및 도 2c는 이러한 본 발명의 실시 예에 따른 플라잉 봇(180) 및 상기 플라잉 봇(180)을 제어할 수 있는 제어 장치(100)의 예를 보이고 있는 것이다. 2A, 2B, and 2C illustrate an example of a controller 100 capable of controlling the flying bats 180 and the flying bats 180 according to the embodiment of the present invention.

우선 도 2a를 참조하여 살펴보면, 도 2a는 본 발명의 실시 예에 따른 플라잉 봇(180)의 예를 보이고 있는 것이다. Referring first to FIG. 2A, FIG. 2A shows an example of a flying bot 180 according to an embodiment of the present invention.

도 2a를 참조하여 살펴보면, 본 발명의 실시 예에 따른 플라잉 봇(180)은 적어도 하나의 회전익(185a, 185b, 185c, 185d)과, 봇 카메라(183)를 포함하여 구성될 수 있다. 플라잉 봇(180)의 봇 제어부(182)는 이러한 회전익들(185a, 185b, 185c, 185d)의 구동을 플라잉 봇 제어 장치(100)에서 수신되는 제어 신호에 따라 각각 제어하여, 비행 상태에 있는 플라잉 봇(180)의 방향을 회전시키거나 이동되도록 할 수 있으며, 또는 일정 각도 이상 기울어진 상태(틸트 상태)로 비행하도록 할 수도 있다. Referring to FIG. 2A, the flying robot 180 may include at least one rotor blade 185a, 185b, 185c, and 185d and a bot camera 183 according to an embodiment of the present invention. The bot controller 182 of the flying bot 180 controls the driving of the rotor blades 185a, 185b, 185c and 185d according to control signals received from the flying controller 100, The direction of the robot 180 may be rotated or moved, or the robot 180 may be tilted over a predetermined angle (tilt state).

또한 봇 제어부(182)는 구비된 다양한 센서들과, 봇 카메라(183)를 이용하여 주변 환경에 대한 다양한 감지값과, 상기 봇 카메라(183)를 통해 영상을 촬영할 수 있다. 여기서 상기 봇 카메라(183)는 적어도 두 개 이상 구비될 수 있으며, 이러한 경우 상기 봇 제어부(182)는 적어도 두 개의 방향에서 수신되는 영상을 동시에 촬영할 수 있다. 또한 이처럼 봇 카메라(183)가 적어도 두 개인 경우, 봇 제어부(182)는 적어도 두 개의 봇 카메라(183)들 중 어느 하나를 주 카메라(main camera)로 결정할 수 있으며, 상기 주 카메라로 지정된 봇 카메라(183)가 향하는 방향에 따라 상기 플라잉 봇(180)이 이동하는 방향을 결정할 수도 있다. Further, the bot controller 182 can capture various sensing values of the surrounding environment and the image through the bot camera 183 using the various sensors and the bot camera 183. At least two or more of the bot cameras 183 may be provided. In this case, the bot controller 182 can simultaneously photograph images received in at least two directions. If there are at least two bot cameras 183, the bot controller 182 can determine any one of the at least two bot cameras 183 as a main camera, The direction in which the flying robot 180 moves may be determined according to the direction in which the flying robot 180 moves.

한편 상기 도 2a에서는 회전익이 4개인 경우를 예로 들어 보이고 있으나, 본 발명이 적용가능한 플라잉 봇(180)은 회전익이 4개보다 적거나 많은 경우는 물론, 회전익 방식을 사용하지 않는 방식, 예를 들어 제트 추진 방식을 이용하는 것일 수도 있음은 물론이다. 2A, the number of the rotor blades is four. However, the number of the rotor blades 180 to which the present invention is applicable is not limited to four or more than four, and the rotor blades may not be used. For example, It is of course possible to use a jet propulsion method.

한편, 도 2b 및 도 2c는 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 구현된 다양한 예를 보이고 있는 것이다. Meanwhile, FIGS. 2B and 2C show various examples in which the flying robot control apparatus 100 according to the embodiment of the present invention is implemented.

우선 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)의 예를 보이고 있는 도 2b를 참조하여 살펴보면, 본 발명의 일 실시 예에 따른 플라잉 봇 제어 장치(100)는 디스플레이부(151) 및 카메라, 그리고 사용자로부터 플라잉 봇(180)을 제어하기 위한 신호를 입력받을 수 있는 적어도 하나의 사용자 입력부의 키들(160a, 160b, 160c)을 포함할 수 있다. 여기서 상기 키들(160a, 160b, 160c)은 각각 플라잉 봇(180)의 이동 방향을 제어하기 위한 이동키(160a), 플라잉 봇(180)의 틸트 상태나 회전 상태를 제어하기 위한 회전키(160b) 및, 플라잉 봇(180)의 고도를 제어하기 위한 고도키(160c)를 포함하여 구성될 수 있다. 한편 도 2b에서 보이고 있는 키들(160a, 160b, 160c)에 본 발명이 한정되는 것이 아님은 물론이며, 얼마든지 도 2b에서 보이고 있는 것보다 더 많은 키나 더 적은 키를 포함하여 구성될 수도 있음은 물론이다. Referring to FIG. 2B showing an example of a flying robot control apparatus 100 according to an embodiment of the present invention, the flying robot control apparatus 100 according to an embodiment of the present invention includes a display unit 151, And at least one user input keys 160a, 160b, 160c capable of receiving a signal for controlling the flying bot 180 from a user. Each of the keys 160a, 160b and 160c includes a movement key 160a for controlling the moving direction of the flying robot 180, a rotation key 160b for controlling the tilting state or the rotating state of the flying robot 180, And an altitude key 160c for controlling the altitude of the flying bot 180. It should be understood that the present invention is not limited to the keys 160a, 160b, and 160c shown in FIG. 2B, and may be configured to include more keys or fewer keys than those shown in FIG. 2B to be.

한편 제어부(110)는 디스플레이부(151)를 통해, 플라잉 봇(180)의 제어를 위한 다양한 화상 정보들을 디스플레이부(151) 상에 표시할 수 있다. 예를 들어 제어부(110)는 플라잉 봇(180)의 봇 카메라(183)에서 촬영되는 영상 및, 플라잉 봇(180)의 각종 센서로부터 감지되는 감지값들, 예를 들어 고도(altitude(ALT) : 170a) 및 풍속(wind : 170b) 등을 상기 디스플레이부(151) 상에 표시할 수 있다. 또한 제어부(110)는 사용자의 시선을 인식하고, 사용자의 시선이 인식된 시간에 근거하여 상기 플라잉 봇(180)의 비행 제어 모드를 변경할 수 있다. 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 사용자의 시선을 감지하기 위해 다양한 수단을 이용할 수 있다. 예를 들어 플라잉 봇 제어 장치(100)는 카메라(120)를 상기 사용자의 시선을 인식하기 위한 수단으로 이용할 수 있으며, 제어부(110)는 카메라(120)를 통해 수신되는 영상으로부터 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)를 응시하는 사용자의 시선 및 상기 사용자의 시선이 플라잉 봇 제어 장치(100)을 응시한 시간을 감지할 수 있다.  Meanwhile, the control unit 110 may display various image information for controlling the flying bots 180 on the display unit 151 through the display unit 151. For example, the control unit 110 detects images captured by the bot camera 183 of the flying bot 180 and sensed values sensed by various sensors of the flying bot 180, such as altitude (ALT) 170a, wind speed 170b, and the like on the display unit 151 can be displayed. Also, the control unit 110 can recognize the user's gaze and change the flight control mode of the flying bot 180 based on the time at which the user's gaze is recognized. The controlling apparatus 100 for controlling the flying bats according to the embodiment of the present invention may use various means for detecting the user's gaze. For example, the flying robot controller 100 may use the camera 120 as a means for recognizing the user's gaze, and the controller 110 may be configured to display the image captured through the camera 120, It is possible to detect the user's gaze gazing at the controlling device 100 of the flying robot and the time at which the user gazes at the controlling device 100.

예를 들어, 제어부(110)는 사용자의 시선 인식 결과 또는 플라잉 봇(180)의 위치나 상태로부터 결정되는 플라잉 봇(180)의 비행 제어 모드에 따라 플라잉 봇(180)의 이동 방향 또는 회전 방향등이 결정되도록 할 수 있다. 즉, 제어부(110)는 현재 설정된 비행 제어 모드에 근거하여, 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 상기 이동키(160a)의 입력에 따른 상기 플라잉 봇(180)의 이동 방향 및/또는 회전 방향을 결정할 수 있다. For example, the controller 110 controls the moving direction of the flying robot 180 or the rotational direction of the flying robot 180 according to the sight recognition result of the user or the flying control mode of the flying robot 180 determined from the position or state of the flying robot 180 Can be determined. That is, based on the currently set flight control mode, the controller 110 controls the direction of the moving camera 160a based on the direction of the bot camera 183 of the flying bot 180, the position of the user, It is possible to determine the moving direction and / or the rotating direction of the flying bats 180 according to the input.

한편 도 2b에서 보이고 있는 것과 같이, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 플라잉 봇(180)의 제어를 위해 별도로 고안된 것일 수도 있으나, 스마트 폰과 같은 이동 단말기에 설치되는 애플리케이션 또는 프로그램의 형태로 구현될 수도 있다. 이러한 경우 상기 애플리케이션 또는 프로그램이 구동되면, 상기 스마트 폰은 플라잉 봇(180)을 제어할 수 있는 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)로서 동작할 수 있다. Meanwhile, as shown in FIG. 2B, the flying robot control apparatus 100 according to the embodiment of the present invention may be designed separately for controlling the flying bot 180, but may be an application installed in a mobile terminal such as a smart phone It can also be implemented in the form of a program. In this case, when the application or the program is activated, the smartphone can operate as a flying robot control apparatus 100 according to an embodiment of the present invention, which can control the flying bot 180.

도 2c는 이처럼 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 애플리케이션 또는 프로그램의 형태로 구현된 경우, 상기 애플리케이션 또는 프로그램이 구동된 스마트 폰(200)의 예를 보이고 있는 것이다. FIG. 2C shows an example of a smart phone 200 in which the application or program is driven when the flying robot control apparatus 100 according to the embodiment of the present invention is implemented in the form of an application or a program.

도 2c를 참조하여 살펴보면, 스마트 폰(200)은 본 발명의 실시 예에 따른 플라잉 봇 제어 애플리케이션 또는 프로그램이 실행되면, 스마트 폰(200)의 제어부는 상기 플라잉 봇(180)의 제어를 위한 다양한 화상 정보를 스마트 폰(200)의 디스플레이부(251)를 통해 표시할 수 있다. 예를 들어 스마트 폰(200)의 제어부는 플라잉 봇(180)의 비행 상태를 제어하기 위한 다양한 그래픽 객체들(260a, 260b, 260c)을 디스플레이부(251) 상에 표시할 수 있다. 2C, when a flying robot control application or a program according to an embodiment of the present invention is executed, the control unit of the smart phone 200 may control various images for controlling the flying bot 180 Information can be displayed through the display unit 251 of the smart phone 200. [ For example, the control unit of the smartphone 200 may display various graphic objects 260a, 260b, and 260c on the display unit 251 to control the flying state of the flying bot 180.

이러한 그래픽 객체들은, 각각 플라잉 봇(180)의 이동 방향을 제어하기 위한 이동키(160a)에 대응되는 제1 가상키(260a), 플라잉 봇(180)의 회전 방향 또는 틸트 상태를 제어하기 위한 회전키(160b)에 대응되는 제2 가상키(260b) 및, 플라잉 봇(180)의 고도를 제어하기 위한 고도키(160c)에 대응되는 제3 가상키(260c)가 될 수 있다. 이러한 키들은 본 발명의 이해를 돕기 위한 것일 뿐, 본 발명이 이에 한정되는 것은 아니어서, 스마트 폰(200)의 제어부는 얼마든지 더 많거나 더 적은 플라잉 봇(180)을 제어하기 위한 가상 키들을 상기 디스플레이부(251) 상에 표시할 수 있음은 물론이다. These graphic objects include a first virtual key 260a corresponding to a move key 160a for controlling the moving direction of the flying bot 180, a first virtual key 260a for controlling the rotating direction or the tilting state of the flying bot 180, A second virtual key 260b corresponding to the altitude key 160b and a third virtual key 260c corresponding to the altitude key 160c for controlling the altitude of the flying bot 180. [ The control unit of the smartphone 200 controls the virtual keys for controlling more or fewer of the flying bots 180. For example, And may be displayed on the display unit 251.

한편 본 발명의 실시 예에 따른 플라잉 봇 제어 애플리케이션 또는 프로그램이 실행되면, 스마트 폰(200)의 제어부는 스마트 폰(200)의 전면에 구비된 카메라를 이용하여 사용자의 시선을 인식할 수 있으며, 사용자의 시선이 인식된 시간에 근거하여 상기 플라잉 봇(180)의 비행 제어 모드를 변경할 수 있다. Meanwhile, when the Flying BOT control application or the program according to the embodiment of the present invention is executed, the control unit of the smart phone 200 can recognize the user's gaze using the camera provided on the front side of the smart phone 200, It is possible to change the flight control mode of the flying bot 180 based on the time at which the sight line of the flying robot 180 is recognized.

예를 들어, 스마트 폰(200)의 제어부는 사용자의 시선 인식 결과 또는 플라잉 봇(180)의 위치나 상태로부터 결정되는 플라잉 봇(180)의 비행 제어 모드에 따라 플라잉 봇(180)의 이동 방향 또는 회전 방향등이 결정되도록 할 수 있다. 즉, 스마트 폰(200)의 제어부는 현재 설정된 비행 제어 모드에 근거하여, 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 상기 제1 가상키(260a)의 입력에 따른 상기 플라잉 봇(180)의 이동 방향 및/또는 회전 방향을 결정할 수 있다. For example, the control unit of the smartphone 200 may control the moving direction of the flying bot 180 according to the sight recognition result of the user or the flying control mode of the flying bot 180 determined from the position or state of the flying bot 180 The direction of rotation and the like can be determined. That is, the control unit of the smartphone 200 controls the direction of the bot camera 183 of the flying bot 180 based on the currently set flight control mode, or the first four directions The moving direction and / or the rotational direction of the flying bot 180 according to the input of the virtual key 260a can be determined.

그리고 스마트 폰(200)의 제어부(110)는 현재 결정된 비행 제어 방식과 관련된 다양한 화상 정보를 상기 디스플레이부(251) 상에 표시할 수 있다. 예를 들어 스마트 폰(200)의 제어부는, 봇 카메라(183)에서 촬영되는 영상 및, 플라잉 봇(180)의 각종 센서로부터 감지되는 다양한 감지값들을 상기 디스플레이부(251) 상에 표시할 수 있다.The control unit 110 of the smart phone 200 may display various image information related to the currently determined flight control method on the display unit 251. [ For example, the control unit of the smart phone 200 may display various images sensed by various sensors of the flying robot 180 and images captured by the bot camera 183 on the display unit 251 .

한편 이상의 설명에서는, 플라잉 봇(180)을 제어하기 위해 별도로 고안된 플라잉 봇 제어 장치(100)와, 본 발명의 실시 예에 따른 플라잉 봇 제어 방법에 따라 플라잉 봇(180)을 제어하기 위한 애플리케이션 또는 프로그램이 구동되는 스마트 폰(200)을 각각 구분하여 설명하였으나, 이하의 설명에서는 설명의 편의상, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 스마트 폰(200)에서 상기 애플리케이션 또는 프로그램이 구동되는 형태임을 가정하여 명하기로 한다. 이러한 경우, 스마트 폰(200)은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 될 수 있으며, 스마트 폰(200)의 제어부, 디스플레이부(251) 및 카메라(220)는, 각각 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)의 제어부(110), 디스플레이부(151), 카메라(120)로 구동될 수 있다. In the above description, the flying bot control device 100 designed to control the flying bot 180 and the application or program for controlling the flying bot 180 according to the flying bot control method according to the embodiment of the present invention In the following description, it is assumed that the flying robot control apparatus 100 according to the embodiment of the present invention is configured such that the application or the program is executed in the smart phone 200 It is assumed that it is in the form of In this case, the smartphone 200 may be a flying robot control apparatus 100 according to an embodiment of the present invention, and the control unit, the display unit 251, and the camera 220 of the smart phone 200 may be, The display unit 151 and the camera 120 of the flying robot control apparatus 100 according to the embodiment of the present invention.

이하에서는 이와 같이 구성된 플라잉 봇 제어 장치(100)에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. Hereinafter, embodiments related to a control method that can be implemented in the flying bot control apparatus 100 configured as above will be described with reference to the accompanying drawings. It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

이하 본 발명은 플라잉 봇(180)을 제어하기 위한 애플리케이션 또는 프로그램이 구동되는 스마트 폰(200)을 예로들어 사진 촬영 영역의 설정 및 제어하는 동작을 설명하기로 한다. 상기 플라잉 봇은 플라잉 로봇의 약어이다. Hereinafter, an operation for setting and controlling a photographing area will be described with reference to a smart phone 200 in which an application or a program for controlling the flying bot 180 is operated. The flying robot is an abbreviation of a flying robot.

본 발명에서 플라잉 봇 제어 장치는 이동 단말기, 스마트폰 및 이동식 플라잉 봇 제어기로 구현될 수 있다. In the present invention, the flying bot controller may be implemented as a mobile terminal, a smart phone, and a mobile flying bot controller.

도 3은 스마트폰을 이용하여 플라잉 봇(180)을 제어하여 촬영 동작을 수행하는 개념을 나타낸 순서도이다. 3 is a flowchart illustrating a concept of performing a photographing operation by controlling the flying bot 180 using a smartphone.

도 3을 참조하여 살펴보면, 본 발명의 실시 예에 따른 스마트폰(200)의 제어부는 플라잉 봇(180)의 구동 시, 초기 설정된 제어 방식에 따라 플라잉 봇(180)의 비행을 제어할 수 있다(S100). 이러한 초기 설정 제어 방식은, 사용자에 의해 미리 결정된 것이거나 또는 플라잉 봇(180) 및 플라잉 봇 제어 장치(100)의 출고시 또는 스마프폰의 애플리케이션에서 미리 정해진 것일 수 있다. 3, the control unit of the smartphone 200 according to the embodiment of the present invention can control the flying of the flying bot 180 according to an initially set control method when the flying bot 180 is driven S100). This initial setting control method may be predetermined by the user or predetermined at the factory of the flying bot 180 and the flying bot controller 100 or in the application of the smartphone.

상기 초기 설정된 기본 제어 방식은 3인칭 제어 모드일 수 있다. 여기서 3인칭 제어 모드라는 것은, 사용자가 육안으로 플라잉 봇(180)을 관찰하면서 플라잉 봇(180)의 비행 상태를 제어하는 비행 제어 방식일 수 있다. The initial basic control method may be a third person control mode. Here, the third person control mode may be a flight control method for controlling the flying state of the flying bot 180 while the user observes the flying bot 180 with the naked eye.

플라잉 봇(180)이 비행이 시작되면 플라잉 봇(180)의 봇 제어부(182)는 주변의 다양한 상황을 감지한 정보들을 플라잉 봇 제어 장치(100) 또는 스마트폰(200)으로 전송할 수 있다. 여기서 상기 플라잉 봇(180)에서 수신되는 정보들은, 플라잉 봇(180)의 센서들로부터 감지된 감지값 또는 상기 플라잉 봇(180)의 위치 등에 대한 정보를 포함할 수 있다. 이러한 경우 스마트폰(200)의 제어부는 상기 수신된 정보들로부터 플라잉 봇(180)의 위치 및 상태를 판단할 수 있다(S110). When the flying bot 180 starts to fly, the bot controller 182 of the flying bot 180 can transmit information to the flying bot controller 100 or the smartphone 200, which senses various situations around the flying bot 180. Here, the information received by the flying bot 180 may include information on the sensed value from the sensors of the flying bot 180, or the position of the flying bot 180. In this case, the control unit of the smart phone 200 may determine the location and state of the flying bot 180 from the received information (S110).

한편, 제어부는 플라잉 봇(180)의 위치 및 상태 중 적어도 하나에 근거하여 플라잉 봇(180)의 비행 제어 방식을 결정할 수 있다. 또는 상기 카메라를 통해 사용자의 시선이 스마트폰(200)을 응시한 시간을 감지한 결과에 따라 상기 플라잉 봇(180)의 비행 제어 방식을 결정할 수도 있다. Meanwhile, the controller may determine the flight control method of the flying bot 180 based on at least one of the position and the state of the flying bot 180. Alternatively, the flight control method of the flying bot 180 may be determined according to the result of sensing the time taken by the user's gaze to the smartphone 200 through the camera.

한편, 제어부는 플라잉 봇(180)의 위치로부터, 플라잉 봇(180)과 스마트폰 (100)) 사이의 이격 거리를 검출할 수 있고, 검출된 이격 거리에 근거하여, 현재 플라잉 봇(180)에 보다 적합한 비행 제어 방식을 결정할 수도 있다. On the other hand, the control unit can detect the separation distance between the flying bot 180 and the smartphone 100 from the position of the flying bot 180, and based on the detected separation distance, And may determine a more appropriate flight control method.

상기 플라잉 봇(180)의 비행중에 사용자가 스마트폰(200)을 통해 소정 촬영모드를 선택할 수 있으며(S120), 스마트폰 제어부는 촬영모드에 관련된 제어신호를 플라잉 봇(180)으로 전송한다. 상기 촬영 모드는 셀피모드, 지형 촬영모드, 동영상 촬영모드, 3D촬영모드와 같이 모든 카메라 촬용모드를 포함한다. The user can select a predetermined shooting mode through the smart phone 200 during the flight of the flying bot 180 in step S120 and the smartphone controller transmits a control signal related to the shooting mode to the flying bot 180. [ The shooting mode includes all camera shooting modes such as a self-portrait mode, a terrain shooting mode, a moving picture shooting mode, and a 3D shooting mode.

상기 촬영 제어신호에 따라 플라잉 봇(180)의 제어부(182)는 선택된 촬영모드에 따른 비행 제어 방식을 결정한 다음 플라잉 봇(180)의 전방 (front), 후방(rear), 좌측(left) 및, 우측(right) 방향을 결정하여, 해당 방향으로 플라잉 봇(180)을 이동시킨다(S130). 예를 들어, 플라잉 봇(180)의 비행 제어 방식이, "셀피 모드"로 변경된 경우라면, 스마트폰 제어부는 플라잉 봇(180)에서 봇 카메라(183)가 향하는 방향을 '전방'으로 결정하고, 상기 결정된 ‘전방’을 기준으로 ‘후방’, ‘좌측’ 및 ‘우측’을 결정할 수 있다. 또한, 제어부는 변경된 비행 제어 방식에 따라, 플라잉 봇(180)의 이동 방향 및 회전 방향 등을 결정할 수 있다. The control unit 182 of the flying bot 180 determines the flying control method according to the selected shooting mode and then controls the front, rear, left, and right sides of the flying bot 180, Determines the right direction, and moves the flying bot 180 in the corresponding direction (S130). For example, if the flight control method of the flying bot 180 is changed to the "self-mode", the smartphone control unit determines the direction of the forwarding of the bot camera 183 by the flying bot 180, 'Rear', 'left' and 'right' can be determined based on the determined 'forward'. In addition, the control unit can determine the moving direction and the rotating direction of the flying bot 180 according to the changed flight control method.

뿐만 아니라 스마트폰 제어부는, 상기 결정된 ‘전방’을 기준으로 상기 플라잉 봇(180)의 회전 상태 및, 틸트 상태가 동기화되도록, 상기 플라잉 봇(180)의 모션이나 관성, 및 회전을 감지하는 센서들, 즉 모션 센서, 관성 센서, 자이로스코프 센서를 제어하기 위한 신호를 플라잉 봇(180)에 전송할 수 있다. 이에 따라 플라잉 봇(180)은 선택된 촬영모드에 따른 비행 제어 방식에 따라 이동 방향 뿐만 아니라, 회전 방향이나 틸트 상태등이 스마트폰내의 사용자 입력부의 키들과 동기화될 수 있다. In addition, the smartphone control unit may include sensors for sensing the motion, inertia, and rotation of the flying robot 180 so that the rotational state and the tilting state of the flying robot 180 are synchronized based on the determined 'forward' I.e., a signal for controlling the motion sensor, the inertial sensor, and the gyroscope sensor, to the flying bot 180. Accordingly, the flying bots 180 can be synchronized with the keys of the user input unit in the smartphone, as well as the direction of movement, the direction of rotation, and the tilt state according to the flight control method according to the selected shooting mode.

즉, 스마트 폰(200)의 제어부는 현재 설정된 촬영 모드에 근거하여 플라잉 봇(180)의 이동 방향 또는 회전 방향등을 결정할 수 있다. 즉, 스마트 폰(200)의 제어부는 현재 설정된 비행 제어 모드에 근거하여, 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 상기 제1 가상키(260a)의 입력에 따른 상기 플라잉 봇(180)의 이동 방향 및/또는 회전 방향을 결정할 수 있다. That is, the control unit of the smart phone 200 can determine the moving direction or the rotating direction of the flying bot 180 based on the currently set shooting mode. That is, the control unit of the smartphone 200 controls the direction of the bot camera 183 of the flying bot 180 based on the currently set flight control mode, or the first four directions The moving direction and / or the rotational direction of the flying bot 180 according to the input of the virtual key 260a can be determined.

또한, 스마트 폰(200)의 제어부는 플라잉 봇(180)으로부터 전송된 플라잉 봇(180)의 현재 상황에 대한 다양한 정보(예 : 신호세기)들을 근거로 플라잉 봇(180)의 위치를 검출할 수 있다. 그리고, 제어부는 검출된 플라잉 봇(180)의 위치로부터 플라잉 봇(180)과 스마트폰(200) 사이의 이격 거리를 검출할 수 있다. The control unit of the smartphone 200 can detect the position of the flying bot 180 based on various information (e.g., signal strength) about the current state of the flying bot 180 transmitted from the flying bot 180 have. The control unit can detect the distance between the flying robot 180 and the smart phone 200 based on the detected position of the flying robot 180.

그리고 스마트 폰(200)의 제어부는 현재 결정된 비행 제어 방식과 관련된 다양한 화상 정보를 상기 디스플레이부(251) 상에 표시할 수 있다. 예를 들어 스마트 폰(200)의 제어부는, 봇 카메라(183)에서 촬영되는 영상 및, 플라잉 봇(180)의 각종 센서로부터 감지되는 다양한 감지값들을 상기 디스플레이부(251) 상에 표시할 수 있다.The control unit of the smart phone 200 may display various image information related to the currently determined flight control method on the display unit 251. [ For example, the control unit of the smart phone 200 may display various images sensed by various sensors of the flying robot 180 and images captured by the bot camera 183 on the display unit 251 .

따라서, 플라잉 봇(180)이 촬영 모드에 따라 결정된 위치 및 방향으로 이동되면 스마트폰(200)의 제어부에서 전송된 제어신호에 따라 붓 카메라(183)가 동작되어 파시체를 촬영한다(140). 상기 촬영된 피시체 영상은 붓 통신부(184)를 통해 스마트폰(200)으로 전송되어(S150), 도 2c의 스마트폰(200)의 디스플레이부(251)에 표시된다. Accordingly, when the flying robot 180 moves in a position and a direction determined according to the photographing mode, the brush camera 183 is operated according to the control signal transmitted from the control unit of the smart phone 200 to photograph the corpuscular body 140 (140). The photographed body image is transmitted to the smartphone 200 through the brush communication unit 184 (S150) and displayed on the display unit 251 of the smartphone 200 of FIG. 2C.

도 4는 본 발명의 실시예에 따른 플라잉 봇의 촬영 제어방법을 나타낸 순서도이다. 4 is a flowchart illustrating a photographing control method of a flying bot according to an embodiment of the present invention.

도 4에 도시된 바와같이, 플라잉 봇(180)은 스마트폰 제어부의 제어에 따라 초기 비행을 수행한다. 이 상태에서 사용자가 스마트폰(200)의 메뉴를 통해 촬영 모드를 선택하면, 플라잉 봇(180)이 상기 선택된 촬영모드에 대응되는 위치로 이동하여, 선택된 촬영모드에 따른 제어신호에 따라 이동하여 피사체를 촬영한다. 상기 촬영된 영상은 스마트폰(200)으로 전송되어 디스플레이부(151)에 표시된다(S200).As shown in FIG. 4, the flying bot 180 performs an initial flight under the control of the smartphone controller. When the user selects the shooting mode through the menu of the smartphone 200 in this state, the flying bot 180 moves to a position corresponding to the selected shooting mode, moves according to a control signal according to the selected shooting mode, . The photographed image is transmitted to the smartphone 200 and displayed on the display unit 151 (S200).

이때, 스마트폰 제어부는 플라잉 봇(180)으로부터 초기 사진 촬영시의 카메라 포즈(pose)를 메모리에 저장한다. At this time, the smartphone control unit stores the camera pose at the time of the initial photographing from the flying bot 180 in the memory.

사용자는 디스플레이부(251)에 표시된 초기 촬영 영상에서 재촬영을 위한 촬영 영역을 선택할 수 있다(S210). 상기 촬영 영역은 사용자가 터치 제스처에 의해 직접 입력하거나, 재촬영 메뉴 선택시 디스플에이부(251에 표시되는 가이드 정보를 이동시켜 설정할 수 있다.  The user can select an imaging area for re-imaging in the initial imaging image displayed on the display unit 251 (S210). The photographing area can be set by the user directly by the touch gesture or by moving the guide information displayed on the display unit 251 when the resampling menu is selected.

일단 재촬영을 위한 촬영 영역이 선택되면, 스마트폰 제어부는 선택영역을 촬영하기 위한 카메라 포즈를 산출한 후(S220), 상기 산출된 카메라 포즈에 대응되는 제어신호를 플라잉 봇(180)로 전송한다(S230).Once the photographing area for re-photographing is selected, the smartphone controller calculates a camera pose for photographing the selected area (S220), and transmits a control signal corresponding to the calculated camera pose to the flying bot 180 (S230).

일 실시예로, 상기 선택영역을 촬영하기 위한 카메라 포즈는 기저장된 카메라 포즈(pose)에 따른 촬영 영상과 기 선택된 촬영 영역을 비교하여 산출할 수 있다. 상기 제어신호는 현재 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 초기 촬영화면과 상기 선택된 촬영 영역을 비교하여, 플라잉 봇(180) 또는 봇 카메라(183)의 이동 방향 및/또는 회전 방향을 포함한다. In one embodiment, the camera pose for photographing the selected region may be calculated by comparing the photographed image according to the stored camera pose with the previously selected photographed region. The control signal compares the initial photographing screen and the selected photographing area with respect to the direction of the current camera or the direction of the bot camera 183 of the flying bot 180 or the user's position or the reference four directions (east, west, north, Or the moving direction and / or the rotating direction of the bot camera 183.

따라서, 플라잉 봇(180)은 스마트폰 제어부에서 전송된 제어신호에 따라 플라잉 봇(180) 또는 봇 카메라(183)를 이동시키거나 회전시켜 사용자가 선택한 촬영 영역을 재촬영한다(S24, S250). 상기 이동은 봇(180)의 전방 (front), 후방(rear), 좌측(left) 및, 우측(right) 방향 중 적어도 일 방향을 포함한다. Accordingly, the flying bot 180 moves or rotates the flying bot 180 or the bot camera 183 according to the control signal transmitted from the smartphone control unit, and photographs the selected shooting region again (S24, S250). The movement includes at least one of the front, rear, left, and right directions of the bot 180.

도 5는 일반 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이다. 5 is an embodiment of a method of controlling a shooting area of a flying bamboo according to an embodiment of the present invention in a general shooting mode.

도 5를 참조하면, 일반 촬영 모드인 경우, 봇 제어부(182)는 스마트폰(200)의 제어에 따른 위치 및 이동 방향으로 플라잉 봇(180)을 이동 및/또는 회전시킬 수 있으며, 이에 따라 봇 카메라(183)가 향하는 방향 또한 달라지게 된다. 따라서 이동 후에, 상기 봇 카메라(183)는 사용자의 제어에 따라 서로 다른 방향의 이미지를 촬영할 수 있으며, 스마트폰(200)은 상기 촬영된 초기 촬영 이미지를 수신하여 디스플레이부(251) 상에 표시할 수 있다.5, in the case of the general photographing mode, the bot controller 182 can move and / or rotate the flying bot 180 in the position and moving direction under the control of the smartphone 200, The direction in which the camera 183 faces also changes. Therefore, after the movement, the bot camera 183 can take an image in different directions according to the user's control, and the smartphone 200 receives the photographed initial image and displays it on the display unit 251 .

사용자는 디스플레이부(251)에 표시된 초기 촬영 이미지를 보고 재촬영을 결정할 수 있다. 이 경우, 사용자는 초기 촬영 이미지상에 터치 제스처(터치 & 드래그)를 입력하여 촬영 영역(50)을 선택하거나, 재촬영 메뉴 선택시 디스플에이부(251에 표시되는 가이드 영역의 사이즈를 조정하여 촬영 영역(50)을 선택할 수 있다. 도 5는 원하는 영역보다 넣은 영역이 촬영된 경우로, 이 경우 상기 촬영 영역(50)은 촬영된 이미지 영역보다 작게 선택된다. 특히, 제어부는 터치 제스처의 모양과 기 저장된 모양(예: 도형)을 비교하여, 유사도에 근거하여 자동으로 상기 입력된 터치 제스처에 해당하는 형태의 촬영 영역(50)을 표시할 수 있다. The user can determine the re-photographing by viewing the initial photographing image displayed on the display unit 251. [ In this case, the user can select the shooting area 50 by inputting a touch gesture (touch & drag) on the initial shot image, or adjust the size of the guide area displayed on the display unit 251 when selecting the re- The controller 50 can select the area 50. In this case, the photographing area 50 is selected to be smaller than the photographed image area. In particular, the controller selects the shape of the touch gesture It is possible to compare the previously stored shape (for example, a graphic form) and display the photographing area 50 of the form corresponding to the input touch gesture automatically based on the similarity.

본 발명에서 촬영 모드는, 사용자에 의해 직접 선택될 수도 있지만, 기 설정된 조건에 근거하여 자동으로 선택될 수도 있다. 예를 들어 스마트폰 제어부는 플라잉 봇(180)으로부터 수신된 이미지의 분석 결과 또는 위치에 근거하여 촬영 모드를 결정할 수 있다. 일 예로 제어부는 수신된 이미지의 객체 및 배경을 분석하여, 복수의 인물이 포착된 경우에는 일반 촬영 모드로, 단일 인물이 포착된 경우는 셀피 모드 자동 변경할 수 있으며, 플라잉 봇(180)이 높은 고도에 위치하는 경우에는 파노라마 모드 또는 풍경 촬영 모드로 자동 변경할 수 있다. In the present invention, the photographing mode may be directly selected by the user, but may be automatically selected based on predetermined conditions. For example, the smartphone control unit can determine the shooting mode based on the analysis result or position of the image received from the flying bot 180. For example, the control unit may analyze the object and background of the received image, and may automatically change to a general shooting mode when a plurality of persons are captured, and to a self-mode when a single person is captured. The panorama mode or the landscape photographing mode can be automatically changed.

사진 촬영 영역(50)이 선택되면, 스마트폰 제어부는 초기 촬영 이미지에 대한 카메라 포즈(pose)를 근거로 상기 선택된 촬영 영역에 대한 카메라 포즈를 산출하여 플라잉 봇(180)으로 전송한다. When the photographing area 50 is selected, the smartphone controller calculates a camera pose for the selected photographing area based on the camera pose of the initial photographing image, and transmits the calculated camera pose to the flying bot 180.

봇 제어부(182)는 스마트폰(200)에서 전송된 카메라 포즈에 대응되는 위치 및 방향으로 플라잉 봇(180)을 이동 및/또는 회전시킨 후 봇 카메라(183)를 제어하여 상기 촬영 영역(50)에 대한 재 촬영을 수행하며, 스마트폰(200)은 상기 재촬영된 이미지를 수신하여 디스플레이부(251) 상에 표시한다. The bot controller 182 moves and / or rotates the flying robot 180 in a position and a direction corresponding to the camera pose transmitted from the smartphone 200 and then controls the bot camera 183, And the smartphone 200 receives the re-photographed image and displays it on the display unit 251.

도 6은 일반 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 다른 실시예이다. 도 6에 도시된 실시예는 초기 촬영 이미지가 사용자가 원하는 영역보다 좁은 영역이 촬영된 경우 재촬영을 수행하는 예이다. 6 is another embodiment of a method of controlling a shooting area of a flying bamboo according to an embodiment of the present invention in a general shooting mode. The embodiment shown in FIG. 6 is an example in which a retake is performed when an area in which an initial photographing image is narrower than an area desired by the user is photographed.

도 6에 도시된 바와같이, 사용자는 초기 촬영 이미지상에 터치 제스처를 입력하여 촬영 영역(50)을 선택한다. 상기 선택된 촬영 영역(50)이 현재 표시된 초기 촬영 이미지의 크기보다 큰 경우, 사용자는 초기 촬영 이미지를 축소한 후 상기 축소된 이미지보다 큰 촬영 영역(50)을 선택할 수 있다. As shown in FIG. 6, the user inputs a touch gesture on the initial shot image to select the shooting area 50. If the selected shooting region 50 is larger than the size of the currently displayed initial shooting image, the user can reduce the initial shooting image and then select the shooting region 50 larger than the reduced image.

사진 촬영 영역(50)이 선택되면, 도 5에서와 동일하게 스마트폰 제어부는 초기 촬영 이미지에 대한 카메라 포즈(pose)를 근거로 상기 선택된 촬영 영역에 대한 카메라 포즈를 산출하여 플라잉 봇(180)으로 전송한다. 5, the smartphone control unit calculates a camera pose for the selected shooting area on the basis of a camera pose for the initial shot image, and outputs the camera pose to the flying bot 180 send.

따라서, 봇 제어부(182)는 스마트폰(200)에서 전송된 카메라 포즈에 대응되는 위치 및 방향으로 플라잉 봇(180)을 이동 및/또는 회전시킨 후 봇 카메라(183)를 제어하여 상기 선택 여역(50)에 대한 재촬영을 수행한다. 상기 재촬영된 이미지는 스마트폰(200)으로 전송되어 디스플레이부(251)에 표시된다. Accordingly, the bot controller 182 moves and / or rotates the flying robot 180 in a position and direction corresponding to the camera pose transmitted from the smartphone 200, and then controls the bot camera 183, 50). The resampled image is transmitted to the smart phone 200 and displayed on the display unit 251.

도 7a 및 도 7b는 촬영 이미지상에서 촬영 영역을 선택하는 방법을 나타낸 실시예이다. Figs. 7A and 7B show an embodiment showing a method of selecting an image capturing area on a captured image.

전술한 바와같이, 사용자는 초기 촬영된 이미지가 마음에 들지 않을 경우 초기 촬영 이미지상에서 소정 크기의 촬영 영역(50)을 선택(설정)하여 재촬영을 수행할 수 있다. As described above, if the user does not like the initial photographed image, the user can select (set) the photographed area 50 of a predetermined size on the initial photographed image and perform the photographed.

이 경우 상기 촬영 영역(50)은 도 7a에 도시된 바와같이, 최초 표시된 촬영영역(50a)을 드래그하여 확대/축소하거나, 도 7b에 도시된 바와같이, 최초 표시된 촬영영역(50a)은 그대로 둔 상태에서 초기 촬영 이미지를 줌 인/아웃하여 설정할 수 있다. 상기 두 방법 모두 동일한 효과를 갖음은 자명할 것이다. In this case, as shown in FIG. 7A, the photographing area 50 can be enlarged or reduced by dragging the first displayed photographing area 50a, or the originally displayed photographing area 50a may be left as it is, You can zoom in / out and set the initial shot image. It will be appreciated that both methods have the same effect.

전술한 바와같이, 스마트폰 제어부는 플라잉 봇(180)으로부터 수신된 이미지의 분석 결과 또는 위치에 근거하여 촬영 모드를 자동으로 결정할 수 있다. 일 예로 제어부는 플라잉 봇(180)이 높은 고도에 위치할 때 촬영 명령이 입력되면 자율 촬영모드로 자동 변경하여, 플라잉 봇(180)으로 자율 촬영을 위한 제어신호를 전송한다. As described above, the smartphone control unit can automatically determine the shooting mode based on the analysis result or position of the image received from the flying bot 180. [ For example, when the shooting command is input when the flying robot 180 is located at a high altitude, the control unit automatically changes the mode to the autonomous shooting mode and transmits a control signal for autonomous shooting to the flying bot 180.

도 8은 자율 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이다. FIG. 8 is an embodiment of a method of controlling an imaging area of a flying robot according to an embodiment of the present invention in an autonomous imaging mode.

도 8을 참조하면, 플라잉 봇(180)은 봇 카메라(183)를 제어하여 높은 고도에서 초기 사진을 촬영하여 스마트폰(200)으로 전송하고, 스마트폰 제어부는 전송된 초기 촬영 이미지를 디스플레이부(251)에 표시함과 함께 메모리에 초기 촬영 이미지에 대한 카메라 포즈를 저정한다. 8, the flying bot 180 captures an initial photograph at a high altitude by controlling the bot camera 183 and transmits it to the smartphone 200. The smartphone control unit displays the transmitted initial photograph image on the display unit 251) and stores the camera pose for the initial shot image in the memory.

초기 촬영 이미지 확인 결과 원하는 공간보다 더 넓은 영역이 촬영된 경우, 사용자는 소정 영역을 드래그하여 작은 크기의 촬영 영역(50)을 선택할 수 있다. 상기 선택된 촬영 영역(50)은 손가락이 드래그된 궤적을 따라 설정되며, 후속 터치 드래그 입력에 따라 크기 및 모양이 조정될 수 있다. If an area larger than the desired space is photographed as a result of checking the initial photographed image, the user can select a photographed area 50 of a small size by dragging the predetermined area. The selected shooting region 50 is set along the trajectory of the dragged finger, and can be adjusted in size and shape according to the subsequent touch drag input.

촬영 영역(50)이 선택되면 스마트폰 제어부는 상기 선택된 촬영 영역(50)에 대한 위치정보를 산출하여 플라잉 봇(180)으로 전송하고, 플라잉 봇(180)은 상기 위치정보에 따라 촬영 영역(50)을 자율 비행하면서 복수의 사진을 촬영하며, 상기 촬영된 복수의 이미지는 스마트폰의 디스플레이부(251)에 표시된다. When the photographing area 50 is selected, the smartphone control unit calculates position information on the selected photographing area 50 and transmits the calculated position information to the flying bot 180. The flying bot 180 scans the photographing area 50 The plurality of photographed images are displayed on the display unit 251 of the smartphone.

도 9는 자율 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 다른 실시예이다. 9 is another embodiment of a method of controlling an imaging area of a flying robot according to an embodiment of the present invention in an autonomous imaging mode.

도 9에 도시된 바와같이, 플라잉 봇(180)은 봇 카메라(183)를 제어하여 높은 고도에서 초기 사진을 촬영하여 스마트폰(200)으로 전송하고, 스마트폰 제어부는 전송된 초기 촬영 이미지를 디스플레이부(251)에 표시함과 함께 메모리에 초기 촬영 이미지에 대한 카메라 포즈를 저정한다. 9, the flying bot 180 captures an initial photograph at a high altitude by controlling the bot camera 183 and transmits it to the smartphone 200, and the smartphone control unit displays the transmitted initial photograph image Unit 251 and stores the camera pose for the initial shot image in the memory.

초기 촬영 이미지 확인 결과 원하는 공간보다 더 좁은 영역이 촬영된 경우, 사용자는 소정 영역을 드래그하여 큰 크기의 촬영 영역(50)을 선택할 수 있다. 이때, 사용자는 초기 촬영 이미지를 축소한 후 촬영 영역(50)을 설정할 수 있다. 상기 촬영 영역(50)은 손가락이 드래그된 모양으로 설정되며, 후속 터치 드래그 입력에 따라 크기 및 모양이 조정될 수 있다. 즉 규칙적인 형태의 도형이나 불규칙적인 곡면 형태로 설정될 수 있다. If a region narrower than the desired space is photographed as a result of checking the initial photographed image, the user can select a photographed region 50 of a large size by dragging the predetermined region. At this time, the user can set the photographing area 50 after reducing the initial photographing image. The photographing area 50 is set to a shape in which a finger is dragged, and the size and shape of the photographing area 50 may be adjusted according to a subsequent touch drag input. That is, a regular shape or an irregular surface.

촬영 영역(50)이 선택되면 스마트폰 제어부는 상기 선택된 촬영 영역(50)에 대한 위치정보를 산출하여 플라잉 봇(180)으로 전송하고, 플라잉 봇(180)은 상기 위치정보에 따라 촬영 영역(50)을 자율 비행하면서 복수의 사진을 촬영하며, 상기 촬영된 복수의 이미지는 스마트폰의 디스플레이부(251)에 표시된다. When the photographing area 50 is selected, the smartphone control unit calculates position information on the selected photographing area 50 and transmits the calculated position information to the flying bot 180. The flying bot 180 scans the photographing area 50 The plurality of photographed images are displayed on the display unit 251 of the smartphone.

도 10은 동영상 및 연속 촬영 모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이다.10 is a view illustrating an embodiment of a method of controlling a shooting area of a flying robot according to an embodiment of the present invention in a moving picture and continuous shooting mode.

도 10을 참조하면, 동영상 및 연속 촬영 모드에서 사용자는 플라잉 봇(180)은 봇 카메라(183)에서 촬영된 이미지에서 촬영 영역(50)을 지정할 수 있다. 촬영 영역(50)이 지정되면, 스마트폰 제어부는 플라잉 봇(180)을 촬영 영역(50)내의 객체의 주위로 회전시키면서, 다양한 각도에서 상기 객체의 동영상을 촬영한다. 이때, 스마트폰 제어부는 촬영 영역(50)내에서 객체의 특징점을 추출하여 플라잉 봇(180)을 제어하고, 새로운 객체의 특징점을 추출할 수 있도록 플라잉 봇(180)을 화전시킨다. Referring to FIG. 10, in the moving image and continuous shooting mode, the user can designate the shooting area 50 in the image captured by the bot camera 183 by the flying bot 180. When the shooting region 50 is designated, the smartphone control unit rotates the flying robot 180 around the object in the shooting region 50, and shoots the moving image of the object at various angles. At this time, the smartphone control unit extracts the feature points of the object in the shooting region 50, controls the flying bot 180, and fires the flying bot 180 so that the minutiae points of the new object can be extracted.

한편 본 발명에서 봇 카메라(183)는 적어도 두 개 이상 구비될 수 있으며, 이러한 경우 상기 봇 제어부(182)는 적어도 두 방향에서 영상을 동시에 촬영할 수 있다. 또한, 봇 카메라(183)가 적어도 두 개인 경우, 봇 제어부(182)는 적어도 두 개의 봇 카메라(183)들 중 어느 하나를 주 카메라(main camera)로 결정할 수 있으며, 상기 주 카메라로 지정된 봇 카메라(183)가 향하는 방향에 따라 상기 플라잉 봇(180)이 이동하는 방향을 결정할 수도 있다. 상기 붓 카메라(183)는 Depth카메라 또는 3D 스캔 카메라를 포함할 수 있다. In the present invention, at least two or more bot cameras 183 may be provided. In this case, the bot controller 182 can simultaneously photograph images in at least two directions. When there are at least two bot cameras 183, the bot controller 182 can determine any one of the at least two bot cameras 183 as a main camera, The direction in which the flying robot 180 moves may be determined according to the direction in which the flying robot 180 moves. The brush camera 183 may include a depth camera or a 3D scan camera.

도 11은 3D 촬영모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이고, 도 12는 스캔모드에서 본 발명의 실시예에 따른 플라잉 봇의 촬영 영역 제어방법의 일 실시예이다.FIG. 11 shows an embodiment of a method of controlling an imaging area of a flying robot according to an embodiment of the present invention in a 3D imaging mode, FIG. 12 is a flowchart illustrating a method of controlling an imaging area of a flying robot according to an embodiment of the present invention in a scan mode Yes.

도 11에 도시된 바와같이, 초기 촬영 이미지가 디스플레이부(251)에 표시된 상태에서 사용자가 직육면체 또는 구 형태의 3차원 촬영 영역(60)을 설정한다. 3차원 촬영 영역(60)이 설정되면, 스마트폰 제어부는 3차원 촬영 영역(60)을 기준으로 소정거리 이격되어 회전하도록 플라잉 봇(180)을 제어함으로써 플라잉 봇(180)에 장착된 Depth카메라를 통해 3차원 이미지를 촬영한다. 11, the user sets a rectangular parallelepiped or spherical three-dimensional photographing area 60 in a state in which an initial photographing image is displayed on the display unit 251. [ When the 3D shooting region 60 is set, the smartphone control unit controls the flying bot 180 so as to rotate at a predetermined distance from the 3D shooting region 60, thereby controlling the Depth camera mounted on the flying bot 180 A three-dimensional image is shot through.

또한 다른 실시예로, 도 12에 도시된 바와같이, 3D스캔모드에서 스캔 영역(70)을 설정되면, 스마트폰 제어부는 스캔 영역(60)내의 객체를 기준으로 소정거리 이격되어 회전하도록 플라잉 봇(180)을 제어함으로써 플라잉 봇(180)에 장착된 D 스캔 카메라를 통해 3차원 스캔 이미지를 촬영한다. 이때, 스마트폰 제어부는 스캔 영역의 각 복셀(Voxel)별 스캔 데이타가 부족한 부분을 감지하여 추가 스캔하도록 제어할 수 있다. 12, when the scan area 70 is set in the 3D scan mode, the smartphone control unit controls the flying bot (for example, 180) so as to capture a three-dimensional scan image through a D-scan camera mounted on the flying bot (180). At this time, the smartphone control unit may detect the lack of scan data for each voxel in the scan area and control the additional scan.

본 발명은 설명의 편의를 위하여 스마트폰(200)을 예로들어 플라잉 봇(180)의 봇 카메라(183)의 촬영 동작을 제어하는 예를 설명하였으나, 이에 한정되지 않고, 플라잉 봇 제어 장치(100)를 적용할 경우에도 동일하게 적용된다. The present invention is not limited to this example. For example, the flying robot controller 100 may be configured to control the shooting operation of the bot camera 183 of the flying robot 180, The same applies to the case of applying the invention.

상술한 바와같이 본 발명은 플라잉 봇을 이용하여 근접 및 원격 촬영을 수행할 때 사진 촬영 영역을 직관적으로 설정함으로써 사용자가 일일이 플라잉 봇을 조작하지 않고도 편리하게 원하는 영역만 선택적으로 촬영할 수 있는 장점이 있다. As described above, the present invention is advantageous in that a photographing area is intuitively set when performing a close-up and a remote photographing using a flying robot, so that a user can selectively photograph only a desired area conveniently without operating a flying bot .

그리고, 본 발명은 다양한 촬영 모드에 따라 플라잉 봇의 위치 및 회전방향을 제어하여 촬영을 수행함으로써 일반 촬영뿐만 아니라 특수 촬영(동영상, 연속촬영, 3D촬영 3D스캔)을 보다 쉽고 편리하게 수행할 수 있는 장점이 있다. In addition, the present invention can perform special shooting (moving picture, continuous shooting, 3D scanning, 3D scanning) as well as general shooting by performing the shooting by controlling the position and the rotational direction of the flying bats according to various shooting modes There are advantages.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). Also, the computer may include a control unit 180 of the terminal. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

50, 50a : 촬영 영역 60 : 3차원 촬영 영역
70 : 스캔 영역 100 : 플라잉 봇 제어 장치
180; 플라잉 봇 182 : 봇 제어부
183 : 봇 카메라 200 : 스마트폰
251 : 디스플레이부
50, 50a: photographing area 60: three-dimensional photographing area
70: Scan area 100: Flying bot controller
180; Flying bot 182:
183: Bot camera 200: Smartphone
251:

Claims (19)

적어도 하나 이상의 카메라를 장착한 플라잉 봇(Flying Bot); 및
상기 플라잉 봇의 카메라에서 촬영된 이미지를 디스플레이부에 표시하고, 상기 디스플레이부에 표시된 촬영 이미지상에서 사용자가 설정한 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 촬영 영역을 재촬영하는 플라잉 봇 제어장치;를 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
A flying boat equipped with at least one camera; And
And a control unit for controlling the movement and rotation of the flying bots according to the shooting area set by the user on the shooting image displayed on the display unit, And a controller for controlling the shooting of the flying bot.
제1항에 있어서, 상기 촬영 영역은
사용자가 터치 제스처에 의해 입력력된 영역 또는 재촬영 메뉴 선택시 자동으로 표시되는 가이드 정보인 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
2. The apparatus according to claim 1,
Wherein the guide information is automatically displayed in a region input by a user with a touch gesture or when a resampling menu is selected.
제1항에 있어서, 상기 촬영 영역은
초기 촬영된 이미지보다 작게 설정되거나 크게 설정되며,
상기 촬영 영역은 규칙적인 도형 형태 또는 불규칙 곡면 형태로 설정되는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
2. The apparatus according to claim 1,
Is set to be smaller or larger than that of the initially photographed image,
Wherein the photographing area is set to a regular figure shape or an irregular curved shape.
제1항에 있어서, 상기 촬영 영역은
직육면체 또는 구 형태의 3차원 촬영 영역을 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
2. The apparatus according to claim 1,
And a three-dimensional imaging area of a rectangular parallelepiped or spherical shape.
제1항에 있어서, 상기 플라잉 봇 제어장치는
촬영 모드에 근거하여 플라잉 봇의 이동 방향 또는 회전 방향을 결정하여 제어하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
The method according to claim 1,
Wherein the control unit determines and controls the moving direction or the rotating direction of the flying robot based on the shooting mode.
제1항에 있어서, 상기 플라잉 봇 제어장치는
이동 단말기, 스마트폰 및 플라잉 봇 제어기 중 하나인 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
The method according to claim 1,
The mobile terminal, the smart phone, and the flying bot controller.
제1항에 있어서, 상기 플라잉 봇 제어장치는
플라잉 봇의 카메라에서 촬영된 초기 촬영 이미지에 대한 카메라 포즈를 저장하고, 상기 저장된 초기 촬영 이미지에 대한 카메라 포즈를 이용하여 상기 선택된 촬영 영역에 대한 카메라 포즈를 산출하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
The method according to claim 1,
Wherein the camera pose for the initial shot image captured by the camera of the flying bot is stored and the camera pose for the selected shot area is calculated using the camera pose for the stored initial shot image, Device.
제7항에 있어서, 상기 플라잉 봇은
플라잉 봇 제어장치에서 전송된 카메라 포즈에 대응되는 위치 및 방향으로 이동 및/또는 회전되어 카메라를 이용하여 상기 설정된 촬영 영역에 대한 재촬영을 수행하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
8. The method according to claim 7,
Wherein the control unit moves and / or rotates in a position and direction corresponding to the camera pose transmitted from the flying bot control unit, and re-captures the set shooting area using the camera.
제1항에 있어서, 상기 플라잉 봇 제어장치는
플라잉 봇으로부터 수신된 초기 촬영 이미지의 분석 결과 또는 거리에 근거하여 촬영 모드를 자동으로 결정하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
The method according to claim 1,
And automatically determines the shooting mode based on the result of analysis or the distance of the initial shot image received from the flying robot.
제1항에 있어서, 상기 플라잉 봇 제어장치는
플라잉 봇의 현재 고도 및, 플라잉 봇으로부터 감지되는 기상 상황을 더 감지한 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 변경하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
The method according to claim 1,
Wherein the flying control system changes the flying control method of the flying bot based on a result of further sensing a current altitude of the flying bot and a weather condition sensed by the flying bot.
제5항에 있어서, 상기 촬영 모드는
일반 촬영모드, 자율 촬영 모드, 동영상 및 연속 촬영 모드, 3D 촬영모드 및 스캔모드중 하나이며, 상기 동영상 및 연속 촬영 모드, 3D 촬영모드 및 스캔모드에서 플라잉 봇은 촬영 영역 또는 촬영 대상을 화전하면서 촬영하는 것을 특징으로 하는 플라잉 봇의 촬영 제어장치.
6. The method according to claim 5,
The continuous shooting mode, the normal shooting mode, the autonomous shooting mode, the moving picture and continuous shooting mode, the 3D shooting mode, and the scan mode. In the moving picture and continuous shooting mode, 3D shooting mode and scan mode, Wherein the controller is configured to control the shooting controller.
촬영 모드에 따라 플라잉 봇의 이동 방향 또는 회전 방향을 결정하여 플라잉 봇(Flying Bot)을 이동시키는 단계;
플라잉 봇에 장착된 카메라를 제어하여 초기 촬영을 수행하고, 플라잉 봇으로부터 초기 촬영 이미지를 수신하여 디스플레이부에 표시하는 단계;
상기 디스플레이부에 표시된 초기 촬영 이미지상에서 사용자가 설정한 촬영 영역을 감지하는 단계; 및
상기 설정된 촬영 영역에 따라 상기 플라잉 봇의 이동 및 회전을 제어하여 상기 설정된 촬영 영역을 재촬영하는 단계;를 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.
Determining a moving direction or a rotating direction of the flying bot according to the shooting mode and moving the flying boat;
Performing an initial photographing by controlling a camera mounted on the flying bot, receiving an initial photographing image from the flying bot, and displaying the initial photographing image on the display unit;
Sensing an imaging area set by a user on an initial imaging image displayed on the display unit; And
And controlling the movement and rotation of the flying robot according to the set shooting area to re-photograph the set shooting area.
제12항에 있어서, 상기 촬영 영역은
사용자가 터치 제스처에 의해 입력력된 영역 또는 재촬영 메뉴 선택시 자동으로 표시되는 가이드 정보인 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.
13. The apparatus according to claim 12,
Wherein the guide information is automatically displayed in a region input by a user with a touch gesture or when a resampling menu is selected.
제12항에 있어서, 상기 촬영 영역은
초기 촬영된 이미지보다 작게 설정되거나 크게 설정되며,
상기 촬영 영역은 규칙적인 도형 형태 또는 불규칙 곡면 형태로 설정되는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.
13. The apparatus according to claim 12,
Is set to be smaller or larger than that of the initially photographed image,
Wherein the shooting region is set to a regular graphic form or an irregular curved surface form.
제12항에 있어서, 상기 촬영 영역은
직육면체 또는 구 형태의 3차원 촬영 영역을 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.
13. The apparatus according to claim 12,
And a three-dimensional photographing area of a rectangular parallelepiped or spherical shape.
제12항에 있어서, 상기 플라잉 봇의 카메라에서 촬영된 초기 촬영 이미지에 대한 카메라 포즈를 저장하는 단계를 더 포함하며,
상기 재촬영하는 단계에서 상기 저장된 초기 촬영 이미지에 대한 카메라 포즈를 이용하여 상기 선택된 촬영 영역에 대한 카메라 포즈를 산출하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.
13. The method of claim 12, further comprising storing a camera pose for an initial shot image taken by a camera of the flying bot,
Wherein the camera pose for the selected shooting area is calculated using the camera pose for the stored initial shot image in the re-shooting step.
제16항에 있어서, 상기 플라잉 봇은
플라잉 봇 제어장치에서 전송된 카메라 포즈에 대응되는 위치 및 방향으로 이동 및/또는 회전되어 카메라를 이용하여 상기 설정된 촬영 영역에 대한 재촬영을 수행하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.
17. The method of claim 16, wherein the flying bot
Moving and / or rotating the camera in a position and direction corresponding to the camera pose transmitted from the flying bot control device, and re-capturing the set shooting area using the camera.
제12항에 있어서, 상기 플라잉 봇으로부터 수신된 초기 촬영 이미지의 분석 결과 또는 거리에 근거하여 촬영 모드를 자동으로 결정하는 단계;를 더 포함하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법. 13. The method according to claim 12, further comprising: automatically determining an imaging mode based on an analysis result of the initial imaging image or the distance received from the flying bot. 제12항에 있어서, 상기 촬영 모드는
일반 촬영모드, 자율 촬영 모드, 동영상 및 연속 촬영 모드, 3D 촬영모드 및 스캔모드중 하나이며,
상기 동영상 및 연속 촬영 모드, 3D 촬영모드 및 스캔모드에서 플라잉 봇은 촬영 영역 또는 촬영 대상을 화전하면서 촬영하는 것을 특징으로 하는 플라잉 봇의 촬영 제어방법.
13. The method according to claim 12,
A normal shooting mode, an autonomous shooting mode, a moving picture and continuous shooting mode, a 3D shooting mode, and a scan mode,
Wherein in the moving image and continuous shooting mode, the 3D shooting mode, and the scan mode, the flying bot captures an image of a shooting area or an object to be shot.
KR1020150114035A 2015-08-12 2015-08-12 Apparatus and method for controling capturing operation of flying bot Withdrawn KR20170019777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150114035A KR20170019777A (en) 2015-08-12 2015-08-12 Apparatus and method for controling capturing operation of flying bot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150114035A KR20170019777A (en) 2015-08-12 2015-08-12 Apparatus and method for controling capturing operation of flying bot

Publications (1)

Publication Number Publication Date
KR20170019777A true KR20170019777A (en) 2017-02-22

Family

ID=58314669

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150114035A Withdrawn KR20170019777A (en) 2015-08-12 2015-08-12 Apparatus and method for controling capturing operation of flying bot

Country Status (1)

Country Link
KR (1) KR20170019777A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102402949B1 (en) * 2021-07-28 2022-05-30 주식회사 네스앤텍 Acquisition method of image information with improved precision

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102402949B1 (en) * 2021-07-28 2022-05-30 주식회사 네스앤텍 Acquisition method of image information with improved precision

Similar Documents

Publication Publication Date Title
US11914370B2 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
US11340606B2 (en) System and method for controller-free user drone interaction
US11649052B2 (en) System and method for providing autonomous photography and videography
US11632497B2 (en) Systems and methods for controlling an image captured by an imaging device
KR102700830B1 (en) Method and electronic device for controlling unmanned aerial vehicle
US10191487B2 (en) Control device and control method for flying bot
CN111596649A (en) Single-hand remote control device for aerial system
CN110119154A (en) Control method, device and the equipment and aircraft of aircraft
KR20180068411A (en) Controlling method for operation of unmanned vehicle and electronic device supporting the same
JP2003267295A (en) Remote control system
CN107205111B (en) Image pickup apparatus, mobile apparatus, image pickup system, image pickup method, and recording medium
CN110771137A (en) Time-delay shooting control method and device
JP2018129063A (en) Method for controlling unmanned aircraft, unmanned aircraft, and system for controlling unmanned aircraft
WO2018112848A1 (en) Flight control method and apparatus
JP6685742B2 (en) Operating device, moving device, and control system thereof
JP2017112438A (en) Imaging system and control method therefor, communication device, mobile imaging device, program
JP6855616B2 (en) Operating devices, mobile devices, and their control systems
CN113632037B (en) Control method and device for movable platform
KR20170019777A (en) Apparatus and method for controling capturing operation of flying bot
KR20180060403A (en) Control apparatus for drone based on image
CN117678235A (en) Control method, head-mounted device, system and storage medium for removable platform

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150812

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination