[go: up one dir, main page]

WO2017034309A1 - Method and apparatus for classifying media data - Google Patents

Method and apparatus for classifying media data Download PDF

Info

Publication number
WO2017034309A1
WO2017034309A1 PCT/KR2016/009349 KR2016009349W WO2017034309A1 WO 2017034309 A1 WO2017034309 A1 WO 2017034309A1 KR 2016009349 W KR2016009349 W KR 2016009349W WO 2017034309 A1 WO2017034309 A1 WO 2017034309A1
Authority
WO
WIPO (PCT)
Prior art keywords
media data
time
classifying
unit
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2016/009349
Other languages
French (fr)
Korean (ko)
Inventor
이동훈
이영재
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Originpics Co Ltd
Original Assignee
Originpics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Originpics Co Ltd filed Critical Originpics Co Ltd
Publication of WO2017034309A1 publication Critical patent/WO2017034309A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to a method and apparatus for classifying media data, and more particularly, to a method and apparatus for automatically classifying a plurality of media data provided by a plurality of reporters for each event.
  • the media and the like receive video reports from a large number of ordinary people, it is highly likely that the same events and reports of different personalities will be followed at the same time. Moreover, when a large-scale event occurs and there are a large number of reporters who are willing to report the video data, the media and the like will be provided with a large amount of video data in a short time.
  • the present invention has been made in an effort to provide a method and apparatus for classifying a plurality of media data received from a plurality of reporters for each event.
  • an example of a method of classifying media data includes: receiving media data including a still image or a video from a plurality of user terminals; Classifying the media data into space units based on location information included in the media data; Classifying the media data into units of time based on time information included in the media data; And classifying media data into space-time units by combining the space units and the time units.
  • an apparatus for classifying media data including: a receiver configured to receive media data including a still image or a video from a plurality of user terminals; A space unit classification unit classifying the media data into space units based on the location information included in the media data; A time unit classification unit classifying the media data into time units based on time information included in the media data; And a situation classifying unit classifying a situation provided by the media data based on keywords identified from sound or text information included in each media data classified by space and time.
  • media data received from a plurality of user terminals may be classified in units of space time.
  • the media data can be automatically classified and provided, for example, a traffic accident or a fire. Without doing so, the media manager can easily grasp the type and importance of the incident.
  • media data is categorized into three dimensions based on the space where the event occurred, so that the administrator can easily view the event from the point of view desired.
  • the size of the space unit and time unit for classifying the media data can be actively changed according to the place where the event occurred (for example, urban center or camping ground) or the type of event (for example, traffic accident or fire). Accurately collect and classify media data for the incident.
  • FIG. 1 shows a schematic structure of an entire system for media data classification according to the present invention
  • FIG. 2 is a flowchart illustrating an example of a method of classifying media data according to the present invention
  • FIG. 3 illustrates an example of media data according to the present invention
  • FIG. 4 is a flowchart illustrating an example of a method of classifying media data into space units according to the present invention
  • FIG. 5 is a diagram illustrating an example of a method of classifying spatial units of media data according to the present invention
  • FIG. 6 is a diagram illustrating an example of changing a basic space unit according to the present invention.
  • FIG. 7 is a flowchart illustrating an example of a method of classifying media data according to an embodiment of the present invention in units of time;
  • FIG. 10 is a diagram illustrating an example of classifying media data into space-time units according to the present invention.
  • FIG. 11 illustrates an example of a method of determining a relative photographing position based on a photographing direction of media data according to the present invention
  • FIG. 12 illustrates an example of a method of determining a relative photographing distance based on a subject size of media data according to the present invention
  • FIG. 13 illustrates an example of a method of determining a relative photographing height based on a photographing angle of media data according to the present invention
  • FIG. 14 is a view showing an example of displaying the recording position of the media data in three dimensions according to the present invention.
  • 15 is a diagram illustrating an example of a method of classifying media data according to an indoor and outdoor reference according to the present invention.
  • 16 is a view showing the configuration of an embodiment of a user terminal according to the present invention.
  • FIG. 17 is a diagram showing the configuration of an embodiment of a media data classification apparatus according to the present invention.
  • FIG. 1 is a diagram illustrating a schematic structure of an entire system for media data classification according to the present invention.
  • the media data classification apparatus 100 for automatically classifying media data including a still image or a moving image receives media data from a plurality of user terminals 110, 112, 114, and 116 through a wired or wireless communication network.
  • the user terminals 110, 112, 114, and 116 refer to all types of terminals capable of transmitting media data to the media data classification apparatus through a wired or wireless communication network.
  • An example of the user terminals 110, 112, 114, and 116 may be a smartphone or a tablet PC.
  • An example configuration of the user terminals 110, 112, 114, and 116 will be described again with reference to FIG. 16.
  • the media data classification apparatus 100 classifies and provides media data received from the plurality of user terminals 110, 112, 114, and 116 in space-time units. As another example, the media data classification apparatus 100 may classify and provide media data according to an event type, importance, and the like. As another example, the media data classification apparatus 100 provides a three-dimensional relative photographing position of the media data so that the administrator can view the incident from a desired perspective.
  • FIG. 2 is a flowchart illustrating an example of a method of classifying media data according to the present invention.
  • the media data classification apparatus receives media data from a plurality of user terminals (S200).
  • the device is based on location information (for example, GPS (Global Positioning System) coordinate information, etc.) and time information (which may include date information according to an embodiment) included in the media data.
  • location information for example, GPS (Global Positioning System) coordinate information, etc.
  • time information which may include date information according to an embodiment
  • the device not only classifies the media data into spatial units (eg, two-dimensional or three-dimensional classification) and time units, but also according to the embodiment, the location where the media data is taken or the location of the event scene belongs to indoor or outdoor. Can be further classified on the basis of An example of a method of classifying media data in space units is illustrated in FIG. 4, and an example of a method of classifying media data in units of time is illustrated in FIG. 7. In addition, an example of a method of further classifying media data based on indoor and outdoor is illustrated in FIG. 15.
  • the device may further classify the media data on a case-by-case basis based on the additional information (S220).
  • the device may be a variety of conventional speech recognition algorithms or text recognition algorithms. You can analyze the recorded data or text information to determine the type of event. For example, if the word information such as 'fire', 'fire truck', or 'fire' is high in the additional information included in the plurality of media data, the device identifies the event indicated by the media data as 'fire'. To this end, the device may have a word list for each event in advance.
  • the device may provide the classified media data to another device or display it on the screen (S230). For example, when the device receives a request for providing media data in a specific time zone of a specific region, the device classifies and provides the media data. In this case, the device provides a relative position of each media data according to an embodiment so that an administrator or the like can easily identify the incident scene represented by the media data from a desired perspective. As another example, the device may provide media data on a case-by-case basis, such as a fire or a traffic accident.
  • FIG. 3 is a diagram illustrating an example of media data according to the present invention.
  • the media data 300 transmitted from the user terminal to the device includes a still image (or video) 310, tagging data 320, and additional data 330.
  • the still image or video 310 may be an image photographed through a camera, or may be an image photographed directly by a camera of the user terminal or photographed by a device other than the user terminal.
  • the still image or the video 310 will be described as limited to the case where the user terminal is photographed.
  • the tagging data 320 is data representing various environmental information at the time of image capturing, and includes position information indicating a photographing position and time information indicating a capturing time.
  • the tagging data 320 may further include various information according to an embodiment, such as illuminance, humidity, temperature, a tilt of the user terminal, and a shooting direction.
  • the additional data 330 is information added by the informant, and includes recording information or text information.
  • the whistleblower may record a description of an event scene situation or record a scene sound at the time of shooting through a recording function of a user terminal, or may record a description of the event scene.
  • the additional data 330 may further include various types of information added by the informant.
  • FIG. 4 is a flowchart illustrating an example of a method of classifying media data into space units according to the present invention.
  • the device determines the spatial distribution density of the media data based on the location information of the media data received from the plurality of user terminals (S400).
  • the device detects the distribution density of media data as an example of a method for automatically identifying where an event occurred.
  • the device determines the distribution density of each region by the basic space units 510, 512, and 514 having a predetermined area, and then identifies the region 510 that is greater than or equal to a predetermined threshold.
  • the device may vary the threshold value of the distribution density for the classification of spatial units according to geographic information of each region (for example, large cities, small cities, urban centers and neighborhoods, residential areas, and malls).
  • the device grasps the distribution center of media data of the corresponding area (S410). For example, there may be cases where the informant is skewed to one side of the space depending on the scene of the event, so that the device grasps and classifies the media data located in a certain space from the distribution center of the media data for more accurate media data classification. .
  • the distribution range of the informant may vary depending on the geographic environment where the event occurred or the type of event. For example, in the case of a large forest fire, the informant can range from several kilometers, and in the case of a traffic accident, the informant can range from several meters away from the scene of the incident. Also, in the middle of a crowded city center, the area of the scene is narrow because the view is blocked by buildings or people, and in the case of a secluded countryside, the scene can be taken from a distance.
  • the device does not apply the size of the basic spatial unit 510 of FIG. 5 to classify the media data as it is, but instead of the geographic information or the event type (the type of the central subject of the media data) where the event occurs as shown in FIG. 6. Actively change accordingly.
  • the large circle 520 of FIG. 5 is an example in which the size of the basic space unit is changed.
  • the apparatus may determine the type of event based on the additional information when the media data includes additional information, or the central subject (ie, the image center) present in the still image (or video) of the media data.
  • the type of event can be determined according to the type of the subject). For example, when the central subject of the media data is a car, the event type may be classified as a traffic accident, and when it is a flame or smoke, it may be classified as a fire event.
  • the device grasps and classifies the media data located within the space unit set at the distribution center of the media data (S430). For example, in FIG. 5, the number of media data located in the right basic space unit 514 is four, but when the size of the space unit is increased (520), the number of media data is nine.
  • FIG. 5 is a diagram illustrating an example of a method of classifying space units of media data according to the present invention
  • FIG. 6 is a diagram illustrating an example of changing a basic space unit according to the present invention.
  • the apparatus determines the distribution density of each media data based on the location information included in the media data.
  • the device may determine the distribution of media data accumulated for a predetermined time. For example, the device may determine the distribution density of the media data received on an hourly basis.
  • the apparatus changes the size of the basic space unit 600 according to the geographic information and the event type, and then grasps and classifies the media data located in the space units 610 and 620 of the changed size. For example, in the case of the first area (or the first event), if the range of where the informant is located is narrow, the device changes the basic space unit 600 into a small space unit 610. On the contrary, in the case of the second region (or the second event), if the reporter is located in a wide range, the apparatus changes the basic space unit 600 to a larger space unit 620.
  • the device may also apply different thresholds for classifying spatial units according to geographic information or event type.
  • FIG. 7 is a flowchart illustrating an example of a method of classifying media data according to an embodiment of the present invention in units of time.
  • the device determines a time distribution density of media data based on time information of media data received from a plurality of user terminals (S400).
  • the report will increase in frequency when an event occurs, so the device uses the time distribution density of the media data as an example of a method for automatically identifying and classifying the occurrence time of the event.
  • the device may vary the threshold value of the time distribution density for time unit classification according to the geographic information where the event occurs and the type of event. For example, referring to FIG. 8, a time zone for event classification may be determined by using the A threshold value in the case of an incident site in a downtown area and a B threshold value in a rural area.
  • the apparatus grasps the time distribution center of the media data (S410), and identifies and classifies the media data in a predetermined time region based on the time distribution center. Since the time distribution of the report can be different depending on the geographic information or the type of event, the device actively changes the size of the time range (ie, time unit) for media data classification. For example, if an event lasts for a long time, such as a fire, it may be necessary to increase the size of time units for media data classification.
  • the device grasps and classifies the media data located within the set time unit at the center of time distribution of the media data (S430).
  • FIG. 8 is a diagram illustrating an example of a time unit classification method of media data according to the present invention
  • FIG. 9 is a diagram illustrating an example of changing a basic time unit according to the present invention.
  • the reporting time and the reporting amount of the informant may vary according to the location of the event or the type of the event. Accordingly, the device actively varies and applies the size of the threshold values A and B for classifying the time zone where an event occurs and the time units 910 and 920 for classifying media data according to geographic information or event type.
  • the media data located within the time unit 1 when the threshold occurrence frequency 800 exceeds the threshold A in the event occurrence frequency 800 and 810 is identified and classified.
  • FIG. 10 illustrates an example of classifying media data in units of space time according to the present invention.
  • the device may determine a space unit for classifying media data through the method of FIG. 4, and may determine a time unit for classifying media data through the method of FIG. 7.
  • two methods of FIGS. 4 and 7 may be simultaneously applied or only one of the two methods may be applied.
  • the device classifies the media data located in the area 1000 by combining the space unit and the time unit. Therefore, the device can automatically identify the region and time zone where a particular event occurred and classify and provide media data about the event.
  • 11 to 14 illustrate an example of a method of three-dimensionally displaying media data classified in units of space and time.
  • 11 illustrates an example of a method of determining a relative photographing position based on a recording direction of media data according to the present invention
  • FIG. 12 illustrates a relative photographing distance based on a subject size of media data according to the present invention.
  • FIG. 13 is a diagram illustrating an example of a determination method
  • FIG. 13 is a diagram illustrating an example of a method of determining a relative photographing height based on a photographing angle of media data according to the present invention.
  • the apparatus grasps the location information of the media data so that the photographing direction (arrow direction in FIG. 11) of the media data converges to one point 1150.
  • the relative photographing positions 1112, 1122, 1132, and 1142 are determined by moving the photographing positions 1110, 1120, 1130, and 1140.
  • the device determines the relative photographing distance (l 1 , l 2 , l 3 , l 4 ) between the photographing positions of the media data from the center subject based on the size of the center subject included in the media data. Determine the relative photographing positions (1200, 1210, 1220, 1230).
  • This embodiment shows an example in which FIG. 12 is again applied to the result of FIG. 11, but an application order thereof may be changed in various ways according to the embodiment.
  • the device may determine a photographing angle of each media data. As the photographing angle is larger, the photographing heights 1300 and 1310 of the media data are higher, and the device determines the relative photographing heights h 1 and h 2 of the media data based on the photographing angles of the media data.
  • the apparatus determines the three-dimensional position 1400 of the media data based on the relative photographing direction, relative photographing distance, and relative photographing height of each media data determined in FIGS. 11 to 13. Since the device determines and provides the 3D location 1400 of each media data based on the center of the event, the administrator can easily identify the scene of the event in a desired direction or height. According to an embodiment, the device may provide a screen on which media data is three-dimensionally arranged.
  • 15 is a diagram illustrating an example of a method of classifying media data based on indoors and outdoorss according to the present invention.
  • the device determines whether the photographing position of the media data is indoors or outdoors (S1500). For example, when the device cannot receive the GPS information of the user terminal when receiving the media data from the user terminal, or when the location information included in the media data and the recording time of the still image or video included in the media data When the information is different or when the location information is missing in the media data, the photographing position of the media data can be regarded as indoor.
  • the device also distinguishes whether the event site is also indoors or outdoors (S1510). For example, the device may distinguish whether the event scene is indoor or outdoor based on the spectrum analysis of the subject of the media data.
  • the device may classify the media data into four cases as described below based on the case where the recording location and the event site location of the media data are indoors and outdoors, respectively (S1520).
  • 16 is a diagram illustrating a configuration of an embodiment of a user terminal according to the present invention.
  • the user terminal 110 includes a photographing unit 1600, a sensing unit 1610, a recording unit 1620, an input unit 1630, and a transmission unit 1640.
  • the user terminal may include various types of sensors according to embodiments, such as the position sensor 1612, the time sensor 1614, the tilt sensor 1616, the direction sensor 1618, and the like.
  • the photographing unit 1600 captures a still image or a video of the scene of the incident through a camera.
  • the sensing unit 1610 measures and stores various surrounding conditions through a sensor when the photographing unit 1600 is photographed. For example, the sensing unit 1610 measures and stores location information and time information at the time of shooting through the position sensor 1612 and the time sensor 1614. If there is a tilt sensor 1616 such as a gyroscope in the user terminal, the sensing unit 1610 measures and stores the tilt of the terminal at the time of shooting, and the direction sensor 1618 that can grasp the direction of the terminal like the geomagnetic sensor is provided. If present, the sensing unit 1610 measures and stores a photographing direction when photographing.
  • a tilt sensor 1616 such as a gyroscope
  • the recording unit 1620 receives and records the sound of the scene of the incident or the voice of the whistleblower.
  • the input unit 1630 receives and stores information such as text.
  • the transmitting unit 1640 may include tagging data including a still image (or a moving image) captured by the photographing unit 1600, various sensing information captured by the sensing unit 1610, and a recording unit 1620 or an input unit 1630.
  • Media data including the additional data consisting of the recording information or text information received through the) is generated and transmitted to the media data classification apparatus 100.
  • FIG. 17 is a diagram showing the configuration of an embodiment of a media data classification apparatus according to the present invention.
  • the media data classification apparatus 100 includes a receiver 1700, a spatiotemporal classifier 1710, and a provider 1770.
  • the space-time classification unit 1710 may include a space unit classification unit 1720, a time unit classification unit 1730, a situation classification unit 1740, an indoor / outdoor classification unit 1750, and a three-dimensional classification unit 1760. have.
  • the receiver 1700 receives a plurality of media data from a plurality of user terminals.
  • the space-time classification unit 1710 classifies the plurality of media data by space and time at which an event occurs.
  • the space unit classification unit 1720 identifies a space in which an event occurs and identifies and classifies media data in the space.
  • the spatial unit classification unit 1720 may use the method illustrated in FIG. 4.
  • the time unit classifying unit 1730 identifies the time when an event occurs and identifies and classifies corresponding time zone media data. For example, the time classifier 1730 may use the method illustrated in FIG. 7.
  • the situation classifier 1740 identifies and classifies the types of events provided by the media data using the additional data.
  • the indoor / outdoor classification unit 1750 classifies the recording location of the media data or the location of the occurrence location of the media data according to whether the location is indoor or outdoor. For example, the indoor / outdoor classification unit 1750 may use the method illustrated in FIG. 15.
  • the three-dimensional classifier 1760 determines and provides a relative three-dimensional position with respect to a photographing position of each media data when the media data includes tilt information or direction information.
  • the provider 1770 classifies and provides the media data.
  • the providing unit 1770 may identify an important event and automatically provide it to an administrator when the salping space distribution density or the time distribution density exceed a predetermined value in FIGS. 4 and 7, that is, when the number of reports is large. have.
  • the provider 1770 may automatically classify and provide media data according to a predetermined importance for each event type.
  • the invention can also be embodied as computer readable code on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Alarm Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Disclosed are a method and an apparatus for classifying media data. When receiving media data including still images or videos from a plurality of user terminals, the apparatus for classifying media data classifies the media data into space units on the basis of location information included in the media data, classifies the media data into time units on the basis of time information included in the media data, and classifies the media data into time-space units by combining the space units and the time units.

Description

미디어 데이터 분류 방법 및 그 장치Method and apparatus for classifying media data

본 발명은 미디어 데이터를 분류하는 방법 및 그 장치에 관한 것으로서, 보다 상세하게는 복수의 제보자가 제공하는 복수의 미디어 데이터를 사건별로 자동 분류하는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for classifying media data, and more particularly, to a method and apparatus for automatically classifying a plurality of media data provided by a plurality of reporters for each event.

최근 스마트폰 카메라 기술의 발달에 힘입어, 언론 미디어에서 사용하는 보도사진 중에 스마트폰으로 찍은 사진이 급증하고 있다. 특히 교통사고나 범죄현장 등 예기치 못한 사건일수록 스마트폰에 의해 취득된 영상 콘텐츠의 비중이 점차적으로 높아지고 있다. 스마트폰을 비롯해 개인 소유 영상 미디어로부터 제보되는 영상 콘텐츠를 보도용으로 쓰는 경우는 페이퍼 미디어(종이신문)나 방송매체의 경우 전체 사진의 5% 미만인데 비해, 인터넷 신문의 경우 10% 정도로 추정되며, 위키트리, 상하이스트 등 SNS 매체의 경우는 15% 이상으로 추정된다. Recently, thanks to the development of smartphone camera technology, among the press pictures used in the media, photos taken by the smartphone are increasing rapidly. In particular, as the unexpected events such as traffic accidents and crime scenes, the proportion of video contents acquired by smartphones is gradually increasing. It is estimated that less than 5% of all photographs are reported for personal media such as smartphones and personal media, but less than 5% of all photographs are used for paper media or broadcast media. SNS media such as Wikitree and Shanghaist are estimated at over 15%.

언론 매체 등이 다수의 일반인들로부터 영상 제보를 받는 경우에, 동일 사건은 물론 성격이 서로 다른 사건의 제보가 동시에 이어질 가능성이 높다. 더욱이 대형 사건이 발생하고 주변에 영상 데이터를 제보할 의지가 있는 제보자가 다수 존재하는 경우, 언론 매체 등은 짧은 시간에 대량의 영상 데이터를 제공받을 것이다. In the case where the media and the like receive video reports from a large number of ordinary people, it is highly likely that the same events and reports of different personalities will be followed at the same time. Moreover, when a large-scale event occurs and there are a large number of reporters who are willing to report the video data, the media and the like will be provided with a large amount of video data in a short time.

그러나 이와 같이 대량의 제보가 동시다발적으로 이루어지는 경우에, 언론 매체의 편집자가 이를 효율적으로 분류하고 해석하여 보도의 신속성을 이루는 것은 현실적으로 불가능하다.However, when such a large amount of reports are made at the same time, it is practically impossible for the editors of the media to efficiently classify and interpret them to achieve the promptness of the report.

본 발명이 이루고자 하는 기술적 과제는, 복수의 제보자로부터 수신한 복수의 미디어 데이터를 사건별로 분류하는 방법 및 그 장치를 제공하는 데 있다.The present invention has been made in an effort to provide a method and apparatus for classifying a plurality of media data received from a plurality of reporters for each event.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 미디어 데이터의 분류 방법의 일 예는, 복수의 사용자 단말로부터 정지영상 또는 동영상을 포함하는 미디어 데이터를 수신하는 단계; 미디어 데이터에 포함된 위치정보를 기초로 미디어 데이터를 공간단위로 분류하는 단계; 미디어 데이터에 포함된 시간정보를 기초로 미디어 데이터를 시간단위로 분류하는 단계; 및 상기 공간단위 및 시간단위를 조합하여 미디어 데이터를 시공간 단위로 분류하는 단계;를 포함한다. In order to achieve the above technical problem, an example of a method of classifying media data according to the present invention includes: receiving media data including a still image or a video from a plurality of user terminals; Classifying the media data into space units based on location information included in the media data; Classifying the media data into units of time based on time information included in the media data; And classifying media data into space-time units by combining the space units and the time units.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 미디어 데이터 분류 장치의 일 예는, 복수의 사용자 단말로부터 정지영상 또는 동영상을 포함하는 미디어 데이터를 수신하는 수신부; 미디어 데이터에 포함된 위치정보를 기초로 미디어 데이터를 공간단위로 분류하는 공간단위분류부; 미디어 데이터에 포함된 시간정보를 기초로 미디어 데이터를 시간단위로 분류하는 시간단위분류부; 및 공간단위 및 시간단위로 분류된 각 미디어 데이터에 포함된 음향 또는 문자 정보로부터 파악한 키워드를 기초로 미디어 데이터가 제공하는 상황을 분류하는 상황분류부;를 포함한다.In accordance with an aspect of the present invention, there is provided an apparatus for classifying media data, including: a receiver configured to receive media data including a still image or a video from a plurality of user terminals; A space unit classification unit classifying the media data into space units based on the location information included in the media data; A time unit classification unit classifying the media data into time units based on time information included in the media data; And a situation classifying unit classifying a situation provided by the media data based on keywords identified from sound or text information included in each media data classified by space and time.

본 발명에 따르면, 복수의 사용자 단말로부터 수신한 미디어 데이터를 시공간 단위로 분류할 수 있다. 또한, 시공간 단위로 분류된 미디어 데이터에 포함된 음성이나 문자 정보 등을 기초로 해당 미디어 데이터가 나타내는 상황(예를 들어, 교통사고, 화재 등)을 자동 분류하여 제공할 수 있어 미디어 데이터를 일일이 확인하지 않고서도 사건의 종류나 중요도 등을 미디어 매체 관리자가 용이하게 파악할 수 있다.According to the present invention, media data received from a plurality of user terminals may be classified in units of space time. In addition, based on voice or text information included in media data classified by space-time units, the media data can be automatically classified and provided, for example, a traffic accident or a fire. Without doing so, the media manager can easily grasp the type and importance of the incident.

또한 미디어 데이터를 사건이 발생한 공간을 기준으로 3차원으로 분류하여 관리자가 원하는 관점에서 사건을 용이하게 살펴볼 수 있도록 한다. 또한 사건이 발생한 장소(예를 들어, 도심 또는 캠핑장 등)나 사건의 종류(예를 들어, 교통사고 또는 화재) 등에 따라 미디어 데이터의 분류를 위한 공간단위와 시간단위의 크기를 능동적으로 가변하여 해당 사건의 미디어 데이터를 정확하게 수집하고 분류할 수 있다.In addition, media data is categorized into three dimensions based on the space where the event occurred, so that the administrator can easily view the event from the point of view desired. In addition, the size of the space unit and time unit for classifying the media data can be actively changed according to the place where the event occurred (for example, urban center or camping ground) or the type of event (for example, traffic accident or fire). Accurately collect and classify media data for the incident.

도 1은 본 발명에 따른 미디어 데이터 분류를 위한 전체 시스템의 개략적인 구조를 도시한 도면,1 shows a schematic structure of an entire system for media data classification according to the present invention;

도 2는 본 발명에 따른 미디어 데이터 분류 방법의 일 예를 도시한 흐름도,2 is a flowchart illustrating an example of a method of classifying media data according to the present invention;

도 3은 본 발명에 따른 미디어 데이터의 일 예를 도시한 도면,3 illustrates an example of media data according to the present invention;

도 4는 본 발명에 따른 미디어 데이터를 공간단위로 분류하는 방법의 일 예를 도시한 흐름도,4 is a flowchart illustrating an example of a method of classifying media data into space units according to the present invention;

도 5는 본 발명에 따른 미디어 데이터의 공간단위 분류 방법의 일 예를 도시한 도면,5 is a diagram illustrating an example of a method of classifying spatial units of media data according to the present invention;

도 6은 본 발명에 따른 기본 공간단위를 가변하는 일 예를 도시한 도면,6 is a diagram illustrating an example of changing a basic space unit according to the present invention;

도 7은 본 발명에 따른 본 발명에 따른 미디어 데이터를 시간단위로 분류하는 방법의 일 예를 도시한 흐름도,7 is a flowchart illustrating an example of a method of classifying media data according to an embodiment of the present invention in units of time;

도 8은 본 발명에 따른 미디어 데이터의 시간 단위 분류 방법의 일 예를 도시한 도면, 8 illustrates an example of a time unit classification method of media data according to the present invention;

도 9는 본 발명에 따른 기본 시간단위를 가변하는 일 예를 도시한 도면,9 illustrates an example of changing a basic time unit according to the present invention;

도 10은 본 발명에 따라 미디어 데이터를 시공간단위로 분류한 일 예를 도시한 도면,FIG. 10 is a diagram illustrating an example of classifying media data into space-time units according to the present invention; FIG.

도 11은 본 발명에 따라 미디어 데이터의 촬영 방향을 기초로 상대적 촬영위치를 결정하는 방법의 일 예를 도시한 도면, 11 illustrates an example of a method of determining a relative photographing position based on a photographing direction of media data according to the present invention;

도 12는 본 발명에 따라 미디어 데이터의 피사체 크기를 기초로 상대적 촬영거리를 결정하는 방법의 일 예를 도시한 도면, 12 illustrates an example of a method of determining a relative photographing distance based on a subject size of media data according to the present invention;

도 13은 본 발명에 따라 미디어 데이터의 촬영 각도를 기초로 상대적 촬영높이를 결정하는 방법의 일 예를 도시한 도면,FIG. 13 illustrates an example of a method of determining a relative photographing height based on a photographing angle of media data according to the present invention; FIG.

도 14는 본 발명에 따라 미디어 데이터의 촬영 위치를 3차원으로 표시한 일 예를 도시한 도면,14 is a view showing an example of displaying the recording position of the media data in three dimensions according to the present invention;

도 15는 본 발명에 따른 미디어 데이터를 실내외를 기준으로 분류하는 방법의 일 예를 도시한 도면,15 is a diagram illustrating an example of a method of classifying media data according to an indoor and outdoor reference according to the present invention;

도 16은 본 발명에 따른 사용자 단말의 일 실시 예의 구성을 도시한 도면, 그리고,16 is a view showing the configuration of an embodiment of a user terminal according to the present invention;

도 17은 본 발명에 따른 미디어 데이터 분류 장치의 일 실시 예의 구성을 도시한 도면이다.17 is a diagram showing the configuration of an embodiment of a media data classification apparatus according to the present invention.

이하에서, 첨부된 도면들을 참조하여 본 발명에 따른 미디어 데이터 분류 방법 및 그 장치에 대해 상세히 설명한다. Hereinafter, a method and apparatus for classifying media data according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 미디어 데이터 분류를 위한 전체 시스템의 개략적인 구조를 도시한 도면이다.1 is a diagram illustrating a schematic structure of an entire system for media data classification according to the present invention.

도 1을 참조하면, 정지영상이나 동영상 등을 포함하는 미디어 데이터를 자동 분류하는 미디어 데이터 분류 장치(100)는 유무선 통신망을 통해 복수의 사용자 단말(110,112,114,116)로부터 미디어 데이터를 수신한다. Referring to FIG. 1, the media data classification apparatus 100 for automatically classifying media data including a still image or a moving image receives media data from a plurality of user terminals 110, 112, 114, and 116 through a wired or wireless communication network.

사용자 단말(110,112,114,116)은 미디어 데이터를 유무선 통신망을 통해 미디어 데이터 분류 장치에 전송할 수 있는 모든 종류의 단말을 의미한다. 사용자 단말(110,112,114,116)의 일 예로, 스마트폰이나 테블릿 PC 등이 있을 수 있다. 사용자 단말(110,112,114,116)의 일 예의 구성은 도 16에서 다시 설명한다.The user terminals 110, 112, 114, and 116 refer to all types of terminals capable of transmitting media data to the media data classification apparatus through a wired or wireless communication network. An example of the user terminals 110, 112, 114, and 116 may be a smartphone or a tablet PC. An example configuration of the user terminals 110, 112, 114, and 116 will be described again with reference to FIG. 16.

미디어 데이터 분류 장치(100)는 복수의 사용자 단말(110,112,114,116)로부터 수신한 미디어 데이터를 시공간단위로 분류하여 제공한다. 다른 예로, 미디어 데이터 분류 장치(100)는 미디어 데이터를 사건의 종류, 중요도 등에 따라 분류하여 제공할 수 있다. 다른 예로, 미디어 데이터 분류 장치(100)는 미디어 데이터의 3차원 상대적 촬영위치를 제공하여 관리자가 원하는 관점에서 해당 사건을 볼 수 있도록 한다.The media data classification apparatus 100 classifies and provides media data received from the plurality of user terminals 110, 112, 114, and 116 in space-time units. As another example, the media data classification apparatus 100 may classify and provide media data according to an event type, importance, and the like. As another example, the media data classification apparatus 100 provides a three-dimensional relative photographing position of the media data so that the administrator can view the incident from a desired perspective.

도 2는 본 발명에 따른 미디어 데이터 분류 방법의 일 예를 도시한 흐름도이다.2 is a flowchart illustrating an example of a method of classifying media data according to the present invention.

도 2를 참조하면, 미디어 데이터 분류 장치(이하, '장치'라 함)는 복수의 사용자 단말로부터 미디어 데이터를 수신한다(S200). 장치는 미디어 데이터에 포함된 위치정보(예를 들어, GPS(Global Positioning System) 좌표 정보 등) 및 시간정보(실시 예에 따라 날짜 정보를 포함할 수 있음) 등을 기초로 화재나 교통사고 등과 같은 각종 사건사고가 발생한 공간영역 및 시간대의 미디어 데이터를 분류한다(S210). Referring to FIG. 2, the media data classification apparatus (hereinafter referred to as an “device”) receives media data from a plurality of user terminals (S200). The device is based on location information (for example, GPS (Global Positioning System) coordinate information, etc.) and time information (which may include date information according to an embodiment) included in the media data. The media data of the spatial region and the time zone in which various incidents occurred is classified (S210).

장치는 미디어 데이터를 공간단위(예를 들어, 2차원 또는 3차원 분류)와 시간단위로 분류하는 경우뿐만 아니라, 실시 예에 따라 미디어 데이터의 촬영위치나 사건 현장의 위치가 실내 또는 실외 중 어디에 속하는지를 기초로 추가 분류할 수 있다. 미디어 데이터를 공간단위로 분류하는 방법의 일 예는 도 4에 도시되어 있고, 미디어 데이터를 시간단위로 분류하는 방법의 일 예는 도 7에 도시되어 있다. 또한 실내외를 기준으로 미디어 데이터를 추가 분류하는 방법의 일 예는 도 15에 도시되어 있다. The device not only classifies the media data into spatial units (eg, two-dimensional or three-dimensional classification) and time units, but also according to the embodiment, the location where the media data is taken or the location of the event scene belongs to indoor or outdoor. Can be further classified on the basis of An example of a method of classifying media data in space units is illustrated in FIG. 4, and an example of a method of classifying media data in units of time is illustrated in FIG. 7. In addition, an example of a method of further classifying media data based on indoor and outdoor is illustrated in FIG. 15.

미디어 데이터에 녹음 정보나 문자 정보 등의 추가정보가 포함되어 있는 경우, 장치는 추가정보를 기초로 미디어 데이터를 사건별로 더 상세히 분류할 수 있다(S220). If the media data includes additional information such as recording information or text information, the device may further classify the media data on a case-by-case basis based on the additional information (S220).

구체적으로, 미디어 데이터에 사건 현장 소리 또는 제보자의 설명 음성 등을 녹음한 녹음 정보가 포함되어 있거나, 현장 상황에 대한 문자 정보가 포함되어 있는 경우에, 장치는 종래의 다양한 음성인식 알고리즘 또는 문자인식 알고리즘을 이용하여 녹음 데이터 또는 문자 정보를 분석하여 사건 종류를 파악할 수 있다. 예를 들어, 복수의 미디어 데이터에 포함된 추가 정보에 '불'이나 '소방차', '화재' 등의 단어 빈도가 높다면, 장치는 미디어 데이터가 가리키는 사건을 '화재'로 파악한다. 이를 위해 장치는 각 사건별 단어집을 미리 가지고 있을 수 있다. Specifically, in the case where the media data includes recording information recording the event scene sound or the whistleblower's description voice, or text information on the scene situation, the device may be a variety of conventional speech recognition algorithms or text recognition algorithms. You can analyze the recorded data or text information to determine the type of event. For example, if the word information such as 'fire', 'fire truck', or 'fire' is high in the additional information included in the plurality of media data, the device identifies the event indicated by the media data as 'fire'. To this end, the device may have a word list for each event in advance.

장치는 분류가 완료된 미디어 데이터를 다른 장치에 제공하거나 화면에 표시할 수 있다(S230). 예를 들어, 장치는 특정 지역의 특정 시간대의 미디어 데이터의 제공 요청을 받으면, 해당 미디어 데이터를 분류하여 제공한다. 이때 장치는 실시 예에 따라 각 미디어 데이터의 상대적 위치를 함께 제공함으로써 관리자 등이 미디어 데이터가 나타내는 사건 현장을 원하는 관점에서 용이하게 파악할 수 있도록 한다. 또 다른 예로, 장치는 화재, 교통사고 등과 같이 사건별로 미디어 데이터를 제공할 수 있다. The device may provide the classified media data to another device or display it on the screen (S230). For example, when the device receives a request for providing media data in a specific time zone of a specific region, the device classifies and provides the media data. In this case, the device provides a relative position of each media data according to an embodiment so that an administrator or the like can easily identify the incident scene represented by the media data from a desired perspective. As another example, the device may provide media data on a case-by-case basis, such as a fire or a traffic accident.

도 3은 본 발명에 따른 미디어 데이터의 일 예를 도시한 도면이다.3 is a diagram illustrating an example of media data according to the present invention.

도 3을 참조하면, 사용자 단말이 장치로 전송하는 미디어 데이터(300)는 정지영상(또는 동영상)(310), 태깅 데이터(320) 및 추가 데이터(330)를 포함한다.Referring to FIG. 3, the media data 300 transmitted from the user terminal to the device includes a still image (or video) 310, tagging data 320, and additional data 330.

정지영상 또는 동영상(310)은 카메라 등을 통해 촬영된 이미지로서, 사용자 단말의 카메라 등을 통해 직접 촬영되었거나 사용자 단말 이외의 장치에서 촬영된 이미지일 수 있다. 이하에서는 설명의 편의를 위해 정지영상 또는 동영상(310)은 사용자 단말에 의해 촬영된 경우로 한정하여 설명한다. The still image or video 310 may be an image photographed through a camera, or may be an image photographed directly by a camera of the user terminal or photographed by a device other than the user terminal. Hereinafter, for convenience of description, the still image or the video 310 will be described as limited to the case where the user terminal is photographed.

태깅 데이터(320)는 이미지 촬영시의 각종 환경 정보를 나타내는 데이터로서, 촬영 위치를 나타내는 위치정보, 촬영 시간을 나타내는 시간정보를 포함한다. 이 외에도 태깅 데이터(320)는 촬영시의 조도, 습도, 온도, 사용자 단말의 기울기, 촬영 방향 등 실시 예에 따라 다양한 정보를 더 포함할 수 있다.The tagging data 320 is data representing various environmental information at the time of image capturing, and includes position information indicating a photographing position and time information indicating a capturing time. In addition, the tagging data 320 may further include various information according to an embodiment, such as illuminance, humidity, temperature, a tilt of the user terminal, and a shooting direction.

추가 데이터(330)는 제보자에 의해 추가되는 정보로서, 녹음 정보 또는 문자 정보 등을 포함한다. 예를 들어, 제보자는 사용자 단말의 녹음 기능을 통해 촬영시 사건 현장 상황에 대한 설명을 녹음하거나 현장 소리를 녹음할 수 있으며, 또는 사건 현장에 대한 설명을 글을 기록할 수 있다. 추가 데이터(330)는 이 외에도 제보자에 의해 추가되는 다양한 형태의 정보를 더 포함할 수 있다. The additional data 330 is information added by the informant, and includes recording information or text information. For example, the whistleblower may record a description of an event scene situation or record a scene sound at the time of shooting through a recording function of a user terminal, or may record a description of the event scene. The additional data 330 may further include various types of information added by the informant.

도 4는 본 발명에 따른 미디어 데이터를 공간단위로 분류하는 방법의 일 예를 도시한 흐름도이다. 4 is a flowchart illustrating an example of a method of classifying media data into space units according to the present invention.

도 4를 참조하면, 장치는 복수의 사용자 단말로부터 수신한 미디어 데이터의 위치정보를 기초로 미디어 데이터의 공간 분포 밀도를 파악한다(S400). 일반적으로 화재나 교통사고 등과 같이 사건사고가 발생한 경우에 많은 수의 제보가 이루어질 것이므로, 장치는 사건이 발생한 곳을 자동 파악하기 위한 방법의 일 예로 미디어 데이터의 분포 밀도를 파악한다. Referring to FIG. 4, the device determines the spatial distribution density of the media data based on the location information of the media data received from the plurality of user terminals (S400). In general, since a large number of reports will be made in case of an accident such as a fire or a traffic accident, the device detects the distribution density of media data as an example of a method for automatically identifying where an event occurred.

예를 들어, 도 5를 참조하면, 장치는 일정 면적을 가진 기본공간단위(510,512,514)로 각 지역의 분포 밀도를 파악하다가 일정 임계값 이상인 지역(510)을 파악한다. 그러나 사건 현장이 도심 한가운데인 경우와 한적한 시골 마을인 경우에 동일한 종류의 사건이라도 이를 촬영하여 제보하는 사람의 수는 많은 차이가 있을 수 있다. 따라서, 장치는 각 지역의 지리정보(예를 들어, 대도시와 중소도시, 도심 중심가와 주변지, 주택가와 상가 등)에 따라 공간단위 분류를 위한 분포 밀도의 임계값을 다르게 할 수 있다. For example, referring to FIG. 5, the device determines the distribution density of each region by the basic space units 510, 512, and 514 having a predetermined area, and then identifies the region 510 that is greater than or equal to a predetermined threshold. However, even if the scene of the event is in the middle of the city and in a secluded rural village, the number of people who film and report the same kind of event may be very different. Therefore, the device may vary the threshold value of the distribution density for the classification of spatial units according to geographic information of each region (for example, large cities, small cities, urban centers and neighborhoods, residential areas, and malls).

장치는 분포 밀도를 기초로 분류 대상 공간을 선정하면, 해당 지역의 미디어 데이터의 분포 중심을 파악한다(S410). 예를 들어, 사건 현장에 따라 제보자가 공간의 한쪽 편에 많이 치우쳐 있는 경우가 있을 수 있으므로, 장치는 보다 정확한 미디어 데이터 분류를 위하여 미디어 데이터의 분포 중심에서 일정 공간 내 위치한 미디어 데이터를 파악하여 분류한다. When the device selects the space to be classified based on the distribution density, the device grasps the distribution center of media data of the corresponding area (S410). For example, there may be cases where the informant is skewed to one side of the space depending on the scene of the event, so that the device grasps and classifies the media data located in a certain space from the distribution center of the media data for more accurate media data classification. .

다만 사건이 발생한 곳의 지리적 환경이나 사건 종류에 따라 제보자의 분포 범위는 다양할 수 있다. 예를 들어, 대형 산불의 경우에는 제보자의 범위가 수Km에 달할 수 있고, 교통사고의 경우에는 제보자의 범위가 사건 현장으로부터 수m 범위일 수 있다. 또한 복잡한 도심 한가운데의 경우에는 건물이나 사람 등으로 인해 시야가 가려져 사건 현장을 촬영할 수 있는 범위가 좁고, 한적한 시골의 경우에는 멀리서도 사건 현장을 촬영할 수 있다. However, depending on the geographic environment where the event occurred or the type of event, the distribution range of the informant may vary. For example, in the case of a large forest fire, the informant can range from several kilometers, and in the case of a traffic accident, the informant can range from several meters away from the scene of the incident. Also, in the middle of a crowded city center, the area of the scene is narrow because the view is blocked by buildings or people, and in the case of a secluded countryside, the scene can be taken from a distance.

따라서 장치는 미디어 데이터 분류를 위하여 도 5의 기본공간단위(510)의 크기를 그대로 적용하는 것이 아니라, 도 6과 같이 사건이 발생한 곳의 지리정보 또는 사건 종류(미디어 데이터의 중심 피사체의 종류)에 따라 능동적으로 변화시킨다. 도 5의 큰 원(520)은 기본공간단위의 크기를 가변시킨 일 예이다. 장치는 도 2에서 살핀 바와 같이 미디어 데이터에 추가정보가 포함되어 있는 경우에 추가정보를 기초로 사건 종류를 파악하거나, 또는 미디어 데이터의 정지영상(또는 동영상)에 존재하는 중심 피사체(즉, 이미지 중앙에 위치한 피사체)의 종류에 따라 사건 종류를 파악할 수 있다. 예를 들어, 미디어 데이터의 중심 피사체가 자동차인 경우에는 사건 종류를 '교통사고'로 분류하고, 화염이나 연기인 경우에는 '화재' 사건으로 분류할 수 있다. Therefore, the device does not apply the size of the basic spatial unit 510 of FIG. 5 to classify the media data as it is, but instead of the geographic information or the event type (the type of the central subject of the media data) where the event occurs as shown in FIG. 6. Actively change accordingly. The large circle 520 of FIG. 5 is an example in which the size of the basic space unit is changed. As illustrated in FIG. 2, the apparatus may determine the type of event based on the additional information when the media data includes additional information, or the central subject (ie, the image center) present in the still image (or video) of the media data. The type of event can be determined according to the type of the subject). For example, when the central subject of the media data is a car, the event type may be classified as a traffic accident, and when it is a flame or smoke, it may be classified as a fire event.

장치는 미디어 데이터 분류를 위한 공간단위의 크기가 설정되면(S420), 미디어 데이터의 분포 중심에서 설정된 공간단위 내에 위치한 미디어 데이터를 파악하여 분류한다(S430). 예를 들어, 도 5에서 우측 기본 공간단위(514) 내에 위치한 미디어 데이터의 개수는 4개이나, 공간단위의 크기를 크게 한 경우(520)에 미디어 데이터의 개수는 9개가 된다. When the size of the space unit for classifying the media data is set (S420), the device grasps and classifies the media data located within the space unit set at the distribution center of the media data (S430). For example, in FIG. 5, the number of media data located in the right basic space unit 514 is four, but when the size of the space unit is increased (520), the number of media data is nine.

도 5는 본 발명에 따른 미디어 데이터의 공간단위 분류 방법의 일 예를 도시한 도면이고, 도 6은 본 발명에 따른 기본 공간단위를 가변하는 일 예를 도시한 도면이다.5 is a diagram illustrating an example of a method of classifying space units of media data according to the present invention, and FIG. 6 is a diagram illustrating an example of changing a basic space unit according to the present invention.

도 5를 함께 참조하면, 장치는 미디어 데이터에 포함된 위치정보를 기초로 각 미디어 데이터의 분포 밀도를 파악한다. 이때 장치는 일정 시간 동안 누적된 미디어 데이터의 분포를 파악할 수 있다. 예를 들어, 장치는 1시간 단위로 수신한 미디어 데이터의 분포 밀도를 파악할 수 있다. Referring to FIG. 5 together, the apparatus determines the distribution density of each media data based on the location information included in the media data. In this case, the device may determine the distribution of media data accumulated for a predetermined time. For example, the device may determine the distribution density of the media data received on an hourly basis.

도 6을 참조하면, 장치는 기본 공간단위(600)를 지리정보와 사건 종류에 따라 그 크기를 변경한 후 변경된 크기의 공간단위(610,620) 내에 위치한 미디어 데이터를 파악하여 분류한다. 예를 들어, 제1 지역(또는 제1 사건)의 경우에 제보자가 위치할 범위가 좁다면, 장치는 기본 공간단위(600)를 작은 공간단위(610)로 가변시킨다. 반대로 제2지역(또는 제2사건)의 경우에 제보자가 위치한 범위가 넓다면, 장치는 기본 공간단위(600)를 더 큰 크기의 공간단위(620)로 변경한다. 장치는 지리정보 또는 사건 종류에 따라 공간단위 분류를 위한 임계값 또한 서로 다르게 적용할 수 있다. Referring to FIG. 6, the apparatus changes the size of the basic space unit 600 according to the geographic information and the event type, and then grasps and classifies the media data located in the space units 610 and 620 of the changed size. For example, in the case of the first area (or the first event), if the range of where the informant is located is narrow, the device changes the basic space unit 600 into a small space unit 610. On the contrary, in the case of the second region (or the second event), if the reporter is located in a wide range, the apparatus changes the basic space unit 600 to a larger space unit 620. The device may also apply different thresholds for classifying spatial units according to geographic information or event type.

도 7은 본 발명에 따른 본 발명에 따른 미디어 데이터를 시간단위로 분류하는 방법의 일 예를 도시한 흐름도이다. 7 is a flowchart illustrating an example of a method of classifying media data according to an embodiment of the present invention in units of time.

도 7을 참조하면, 장치는 복수의 사용자 단말로부터 수신한 미디어 데이터의 시간정보를 기초로 미디어 데이터의 시간 분포 밀도를 파악한다(S400). 일반적으로 제보는 사건이 발생하면 그 빈도가 높아질 것이므로, 장치는 사건 발생 시간을 자동 파악하여 분류하기 위한 방법의 일 예로 미디어 데이터의 시간 분포 밀도를 이용한다. Referring to FIG. 7, the device determines a time distribution density of media data based on time information of media data received from a plurality of user terminals (S400). In general, the report will increase in frequency when an event occurs, so the device uses the time distribution density of the media data as an example of a method for automatically identifying and classifying the occurrence time of the event.

도 4에서도 살핀 바와 같이, 사건이 발생한 곳의 지리정보나 사건 종류에 따라 제보자의 수에는 많은 차이가 있을 수 있다. 따라서 장치는 사건이 발생한 곳의 지리정보와 사건 종류에 따라 시간단위 분류를 위한 시간 분포 밀도의 임계값을 서로 달리할 수 있다. 예를 들어, 도 8을 참조하면, 사건 현장이 도심인 경우에는 A임계값을 이용하고 농촌 지역인 경우에는 B 임계값을 이용하여 사건 분류를 위한 시간대를 파악할 수 있다. As shown in FIG. 4, the number of informants may vary according to the geographic information or the type of the event where the event occurs. Therefore, the device may vary the threshold value of the time distribution density for time unit classification according to the geographic information where the event occurs and the type of event. For example, referring to FIG. 8, a time zone for event classification may be determined by using the A threshold value in the case of an incident site in a downtown area and a B threshold value in a rural area.

장치는 미디어 데이터의 시간 분포 중심을 파악하고(S410), 시간 분포 중심을 기준으로 일정 시간영역 내 미디어 데이터를 파악하여 분류한다. 제보의 시간 분포는 지리정보 또는 사건 종류에 따라 서로 다를 수 있으므로, 장치는 미디어 데이터 분류를 위한 시간 범위(즉, 시간단위)의 크기를 능동적으로 변화시킨다. 예를 들어, 화재와 같이 사건이 오랜 시간 지속되는 경우에는 미디어 데이터 분류를 위한 시간단위의 크기를 늘릴 필요가 있다. The apparatus grasps the time distribution center of the media data (S410), and identifies and classifies the media data in a predetermined time region based on the time distribution center. Since the time distribution of the report can be different depending on the geographic information or the type of event, the device actively changes the size of the time range (ie, time unit) for media data classification. For example, if an event lasts for a long time, such as a fire, it may be necessary to increase the size of time units for media data classification.

장치는 시간단위의 크기가 설정되면(S420), 미디어 데이터의 시간 분포 중심에서 설정된 시간단위 내에 위치한 미디어 데이터를 파악하여 분류한다(S430).When the size of the time unit is set (S420), the device grasps and classifies the media data located within the set time unit at the center of time distribution of the media data (S430).

도 8은 본 발명에 따른 미디어 데이터의 시간 단위 분류 방법의 일 예를 도시한 도면이고, 도 9는 본 발명에 따른 기본 시간단위를 가변하는 일 예를 도시한 도면이다. 8 is a diagram illustrating an example of a time unit classification method of media data according to the present invention, and FIG. 9 is a diagram illustrating an example of changing a basic time unit according to the present invention.

도 8 및 도 9를 참조하면, 사건이 발생한 곳의 위치나 사건의 종류에 따라 제보자의 제보 시간과 제보량은 달라질 수 있다. 따라서 장치는 지리정보 또는 사건 종류에 따라 사건이 발생한 시간대를 분류하기 위한 임계값(A,B)의 크기와 미디어 데이터를 분류하기 위한 시간단위(910,920)를 능동적으로 가변시켜 적용한다.8 and 9, the reporting time and the reporting amount of the informant may vary according to the location of the event or the type of the event. Accordingly, the device actively varies and applies the size of the threshold values A and B for classifying the time zone where an event occurs and the time units 910 and 920 for classifying media data according to geographic information or event type.

예를 들어, 사건 장소가 도심이어서 임계값A가 적용되는 경우에, 사건 발생 빈도(800,810)에서 임계값 A를 초과하는 경우(800)의 시간단위1 내에 위치한 미디어 데이터를 파악하여 분류한다. For example, when the threshold A is applied because the event location is downtown, the media data located within the time unit 1 when the threshold occurrence frequency 800 exceeds the threshold A in the event occurrence frequency 800 and 810 is identified and classified.

도 10은 본 발명에 따라 미디어 데이터를 시공간단위로 분류한 일 예를 도시한 도면이다.FIG. 10 illustrates an example of classifying media data in units of space time according to the present invention.

도 10을 참조하면, 장치는 미디어 데이터 분류를 위한 공간단위를 도 4의 방법 등을 통해 결정하고, 미디어 데이터 분류를 위한 시간단위를 도 7의 방법을 통해 결정할 수 있다. 실시 예에 따라, 도 4 및 도 7의 두 방법을 동시에 적용하거나 둘 중 어느 하나의 방법만을 적용할 수 있다.Referring to FIG. 10, the device may determine a space unit for classifying media data through the method of FIG. 4, and may determine a time unit for classifying media data through the method of FIG. 7. According to an embodiment, two methods of FIGS. 4 and 7 may be simultaneously applied or only one of the two methods may be applied.

장치는 공간단위와 시간단위를 조합하여 해당 영역(1000)에 위치한 미디어 데이터를 분류한다. 따라서 장치는 특정 사건이 발생한 지역과 시간대를 자동 파악하여 해당 사건에 대한 미디어 데이터를 분류하고 제공할 수 있다. The device classifies the media data located in the area 1000 by combining the space unit and the time unit. Therefore, the device can automatically identify the region and time zone where a particular event occurred and classify and provide media data about the event.

도 11 내지 도 14는 시공간단위로 분류된 미디어 데이터를 3차원적으로 표시하는 방법의 일 예를 도시한 도면이다. 도 11은 본 발명에 따라 미디어 데이터의 촬영 방향을 기초로 상대적 촬영위치를 결정하는 방법의 일 예를 도시한 도면이고, 도 12는 본 발명에 따라 미디어 데이터의 피사체 크기를 기초로 상대적 촬영거리를 결정하는 방법의 일 예를 도시한 도면이고, 도 13은 본 발명에 따라 미디어 데이터의 촬영 각도를 기초로 상대적 촬영높이를 결정하는 방법의 일 예를 도시한 도면이다.11 to 14 illustrate an example of a method of three-dimensionally displaying media data classified in units of space and time. 11 illustrates an example of a method of determining a relative photographing position based on a recording direction of media data according to the present invention, and FIG. 12 illustrates a relative photographing distance based on a subject size of media data according to the present invention. FIG. 13 is a diagram illustrating an example of a determination method, and FIG. 13 is a diagram illustrating an example of a method of determining a relative photographing height based on a photographing angle of media data according to the present invention.

도 11을 참조하면, 장치는 미디어 데이터에 촬영방향 정보가 포함되어 있는 경우에, 미디어 데이터의 촬영방향(도 11의 화살표 방향)이 한점(1150)에 모두 수렴되도록 미디어 데이터의 위치정보에 의해 파악되는 촬영위치(1110,1120,1130,1140)를 이동시켜 상대적 촬영위치(1112,1122,1132,1142)를 결정한다. Referring to FIG. 11, when the photographing direction information is included in the media data, the apparatus grasps the location information of the media data so that the photographing direction (arrow direction in FIG. 11) of the media data converges to one point 1150. The relative photographing positions 1112, 1122, 1132, and 1142 are determined by moving the photographing positions 1110, 1120, 1130, and 1140.

도 12를 참조하면, 장치는 미디어 데이터에 포함된 중심 피사체의 크기를 기초로 중심 피사체로부터 미디어 데이터의 촬영위치 사이의 상대적 촬영거리(l1,l2,l3,l4)를 결정하여 미디어의 상대적 촬영위치(1200,1210,1220,1230)를 결정한다. 본 실시 예는 도 11의 결과에 다시 도 12를 적용한 일 예를 도시하고 있으나, 그 적용순서는 실시 예에 따라 다양하게 변경 가능하다. Referring to FIG. 12, the device determines the relative photographing distance (l 1 , l 2 , l 3 , l 4 ) between the photographing positions of the media data from the center subject based on the size of the center subject included in the media data. Determine the relative photographing positions (1200, 1210, 1220, 1230). This embodiment shows an example in which FIG. 12 is again applied to the result of FIG. 11, but an application order thereof may be changed in various ways according to the embodiment.

도 13을 참조하면, 장치는 미디어 데이터에 기울기 정보가 포함되어 있다면, 각 미디어 데이터의 촬영 각도를 파악할 수 있다. 촬영각도가 클수록 미디어 데이터의 촬영 높이(1300,1310)가 더 높아지므로, 장치는 각 미디어 데이터의 촬영각도를 기초로 각 미디어 데이터의 상대적 촬영 높이(h1,h2)를 결정한다.Referring to FIG. 13, if the tilt data is included in the media data, the device may determine a photographing angle of each media data. As the photographing angle is larger, the photographing heights 1300 and 1310 of the media data are higher, and the device determines the relative photographing heights h 1 and h 2 of the media data based on the photographing angles of the media data.

도 14를 참조하면, 장치는 도 11 내지 도 13에서 결정된, 각 미디어 데이터의 상대적 촬영방향, 상대적 촬영거리, 상대적 촬영높이를 기초로, 미디어 데이터의 3차원 위치(1400)를 결정한다. 장치는 사건 중심을 기준으로 각 미디어 데이터의 3차원 위치(1400)를 결정하여 제공하므로, 관리자는 원하는 방향이나 높이에서 사건 현장을 용이하게 파악할 수 있다. 실시 예에 따라 장치는 미디어 데이터를 3차원으로 배치한 화면을 제공할 수 있다. Referring to FIG. 14, the apparatus determines the three-dimensional position 1400 of the media data based on the relative photographing direction, relative photographing distance, and relative photographing height of each media data determined in FIGS. 11 to 13. Since the device determines and provides the 3D location 1400 of each media data based on the center of the event, the administrator can easily identify the scene of the event in a desired direction or height. According to an embodiment, the device may provide a screen on which media data is three-dimensionally arranged.

도 15는 본 발명에 따른 미디어 데이터를 실내외를 기준으로 분류하는 방법의 일 예를 도시한 도면이다.15 is a diagram illustrating an example of a method of classifying media data based on indoors and outdoorss according to the present invention.

도 15를 참조하면, 장치는 미디어 데이터의 촬영 위치가 실내 또는 실외인지를 파악한다(S1500). 예를 들어, 장치는 사용자 단말로부터 미디어 데이터를 수신할 때 사용자 단말의 GPS 정보를 파악할 수 없는 경우, 또는 미디어 데이터에 포함된 위치정보의 생성시간과 미디어 데이터에 포함된 정지영상 또는 동영상의 촬영 시간정보가 상이한 경우, 또는 미디어 데이터에 위치정보가 누락되어 있는 경우에 미디어 데이터의 촬영 위치를 실내로 간주할 수 있다. Referring to FIG. 15, the device determines whether the photographing position of the media data is indoors or outdoors (S1500). For example, when the device cannot receive the GPS information of the user terminal when receiving the media data from the user terminal, or when the location information included in the media data and the recording time of the still image or video included in the media data When the information is different or when the location information is missing in the media data, the photographing position of the media data can be regarded as indoor.

장치는 또한 사건 현장이 또한 실내인지 실외인지 구분한다(S1510). 예를 들어, 장치는 미디어 데이터의 피사체의 스펙트럼 분석을 기초로 사건 현장이 실내인지 실외인지를 구분할 수 있다.The device also distinguishes whether the event site is also indoors or outdoors (S1510). For example, the device may distinguish whether the event scene is indoor or outdoor based on the spectrum analysis of the subject of the media data.

장치는 미디어 데이터의 촬영 위치와 사건 현장 위치가 각각 실내인 경우와 실외인 경우를 기준으로 아래와 같이 총 4가지 경우로 미디어 데이터를 분류할 수 있다(S1520).The device may classify the media data into four cases as described below based on the case where the recording location and the event site location of the media data are indoors and outdoors, respectively (S1520).

사건 현장이 실내The scene of the event indoor 사건 현장이 실외The scene of the incident outdoors 촬영위치가 실내Shooting location is indoor 경우 1Case 1 경우 2Case 2 촬영위치가 실외Shooting location is outdoor 경우 3Case 3 경우 4Case 4

도 16은 본 발명에 따른 사용자 단말의 일 실시 예의 구성을 도시한 도면이다.16 is a diagram illustrating a configuration of an embodiment of a user terminal according to the present invention.

도 16을 참조하면, 사용자 단말(110)은 촬영부(1600), 센싱부(1610), 녹음부(1620), 입력부(1630), 전송부(1640)를 포함한다. 또한 사용자 단말은 위치센서(1612), 시간센서(1614), 기울기센서(1616), 방향센서(1618) 등 실시 예에 따라 다양한 종류의 센서를 포함할 수 있다. Referring to FIG. 16, the user terminal 110 includes a photographing unit 1600, a sensing unit 1610, a recording unit 1620, an input unit 1630, and a transmission unit 1640. In addition, the user terminal may include various types of sensors according to embodiments, such as the position sensor 1612, the time sensor 1614, the tilt sensor 1616, the direction sensor 1618, and the like.

촬영부(1600)는 카메라를 통해 사건 현장에 대한 정지영상 또는 동영상을 촬영한다.The photographing unit 1600 captures a still image or a video of the scene of the incident through a camera.

센싱부(1610)는 촬영부(1600)에 의한 촬영시 각종 주변 상황을 센서를 통해 측정하여 저장한다. 예를 들어, 센싱부(1610)는 위치센서(1612)와 시간센서(1614)를 통해 촬영시 위치정보와 시간정보를 측정하여 저장한다. 사용자 단말에 자이로스코프와 같은 기울기 센서(1616)가 존재하면 센싱부(1610)는 촬영시의 단말 기울기 등을 측정하여 저장하고, 지자기 센서와 같이 단말의 방향을 파악할 수 있는 방향센서(1618)가 존재하면 센싱부(1610)는 촬영시 촬영 방향을 측정하여 저장한다. The sensing unit 1610 measures and stores various surrounding conditions through a sensor when the photographing unit 1600 is photographed. For example, the sensing unit 1610 measures and stores location information and time information at the time of shooting through the position sensor 1612 and the time sensor 1614. If there is a tilt sensor 1616 such as a gyroscope in the user terminal, the sensing unit 1610 measures and stores the tilt of the terminal at the time of shooting, and the direction sensor 1618 that can grasp the direction of the terminal like the geomagnetic sensor is provided. If present, the sensing unit 1610 measures and stores a photographing direction when photographing.

녹음부(1620)는 사건 현장의 소리나 제보자의 음성 등을 입력받아 녹음한다. 입력부(1630)는 문자 등의 정보를 입력받아 저장한다.The recording unit 1620 receives and records the sound of the scene of the incident or the voice of the whistleblower. The input unit 1630 receives and stores information such as text.

전송부(1640)는 촬영부(1600)에 의해 촬영된 정지영상(또는 동영상), 센싱부(1610)에 의해 파악된 각종 센싱 정보로 구성되는 태깅 데이터, 그리고 녹음부(1620)나 입력부(1630)를 통해 입력받은 녹음 정보나 문자 정보 등으로 구성되는 추가 데이터를 포함하는 미디어 데이터를 생성하여 미디어 데이터 분류 장치(100)로 전송한다. The transmitting unit 1640 may include tagging data including a still image (or a moving image) captured by the photographing unit 1600, various sensing information captured by the sensing unit 1610, and a recording unit 1620 or an input unit 1630. Media data including the additional data consisting of the recording information or text information received through the) is generated and transmitted to the media data classification apparatus 100.

도 17은 본 발명에 따른 미디어 데이터 분류 장치의 일 실시 예의 구성을 도시한 도면이다.17 is a diagram showing the configuration of an embodiment of a media data classification apparatus according to the present invention.

도 17을 참조하면, 미디어 데이터 분류 장치(100)는 수신부(1700), 시공간분류부(1710) 및 제공부(1770)를 포함한다. 시공간분류부(1710)는 구체적으로 공간단위분류부(1720), 시간단위분류부(1730), 상황분류부(1740), 실내외분류부(1750) 및 3차원분류부(1760)를 포함할 수 있다. Referring to FIG. 17, the media data classification apparatus 100 includes a receiver 1700, a spatiotemporal classifier 1710, and a provider 1770. Specifically, the space-time classification unit 1710 may include a space unit classification unit 1720, a time unit classification unit 1730, a situation classification unit 1740, an indoor / outdoor classification unit 1750, and a three-dimensional classification unit 1760. have.

수신부(1700)는 복수의 사용자 단말로부터 복수의 미디어 데이터를 수신한다.The receiver 1700 receives a plurality of media data from a plurality of user terminals.

시공간분류부(1710)는 복수의 미디어 데이터를 사건이 발생한 공간과 시간별로 분류한다. The space-time classification unit 1710 classifies the plurality of media data by space and time at which an event occurs.

구체적으로 공간단위분류부(1720)는 사건이 발생한 공간을 파악하여 해당 공간 내 미디어 데이터를 파악하여 분류한다. 예를 들어, 공간단위분류부(1720)는 도 4에 도시된 방법을 이용할 수 있다. In detail, the space unit classification unit 1720 identifies a space in which an event occurs and identifies and classifies media data in the space. For example, the spatial unit classification unit 1720 may use the method illustrated in FIG. 4.

시간단위분류부(1730)는 사건이 발생한 시간을 파악하여 해당 시간대 미디어 데이터를 파악하여 분류한다. 예를 들어, 시간단위분류부(1730)는 도 7에 도시된 방법을 이용할 수 있다.The time unit classifying unit 1730 identifies the time when an event occurs and identifies and classifies corresponding time zone media data. For example, the time classifier 1730 may use the method illustrated in FIG. 7.

상황분류부(1740)는 미디어 데이터에 추가 데이터가 포함되어 있는 경우에, 추가 데이터를 이용하여 미디어 데이터가 제공하는 사건의 종류를 파악하여 분류한다. When the additional data is included in the media data, the situation classifier 1740 identifies and classifies the types of events provided by the media data using the additional data.

실내외분류부(1750)는 미디어 데이터의 촬영 위치나 사건 발생 장소의 위치가 실내외인지에 따라 분류한다. 예를 들어, 실내외분류부(1750)는 도 15에 도시된 방법을 이용할 수 있다. The indoor / outdoor classification unit 1750 classifies the recording location of the media data or the location of the occurrence location of the media data according to whether the location is indoor or outdoor. For example, the indoor / outdoor classification unit 1750 may use the method illustrated in FIG. 15.

3차원분류부(1760)는 미디어 데이터에 기울기 정보나 방향정보 등이 포함되어 있는 경우에, 각 미디어 데이터의 촬영 위치에 대한 상대적 3차원 위치를 결정하여 제공한다. The three-dimensional classifier 1760 determines and provides a relative three-dimensional position with respect to a photographing position of each media data when the media data includes tilt information or direction information.

제공부(1770)는 특정 장소나 시간대의 미디어 데이터의 요청이 있으면 해당 미디어 데이터를 분류하여 제공한다. 또는 제공부(1770)는 도 4 및 도 7에서 살핀 공간 분포 밀도나 시간 분포 밀도가 일정 설정값을 초과하는 경우, 즉 제보의 수가 많은 경우에는 중요 사건으로 파악하여 자동 분류하여 관리자 등에 제공할 수 있다. 또는 제공부(1770)는 사건 종류가 파악되는 경우, 미리 설정된 사건 종류별 중요도에 따라 미디어 데이터를 자동 분류하여 제공할 수 있다. If there is a request for media data of a specific place or time zone, the provider 1770 classifies and provides the media data. Alternatively, the providing unit 1770 may identify an important event and automatically provide it to an administrator when the salping space distribution density or the time distribution density exceed a predetermined value in FIGS. 4 and 7, that is, when the number of reports is large. have. Alternatively, when an event type is determined, the provider 1770 may automatically classify and provide media data according to a predetermined importance for each event type.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

Claims (11)

복수의 사용자 단말로부터 정지영상 또는 동영상을 포함하는 미디어 데이터를 수신하는 단계; Receiving media data including a still image or a moving image from a plurality of user terminals; 미디어 데이터에 포함된 위치정보를 기초로 미디어 데이터를 공간단위로 분류하는 단계;Classifying the media data into space units based on location information included in the media data; 미디어 데이터에 포함된 시간정보를 기초로 미디어 데이터를 시간단위로 분류하는 단계; 및Classifying the media data into units of time based on time information included in the media data; And 상기 공간단위 및 시간단위를 조합하여 미디어 데이터를 시공간 단위로 분류하는 단계;를 포함하는 것을 특징으로 하는 미디어 데이터 분류 방법.And classifying the media data into space-time units by combining the space units and the time units. 제 1항에 있어서,The method of claim 1, 상기 시공간 단위로 분류된 각 미디어 데이터에 포함된 음성 또는 문자 정보에 포함된 단어의 빈도를 기초로 미디어 데이터가 제공하는 사건 종류를 분류하는 단계;를 더 포함하는 것을 특징으로 하는 미디어 데이터 분류 방법.And classifying an event type provided by the media data based on a frequency of a word included in voice or text information included in each media data classified by the space-time unit. 2. 제 1항에 있어서, 상기 공간단위로 분류하는 단계는,The method of claim 1, wherein the classifying of the space unit comprises: 미디어 데이터의 공간 분포밀도가 기 설정된 임계값 이상인 공간영역을 파악하는 단계;Identifying a spatial region in which the spatial distribution density of the media data is equal to or larger than a preset threshold value; 상기 공간영역 내 미디어 데이터의 공간 분포중심을 파악하는 단계;Determining a spatial distribution center of media data in the spatial region; 상기 미디어 데이터의 위치정보가 가리키는 곳의 지리정보, 또는 상기 미디어 데이터에 포함된 정지영상이나 동영상의 중심 피사체의 종류에 따라 상기 공간단위의 크기를 설정하는 단계; 및Setting the size of the space unit according to the geographic information where the location information of the media data is indicated or the type of the central subject of the still image or the moving image included in the media data; And 상기 공간 분포중심에서 상기 설정된 공간단위의 크기에 해당하는 공간영역 내에 위치한 미디어 데이터를 파악하는 단계;를 포함하는 것을 특징으로 하는 미디어 데이터 분류 방법.And identifying media data located in a spatial area corresponding to the size of the set spatial unit at the spatial distribution center. 제 1항에 있어서, 상기 시간단위로 분류하는 단계는,The method of claim 1, wherein the classifying of the time unit comprises: 미디어 데이터의 시간 분포밀도가 기 설정된 임계값 이상인 시간영역을 파악하는 단계;Identifying a time domain in which the time distribution density of the media data is equal to or greater than a preset threshold value; 상기 시간영역 내 미디어 데이터의 시간 분포중심을 파악하는 단계;Determining a center of time distribution of media data in the time domain; 상기 미디어 데이터의 시간정보가 가리키는 곳의 지리정보, 또는 상기 미디어 데이터에 포함된 정지영상이나 동영상의 중심 피사체의 종류에 따라 상기 시간단위의 크기를 설정하는 단계; 및Setting the size of the time unit according to the geographic information where the time information of the media data indicates or the type of the central subject of the still image or the video included in the media data; And 상기 시간 분포중심에서 상기 설정된 시간단위의 크기에 해당하는 시간영역 내에 위치한 미디어 데이터를 파악하는 단계;를 포함하는 것을 특징으로 하는 미디어 데이터 분류 방법.And identifying media data located in a time domain corresponding to the size of the set time unit at the time distribution center. 제 1항에 있어서, The method of claim 1, 미디어 데이터에 포함된 방향정보를 기초로 미디어 데이터의 촬영방향을 파악하는 단계; 및Determining a photographing direction of the media data based on the direction information included in the media data; And 각 미디어 데이터의 촬영방향이 모두 하나의 점으로 수렴되도록 각 미디어 데이터의 상대적 촬영위치를 결정하는 단계;를 더 포함하는 것을 특징으로 하는 미디어 데이터 분류 방법.And determining a relative photographing position of each media data such that the photographing directions of the respective media data all converge to one point. 제 1항에 있어서,The method of claim 1, 미디어 데이터에 포함된 기울기 정보를 기초로 미디어 데이터의 촬영 각도를 파악하는 단계; 및Determining a photographing angle of the media data based on the inclination information included in the media data; And 각 미디어 데이터의 촬영각도를 기초로 각 미디어 데이터의 상대적 촬영높이를 결정하는 단계;를 더 포함하는 것을 특징으로 하는 미디어 데이터 분류 방법.And determining the relative photographing height of each media data based on the photographing angle of each media data. 제 1항에 있어서,The method of claim 1, 각 미디어 데이터에 포함된 정지영상 또는 동영상의 중심 피사체의 상대적 크기를 파악하는 단계; 및Determining a relative size of a central subject of a still image or a moving image included in each media data; And 상기 상대적 크기를 기초로 상기 중심 피사체로부터 각 미디어 데이터의 상대적 촬영거리를 결정하는 단계;를 더 포함하는 것을 특징으로 하는 미디어 데이터 분류 방법.And determining a relative photographing distance of each media data from the central subject based on the relative size. 제 1항에 있어서,The method of claim 1, 미디어 데이터에 포함된 위치정보의 생성시간과 미디어 데이터에 포함된 정지영상 또는 동영상의 촬영 시간정보가 동일한지 여부 또는 상기 위치정보가 누락되어 있는지 여부에 따라 상기 미디어 데이터의 촬영 위치가 실내 또는 실외인지 구분하는 단계;Whether the recording location of the media data is indoors or outdoors depending on whether the creation time of the location information included in the media data and the recording time information of the still image or video included in the media data are the same or whether the location information is missing. Distinguishing; 미디어 데이터에 포함된 정지영상 또는 동영상의 피사체의 스펙트럼 분석을 기초로 상기 피사체의 위치가 실내 또는 실외인지 구분하는 단계; 및Discriminating whether a location of the subject is indoors or outdoors based on a spectrum analysis of a subject of a still image or a moving image included in media data; And 상기 촬영 위치 및 피사체의 위치가 실내 또는 실외인지를 기준으로 미디어 데이터를 분류하는 단계;를 더 포함하는 것을 특징으로 하는 미디어 데이터 분류 방법.And classifying media data based on whether the photographing location and the location of the subject are indoors or outdoors. 복수의 사용자 단말로부터 정지영상 또는 동영상을 포함하는 미디어 데이터를 수신하는 수신부;A receiver configured to receive media data including a still image or a video from a plurality of user terminals; 미디어 데이터에 포함된 위치정보를 기초로 미디어 데이터를 공간단위로 분류하는 공간단위분류부;A space unit classification unit classifying the media data into space units based on the location information included in the media data; 미디어 데이터에 포함된 시간정보를 기초로 미디어 데이터를 시간단위로 분류하는 시간단위분류부; 및A time unit classification unit classifying the media data into time units based on time information included in the media data; And 공간단위 및 시간단위로 분류된 각 미디어 데이터에 포함된 음향 또는 문자 정보로부터 파악한 키워드를 기초로 미디어 데이터가 제공하는 상황을 분류하는 상황분류부;를 포함하는 것을 특징으로 하는 미디어 데이터 분류 장치.And a situation classification unit classifying a situation provided by the media data based on keywords identified from sound or text information included in each media data classified in a space unit and a time unit. 제 9항에 있어서, 상기 공간단위분류부는, The method of claim 9, wherein the space unit classification unit, 미디어 데이터에 포함된 방향정보를 기초로 각 미디어 데이터의 촬영 위치의 상대적 위치를 파악하고, 미디어 데이터에 포함된 정지영상 또는 동영상의 피사체의 크기를 기초로 상기 피사체로부터 각 미디어 데이터의 촬영 위치의 상대적 거리를 파악하고, 미디어 데이터에 포함된 기울기 정도를 기초로 상기 피사체로부터 각 미디어 데이터의 상대적 높이를 파악하여, 각 미디어 데이터의 3차원 위치를 결정하는 것을 특징으로 하는 미디어 데이터 분류 장치.The relative position of the recording position of each media data is grasped based on the direction information included in the media data, and the relative position of the recording position of each media data from the subject based on the size of the subject of the still image or the moving image included in the media data. And determining a three-dimensional position of each media data by determining a distance and determining a relative height of each media data from the subject based on the degree of inclination included in the media data. 제1항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for performing the method of claim 1.
PCT/KR2016/009349 2014-12-29 2016-08-24 Method and apparatus for classifying media data Ceased WO2017034309A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20140192564 2014-12-29
KR10-2015-0118870 2015-08-24
KR1020150118870A KR101646733B1 (en) 2014-12-29 2015-08-24 Method and apparatus of classifying media data

Publications (1)

Publication Number Publication Date
WO2017034309A1 true WO2017034309A1 (en) 2017-03-02

Family

ID=56499540

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/009349 Ceased WO2017034309A1 (en) 2014-12-29 2016-08-24 Method and apparatus for classifying media data

Country Status (2)

Country Link
KR (3) KR101646733B1 (en)
WO (1) WO2017034309A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11995288B2 (en) 2017-04-27 2024-05-28 Snap Inc. Location-based search mechanism in a graphical user interface
US12058583B2 (en) 2017-04-27 2024-08-06 Snap Inc. Selective location-based identity communication
US12316589B2 (en) 2016-10-24 2025-05-27 Snap Inc. Generating and displaying customized avatars in media overlays

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038589B (en) 2016-12-14 2019-02-22 阿里巴巴集团控股有限公司 A kind of entity information verification method and device
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
EP4282158A4 (en) 2021-01-25 2025-01-08 EmergeX, LLC METHODS AND SYSTEM FOR COORDINATING UNCOORDINATED CONTENT BASED ON MULTIMODAL METADATA THROUGH DATA FILTERING AND SYNCHRONIZATION TO GENERATE COMPOSITE MEDIA CONTENTS

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070011093A (en) * 2005-07-20 2007-01-24 삼성전자주식회사 Method and apparatus for encoding / playing multimedia contents
KR20100065918A (en) * 2008-12-09 2010-06-17 한국과학기술연구원 A method for geo-tagging of pictures and apparatus thereof
KR20110134998A (en) * 2010-06-10 2011-12-16 (주)에스모바일 Method and device for providing location information using video call
US8094948B2 (en) * 2007-04-27 2012-01-10 The Regents Of The University Of California Photo classification using optical parameters of camera from EXIF metadata
KR20130128800A (en) * 2012-05-18 2013-11-27 삼성전자주식회사 Method for line up contents of media equipment, apparatus thereof, and medium storing program source thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050040450A (en) 2003-10-28 2005-05-03 이원형 A hybrid digital watermarking technique for copyright protection and temper detection on still images
KR101362764B1 (en) 2007-07-02 2014-02-14 삼성전자주식회사 Apparatus and method for providing picture file
KR20100008103A (en) 2008-07-15 2010-01-25 박용석 The method to activate a description through the mediation site
KR101086243B1 (en) 2009-06-24 2011-12-01 대한민국 Digital photo counterfeit detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070011093A (en) * 2005-07-20 2007-01-24 삼성전자주식회사 Method and apparatus for encoding / playing multimedia contents
US8094948B2 (en) * 2007-04-27 2012-01-10 The Regents Of The University Of California Photo classification using optical parameters of camera from EXIF metadata
KR20100065918A (en) * 2008-12-09 2010-06-17 한국과학기술연구원 A method for geo-tagging of pictures and apparatus thereof
KR20110134998A (en) * 2010-06-10 2011-12-16 (주)에스모바일 Method and device for providing location information using video call
KR20130128800A (en) * 2012-05-18 2013-11-27 삼성전자주식회사 Method for line up contents of media equipment, apparatus thereof, and medium storing program source thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12316589B2 (en) 2016-10-24 2025-05-27 Snap Inc. Generating and displaying customized avatars in media overlays
US11995288B2 (en) 2017-04-27 2024-05-28 Snap Inc. Location-based search mechanism in a graphical user interface
US12058583B2 (en) 2017-04-27 2024-08-06 Snap Inc. Selective location-based identity communication
US12086381B2 (en) 2017-04-27 2024-09-10 Snap Inc. Map-based graphical user interface for multi-type social media galleries
US12112013B2 (en) * 2017-04-27 2024-10-08 Snap Inc. Location privacy management on map-based social media platforms
US12131003B2 (en) 2017-04-27 2024-10-29 Snap Inc. Map-based graphical user interface indicating geospatial activity metrics
US12223156B2 (en) 2017-04-27 2025-02-11 Snap Inc. Low-latency delivery mechanism for map-based GUI
US12340064B2 (en) 2017-04-27 2025-06-24 Snap Inc. Map-based graphical user interface indicating geospatial activity metrics
US12393318B2 (en) 2017-04-27 2025-08-19 Snap Inc. Map-based graphical user interface for ephemeral social media content

Also Published As

Publication number Publication date
KR101646733B1 (en) 2016-08-09
KR20160082935A (en) 2016-07-11
KR20160082917A (en) 2016-07-11
KR20160082915A (en) 2016-07-11

Similar Documents

Publication Publication Date Title
WO2017034309A1 (en) Method and apparatus for classifying media data
US11615620B2 (en) Systems and methods of enforcing distancing rules
US8769688B2 (en) Simultaneous determination of a computer location and user identification
KR102546763B1 (en) Apparatus for Providing Image and Method Thereof
US10043079B2 (en) Method and apparatus for providing multi-video summary
WO2013115470A1 (en) Integrated control system and method using surveillance camera for vehicle
WO2014196721A1 (en) System and method for detecting fire using synthetic images
WO2016072625A1 (en) Vehicle location checking system for a parking lot using imaging technique, and method of controlling same
WO2022186426A1 (en) Image processing device for automatic segment classification, and method for driving same device
WO2014193065A1 (en) Video search apparatus and method
US20250356659A1 (en) Systems and methods of identifying persons-of-interest
CN103299344A (en) Monitoring system and occupancy proportion detection method
KR20120015998A (en) Intelligent Video Security System and Method Using Integrated Platform Design Technique
WO2016060312A1 (en) Indoor position recognition-based security management device and method
WO2020085558A1 (en) High-speed analysis image processing apparatus and driving method for apparatus
CN210515326U (en) Scenic spot ticket inspection system based on face AI recognition
WO2012137994A1 (en) Image recognition device and image-monitoring method therefor
KR102682052B1 (en) Apparatus and method for providing density
WO2016072627A1 (en) System and method for managing multiplanar parking lot using one omnidirectional camera
WO2019099321A1 (en) Collaborative media collection analysis
WO2016208870A1 (en) Device for reading vehicle license plate number and method therefor
KR20190099216A (en) RGBD detection based object detection system and method
CN112653871A (en) Method and device for collecting and searching distributed video monitoring
WO2022260264A1 (en) Real-time video relay device and method
US20230143934A1 (en) Selective video analytics based on capture location of video

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16839598

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 20/07/2018)

122 Ep: pct application non-entry in european phase

Ref document number: 16839598

Country of ref document: EP

Kind code of ref document: A1