[go: up one dir, main page]

WO2016003193A1 - Method and system for recognizing map image using toponyms and straight lines, and recording medium - Google Patents

Method and system for recognizing map image using toponyms and straight lines, and recording medium Download PDF

Info

Publication number
WO2016003193A1
WO2016003193A1 PCT/KR2015/006765 KR2015006765W WO2016003193A1 WO 2016003193 A1 WO2016003193 A1 WO 2016003193A1 KR 2015006765 W KR2015006765 W KR 2015006765W WO 2016003193 A1 WO2016003193 A1 WO 2016003193A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
place name
input image
character
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2015/006765
Other languages
French (fr)
Korean (ko)
Inventor
김상경
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of WO2016003193A1 publication Critical patent/WO2016003193A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/147Determination of region of interest

Definitions

  • Embodiments of the present invention relate to a technique of recognizing a map image and finding a map area indicated by the recognized image.
  • a person may directly recognize the area indicated by the map image by looking at the map image, but this is inconvenient for a person to manually find and recognize the area indicated by the map image.
  • Another method is the map recognition method based on the map terrain, which has extracted the terrain information from the input map image after constructing the database of the terrain information of the map in advance and then searching the extracted terrain information from the database. You can find a map area that contains terrain information.
  • Korean Patent Laid-Open Publication No. 10-2013-0052970 (published May 23, 2013), “Map service providing apparatus and method using image recognition technology,” receives a map image, extracts feature points from a map image, and extracts the extracted points.
  • a technology for providing map information on a final image that matches a map image using feature points is disclosed.
  • the existing map recognition method has a problem in that it is difficult to construct a database for the map image, and when the map image is input other than the map image in which the database is constructed, the map recognition is not possible.
  • OCR optical character reader
  • the present invention provides a method and system for providing recognition results of map images based on a point of interest (POI).
  • POI point of interest
  • a computer implemented map recognition method comprising: recognizing a character in an input image using a character recognition technique; Searching for a place name on the map corresponding to the text and the location of the place name; And acquiring a map area matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name.
  • a recognition unit for recognizing a character in the input image by using a character recognition technology
  • a search unit for searching for a place name on the map corresponding to the text and the location of the place name
  • a providing unit which obtains a map area matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name and providing the result as a recognition result of the input image.
  • a computer readable medium comprising instructions for controlling a computer system to provide a map recognition function, the instructions comprising: recognizing a character in an input image using character recognition technology; Searching for a place name on the map corresponding to the text and the location of the place name; And acquiring a map area matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name.
  • a point of interest is recognized in a map image by using an optical character reader (OCR) technology, and the map area indicated by the map image is found based on the recognized name. It is able to recognize all map images such as general paper maps and directions as well as precise electronic maps without being affected by the form.
  • OCR optical character reader
  • the map area indicated by the map image can be accurately found by using a database including the place name information without using a database of the topographic information of the map image.
  • a recognition technology that is strong against noise may be provided to ensure accuracy of the map recognition result.
  • FIG. 1 illustrates an overview of a user terminal and a map recognition system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an internal configuration of a map recognition system according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a map recognition method according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a process of recognizing a place name in an embodiment of the present invention.
  • 5 to 12 are exemplary diagrams for describing a specific process of name recognition according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating a process of obtaining a map area indicated by an input image according to an embodiment of the present invention.
  • 14 to 20 are exemplary diagrams for describing a specific process of obtaining a map area according to an embodiment of the present invention.
  • 21 is a block diagram for explaining an example of an internal configuration of a computer system according to one embodiment of the present invention.
  • the present exemplary embodiments relate to a technology for finding an actual map area indicated by an input image by receiving a map image, and may be applied to various map service areas such as a map search service, a location check service, and a route finder / route guide service.
  • map service areas such as a map search service, a location check service, and a route finder / route guide service.
  • FIG. 1 illustrates an overview of a user terminal and a map recognition system according to an embodiment of the present invention.
  • 1 illustrates a map recognition system 100 and a user terminal 101.
  • an arrow may mean that data may be transmitted and received between the map recognition system 100 and the user terminal 101 through a wired / wireless network.
  • the user terminal 101 is a PC, a smart phone, a tablet, a wearable computer, or the like, and accesses a web / mobile site related to the map recognition system 100 or a service-only application (map recognition). It may mean all terminal devices capable of installing and executing the app). In this case, the user terminal 101 may perform overall service operations such as service screen configuration, data input, data transmission, and data storage under the control of a web / mobile site or a dedicated application.
  • the map recognition system 100 serves as a service platform for providing a map service to a user terminal 101 which is a client.
  • the map recognition system 100 receives a map image from the user terminal 101, recognizes name information in the input map image through OCR technology, and uses an actual map area (latitude) that the map image refers to based on the recognized name. It can provide platform services to find (hardness and boundary area).
  • the map recognition system 100 may be implemented in an application form on the user terminal 101, but is not limited thereto.
  • the map recognition system 100 may be implemented in a form of a service platform that provides a service requiring map recognition in a client-server environment. It is also possible.
  • FIG. 2 is a block diagram illustrating an internal configuration of a map recognition system according to an embodiment of the present invention
  • FIG. 3 is a flowchart illustrating a map recognition method according to an embodiment of the present invention.
  • the map recognition system 200 may include a processor 210, a bus 220, a network interface 230, a memory 240, and a database 250.
  • the memory 240 may include an operating system 241 and a map recognition routine 242.
  • the processor 210 may include a recognizer 211, a searcher 212, and a provider 213.
  • the map recognition system 200 may include more components than the components of FIG. 2.
  • the memory 240 is a computer-readable recording medium and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive.
  • program code for the operating system 241 and the map recognition routine 242 may be stored in the memory 240.
  • These software components may be loaded from a computer readable recording medium separate from the memory 240 using a drive mechanism (not shown).
  • a separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, a memory card, and the like.
  • the software components may be loaded into the memory 240 via the network interface 230 rather than the computer readable recording medium.
  • the bus 220 may enable communication and data transmission between components of the map recognition system 200.
  • the bus 220 may be configured using a high-speed serial bus, a parallel bus, a storage area network and / or other suitable communication technology.
  • the network interface 230 may be a computer hardware component for connecting the map recognition system 200 to a computer network.
  • the network interface 230 may connect the map recognition system 200 to a computer network through a wireless or wired connection.
  • the database 250 includes a name database (DB) for storing and maintaining information necessary for map recognition, in particular, name information.
  • the name information is information on a point of interest (POI) on a map.
  • POI point of interest
  • Table 1 shows an example of a place name DB.
  • the database 250 is included in the map recognition system 200, it is also possible to exist as an external database built on a separate system.
  • the processor 210 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations of the map recognition system 200.
  • the instructions may be provided to the processor 210 by the memory 240 or the network interface 230 and via the bus 220.
  • the processor 210 may be configured to execute program codes for the recognizer 211, the searcher 212, and the provider 213. Such program code may be stored in a recording device such as memory 240.
  • the recognizer 211, the searcher 212, and the provider 213 may be configured to perform the steps S310 to S330 of FIG. 3.
  • the recognition unit 211 may receive a map image from the user terminal as an input image, and then recognize the place name in the received map image.
  • the user terminal may acquire a map imaged by various methods such as camera shooting, screen capture, and directions, and may input it as an input image to the map recognition system 200.
  • a map imaged by various methods such as camera shooting, screen capture, and directions
  • the recognition unit 211 may extract the text area from the map image and perform OCR on the extracted text area to recognize the text on the map image as a place name.
  • the search unit 212 may search for and obtain an actual location on a map from a geographical name DB with respect to the geographical name recognized in operation S310.
  • the search unit 212 may search for a place name recognized in the map image through the OCR in a place name DB in which location information for each place name is stored, and acquire a longitude and latitude which are locations of the place name.
  • the provider 213 may provide an actual map area corresponding to the map image as a map recognition result based on the location information of each name acquired through the name DB search in step S320. That is, the provider 213 may provide map information including a place name recognized by the OCR as a recognition result of the map image. For example, the provider 213 compares the location on the map image with the location on the map image with respect to the name recognized in the map image and the location on the map obtained by searching the name DB, and the center point (latitude / longitude) of the area indicated by the map image. Boundary area can be calculated, and the map image recognition result can be shown by obtaining a scale suitable for the size of the output screen with the calculated center point and the boundary area.
  • each step may be performed by the recognition unit 211 of the map recognition system 200 described with reference to FIGS. 2 and 3.
  • the recognition unit 211 may receive a map image (hereinafter, referred to as an “input image”) imaged through a camera or an image capture from a user terminal, and first input a character from the input image to recognize a place name. The area can be extracted.
  • an input image hereinafter, referred to as an “input image”
  • the directions shown in FIG. 5 are input to the input image.
  • the recognizer 211 may detect a corner in the input image using a corner detector such as a Harris corner detector. 6 illustrates a result of detecting a corner in an input image using a Harris corner detector. Subsequently, the recognition unit 211 may generate a grid-shaped binary corner grid map and process marking on a cell in which a corner exists in the binary corner grid map. 7 shows the result of marking a grid cell in which a corner exists in a binary corner grid map.
  • the recognizer 211 may perform noise removal and region expansion on the character region marked in the binary corner grid map using a binary image morphology.
  • FIG. 8 illustrates a result of performing noise removal and region expansion on the marking image of FIG. 7.
  • the recognizer 211 may detect an outline in a binary corner grid map and bundle the detected outline into a rectangular area, wherein a rectangle 901 smaller than the minimum size is junk. (junk) Can be processed.
  • the rectangle 902 satisfying the minimum size may be detected as the effective area, that is, the character area.
  • the recognition unit 211 expands the rectangle detected as the text area by a predetermined cell (for example, one space) and determines the extended rectangle area 1002 as the final text area as shown in FIG. 10. Can be.
  • the recognition unit 211 may perform OCR on the character region recognized in operation S401 to recognize a character read in the region as a place name.
  • the recognition unit 211 may obtain a place name by performing OCR on the rectangular area 1002 determined as the final character area of FIG. 10.
  • the post-processing may be performed by correcting the search word to increase the accuracy of the OCR result.
  • FIG. 11 illustrates a result of performing OCR on a character region detected in an input image. Accordingly, the recognizer 211 may acquire names (names, POIs) of major places listed in the input image.
  • map recognition by obtaining a place name for map recognition using OCR technology, all forms of map recognition such as general paper maps and maps, as well as electronic maps, are possible.
  • the provider 213 may calculate a center point and a boundary area of the area indicated by the input image in order to provide a map recognition result.
  • the search unit 212 may obtain a place name on the actual map by searching for a place name recognized as an OCR in a place name DB. 12 illustrates location names on an actual map 1220 obtained through a name database search for a name recognized in an input image.
  • the provider 213 may perform map image recognition based on the place name acquired through the recognizer 211 and the place name searched through the search unit 212.
  • FIG. 13 is a flowchart illustrating a process of obtaining a map area indicated by an input image according to an embodiment of the present invention.
  • each step may be performed by the providing unit 213 of the map recognition system 200 described with reference to FIGS. 2 and 3.
  • the provider 213 may acquire a geographical name straight line for the geographical name recognized in the input image.
  • the provider 213 may acquire a slope between the center point and each place name in the input image 1410.
  • the center point of the input image and the center point of the place name recognized in the input image may be obtained.
  • a straight line 1403 that connects to the first named straight line will be referred to as.
  • the provider 213 may obtain an intersection point between the first named straight lines by projecting the first named straight lines on the map area including the named positions searched through the named DB search.
  • the provider 213 inclines the slope of the first place name straight line 1503 obtained in step S1301 to each place name acquired through the search of the place name DB in the actual map 1520. After mapping the straight lines with the straight lines, an intersection point between the first named lines 1503 may be obtained.
  • the provider 213 may perform density-based clustering on the intersection points obtained in operation S1302 to obtain a set of significant intersection points among intersection points between the first straight lines. . If the place name in the input image and the place name on the actual map coincide, the intersection point between the first place name straight lines will coincide with the center coordinates of the input image. However, an error may appear between a place name (FIG. 12) and a place name recognized in the input image (FIG. 14) acquired through a search of a place name DB due to a missearch or an image distortion. Although the names of the names in the input image and the names of the places on the actual map do not exactly match, if a number of names are identical or similar, as shown in FIG. have.
  • the provider 213 may use density-based clustering to find a set of significant intersections, that is, a region 1608 having a high density of intersections.
  • density-based clustering is an algorithm known to perform clustering in such a manner that low-density areas are regarded as noise and clusters high-density areas based on the density of an object (e.g., density-based spatial clustering). of applications with noise), or OPTICS (Ordering points to identify the clustering structure).
  • step S1304 the providing unit 213 calculates an average value of the positions (latitude / longitude) of the intersection points in the set of significant intersection points obtained in step S1303 to determine the center point (latitude / longitude) of the area indicated by the input image. Can be obtained.
  • the average value of the intersection points in the area 1608 where the distribution of the intersection points is concentrated may be the center point on the map, which is viewed as a center coordinate corresponding to the center of the input image on the actual map 1620.
  • the provider 213 calculates the distance between the intersections, and when the distance between the intersections exceeds a certain threshold, considers the noise, calculates an average value of the remaining intersections except noise, and calculates the center coordinates on the map. You can do
  • the names on the real map acquired through the name DB search for names recognized in the input image may include names that are misrecognized.
  • map recognition accuracy is inferior.
  • map recognition is performed based on the density of recognized names, it is difficult to distinguish misidentified names. Accordingly, the present embodiment proposes a method for distinguishing misidentified names in order to provide more accurate and noise resistant map recognition results.
  • the provider 213 may designate a geographical name straight line for the name retrieved from the geographical name DB based on the center point on the actual map acquired in operation S1304, that is, a second geographical name that connects the center point and the geographical location on the actual map. A straight line can be obtained.
  • step S1306 the providing unit 213 distinguishes the misidentified names from the recognized names by using the slope difference between the first straight names projected on the real map and the second straight lines acquired on the real map. Can be removed.
  • the providing unit 213 compares the slopes of the first place name straight line (the name straight line of the input image) and the second place name straight line (the name straight line on the real map) to allow the difference in the slope.
  • a place name that is out of range can be considered as noise and the place name considered to be noise can be removed.
  • the first place name straight line 1703 and the second place name straight line 1704 are compared, it is understood that the tilt error is very large. Therefore, in the present exemplary embodiment, the accuracy of the map recognition result for the input image may be improved by removing the incorrectly recognized name for the input image.
  • the provider 213 may acquire a boundary in which the input image is represented by an actual map by using the distance between the center point of the input image and the place name and the image size of the input image.
  • the provider 213 may use the width ImgW and the height ImgH based on the distance ImgD between the center point and the place name of the input image 1810 and the center point of the input image 1810. ) And the distance MapD between the center point of the actual map 1920 and the place name as shown in FIG. 19.
  • the providing unit 213 uses the distance (ImgD) between the center point and the place name of the input image, the width (ImgW) and height (ImgH) of the input image, and the distance between the center point and the place name (MapD) of the actual map. You can calculate the width (MapW) and height (MapH) of the actual map you are referring to.
  • the width MapW and the height MapH of the actual map may be defined by Equation 1 and Equation 2 by proportional expressions.
  • the provider 213 calculates a width MapW and a height MapH on an actual map 1920 that is proportional to the input image 1910, thereby indicating a map area indicated by the input image 1910.
  • the boundary of can be obtained.
  • the providing unit 213 may provide a map area having a scale that is previously calculated with respect to the size of the output screen with the map center point previously calculated with respect to the input image as an image recognition result.
  • the map region 2020 illustrated in FIG. 20 may be provided as a map image recognition result of the input image of FIG. 5, and the map region 2020 corresponding to the recognition result corresponds to a place name recognized in the input image.
  • POI 2006 may be included.
  • the user terminal providing the input image may receive map information including a place name recognized in the input image from the map recognition system and display the map information as a recognition result of the input image.
  • the map recognition system receives a map image, recognizes a place name from the input map image through OCR technology, and the actual map area (latitude / longitude and boundary area) referred to by the map image based on the recognized place name. I can find you.
  • the map recognition system according to the present invention can easily and accurately find the area indicated by the input image by applying the nomination straight line concept and can provide a strong recognition result against noise.
  • Computer system 2100 includes at least one processor 2110, memory 2120, peripheral interface 2130, I / O subsystem 2140. , At least, the power circuit 2150 and the communication circuit 2160. In this case, the computer system 2100 may correspond to a user terminal.
  • the memory 2120 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or nonvolatile memory. have.
  • the memory 2120 may include a software module, an instruction set, or other various data necessary for the operation of the computer system 2100. In this case, accessing the memory 2120 from another component such as the processor 2110 or the peripheral interface 2130 may be controlled by the processor 2110.
  • Peripheral interface 2130 may couple input and / or output peripherals of computer system 2100 to processor 2110 and memory 2120.
  • the processor 2110 may execute a software module or an instruction set stored in the memory 2120 to perform various functions and process data for the computer system 2100.
  • Input / output subsystem 2140 may couple various input / output peripherals to peripheral interface 2130.
  • the input / output subsystem 2140 may include a controller for coupling a peripheral device such as a monitor or keyboard, a mouse, a printer, or a touch screen or sensor, as needed, to the peripheral interface 2130.
  • the input / output peripherals may be coupled to the peripheral interface 2130 without passing through the input / output subsystem 2140.
  • the power circuit 2150 may supply power to all or part of the components of the terminal.
  • power circuit 2150 may be a power management system, one or more power sources such as batteries or alternating current (AC), charging systems, power failure detection circuits, power converters or inverters, power status indicators or power sources. It can include any other components for creation, management, distribution.
  • power sources such as batteries or alternating current (AC), charging systems, power failure detection circuits, power converters or inverters, power status indicators or power sources. It can include any other components for creation, management, distribution.
  • the communication circuit 2160 may enable communication with another computer system using at least one external port.
  • the communication circuit 2160 may include an RF circuit to transmit and receive an RF signal, also known as an electromagnetic signal, to enable communication with another computer system.
  • the computer system 2100 may include some components shown in FIG. 21, or may include additional components not shown in FIG. It may have a configuration or arrangement that combines two or more components.
  • the computer system for a communication terminal in a mobile environment may further include a touch screen or a sensor, in addition to the components shown in FIG. 21, and various communication schemes (WiFi, 3G, LET) in the communication circuit 2160. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication.
  • Components included in computer system 2100 may be implemented in hardware, software, or a combination of both hardware and software, including integrated circuits specialized for one or more signal processing or applications.
  • Methods according to an embodiment of the present invention may be implemented in program instruction form that can be executed by various computer systems and recorded in a computer readable medium.
  • the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal.
  • the map recognition app according to the present embodiment may be implemented in a program form that operates independently, or may be configured in an in-app form of a specific application (for example, a map service program, etc.) to operate on the specific application. It can be implemented to.
  • the methods according to the embodiment of the present invention may be performed by the application associated with the map recognition system to control the user terminal.
  • an application may be installed in the user terminal through a file provided by the file distribution system.
  • the file distribution system may include a file transmitter (not shown) for transmitting the file at the request of the user terminal.
  • an accurate electronic map is not affected by the type or form.
  • all map images such as general paper maps and directions can be recognized.
  • the map area indicated by the map image is accurately identified by using a database including the place name information without using a database of the topographic information of the map image. You can find it.
  • a recognition technology that is strong against noise may be provided to ensure the accuracy of the map recognition result.
  • the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
  • the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs).
  • ALUs arithmetic logic units
  • FPGAs field programmable gate arrays
  • PLU programmable logic unit
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted.
  • the software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable recording media.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Disclosed are a method and a system for recognizing a map image using toponyms straight lines. The method for recognizing a map may comprise the steps of: recognizing text on an inputted image by means of a text recognition technology; searching, on a map, for a toponym and a location therefor corresponding to the text; acquiring a region on the map matching the inputted image by means of a straight line connecting the central point of the inputted image and the central point of the text, and the location of the toponym.

Description

지명 직선을 이용한 지도 이미지 인식 방법과 시스템 및 기록 매체Map Image Recognition Method, System and Recording Media

본 발명의 실시예들은 지도 이미지를 인식하여 인식된 이미지가 지칭하는 지도 영역을 찾아내는 기술에 관한 것이다.Embodiments of the present invention relate to a technique of recognizing a map image and finding a map area indicated by the recognized image.

지도 인식 방법으로는 사람이 직접 지도 이미지를 보고 지도 이미지가 지칭하는 지역을 인지할 수 있으나, 이는 사람이 수작업으로 지도 이미지가 지칭하는 지역을 직접 찾아 인식해야 하는 불편이 있다.In the map recognition method, a person may directly recognize the area indicated by the map image by looking at the map image, but this is inconvenient for a person to manually find and recognize the area indicated by the map image.

또 다른 방법으로는 지도 지형에 기반한 지도 인식 방법이 있으며, 이는 사전에 지도의 지형 정보에 대한 데이터베이스를 구축해 놓은 상태에서 입력 받은 지도 이미지에서 지형 정보를 추출한 후 추출된 지형 정보를 데이터베이스에서 조회하여 해당 지형 정보를 포함하는 지도 영역을 찾아줄 수 있다.Another method is the map recognition method based on the map terrain, which has extracted the terrain information from the input map image after constructing the database of the terrain information of the map in advance and then searching the extracted terrain information from the database. You can find a map area that contains terrain information.

예컨대, 한국공개특허 제10-2013-0052970호(공개일 2013년 05월 23일) "영상인식 기술을 이용한 지도 서비스 제공 장치 및 방법"에는 지도 이미지를 수신하여 지도 이미지로부터 특징점을 추출하고 추출된 특징점을 이용하여 지도 이미지와 매칭되는 최종 영상에 대한 지도 정보를 제공하는 기술이 개시되어 있다.For example, Korean Patent Laid-Open Publication No. 10-2013-0052970 (published May 23, 2013), “Map service providing apparatus and method using image recognition technology,” receives a map image, extracts feature points from a map image, and extracts the extracted points. A technology for providing map information on a final image that matches a map image using feature points is disclosed.

그러나, 기존 지도 인식 방법은 지도 이미지에 대한 데이터베이스 구축이 어렵고 데이터베이스를 구축한 지도 이미지 외에 다른 지도 이미지를 입력으로 하는 경우 지도 인식이 안 되는 문제가 있다.However, the existing map recognition method has a problem in that it is difficult to construct a database for the map image, and when the map image is input other than the map image in which the database is constructed, the map recognition is not possible.

지도의 종류나 형태에 영향을 받지 않고 지도 이미지를 인식할 수 있는 방법 및 시스템을 제공한다.Provides a method and system for recognizing map images without being affected by the type or shape of the map.

OCR(optical character reader) 기술을 이용하여 지도 이미지에서 지명을 인식할 수 있는 방법 및 시스템을 제공한다.It provides a method and system for recognizing names in a map image using optical character reader (OCR) technology.

지명(POI, Point of Interest)을 기반으로 지도 이미지의 인식 결과를 제공할 수 있는 방법 및 시스템을 제공한다.The present invention provides a method and system for providing recognition results of map images based on a point of interest (POI).

지명의 오인식을 분별하여 정확한 지도 인식 결과를 제공할 수 있는 방법 및 시스템을 제공한다.It provides a method and system that can discern misperceptions of names and provide accurate map recognition results.

컴퓨터로 구현되는 지도 인식 방법에 있어서, 문자 인식 기술을 이용하여 입력 영상에서 문자를 인식하는 단계; 상기 문자에 해당되는, 지도 상의 지명 및 상기 지명의 위치를 검색하는 단계; 및 상기 입력 영상의 중심점과 상기 문자의 중심점을 연결하는 직선 및 상기 지명의 위치를 이용하여 상기 입력 영상과 매칭되는 지도 영역을 획득하는 단계를 포함하는 지도 인식 방법을 제공한다.A computer implemented map recognition method, comprising: recognizing a character in an input image using a character recognition technique; Searching for a place name on the map corresponding to the text and the location of the place name; And acquiring a map area matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name.

문자 인식 기술을 이용하여 입력 영상에서 문자를 인식하는 인식부; 상기 문자에 해당되는, 지도 상의 지명 및 상기 지명의 위치를 검색하는 검색부; 및 상기 입력 영상의 중심점과 상기 문자의 중심점을 연결하는 직선 및 상기 지명의 위치를 이용하여 상기 입력 영상과 매칭되는 지도 영역을 획득하여 상기 입력 영상의 인식 결과로 제공하는 제공부를 포함하는 지도 인식 시스템을 제공한다.A recognition unit for recognizing a character in the input image by using a character recognition technology; A search unit for searching for a place name on the map corresponding to the text and the location of the place name; And a providing unit which obtains a map area matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name and providing the result as a recognition result of the input image. To provide.

컴퓨터 시스템이 지도 인식 기능을 제공하도록 제어하는 명령(instruction)을 포함하는 컴퓨터 판독가능 매체로서, 상기 명령은, 문자 인식 기술을 이용하여 입력 영상에서 문자를 인식하는 단계; 상기 문자에 해당되는, 지도 상의 지명 및 상기 지명의 위치를 검색하는 단계; 및 상기 입력 영상의 중심점과 상기 문자의 중심점을 연결하는 직선 및 상기 지명의 위치를 이용하여 상기 입력 영상과 매칭되는 지도 영역을 획득하는 단계를 포함하는 방법에 의하여 상기 컴퓨터 시스템을 제어하는, 컴퓨터 판독가능 저장 매체를 제공한다.A computer readable medium comprising instructions for controlling a computer system to provide a map recognition function, the instructions comprising: recognizing a character in an input image using character recognition technology; Searching for a place name on the map corresponding to the text and the location of the place name; And acquiring a map area matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name. Provides possible storage media.

본 발명의 실시예에 따르면, OCR(optical character reader) 기술을 이용하여 지도 이미지에서 지명(POI, Point of Interest)을 인식하고 인식된 지명을 바탕으로 지도 이미지가 지칭하는 지도 영역을 찾음으로써 종류나 형태에 영향을 받지 않고 정밀한 전자 지도뿐만 아니라 일반 종이 지도나 약도 등 모든 지도 이미지를 인식할 수 있다.According to an exemplary embodiment of the present invention, a point of interest (POI) is recognized in a map image by using an optical character reader (OCR) technology, and the map area indicated by the map image is found based on the recognized name. It is able to recognize all map images such as general paper maps and directions as well as precise electronic maps without being affected by the form.

본 발명의 실시예에 따르면, 지명을 기반으로 지도 이미지를 인식함으로써 지도 이미지의 전체 지형 정보에 대한 데이터베이스를 이용하지 않고도 지명 정보를 포함하는 데이터베이스를 활용하여 지도 이미지가 지칭하는 지도 영역을 정확하게 찾을 수 있다.According to an embodiment of the present invention, by recognizing a map image based on a place name, the map area indicated by the map image can be accurately found by using a database including the place name information without using a database of the topographic information of the map image. have.

본 발명의 실시예에 따르면, 지도 이미지에서 인식된 지명 중 오인식된 지명과 정인식된 지명을 구분함으로써 노이즈에 강한 인식 기술을 제공하여 지도 인식 결과의 정확도를 보장할 수 있다.According to an exemplary embodiment of the present invention, by distinguishing a misrecognized name and a recognized name among the names recognized in the map image, a recognition technology that is strong against noise may be provided to ensure accuracy of the map recognition result.

도 1은 본 발명의 일 실시예에 있어서, 사용자 단말과 지도 인식 시스템 간의 개괄적인 모습을 도시한 것이다.1 illustrates an overview of a user terminal and a map recognition system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 있어서, 지도 인식 시스템의 내부 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating an internal configuration of a map recognition system according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 있어서, 지도 인식 방법을 도시한 흐름도이다.3 is a flowchart illustrating a map recognition method according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 있어서, 지명을 인식하는 과정을 도시한 흐름도이다.4 is a flowchart illustrating a process of recognizing a place name in an embodiment of the present invention.

도 5 내지 도 12는 본 발명의 일 실시예에 있어서, 지명 인식의 구체적인 과정을 설명하기 위한 예시 도면들이다.5 to 12 are exemplary diagrams for describing a specific process of name recognition according to an embodiment of the present invention.

도 13은 본 발명의 일 실시예에 있어서, 입력 영상이 지칭하는 지도 영역을 획득하는 과정을 도시한 흐름도이다.FIG. 13 is a flowchart illustrating a process of obtaining a map area indicated by an input image according to an embodiment of the present invention.

도 14 내지 도 20은 본 발명의 일 실시예에 있어서, 지도 영역 획득의 구체적인 과정을 설명하기 위한 예시 도면들이다.14 to 20 are exemplary diagrams for describing a specific process of obtaining a map area according to an embodiment of the present invention.

도 21는 본 발명의 일 실시예에 있어서, 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.21 is a block diagram for explaining an example of an internal configuration of a computer system according to one embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 실시예들은 지도 이미지를 입력 받아 입력된 이미지가 지칭하는 실제 지도 영역을 찾아 내는 기술에 관한 것으로, 지도 검색 서비스, 위치 확인 서비스, 길 찾기/길 안내 서비스 등 다양한 지도 서비스 분야에 적용될 수 있다.The present exemplary embodiments relate to a technology for finding an actual map area indicated by an input image by receiving a map image, and may be applied to various map service areas such as a map search service, a location check service, and a route finder / route guide service.

도 1은 본 발명의 일 실시예에 있어서, 사용자 단말과 지도 인식 시스템 간의 개괄적인 모습을 도시한 것이다. 도 1에서는 지도 인식 시스템(100) 및 사용자 단말(101)을 도시하고 있다. 도 1에서 화살표는 지도 인식 시스템(100)과 사용자 단말(101) 간에 유/무선 네트워크를 통해 데이터가 송수신될 수 있음을 의미할 수 있다.1 illustrates an overview of a user terminal and a map recognition system according to an embodiment of the present invention. 1 illustrates a map recognition system 100 and a user terminal 101. In FIG. 1, an arrow may mean that data may be transmitted and received between the map recognition system 100 and the user terminal 101 through a wired / wireless network.

사용자 단말(101)은 PC, 스마트폰(smart phone), 태블릿(tablet), 웨어러블 컴퓨터(wearable computer) 등으로, 지도 인식 시스템(100)과 관련된 웹/모바일 사이트의 접속 또는 서비스 전용 어플리케이션(지도 인식 앱)의 설치 및 실행이 가능한 모든 단말 장치를 의미할 수 있다. 이때, 사용자 단말(101)은 웹/모바일 사이트 또는 전용 어플리케이션의 제어 하에 서비스 화면 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등 서비스 전반의 동작을 수행할 수 있다.The user terminal 101 is a PC, a smart phone, a tablet, a wearable computer, or the like, and accesses a web / mobile site related to the map recognition system 100 or a service-only application (map recognition). It may mean all terminal devices capable of installing and executing the app). In this case, the user terminal 101 may perform overall service operations such as service screen configuration, data input, data transmission, and data storage under the control of a web / mobile site or a dedicated application.

지도 인식 시스템(100)은 클라이언트(client)인 사용자 단말(101)을 대상으로 지도 서비스를 제공하는 서비스 플랫폼 역할을 한다. 특히, 지도 인식 시스템(100)은 사용자 단말(101)로부터 지도 이미지를 입력 받아 입력된 지도 이미지에서 OCR 기술을 통해 지명 정보를 인식하고 인식된 지명을 바탕으로 지도 이미지가 지칭하는 실제 지도 영역(위도/경도와 경계 영역)을 찾아주는 플랫폼 서비스를 제공할 수 있다. 이때, 지도 인식 시스템(100)은 사용자 단말(101) 상에 어플리케이션 형태로 구현될 수 있으며, 이에 한정되는 것은 아니며 클라이언트-서버 환경에서 지도 인식이 필요한 서비스를 제공하는 서비스 플랫폼에 포함되는 형태로 구현되는 것 또한 가능하다.The map recognition system 100 serves as a service platform for providing a map service to a user terminal 101 which is a client. In particular, the map recognition system 100 receives a map image from the user terminal 101, recognizes name information in the input map image through OCR technology, and uses an actual map area (latitude) that the map image refers to based on the recognized name. It can provide platform services to find (hardness and boundary area). In this case, the map recognition system 100 may be implemented in an application form on the user terminal 101, but is not limited thereto. The map recognition system 100 may be implemented in a form of a service platform that provides a service requiring map recognition in a client-server environment. It is also possible.

도 2는 본 발명의 일 실시예에 있어서, 지도 인식 시스템의 내부 구성을 설명하기 위한 블록도이고, 도 3은 본 발명의 일 실시예에 있어서, 지도 인식 방법을 도시한 흐름도이다.2 is a block diagram illustrating an internal configuration of a map recognition system according to an embodiment of the present invention, and FIG. 3 is a flowchart illustrating a map recognition method according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 본 실시예에 따른 지도 인식 시스템(200)은 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함할 수 있다. 메모리(240)는 운영체제(241) 및 지도 인식 루틴(242)를 포함할 수 있다. 프로세서(210)는 인식부(211)와 검색부(212) 및 제공부(213)를 포함할 수 있다. 다른 실시예들에서 지도 인식 시스템(200)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.As shown in FIG. 2, the map recognition system 200 according to the present embodiment may include a processor 210, a bus 220, a network interface 230, a memory 240, and a database 250. . The memory 240 may include an operating system 241 and a map recognition routine 242. The processor 210 may include a recognizer 211, a searcher 212, and a provider 213. In other embodiments, the map recognition system 200 may include more components than the components of FIG. 2.

메모리(240)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(240)에는 운영체제(241)와 지도 인식 루틴(242)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(240)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(230)를 통해 메모리(240)에 로딩될 수도 있다.The memory 240 is a computer-readable recording medium and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. In addition, program code for the operating system 241 and the map recognition routine 242 may be stored in the memory 240. These software components may be loaded from a computer readable recording medium separate from the memory 240 using a drive mechanism (not shown). Such a separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, a memory card, and the like. In other embodiments, the software components may be loaded into the memory 240 via the network interface 230 rather than the computer readable recording medium.

버스(220)는 지도 인식 시스템(200)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(220)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus 220 may enable communication and data transmission between components of the map recognition system 200. The bus 220 may be configured using a high-speed serial bus, a parallel bus, a storage area network and / or other suitable communication technology.

네트워크 인터페이스(230)는 지도 인식 시스템(200)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(230)는 지도 인식 시스템(200)을 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다.The network interface 230 may be a computer hardware component for connecting the map recognition system 200 to a computer network. The network interface 230 may connect the map recognition system 200 to a computer network through a wireless or wired connection.

데이터베이스(250)는 지도 인식을 위해 필요한 정보, 특히 지명 정보를 저장 및 유지하고 있는 지명 DB(database)를 포함하며, 일 예로 지명 정보는 지도 상의 POI(point of interest)에 대한 정보로서, 지명 DB에는 지명 별 위치 정보인 위도와 경도가 매칭되어 구성될 수 있다. 표 1은 지명 DB의 예시를 나타낸 것이다. 도 2에서는 지도 인식 시스템(200)의 내부에 데이터베이스(250)를 포함하는 것으로 도시하고 있으나, 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.The database 250 includes a name database (DB) for storing and maintaining information necessary for map recognition, in particular, name information. For example, the name information is information on a point of interest (POI) on a map. The latitude and longitude, which are location information for each place name, may be matched with each other. Table 1 shows an example of a place name DB. In FIG. 2, although the database 250 is included in the map recognition system 200, it is also possible to exist as an external database built on a separate system.

지명nomination 위도Latitude 경도Hardness 강남구청Gangnam-gu Office 37.51731937.517319 127.047498127.047498 강남역Gangnam Station 37.49798437.497984 127.027639127.027639 마리아수녀회 도티기념병원Maria Sisters Doti Memorial Hospital 37.59821437.598214 126.928786126.928786 명지전문대학Myongji College 37.58466737.584667 126.925398126.925398 상수역A constant station 37.54776537.547765 126.922976126.922976 서강대학교Sogang University 37.55172737.551727 126.941062126.941062 세종시청Sejong City Hall 36.59292436.592924 127.292382127.292382 전자회관Electronic hall 37.58098437.580984 126.888393126.888393

프로세서(210)는 기본적인 산술, 로직 및 지도 인식 시스템(200)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(240) 또는 네트워크 인터페이스(230)에 의해, 그리고 버스(220)를 통해 프로세서(210)로 제공될 수 있다. 프로세서(210)는 인식부(211)와 검색부(212) 및 제공부(213)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(240)와 같은 기록 장치에 저장될 수 있다.The processor 210 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations of the map recognition system 200. The instructions may be provided to the processor 210 by the memory 240 or the network interface 230 and via the bus 220. The processor 210 may be configured to execute program codes for the recognizer 211, the searcher 212, and the provider 213. Such program code may be stored in a recording device such as memory 240.

인식부(211)와 검색부(212) 및 제공부(213)는 도 3의 단계들(S310 내지 S330)을 수행하기 위해 구성될 수 있다.The recognizer 211, the searcher 212, and the provider 213 may be configured to perform the steps S310 to S330 of FIG. 3.

단계(S310)에서 인식부(211)는 사용자 단말로부터 지도 이미지를 입력 영상으로 입력 받은 후 입력 받은 지도 이미지에서 지명을 인식할 수 있다. 이때, 사용자 단말에서는 카메라 촬영, 화면 캡쳐, 약도 등 다양한 방식으로 이미지화 된 지도를 획득할 수 있으며 이를 지도 인식 시스템(200)에 입력 영상으로서 입력할 수 있다. 다시 말해, 지도 인식을 위한 입력 영상으로는 전자 지도뿐만 아니라, 약도, 관광 지도 같은 종이 지도, 카메라나 화면 캡쳐 등으로 이미지화 된 지도 등 형태나 종류와 무관하게 모든 지도를 활용할 수 있다. 이에, 인식부(211)는 지도 이미지에서 문자 영역을 추출한 후 추출된 문자 영역에 대하여 OCR을 수행하여 지도 이미지 상의 문자를 지명으로 인식할 수 있다.In operation S310, the recognition unit 211 may receive a map image from the user terminal as an input image, and then recognize the place name in the received map image. In this case, the user terminal may acquire a map imaged by various methods such as camera shooting, screen capture, and directions, and may input it as an input image to the map recognition system 200. In other words, as an input image for map recognition, not only an electronic map, but also a map, a paper map such as a tourist map, a map imaged by a camera or a screen capture, etc. may be used regardless of the form or type of map. Accordingly, the recognition unit 211 may extract the text area from the map image and perform OCR on the extracted text area to recognize the text on the map image as a place name.

단계(S320)에서 검색부(212)는 단계(S310)에서 인식된 지명에 대하여 실제 지도 상의 위치를 지명 DB에서 검색하여 획득할 수 있다. 다시 말해, 검색부(212)는 OCR를 통해 지도 이미지에서 인식된 지명을 지명 별 위치 정보가 저장된 지명 DB에서 검색하여 해당 지명의 위치인 경도와 위도를 획득할 수 있다.In operation S320, the search unit 212 may search for and obtain an actual location on a map from a geographical name DB with respect to the geographical name recognized in operation S310. In other words, the search unit 212 may search for a place name recognized in the map image through the OCR in a place name DB in which location information for each place name is stored, and acquire a longitude and latitude which are locations of the place name.

단계(S330)에서 제공부(213)는 단계(S320)에서 지명 DB 검색을 통해 획득한 각 지명의 위치 정보를 바탕으로 지도 이미지에 대응되는 실제 지도 영역을 지도 인식 결과로 제공할 수 있다. 즉, 제공부(213)는 OCR로 인식된 지명을 포함하는 지도 정보를 지도 이미지에 대한 인식 결과로 제공할 수 있다. 일 예로, 제공부(213)는 지도 이미지에서 인식된 지명에 대하여 지도 이미지 상의 위치와 지명 DB 검색을 통해 획득한 실제 지도 상의 위치를 비교하여 지도 이미지가 지칭하는 지역의 중심점(위도/경도) 및 경계 영역(boundary)을 계산할 수 있으며, 계산된 중심점과 경계 영역을 갖고 출력 화면의 크기에 맞는 축척(level)을 구하여 지도 이미지 인식 결과를 보여줄 수 있다.In operation S330, the provider 213 may provide an actual map area corresponding to the map image as a map recognition result based on the location information of each name acquired through the name DB search in step S320. That is, the provider 213 may provide map information including a place name recognized by the OCR as a recognition result of the map image. For example, the provider 213 compares the location on the map image with the location on the map image with respect to the name recognized in the map image and the location on the map obtained by searching the name DB, and the center point (latitude / longitude) of the area indicated by the map image. Boundary area can be calculated, and the map image recognition result can be shown by obtaining a scale suitable for the size of the output screen with the calculated center point and the boundary area.

지도 이미지에서 지명을 인식하는 구체적인 과정은 다음과 같다.The specific process of recognizing a place name in a map image is as follows.

도 4는 본 발명의 일 실시예에 있어서, 지명을 인식하는 과정을 도시한 흐름도이다. 일 실시예에 따른 지명 인식 과정은 도 2와 도 3을 통해 설명한 지도 인식 시스템(200)의 인식부(211)에 의해 각각의 단계가 수행될 수 있다.4 is a flowchart illustrating a process of recognizing a place name in an embodiment of the present invention. In the name recognition process according to an embodiment, each step may be performed by the recognition unit 211 of the map recognition system 200 described with reference to FIGS. 2 and 3.

단계(S401)에서 인식부(211)는 사용자 단말로부터 카메라나 이미지 캡쳐 등을 통해 이미지화 된 지도 이미지(이하, '입력 영상'이라 칭함)를 입력 받을 수 있으며, 지명 인식을 위해 먼저 입력 영상에서 문자 영역을 추출할 수 있다. 이하에서는 도 5와 같은 약도가 입력 영상으로 입력되는 것으로 가정한다.In operation S401, the recognition unit 211 may receive a map image (hereinafter, referred to as an “input image”) imaged through a camera or an image capture from a user terminal, and first input a character from the input image to recognize a place name. The area can be extracted. Hereinafter, it is assumed that the directions shown in FIG. 5 are input to the input image.

문자의 경우 코너(corner)가 많이 존재하므로 좁은 영역에 코너가 밀집되어 있으면 문자일 확률이 높다는 가정 하에 문자 영역을 추출할 수 있다. 일 예로, 인식부(211)는 해리스 코너 검출기(Harris corner detector)와 같은 코너 검출기를 사용하여 입력 영상에서 코너를 검출할 수 있다. 도 6는 해리스 코너 검출기를 사용하여 입력 영상에서 코너를 검출한 결과를 도시한 것이다. 이어, 인식부(211)는 격자 모양의 이진 코너 그리드 맵(binary corner grid map)을 생성한 후 이진 코너 그리드 맵에서 코너가 존재하는 영역(cell)에 마킹(marking)을 처리할 수 있다. 도 7은 이진 코너 그리드 맵에서 코너가 존재하는 그리드 셀에 마킹한 결과를 도시한 것이다. 이어, 인식부(211)는 이진 영상 모폴로지(morphology)를 사용하여 이진 코너 그리드 맵에서 마킹된 문자 영역에 대한 노이즈 제거 및 영역 확장을 수행할 수 있다. 도 8은 도 7의 마킹 이미지에 대하여 노이즈 제거 및 영역 확장을 수행한 결과를 도시한 것이다. 이어, 도 9을 참조하면 인식부(211)는 이진 코너 그리드 맵에서 윤곽선을 검출하고(contour detection) 검출된 윤곽선을 사각형 영역으로 묶음 처리할 수 있으며, 이때 최소 크기 미만의 사각형(901)은 정크(junk) 처리할 수 있다. 다시 말해, 도 9에 도시한 바와 같이 윤곽선을 사각형으로 묶은 후 최소 크기를 만족하는 사각형(902)을 유효 영역, 즉 문자 영역으로 검출할 수 있다. 이때, 인식부(211)는 도 10에 도시한 바와 같이 문자 영역으로 검출된 사각형을 상하좌우로 일정 셀(예컨대, 1칸)씩 확장하고 확장된 사각형 영역(1002)을 최종 문자 영역으로 확정할 수 있다.Since there are many corners in the case of letters, if the corners are concentrated in a narrow area, the text area can be extracted on the assumption that the letters are likely to be letters. For example, the recognizer 211 may detect a corner in the input image using a corner detector such as a Harris corner detector. 6 illustrates a result of detecting a corner in an input image using a Harris corner detector. Subsequently, the recognition unit 211 may generate a grid-shaped binary corner grid map and process marking on a cell in which a corner exists in the binary corner grid map. 7 shows the result of marking a grid cell in which a corner exists in a binary corner grid map. Subsequently, the recognizer 211 may perform noise removal and region expansion on the character region marked in the binary corner grid map using a binary image morphology. FIG. 8 illustrates a result of performing noise removal and region expansion on the marking image of FIG. 7. Next, referring to FIG. 9, the recognizer 211 may detect an outline in a binary corner grid map and bundle the detected outline into a rectangular area, wherein a rectangle 901 smaller than the minimum size is junk. (junk) Can be processed. In other words, as shown in FIG. 9, after enclosing the outlines into rectangles, the rectangle 902 satisfying the minimum size may be detected as the effective area, that is, the character area. At this time, the recognition unit 211 expands the rectangle detected as the text area by a predetermined cell (for example, one space) and determines the extended rectangle area 1002 as the final text area as shown in FIG. 10. Can be.

다시 도 4에서, 단계(S402)에서 인식부(211)는 단계(S401)에서 인식된 문자 영역에 대해 OCR을 수행하여 해당 영역에서 판독된 문자를 지명으로 인식할 수 있다. 다시 말해, 인식부(211)는 도 10의 최종 문자 영역으로 확정된 사각형 영역(1002)에서 OCR을 수행하여 지명을 획득할 수 있다. 이때, OCR 정확도를 높이기 위해 검색어 교정으로 후처리 하여 OCR 결과 정확도를 높일 수 있다. 도 11은 입력 영상에서 검출된 문자 영역에 대하여 OCR을 수행한 결과를 도시한 것이다. 따라서, 인식부(211)는 입력 영상에 나열되어 있는 주요 장소의 이름(지명, POI)을 획득할 수 있다.4, in operation S402, the recognition unit 211 may perform OCR on the character region recognized in operation S401 to recognize a character read in the region as a place name. In other words, the recognition unit 211 may obtain a place name by performing OCR on the rectangular area 1002 determined as the final character area of FIG. 10. At this time, in order to increase the OCR accuracy, the post-processing may be performed by correcting the search word to increase the accuracy of the OCR result. FIG. 11 illustrates a result of performing OCR on a character region detected in an input image. Accordingly, the recognizer 211 may acquire names (names, POIs) of major places listed in the input image.

상기와 같이 본 실시예에서는 OCR 기술을 이용하여 지도 인식을 위한 지명을 획득함으로써 특정 지도에 국한되지 않고 전자 지도뿐 아니라 일반 종이 지도나 약도 등 모든 형태의 지도 인식이 가능하다.As described above, in the present embodiment, by obtaining a place name for map recognition using OCR technology, all forms of map recognition such as general paper maps and maps, as well as electronic maps, are possible.

다음으로, 입력 영상이 지칭하는 지도 영역(중심점과 경계 영역)을 획득하는 구체적인 과정은 다음과 같다.Next, a detailed process of obtaining a map area (center point and boundary area) indicated by the input image is as follows.

제공부(213)는 지도 인식 결과를 제공하기 위하여 입력 영상이 지칭하는 지역의 중심점과 경계 영역을 계산할 수 있다. 이를 위하여, 먼저 검색부(212)에서는 OCR로 인식된 지명을 지명 DB에서 검색하여 실제 지도 상의 지명 위치를 획득할 수 있다. 도 12는 입력 영상에서 인식된 지명에 대하여 지명 DB 검색을 통해 획득한 실제 지도(1220) 상의 지명 위치를 도시한 것이다. 이에, 제공부(213)는 인식부(211)를 통해 획득된 지명과 검색부(212)를 통해 검색된 지명 위치를 바탕으로 지도 이미지 인식을 수행할 수 있다.The provider 213 may calculate a center point and a boundary area of the area indicated by the input image in order to provide a map recognition result. To this end, first, the search unit 212 may obtain a place name on the actual map by searching for a place name recognized as an OCR in a place name DB. 12 illustrates location names on an actual map 1220 obtained through a name database search for a name recognized in an input image. Thus, the provider 213 may perform map image recognition based on the place name acquired through the recognizer 211 and the place name searched through the search unit 212.

도 13은 본 발명의 일 실시예에 있어서, 입력 영상이 지칭하는 지도 영역을 획득하는 과정을 도시한 흐름도이다. 일 실시예에 따른 지도 영역 획득 과정은 도 2와 도 3을 통해 설명한 지도 인식 시스템(200)의 제공부(213)에 의해 각각의 단계가 수행될 수 있다.FIG. 13 is a flowchart illustrating a process of obtaining a map area indicated by an input image according to an embodiment of the present invention. In the process of acquiring the map area according to an exemplary embodiment, each step may be performed by the providing unit 213 of the map recognition system 200 described with reference to FIGS. 2 and 3.

단계(S1301)에서 제공부(213)는 입력 영상에서 인식된 지명에 대한 지명 직선을 획득할 수 있다. 이때, 제공부(213)는 도 14에 도시한 바와 같이 입력 영상(1410)에서 중심점과 각 지명 사이의 기울기를 획득할 수 있으며, 본 명세서에서 입력 영상의 중심점과 입력 영상에서 인식된 지명의 중심점을 연결하는 직선(1403)을 '제1 지명 직선'이라 칭하기로 한다.In operation S1301, the provider 213 may acquire a geographical name straight line for the geographical name recognized in the input image. In this case, as illustrated in FIG. 14, the provider 213 may acquire a slope between the center point and each place name in the input image 1410. In this specification, the center point of the input image and the center point of the place name recognized in the input image may be obtained. A straight line 1403 that connects to the first named straight line will be referred to as.

단계(S1302)에서 제공부(213)는 지명 DB 검색을 통해 검색된 지명 위치를 포함하는 지도 영역 상에 제1 지명 직선을 투영하여 제1 지명 직선 간의 교차점을 획득할 수 있다. 다시 말해, 도 15에 도시한 바와 같이 제공부(213)는 실제 지도(1520)에서 지명 DB 검색을 통해 획득한 각 지명 위치에 단계(S1301)에서 획득한 제1 지명 직선(1503)의 기울기를 가진 직선을 그대로 매핑한 후 제1 지명 직선(1503) 간의 교차점을 획득할 수 있다.In operation S1302, the provider 213 may obtain an intersection point between the first named straight lines by projecting the first named straight lines on the map area including the named positions searched through the named DB search. In other words, as illustrated in FIG. 15, the provider 213 inclines the slope of the first place name straight line 1503 obtained in step S1301 to each place name acquired through the search of the place name DB in the actual map 1520. After mapping the straight lines with the straight lines, an intersection point between the first named lines 1503 may be obtained.

단계(S1303)에서 제공부(213)는 단계(S1302)에서 획득한 교차점들에 대해 밀도 기반 클러스터링(Density-based clustering)을 수행하여 제1 지명 직선 간의 교차점 중 유의미한 교차점의 집합을 획득할 수 있다. 입력 영상에서의 지명 위치와 실제 지도 상의 지명 위치가 일치하는 경우 제1 지명 직선 간의 교차점은 입력 영상의 중심 좌표와 일치할 것이다. 그러나, 지명 DB 검색을 통해 획득한 실제 지도 상의 지명 위치(도 12)와 입력 영상에서 인식된 지명 위치(도 14)는 오검색이나 이미지 왜곡 등의 이유로 오차가 나타날 수 있다. 입력 영상에서의 지명 위치와 실제 지도 상의 지명 위치가 정확히 일치하지 않더라도 다수의 지명 위치가 일치하거나 유사하다면 도 16에 도시한 바와 같이 대부분의 교차점은 한곳에 집중되어 특정 영역에 교차점의 밀도가 높게 나타날 수 있다. 이러한 가정을 바탕으로 제공부(213)는 밀도 기반 클러스터링을 사용하여 유의미한 교차점의 집합, 즉 교차점의 밀도가 높은 영역(1608)을 찾을 수 있다. 일 예로, 밀도 기반 클러스터링은 객체의 밀도에 기반하여 밀도가 낮은 지역을 노이즈로 간주하고 밀도가 높은 지역을 군집하는 방식으로 군집화를 수행하는 것으로 기 공지된 알고리즘(예컨대, DBSCAN (Density-based spatial clustering of applications with noise), OPTICS (Ordering points to identify the clustering structure) 등)을 적용할 수 있다.In operation S1303, the provider 213 may perform density-based clustering on the intersection points obtained in operation S1302 to obtain a set of significant intersection points among intersection points between the first straight lines. . If the place name in the input image and the place name on the actual map coincide, the intersection point between the first place name straight lines will coincide with the center coordinates of the input image. However, an error may appear between a place name (FIG. 12) and a place name recognized in the input image (FIG. 14) acquired through a search of a place name DB due to a missearch or an image distortion. Although the names of the names in the input image and the names of the places on the actual map do not exactly match, if a number of names are identical or similar, as shown in FIG. have. Based on these assumptions, the provider 213 may use density-based clustering to find a set of significant intersections, that is, a region 1608 having a high density of intersections. For example, density-based clustering is an algorithm known to perform clustering in such a manner that low-density areas are regarded as noise and clusters high-density areas based on the density of an object (e.g., density-based spatial clustering). of applications with noise), or OPTICS (Ordering points to identify the clustering structure).

단계(S1304)에서 제공부(213)는 단계(S1303)에서 획득한 유의미한 교차점의 집합에서 교차점들의 위치(위도/경도)에 대한 평균값을 계산하여 입력 영상이 지칭하는 지역의 중심점(위도/경도)을 획득할 수 있다. 도 16에 도시한 바와 같이, 교차점의 분포가 밀집된 영역(1608) 내에 있는 교차점들의 평균 값이 지도 상의 중심점이 될 수 있으며, 이를 실제 지도(1620) 상에서 입력 영상의 중심에 해당하는 중심 좌표로 볼 수 있다. 일 예로, 제공부(213)는 교차점들 간의 거리를 계산한 후 교차점들 간의 거리가 일정 수준(threshold)을 넘어가면 노이즈로 간주하고 노이즈를 제외한 나머지 교차점들의 평균 값을 계산하여 이를 지도 상의 중심 좌표로 할 수 있다.In step S1304, the providing unit 213 calculates an average value of the positions (latitude / longitude) of the intersection points in the set of significant intersection points obtained in step S1303 to determine the center point (latitude / longitude) of the area indicated by the input image. Can be obtained. As shown in FIG. 16, the average value of the intersection points in the area 1608 where the distribution of the intersection points is concentrated may be the center point on the map, which is viewed as a center coordinate corresponding to the center of the input image on the actual map 1620. Can be. For example, the provider 213 calculates the distance between the intersections, and when the distance between the intersections exceeds a certain threshold, considers the noise, calculates an average value of the remaining intersections except noise, and calculates the center coordinates on the map. You can do

입력 영상에서 인식된 지명에 대하여 지명 DB 검색을 통해 획득한 실제 지도 상의 지명 중에는 오인식된 지명이 포함될 수 있다. 다수의 지명이 오인식 된 경우, 즉 노이즈가 많은 경우 지도 인식 정확도가 떨어지기 때문에 이를 해결하기 위해서는 오인식된 지명과 정인식된 지명을 구별해야 한다. 특히, 인식된 지명의 밀도를 기반으로 지도 인식을 수행할 경우 오인식된 지명을 구분해 내기가 어려운 문제가 있다. 이에, 본 실시예에서는 더욱 정확하고 노이즈에 강한 지도 인식 결과를 제공하기 위하여 오인식된 지명을 구별하는 방법을 제안한다.The names on the real map acquired through the name DB search for names recognized in the input image may include names that are misrecognized. In the case of a large number of names being misidentified, that is, when there is a lot of noise, map recognition accuracy is inferior. In particular, when map recognition is performed based on the density of recognized names, it is difficult to distinguish misidentified names. Accordingly, the present embodiment proposes a method for distinguishing misidentified names in order to provide more accurate and noise resistant map recognition results.

단계(S1305)에서 제공부(213)는 단계(S1304)에서 획득한 실제 지도 상의 중심점을 기준으로 지명 DB에서 검색된 지명에 대한 지명 직선, 다시 말해 실제 지도 상의 중심점과 지명 위치를 연결하는 제2 지명 직선을 획득할 수 있다.In operation S1305, the provider 213 may designate a geographical name straight line for the name retrieved from the geographical name DB based on the center point on the actual map acquired in operation S1304, that is, a second geographical name that connects the center point and the geographical location on the actual map. A straight line can be obtained.

단계(S1306)에서 제공부(213)는 실제 지도 상에 투영된 제1 지명 직선과 실제 지도에서 획득한 제2 지명 직선 간의 기울기 차이를 이용하여 오인식된 지명과 정인식된 지명을 구분함으로써 오인식된 지명을 제거할 수 있다. 도 17에 도시한 바와 같이, 제공부(213)는 각 지명에 대하여 제1 지명 직선(입력 영상의 지명 직선)과 제2 지명 직선(실제 지도 상의 지명 직선)의 기울기를 비교하여 기울기 차이가 허용 범위를 넘어가는 지명을 노이즈로 간주하고 노이즈로 간주된 지명을 제거할 수 있다. 도 17에서 지명5의 경우 제1 지명 직선(1703)과 제2 지명 직선(1704)을 비교해보면 기울기 오차가 매우 큰 것을 알 수 있다. 따라서, 본 실시예에서는 입력 영상에 대해 잘못 인식된 지명을 제거해줌으로써 입력 영상에 대한 지도 인식 결과의 정확도를 높일 수 있다.In step S1306, the providing unit 213 distinguishes the misidentified names from the recognized names by using the slope difference between the first straight names projected on the real map and the second straight lines acquired on the real map. Can be removed. As shown in FIG. 17, the providing unit 213 compares the slopes of the first place name straight line (the name straight line of the input image) and the second place name straight line (the name straight line on the real map) to allow the difference in the slope. A place name that is out of range can be considered as noise and the place name considered to be noise can be removed. In FIG. 17, when the first place name straight line 1703 and the second place name straight line 1704 are compared, it is understood that the tilt error is very large. Therefore, in the present exemplary embodiment, the accuracy of the map recognition result for the input image may be improved by removing the incorrectly recognized name for the input image.

단계(S1307)에서 제공부(213)는 입력 영상의 중심점과 지명 간의 거리, 그리고 입력 영상의 이미지 크기를 이용하여 입력 영상이 실제 지도로 표현되는 경계를 획득할 수 있다. 상세하게, 제공부(213)는 도 18에 도시한 바와 같이 입력 영상(1810)의 중심점과 지명 간의 거리(ImgD), 그리고 입력 영상(1810)의 중심점을 기준으로 너비(ImgW)와 높이(ImgH)를 계산하고, 도 19에 도시한 바와 같이 실제 지도(1920)의 중심점과 지명 간의 거리(MapD)를 계산할 수 있다. 그리고, 제공부(213)는 입력 영상의 중심점과 지명 간의 거리(ImgD), 입력 영상의 너비(ImgW)와 높이(ImgH), 실제 지도의 중심점과 지명 간의 거리(MapD)를 이용하여 입력 영상이 지칭하는 실제 지도의 너비(MapW)와 높이(MapH)를 계산할 수 있다.In operation S1307, the provider 213 may acquire a boundary in which the input image is represented by an actual map by using the distance between the center point of the input image and the place name and the image size of the input image. In detail, as illustrated in FIG. 18, the provider 213 may use the width ImgW and the height ImgH based on the distance ImgD between the center point and the place name of the input image 1810 and the center point of the input image 1810. ) And the distance MapD between the center point of the actual map 1920 and the place name as shown in FIG. 19. The providing unit 213 uses the distance (ImgD) between the center point and the place name of the input image, the width (ImgW) and height (ImgH) of the input image, and the distance between the center point and the place name (MapD) of the actual map. You can calculate the width (MapW) and height (MapH) of the actual map you are referring to.

실제 지도의 너비(MapW)와 높이(MapH)는 비례식에 의해 다음 수학식 1 및 수학식 2과 같이 정의될 수 있다.The width MapW and the height MapH of the actual map may be defined by Equation 1 and Equation 2 by proportional expressions.

Figure PCTKR2015006765-appb-M000001
Figure PCTKR2015006765-appb-M000001

Figure PCTKR2015006765-appb-M000002
Figure PCTKR2015006765-appb-M000002

도 19에 도시한 바와 같이, 제공부(213)는 입력 영상(1910)과 비례하는 실제 지도(1920) 상의 너비(MapW)와 높이(MapH)를 계산함으로써 입력 영상(1910)이 지칭하는 지도 영역의 경계를 획득할 수 있다.As shown in FIG. 19, the provider 213 calculates a width MapW and a height MapH on an actual map 1920 that is proportional to the input image 1910, thereby indicating a map area indicated by the input image 1910. The boundary of can be obtained.

이에, 제공부(213)는 입력 영상에 대하여 앞서 계산된 지도 중심점과 경계를 갖고 출력 화면의 크기에 맞는 축척의 지도 영역을 이미지 인식 결과로서 제공할 수 있다. 예컨대, 도 5의 입력 영상에 대한 지도 이미지 인식 결과로서 도 20에 도시한 지도 영역(2020)이 제공될 수 있으며, 이때 인식 결과에 해당되는 지도 영역(2020)에는 입력 영상에서 인식된 지명에 대응하는 POI(2006)가 포함될 수 있다. 이에, 입력 영상을 제공하는 사용자 단말에서는 지도 인식 시스템으로부터 입력 영상에서 인식된 지명을 포함하는 지도 정보를 수신하여 이를 입력 영상의 인식 결과로 표시할 수 있다.Accordingly, the providing unit 213 may provide a map area having a scale that is previously calculated with respect to the size of the output screen with the map center point previously calculated with respect to the input image as an image recognition result. For example, the map region 2020 illustrated in FIG. 20 may be provided as a map image recognition result of the input image of FIG. 5, and the map region 2020 corresponding to the recognition result corresponds to a place name recognized in the input image. POI 2006 may be included. Accordingly, the user terminal providing the input image may receive map information including a place name recognized in the input image from the map recognition system and display the map information as a recognition result of the input image.

따라서, 본 발명에 따른 지도 인식 시스템은 지도 이미지를 입력 받아 입력된 지도 이미지에서 OCR 기술을 통해 지명을 인식하고 인식된 지명을 바탕으로 지도 이미지가 지칭하는 실제 지도 영역(위도/경도와 경계 영역)을 찾아 줄 수 있다. 특히, 본 발명에 따른 지도 인식 시스템은 지명 직선 개념을 적용하여 입력 영상이 지칭하는 지역을 쉽고 정확하게 찾을 수 있으며 노이즈에 강한 인식 결과를 제공할 수 있다.Therefore, the map recognition system according to the present invention receives a map image, recognizes a place name from the input map image through OCR technology, and the actual map area (latitude / longitude and boundary area) referred to by the map image based on the recognized place name. I can find you. In particular, the map recognition system according to the present invention can easily and accurately find the area indicated by the input image by applying the nomination straight line concept and can provide a strong recognition result against noise.

도 21는 본 발명의 일 실시예에 있어서, 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다. 컴퓨터 시스템(2100)은 적어도 하나의 프로세서(processor)(2110), 메모리(memory)(2120), 주변장치 인터페이스(peripheral interface)(2130), 입/출력 서브시스템(I/O subsystem)(2140), 전력 회로(2150) 및 통신 회로(2160)를 적어도 포함할 수 있다. 이때, 컴퓨터 시스템(2100)은 사용자 단말에 해당될 수 있다.21 is a block diagram for explaining an example of an internal configuration of a computer system according to one embodiment of the present invention. Computer system 2100 includes at least one processor 2110, memory 2120, peripheral interface 2130, I / O subsystem 2140. , At least, the power circuit 2150 and the communication circuit 2160. In this case, the computer system 2100 may correspond to a user terminal.

메모리(2120)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(2120)는 컴퓨터 시스템(2100)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다. 이때, 프로세서(2110)나 주변장치 인터페이스(2130) 등의 다른 컴포넌트에서 메모리(2120)에 액세스하는 것은 프로세서(2110)에 의해 제어될 수 있다.The memory 2120 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or nonvolatile memory. have. The memory 2120 may include a software module, an instruction set, or other various data necessary for the operation of the computer system 2100. In this case, accessing the memory 2120 from another component such as the processor 2110 or the peripheral interface 2130 may be controlled by the processor 2110.

주변장치 인터페이스(2130)는 컴퓨터 시스템(2100)의 입력 및/또는 출력 주변장치를 프로세서(2110) 및 메모리(2120)에 결합시킬 수 있다. 프로세서(2110)는 메모리(2120)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨터 시스템(2100)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 2130 may couple input and / or output peripherals of computer system 2100 to processor 2110 and memory 2120. The processor 2110 may execute a software module or an instruction set stored in the memory 2120 to perform various functions and process data for the computer system 2100.

입/출력 서브시스템(2140)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(2130)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(2140)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(2130)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(2140)을 거치지 않고 주변장치 인터페이스(2130)에 결합될 수도 있다.Input / output subsystem 2140 may couple various input / output peripherals to peripheral interface 2130. For example, the input / output subsystem 2140 may include a controller for coupling a peripheral device such as a monitor or keyboard, a mouse, a printer, or a touch screen or sensor, as needed, to the peripheral interface 2130. According to another aspect, the input / output peripherals may be coupled to the peripheral interface 2130 without passing through the input / output subsystem 2140.

전력 회로(2150)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(2150)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 2150 may supply power to all or part of the components of the terminal. For example, power circuit 2150 may be a power management system, one or more power sources such as batteries or alternating current (AC), charging systems, power failure detection circuits, power converters or inverters, power status indicators or power sources. It can include any other components for creation, management, distribution.

통신 회로(2160)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨터 시스템과 통신을 가능하게 할 수 있다. 또는 상술한 바와 같이 필요에 따라 통신 회로(2160)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨터 시스템과 통신을 가능하게 할 수도 있다.The communication circuit 2160 may enable communication with another computer system using at least one external port. Alternatively, as described above, the communication circuit 2160 may include an RF circuit to transmit and receive an RF signal, also known as an electromagnetic signal, to enable communication with another computer system.

이러한 도 21의 실시예는, 컴퓨터 시스템(2100)의 일례일 뿐이고, 컴퓨터 시스템(2100)은 도 21에 도시된 일부 컴포넌트가 생략되거나, 도 21에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨터 시스템은 도 21에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(2160)에 다양한 통신 방식(WiFi, 3G, LET, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨터 시스템(2100)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.21 is merely an example of a computer system 2100, and the computer system 2100 may include some components shown in FIG. 21, or may include additional components not shown in FIG. It may have a configuration or arrangement that combines two or more components. For example, the computer system for a communication terminal in a mobile environment may further include a touch screen or a sensor, in addition to the components shown in FIG. 21, and various communication schemes (WiFi, 3G, LET) in the communication circuit 2160. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components included in computer system 2100 may be implemented in hardware, software, or a combination of both hardware and software, including integrated circuits specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 시스템을 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.Methods according to an embodiment of the present invention may be implemented in program instruction form that can be executed by various computer systems and recorded in a computer readable medium.

본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 실시예에서의 지도 인식 앱은 독립적으로 동작하는 프로그램 형태로 구현되거나, 혹은 특정 어플리케이션(예컨대, 지도 서비스 프로그램 등)의 인-앱(in-app) 형태로 구성되어 상기 특정 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다.The program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The map recognition app according to the present embodiment may be implemented in a program form that operates independently, or may be configured in an in-app form of a specific application (for example, a map service program, etc.) to operate on the specific application. It can be implemented to.

또한, 본 발명의 실시예에 따른 방법들은 지도 인식 시스템과 연관된 어플리케이션이 사용자 단말기를 제어하여 수행될 수 있다. 또한, 이러한 어플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 사용자 단말기에 설치될 수 있다. 일 예로, 파일 배포 시스템은 사용자 단말기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.In addition, the methods according to the embodiment of the present invention may be performed by the application associated with the map recognition system to control the user terminal. In addition, such an application may be installed in the user terminal through a file provided by the file distribution system. For example, the file distribution system may include a file transmitter (not shown) for transmitting the file at the request of the user terminal.

이와 같이, 본 발명의 실시예에 따르면, OCR 기술을 이용하여 지도 이미지에서 지명을 인식하고 인식된 지명을 바탕으로 지도 이미지가 지칭하는 지도 영역을 찾음으로써 종류나 형태에 영향을 받지 않고 정밀한 전자 지도뿐만 아니라 일반 종이 지도나 약도 등 모든 지도 이미지를 인식할 수 있다. 또한, 본 발명의 실시예에 따르면, 지명을 기반으로 지도 이미지를 인식함으로써 지도 이미지의 전체 지형 정보에 대한 데이터베이스를 이용하지 않고도 지명 정보를 포함하는 데이터베이스를 활용하여 지도 이미지가 지칭하는 지도 영역을 정확하게 찾을 수 있다. 그리고, 본 발명의 실시예에 따르면, 지도 이미지에서 인식된 지명 중 오인식된 지명과 정인식된 지명을 구분함으로써 노이즈에 강한 인식 기술을 제공하여 지도 인식 결과의 정확도를 보장할 수 있다.As described above, according to an embodiment of the present invention, by using the OCR technology, by recognizing a place name in a map image and finding a map area indicated by the map image based on the recognized place name, an accurate electronic map is not affected by the type or form. In addition, all map images such as general paper maps and directions can be recognized. In addition, according to an embodiment of the present invention, by recognizing the map image based on the place name, the map area indicated by the map image is accurately identified by using a database including the place name information without using a database of the topographic information of the map image. You can find it. In addition, according to an exemplary embodiment of the present invention, by distinguishing a misrecognized name and a recognized name among the names recognized in the map image, a recognition technology that is strong against noise may be provided to ensure the accuracy of the map recognition result.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). Can be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (15)

컴퓨터로 구현되는 지도 인식 방법에 있어서,In the computer-aided map recognition method, 문자 인식 기술을 이용하여 입력 영상에서 문자를 인식하는 단계;Recognizing a character in the input image using a character recognition technique; 상기 문자에 해당되는, 지도 상의 지명 및 상기 지명의 위치를 검색하는 단계; 및Searching for a place name on the map corresponding to the text and the location of the place name; And 상기 입력 영상의 중심점과 상기 문자의 중심점을 연결하는 직선 및 상기 지명의 위치를 이용하여 상기 입력 영상과 매칭되는 지도 영역을 획득하는 단계Obtaining a map area matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name; 를 포함하는 지도 인식 방법.Map recognition method comprising a. 제1항에 있어서,The method of claim 1, 상기 문자를 인식하는 단계는,Recognizing the character, OCR(optical character reader)을 이용하여 상기 입력 영상에서 상기 문자를 인식하는 것Recognizing the character in the input image using an optical character reader (OCR) 을 특징으로 하는 지도 인식 방법.Map recognition method characterized in that. 제1항에 있어서,The method of claim 1, 상기 지도 영역을 획득하는 단계는,Acquiring the map area, 상기 지명을 포함하는 지도 상의 상기 지명의 위치에 투영된 상기 직선 간의 교차점을 이용하여 상기 입력 영상의 중심점과 매칭되는 지도 상의 중심 좌표를 획득하는 단계; 및Obtaining a center coordinate on a map that matches a center point of the input image by using an intersection point between the straight lines projected on a location of the place name on a map including the place name; And 상기 입력 영상의 중심점과 상기 문자의 중심점 간 거리 및 상기 중심 좌표와 상기 지명의 위치 간 거리를 이용하여 상기 입력 영상의 크기와 매칭되는 경계 영역(boundary)을 획득하는 단계Obtaining a boundary area matching the size of the input image by using a distance between the center point of the input image and the center point of the character and the distance between the center coordinate and the location of the place name. 를 포함하는 지도 인식 방법.Map recognition method comprising a. 제3항에 있어서,The method of claim 3, 상기 중심 좌표를 획득하는 단계는,Obtaining the center coordinates, 상기 지명을 포함하는 지도 상의 상기 지명의 위치에 상기 직선을 투영하여 상기 직선 간의 교차점을 획득하는 단계;Obtaining the intersection point between the straight lines by projecting the straight lines to locations of the top names on the map including the top names; 상기 획득된 교차점에 대하여 밀도 기반 클러스터링(Density-based clustering)을 통해 유의미한 교차점의 집합을 획득하는 단계; 및Obtaining a set of significant intersection points through density-based clustering with respect to the obtained intersection points; And 상기 집합에 속한 교차점의 위치에 대한 평균값을 계산하여 상기 중심 좌표로 인식하는 단계Calculating an average value of positions of intersections belonging to the set and recognizing the coordinates as the center coordinates; 를 포함하는 지도 인식 방법.Map recognition method comprising a. 제3항에 있어서,The method of claim 3, 상기 경계 영역을 획득하는 단계는,Acquiring the boundary area, 상기 입력 영상의 중심점을 기준으로 상기 입력 영상의 크기를 계산하는 단계;Calculating a size of the input image based on a center point of the input image; 상기 입력 영상의 중심점과 상기 문자의 중심점 간 거리인 문자 거리를 계산하는 단계;Calculating a character distance that is a distance between a center point of the input image and a center point of the character; 상기 중심 좌표와 상기 지명의 위치 간 거리인 지명 거리를 계산하는 단계; 및Calculating a named distance, which is a distance between the center coordinates and the named location; And 상기 문자 거리와 상기 지명 거리를 이용하여 상기 중심 좌표를 중심으로 상기 입력 영상의 크기와 비례하는 지도 영역의 크기를 계산하는 단계Calculating a size of a map area proportional to the size of the input image based on the center coordinates using the text distance and the geographical distance; 를 포함하는 지도 인식 방법.Map recognition method comprising a. 제3항에 있어서,The method of claim 3, 상기 지도 영역을 획득하는 단계는,Acquiring the map area, 상기 중심 좌표와 상기 지명의 위치를 연결하는 제2 직선과 상기 제1 직선을 비교하여 상기 지명의 오인식 여부를 판단하는 단계Comparing the first straight line with a second straight line connecting the center coordinates and the location of the place name to determine whether the place name is misidentified 를 더 포함하고,More, 상기 경계 영역을 획득하는 단계는,Acquiring the boundary area, 상기 오인식 여부의 판단 결과 오인식된 지명을 노이즈로 간주하고 정인식된 지명의 위치를 이용하여 상기 경계 영역을 획득하는 것As a result of the determination of the misrecognition, regard the misrecognized place name as noise and obtain the boundary area by using the position of the recognized place name 을 특징으로 하는 지도 인식 방법.Map recognition method characterized in that. 제6항에 있어서,The method of claim 6, 상기 지명의 오인식 여부를 판단하는 단계는,Determining whether or not the name is misidentified, 상기 제1 직선과 상기 제2 직선의 기울기 차이가 허용 범위 이내이면 정인식된 지명으로 판단하고 상기 제1 직선과 상기 제2 직선의 기울기 차이가 상기 허용 범위를 벗어나면 오인식된 지명으로 판단하는 것If the difference between the inclination of the first straight line and the second straight line is within the allowable range, it is determined as a recognized name and if the difference in the inclination between the first and the second straight line is out of the allowable range, it is determined to be a misidentified place name. 을 특징으로 하는 지도 인식 방법.Map recognition method characterized in that. 문자 인식 기술을 이용하여 입력 영상에서 문자를 인식하는 인식부;A recognition unit for recognizing a character in the input image by using a character recognition technology; 상기 문자에 해당되는, 지도 상의 지명 및 상기 지명의 위치를 검색하는 검색부; 및A search unit for searching for a place name on the map corresponding to the text and the location of the place name; And 상기 입력 영상의 중심점과 상기 문자의 중심점을 연결하는 직선 및 상기 지명의 위치를 이용하여 상기 입력 영상과 매칭되는 지도 영역을 획득하여 상기 입력 영상의 인식 결과로 제공하는 제공부Providing unit to obtain a map region matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name as a recognition result of the input image 를 포함하는 지도 인식 시스템.Map recognition system comprising a. 제8항에 있어서,The method of claim 8, 상기 인식부는,The recognition unit, OCR(optical character reader)을 이용하여 상기 입력 영상에서 상기 문자를 인식하는 것Recognizing the character in the input image using an optical character reader (OCR) 을 특징으로 하는 지도 인식 시스템.Map recognition system characterized in that. 제8항에 있어서,The method of claim 8, 상기 제공부는,The providing unit, 상기 지명을 포함하는 지도 상의 상기 지명의 위치에 투영된 상기 직선 간의 교차점을 이용하여 상기 입력 영상의 중심점과 매칭되는 지도 상의 중심 좌표를 획득하고,Obtaining a center coordinate on a map that matches a center point of the input image by using an intersection point between the straight lines projected on the location of the place name on the map including the place name, 상기 입력 영상의 중심점과 상기 문자의 중심점 간 거리 및 상기 중심 좌표와 상기 지명의 위치 간 거리를 이용하여 상기 입력 영상의 크기와 매칭되는 경계 영역(boundary)을 획득하는 것Acquiring a boundary area matching the size of the input image by using a distance between the center point of the input image and the center point of the character and the distance between the center coordinate and the location of the place name; 을 특징으로 하는 지도 인식 시스템.Map recognition system characterized in that. 제10항에 있어서,The method of claim 10, 상기 제공부는,The providing unit, 상기 지명을 포함하는 지도 상의 상기 지명의 위치에 상기 직선을 투영하여 상기 직선 간의 교차점을 획득하고,Projecting the straight line to a location of the place name on a map including the place name to obtain an intersection point between the straight lines, 상기 획득된 교차점에 대하여 밀도 기반 클러스터링(Density-based clustering)을 통해 유의미한 교차점의 집합을 획득하고,Obtaining a set of significant intersection points through density-based clustering with respect to the obtained intersection points, 상기 집합에 속한 교차점의 위치에 대한 평균값을 계산하여 상기 중심 좌표로 인식하는 것Calculating the average value of the position of the intersection belonging to the set and recognizing it as the center coordinate 을 특징으로 하는 지도 인식 시스템.Map recognition system characterized in that. 제10항에 있어서,The method of claim 10, 상기 제공부는,The providing unit, 상기 입력 영상의 중심점을 기준으로 상기 입력 영상의 크기를 계산하고,The size of the input image is calculated based on a center point of the input image. 상기 입력 영상의 중심점과 상기 문자의 중심점 간 거리인 문자 거리를 계산하고,Calculating a character distance, which is a distance between a center point of the input image and a center point of the character, 상기 중심 좌표와 상기 지명의 위치 간 거리인 지명 거리를 계산하며,Calculate a place name distance that is a distance between the center coordinates and the location of the place name, 상기 문자 거리와 상기 지명 거리를 이용하여 상기 중심 좌표를 중심으로 상기 입력 영상의 크기와 비례하는 지도 영역의 크기를 계산하는 것Calculating a size of a map area proportional to the size of the input image based on the center coordinates using the text distance and the geographical distance; 을 특징으로 하는 지도 인식 시스템.Map recognition system characterized in that. 제10항에 있어서,The method of claim 10, 상기 제공부는,The providing unit, 상기 중심 좌표와 상기 지명의 위치를 연결하는 제2 직선과 상기 제1 직선을 비교하여 상기 지명의 오인식 여부를 판단한 후,After comparing the second straight line connecting the center coordinates and the location of the place name and the first straight line to determine whether the place name is misunderstood, 상기 오인식 여부의 판단 결과에 따라 정인식된 지명의 위치를 이용하여 상기 경계 영역을 획득하는 것Acquiring the boundary area by using a recognized location of a place name according to a result of the determination of the misrecognition; 을 특징으로 하는 지도 인식 시스템.Map recognition system characterized in that. 제13항에 있어서,The method of claim 13, 상기 제공부는,The providing unit, 상기 제1 직선과 상기 제2 직선의 기울기 차이가 허용 범위 이내이면 정인식된 지명으로 판단하고 상기 제1 직선과 상기 제2 직선의 기울기 차이가 상기 허용 범위를 벗어나면 오인식된 지명으로 판단하는 것If the difference between the inclination of the first straight line and the second straight line is within the allowable range, it is determined as a recognized name and if the difference in the inclination between the first and the second straight line is out of the allowable range, it is determined to be a misidentified place name. 을 특징으로 하는 지도 인식 시스템.Map recognition system characterized in that. 컴퓨터 시스템이 지도 인식 기능을 제공하도록 제어하는 명령(instruction)을 포함하는 컴퓨터 판독가능 매체로서,A computer readable medium containing instructions for controlling a computer system to provide a map recognition function, the computer readable medium comprising: 상기 명령은,The command is 문자 인식 기술을 이용하여 입력 영상에서 문자를 인식하는 단계;Recognizing a character in the input image using a character recognition technique; 상기 문자에 해당되는, 지도 상의 지명 및 상기 지명의 위치를 검색하는 단계; 및Searching for a place name on the map corresponding to the text and the location of the place name; And 상기 입력 영상의 중심점과 상기 문자의 중심점을 연결하는 직선 및 상기 지명의 위치를 이용하여 상기 입력 영상과 매칭되는 지도 영역을 획득하는 단계Obtaining a map area matching the input image by using a straight line connecting the center point of the input image and the center point of the character and the location of the place name; 를 포함하는 방법에 의하여 상기 컴퓨터 시스템을 제어하는, 컴퓨터 판독가능 저장 매체.And control the computer system by a method comprising: a computer readable storage medium.
PCT/KR2015/006765 2014-07-02 2015-07-01 Method and system for recognizing map image using toponyms and straight lines, and recording medium Ceased WO2016003193A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0082396 2014-07-02
KR1020140082396A KR101609744B1 (en) 2014-07-02 2014-07-02 System, method and recording medium for map image recognition by using place names straight lines

Publications (1)

Publication Number Publication Date
WO2016003193A1 true WO2016003193A1 (en) 2016-01-07

Family

ID=55019640

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/006765 Ceased WO2016003193A1 (en) 2014-07-02 2015-07-01 Method and system for recognizing map image using toponyms and straight lines, and recording medium

Country Status (2)

Country Link
KR (1) KR101609744B1 (en)
WO (1) WO2016003193A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117037131A (en) * 2023-07-20 2023-11-10 中国电子科技集团公司第五十四研究所 Visual positioning method based on street view sequence image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228477A (en) * 2001-02-05 2002-08-14 Denso Corp Navigation apparatus and navigation system
JP2012113668A (en) * 2010-11-29 2012-06-14 Zenrin Datacom Co Ltd Map information providing device, map information providing system, map information providing method, and map information providing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228477A (en) * 2001-02-05 2002-08-14 Denso Corp Navigation apparatus and navigation system
JP2012113668A (en) * 2010-11-29 2012-06-14 Zenrin Datacom Co Ltd Map information providing device, map information providing system, map information providing method, and map information providing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117037131A (en) * 2023-07-20 2023-11-10 中国电子科技集团公司第五十四研究所 Visual positioning method based on street view sequence image

Also Published As

Publication number Publication date
KR101609744B1 (en) 2016-04-06
KR20160004049A (en) 2016-01-12

Similar Documents

Publication Publication Date Title
WO2016003191A1 (en) Ocr-based system and method for recognizing map image, recording medium and file distribution system
JP6255085B2 (en) Locating system and locating method
CN110095752B (en) Positioning method, apparatus, device and medium
WO2019240452A1 (en) Method and system for automatically collecting and updating information related to point of interest in real space
Niu et al. Resource-efficient and automated image-based indoor localization
US20130243250A1 (en) Location of image capture device and object features in a captured image
WO2021241847A1 (en) Method and system for generating visual feature map
WO2021075772A1 (en) Object detection method and device using multiple area detection
KR101768522B1 (en) System, method and recording medium for map image recognition by using optical character reader, and file distribution system
CN112990168B (en) Illegal land monitoring method and system
US12056825B2 (en) Electronic device for providing indoor positioning and method therefor
WO2018026094A1 (en) Method and system for automatically generating ortho-photo texture by using dem data
WO2021125578A1 (en) Position recognition method and system based on visual information processing
WO2016003193A1 (en) Method and system for recognizing map image using toponyms and straight lines, and recording medium
Cheraghi et al. Real-time sign detection for accessible indoor navigation
WO2021206200A1 (en) Device and method for processing point cloud information
KR101699063B1 (en) System, method and recording medium for map image recognition by using place names straight lines
WO2022060058A1 (en) Electronic device and server for determining user's position-related information
JP6019680B2 (en) Display device, display method, and display program
CN113706448B (en) Method, device and equipment for determining image and storage medium
WO2021210725A1 (en) Apparatus and method for processing point cloud information
WO2014171749A1 (en) Facility information input apparatus and method using smart device, and record medium recorded with program for executing same
WO2019199035A1 (en) System and method for eye gaze tracking
KR102234311B1 (en) Method and system for extracting image feature
WO2024085450A1 (en) Method, computer device, and computer program for generating 3d map by using building geometry information

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15815427

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15815427

Country of ref document: EP

Kind code of ref document: A1