WO2025150216A1 - Camera control program, camera control method, and information processing device - Google Patents
Camera control program, camera control method, and information processing deviceInfo
- Publication number
- WO2025150216A1 WO2025150216A1 PCT/JP2024/029114 JP2024029114W WO2025150216A1 WO 2025150216 A1 WO2025150216 A1 WO 2025150216A1 JP 2024029114 W JP2024029114 W JP 2024029114W WO 2025150216 A1 WO2025150216 A1 WO 2025150216A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- camera
- pan
- control
- section
- camera control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/56—Accessories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
Definitions
- the present invention relates to a camera control program, a camera control method, and an information processing device.
- a type of camera known as a PTZ camera has pan, tilt and zoom functions. For example, when the subject of a photograph is a moving object, pan control can be performed based on the position of the subject in the captured image by linking the PTZ camera with object detection using AI (Artificial Intelligence).
- AI Artificial Intelligence
- the camera control program causes a computer to execute a process that acquires an image captured by a camera, and when controlling the panning of the camera according to the position of the subject in the captured image, allows panning control only in a predefined direction.
- FIG. 1 is a diagram showing an example of the configuration of a camera control system.
- FIG. 2 is a diagram (1) showing one aspect of the problem-solving approach.
- FIG. 3 is a diagram (2) showing one aspect of the problem-solving approach.
- FIG. 4 is a block diagram illustrating an example of a functional configuration of the information processing device.
- FIG. 5 is a schematic diagram showing an example of division of sections.
- FIG. 6 is a diagram showing an example of the section setting data.
- FIG. 7 is a schematic diagram showing an example of object detection.
- FIG. 8 is a schematic diagram showing an example of calculation of the control parameters.
- FIG. 9 is a flowchart showing the procedure of the camera control process.
- FIG. 10 is a schematic diagram showing an application example of section division.
- FIG. 11 is a diagram illustrating an example of a hardware configuration.
- the camera control system 1 may be applied to other sports besides horse racing, such as track and field, bicycle racing, boat racing, car racing, and triathlons. Furthermore, the camera control system 1 does not necessarily have to be applied to a course determined for a sport.
- the "course" may be a course determined for training, such as hill training or training tests, or may be a course formed in a facility or area to be monitored.
- the camera control system 1 can capture any subject, such as a race horse, a person, a vehicle, an aircraft, a robot, or other moving object, depending on the usage scene.
- the camera control system 1 may include an information processing device 10 and a camera 30.
- the information processing device 10 and the camera 30 may be connected to each other so that they can communicate with each other, whether wired or wirelessly.
- the information processing device 10 is an example of a computer that provides the above-mentioned camera control function.
- the information processing device 10 can be realized by a computer on which a camera control program that realizes the above-mentioned camera control function is installed.
- the above-mentioned camera control function can be realized as a Software as a Service (SaaS) type application, thereby providing it as a cloud service, or as a Web server that provides the above-mentioned camera control function on-premise.
- SaaS Software as a Service
- Camera 30 is an example of an imaging device that captures images.
- camera 30 may be realized by a PTZ camera that allows remote control of pan (horizontal rotation around the Y axis), tilt (vertical rotation around the X axis), and optical zoom.
- a camera 30 is installed so that it can capture all or part of course C. This makes it possible to capture images of a moving object such as a racehorse moving along course C.
- a PTZ camera that combines three elements for controlling the camera's field of view has been given as an example of camera 30 here, it may also be a camera that allows control of at least one or more elements.
- the section setting data 13A may be data that associates settings such as a definition of the conditions for transitioning to the next section for each section and a definition of the direction in which operations are permitted or prohibited in that section.
- FIG. 6 is a diagram showing an example of section setting data 13A.
- the PTZ coordinates are expressed in the PTZ coordinate system described below.
- the pan coordinate system is expressed in the range from the coordinate "-8704" corresponding to 170 degrees left to the coordinate "8704" corresponding to 170 degrees right.
- the tilt coordinate system is expressed in the range from the coordinate "-1024" corresponding to 20 degrees down to the coordinate "4608" corresponding to 90 degrees up.
- the zoom coordinate system is expressed in the range from the coordinate "0" corresponding to the minimum zoom out to the coordinate "16384" corresponding to the maximum zoom in.
- the PTZ control parameters can be specified within the range of PTZ speeds, which are explained below.
- the pan speed can be specified within the range of -24 to 24, with a positive sign representing "left” and a negative sign representing "right”.
- the tilt speed can be specified within the range of -24 to 24, with a positive sign representing "up” and a negative sign representing "down”.
- the zoom speed can be specified within the range of -7 to 7, with a positive sign representing "zoom in” and a negative sign representing "zoom out”.
- Figure 6 shows an excerpt of the settings for Section 1 and Section 2 out of the eight sections shown in Figure 5.
- the pan coordinate condition for transitioning to section 2 is that the pan coordinate moves up to 4100.
- the tilt coordinate condition is that the tilt coordinate moves up to -19.
- the zoom coordinate condition is that the zoom coordinate moves up to 16384.
- Section 1 further defines the center of the screen as the target used to calculate the pan control parameters. Section 1 further defines that bounding boxes obtained by object detection using AI with a confidence level of 0.2 or higher are used.
- the pan coordinate condition for transitioning to section 3 is that the pan coordinate moves to 3462.
- the tilt coordinate condition is that the tilt coordinate moves to -87.
- the zoom coordinate condition is that the zoom coordinate moves to 14921.
- section 2 defines that operations in the speed ranges described below are permitted.
- pan speeds are permitted in the range of 1 to 7. This has the aspect of being equivalent to defining the left direction as the permitted direction of pan rotation.
- tilt speeds are permitted in the range of -3 to -1. This has the aspect of being equivalent to defining the downward direction as the permitted direction of tilt rotation.
- zoom speeds are permitted in the range of -3 to -1. This has the aspect of being equivalent to defining zoom out as the permitted direction of zoom.
- shrinking up to 8931 is permitted and zooming in up to 14921 is permitted.
- the object detection unit 15B is a processing unit that detects objects from a captured image.
- object detection may be realized by a machine learning model that executes an object detection task that takes an image as input and outputs the position and category of an object in the image.
- the machine learning model may be realized by YOLO (You Only Look Once), Faster-RCNN (Regions with Convolutional Neural Network), DETR (End-to-End Object Detection with Transformers), etc.
- the image is used as the explanatory variable
- the correct label is used as the objective variable
- a machine learning model can be trained according to a machine learning algorithm, such as deep learning. This results in a trained machine learning model.
- the captured image is input to a trained machine learning model.
- the machine learning model Given the input scene, the machine learning model outputs a bounding box, a class and a confidence score.
- object detection model may refer to a trained machine learning model that performs object detection tasks.
- the object detection unit 15B when a difference image of a new frame is acquired by the image acquisition unit 15A, the object detection unit 15B inputs the acquired image to the object detection model, thereby acquiring the object detection result (prediction result) output by the object detection model.
- FIG. 7 is a schematic diagram showing an example of object detection.
- the object detection unit 15B inputs the captured image 20 to the object detection model.
- the object detection model to which the captured image 20 is input in this manner outputs an object detection result including a bounding box, class, and confidence level for each object detected from the captured image 20.
- a "class name” such as horse and a "confidence level" of 0 to 1 are predicted for each of the bounding boxes BB1 to BB3 detected from the captured image 20.
- the control amount calculation unit 15C is a processing unit that calculates the control parameters that control the PTZ of the camera 30. Below, an example of a control parameter in which the speed of the PTZ is specified is given, but it goes without saying that it is not limited to specifying a relative movement from the current position, and the coordinates of the PTZ can be specified as absolute values.
- control amount calculation unit 15C executes the following process for each function of changing the field of view of the camera 30, for example, for each PTZ. That is, the control amount calculation unit 15C calculates control parameters according to the settings of the aim and target defined for the section corresponding to the progress of the race by the subject of the image in the section setting data 13A stored in the memory unit 13. For example, the progress of the race can be managed by updating the loop counter of the section based on the monitoring result of whether or not the coordinates of the PTZ observed in the new frame satisfy the transition condition to the next section each time a photographed image of a new frame is acquired.
- FIG. 8 is a schematic diagram showing an example of calculation of control parameters.
- FIG. 8 shows an example of calculation of PTZ control parameters from object detection results for the captured image 20 shown in FIG. 7.
- FIG. 8 shows an example of calculation of PTZ control parameters according to the aim setting defined in section 2 of the section included in the section setting data 13A.
- FIG. 8 shows an example of calculation of the pan speed, which is one of the control parameters.
- the bounding box BB1 corresponding to the beginning of the "left direction" corresponding to the traveling direction of the captured object is set as the target.
- the bounding box to be set as the target may be determined after narrowing down to bounding boxes with a certainty level equal to or greater than the threshold value of "0.3" according to the definition of certainty level in Section 2.
- position T1 is defined as the center of the screen in the height direction and 50 pixels to the left of the center of the screen in the width direction, as the target used to calculate the pan control parameters.
- a specific position of the bounding box BB1 for example the two-dot chain line corresponding to the left side, is used as the aim, and a pan speed is calculated to align with a targeted position, for example the position T1 where the dashed line and the one-dot chain line intersect.
- a higher pan speed is calculated as the distance D1 from the aim to the target increases, while a lower pan speed is calculated as the distance D1 from the aim to the target decreases.
- a negative sign i.e., a rightward direction
- a positive sign i.e., a leftward direction
- the camera control unit 15E is a processing unit that controls the PTZ of the camera 30. As an embodiment, the camera control unit 15E executes the following process for each function of changing the field of view of the camera 30, for example, for each PTZ. That is, the camera control unit 15E judges whether the control parameter calculated by the control amount calculation unit 15C is an allowed operation defined in the section setting data 13A corresponding to the progress state of the race by the subject to be photographed. At this time, if the control parameter is not an allowed operation, the camera control unit 15E specifies the boundary value corresponding to the sign of the control parameter calculated by the control amount calculation unit 15C among the boundary values of the range of the control parameter defined as the allowed operation of the relevant section as the control parameter of the remote control command.
- the camera control unit 15E specifies the control parameter calculated by the control amount calculation unit 15C as the control parameter of the remote control command of the camera 30. After that, the camera control unit 15E transmits to the camera 30 a remote control command of the PTZ in which the control parameter is specified for each function of changing the field of view of the camera 30.
- the output control unit 15F is a processing unit that executes output control of the captured image acquired by the image acquisition unit 15A.
- the output control unit 15F can output the captured image acquired by the image acquisition unit 15A on a frame-by-frame basis.
- the captured images captured in chronological order may be output as a video.
- Such output may be implemented in any form, such as television broadcasting, internet distribution, live broadcasting using SNS (Social Networking Service), etc.
- Fig. 9 is a flowchart showing the procedure of the camera control process. This process can be started when the above-mentioned camera control function is activated.
- the camera control unit 15E moves the camera 30 to an initial position (step S101), and the camera control unit 15E sets an initial value, for example "1", to the loop counter m for the section (step S102).
- the image acquisition unit 15A acquires a captured image of a new frame (step S103).
- the object detection unit 15B inputs the captured image acquired in step S103 into the object detection model, thereby acquiring the object detection result (prediction result) output by the object detection model (step S104).
- control amount calculation unit 15C identifies the bounding box of the target defined in the section corresponding to the value of the loop counter m from among the bounding boxes obtained as the object detection result in step S104 (step S105).
- loop process 1 is executed in which the processes from step S106 to step S108 below are repeated a number of times corresponding to the number N of field of view changing functions of camera 30. Note that, although an example is given here in which the processes from step S106 to step S108 below are repeated, the processes from step S106 to step S108 below may be executed in parallel.
- control amount calculation unit 15C calculates the control parameters related to the nth field of view change function based on the position of the bounding box identified as the aim in step S105 and the position of the target defined in the section corresponding to the value of the loop counter m in the section setting data 13A (step S106).
- the camera control unit 15E determines whether the control parameters calculated in step S106 are permitted operations defined in the section corresponding to the value of the loop counter m in the section setting data 13A (step S107).
- the camera control unit 15E specifies, among the boundary values of the range of control parameters defined as permitted operations for the section corresponding to the value of the loop counter m, the boundary value on the side corresponding to the sign of the control parameter calculated in step S106 as the control parameter of the remote control command (step S108).
- step S108 if the control parameters are not a permitted operation (Yes in step S107), the process of step S108 is skipped.
- the control parameters calculated in step S106 are specified as the control parameters of the command for remotely controlling the camera 30.
- control parameters are specified for each field of view change function of the camera 30.
- the camera control unit 15E transmits a remote control command to the camera 30, in which control parameters are specified for each function of changing the field of view of the camera 30 (step S109).
- step S110 If the coordinates of the PTZ do not satisfy the transition condition to the next section (No in step S110), the processing proceeds to step S103 without executing steps S111 and S112.
- the processor 10d reads a program that executes the same processing as the processing unit shown in FIG. 4 from the storage device 10b, etc., and loads it into the memory 10c, thereby operating a process that executes the functions described in FIG. 4.
- the information processing device 10 operates as an information processing device that executes a calculation method by reading and executing a program.
- the information processing device 10 can also realize functions similar to those of the above-mentioned embodiment by reading the program from a recording medium using a media reading device and executing the read program.
- the program in these other embodiments is not limited to being executed by the information processing device 10.
- the present invention can be similarly applied to cases where another computer or server executes a program, or where these cooperate to execute a program.
- the above program can be distributed via a network such as the Internet.
- the above program can also be recorded on any recording medium and executed by a computer by reading it from the recording medium.
- the recording medium can be a hard disk, a flexible disk (FD), a CD-ROM, an MO (Magneto-Optical disk), a DVD (Digital Versatile Disc), etc.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Accessories Of Cameras (AREA)
Abstract
Description
本発明は、カメラ制御プログラム、カメラ制御方法及び情報処理装置に関する。 The present invention relates to a camera control program, a camera control method, and an information processing device.
カメラの一種として、パン、チルトおよびズームの機能を有するPTZカメラが知られている。例えば、撮影対象物が移動体である場合、PTZカメラと、AI(Artificial Intelligence)による物体検出とを連携させることにより、撮影画像上の撮影対象物の位置に基づいてパン制御が実施されることがある。 A type of camera known as a PTZ camera has pan, tilt and zoom functions. For example, when the subject of a photograph is a moving object, pan control can be performed based on the position of the subject in the captured image by linking the PTZ camera with object detection using AI (Artificial Intelligence).
しかしながら、AIによる物体検出の連携時には、撮影対象物の移動速度が速くなるに従って、撮影画像上の撮影対象物の位置と、撮影画像上で撮影対象物を撮影する目標とする位置との相対位置が撮影対象物の進行方向の前後に入れ替わる頻度が高まる。この結果、パンの移動方向が頻繁に切り替わるので、滑らかなパン制御を行うことが困難である側面がある。 However, when AI-based object detection is used, as the moving speed of the subject increases, the relative position between the position of the subject on the captured image and the target position for photographing the subject on the captured image changes more frequently to either side of the subject's travel direction. As a result, the pan movement direction changes frequently, making it difficult to perform smooth pan control.
1つの側面では、本発明は、滑らかなパン制御を実現できるカメラ制御プログラム、カメラ制御方法及び情報処理装置を提供することを目的とする。 In one aspect, the present invention aims to provide a camera control program, a camera control method, and an information processing device that can achieve smooth pan control.
1つの側面にかかるカメラ制御プログラムは、カメラの撮影画像を取得し、前記撮影画像における撮影対象物の位置に応じて前記カメラのパンを制御する際、あらかじめ規定した方向にのみパン制御を許可する、処理をコンピュータに実行させる。 In one aspect, the camera control program causes a computer to execute a process that acquires an image captured by a camera, and when controlling the panning of the camera according to the position of the subject in the captured image, allows panning control only in a predefined direction.
一実施形態によれば、滑らかなパン制御を実現できる。 According to one embodiment, smooth pan control can be achieved.
以下、本開示に係るカメラ制御プログラム、カメラ制御方法及び情報処理装置の実施例について添付図面を参照して説明する。なお、この実施例には、あくまで1つの例や側面を示すに過ぎず、このような例示により、本開示に係る構造や作用、機能、性質、特性、方法、用途などは限定されない。 Below, examples of a camera control program, a camera control method, and an information processing device according to the present disclosure will be described with reference to the attached drawings. Note that this example merely illustrates one example or aspect, and such an example does not limit the structure, action, function, nature, characteristics, method, or use of the present disclosure.
<実施例1>
<システム構成>
図1は、カメラ制御システムの構成例を示す図である。図1には、1つの例として、コースCで移動する移動体をカメラ30に撮影させるカメラ制御機能を提供するカメラ制御システム1が例示されている。
Example 1
<System Configuration>
Fig. 1 is a diagram showing an example of the configuration of a camera control system. Fig. 1 shows, as an example, a camera control system 1 that provides a camera control function for causing a camera 30 to capture an image of a moving object moving on a course C.
このようなカメラ制御システム1の利用シーンとして、競馬中継の撮影が行われる場合を例に挙げるが、これは一例であって、カメラ制御システム1が適用可能である利用シーンは特定の競技や特定のコース、特定の被写体に限定されない。 As an example of a usage scenario for such a camera control system 1, a horse race broadcast will be given, but this is just one example, and usage scenarios to which the camera control system 1 can be applied are not limited to specific races, specific courses, or specific subjects.
例えば、カメラ制御システム1は、競馬以外にも、陸上競技、競輪、競艇、カーレース、トライアスロンなどの他の競技に適用されてよい。さらに、カメラ制御システム1は、必ずしも競技で定められたコースに適用されずともよい。例えば、「コース」は、調教、例えば坂路調教や調教試験などで定められたコースであってもよく、監視対象とする施設やエリアに形成されたコースであってもよい。 For example, the camera control system 1 may be applied to other sports besides horse racing, such as track and field, bicycle racing, boat racing, car racing, and triathlons. Furthermore, the camera control system 1 does not necessarily have to be applied to a course determined for a sport. For example, the "course" may be a course determined for training, such as hill training or training tests, or may be a course formed in a facility or area to be monitored.
このように、カメラ制御システム1は、利用シーンに応じて、任意の被写体、例えば競走馬や人、車両、飛行体、ロボットなどの移動体を撮影対象物とすることができる。 In this way, the camera control system 1 can capture any subject, such as a race horse, a person, a vehicle, an aircraft, a robot, or other moving object, depending on the usage scene.
図1に示すように、カメラ制御システム1には、情報処理装置10と、カメラ30とが含まれ得る。これら情報処理装置10およびカメラ30は、有線や無線を問わず、互いに通信可能に接続されてよい。 As shown in FIG. 1, the camera control system 1 may include an information processing device 10 and a camera 30. The information processing device 10 and the camera 30 may be connected to each other so that they can communicate with each other, whether wired or wirelessly.
情報処理装置10は、上記のカメラ制御機能を提供するコンピュータの一例である。例えば、情報処理装置10は、上記のカメラ制御機能を実現するカメラ制御プログラムがインストールされたコンピュータにより実現できる。なお、上記のカメラ制御機能は、SaaS(Software as a Service)型のアプリケーションとして実現することで、クラウドサービスとして提供したり、上記のカメラ制御機能をオンプレミスに提供するWebサーバとして実現したりすることを妨げない。 The information processing device 10 is an example of a computer that provides the above-mentioned camera control function. For example, the information processing device 10 can be realized by a computer on which a camera control program that realizes the above-mentioned camera control function is installed. Note that the above-mentioned camera control function can be realized as a Software as a Service (SaaS) type application, thereby providing it as a cloud service, or as a Web server that provides the above-mentioned camera control function on-premise.
カメラ30は、画像を撮像する撮像装置の一例である。例えば、カメラ30は、パン(Y軸回りの水平回転)、チルト(X軸回りの垂直回転)および光学ズームの遠隔制御が可能なPTZカメラにより実現されてよい。このようなカメラ30は、コースCの全部または一部を撮影可能に設置される。これにより、競走馬等の移動体がコースC上を移動する構図などが撮影され得る。なお、ここでは、カメラ30の例として、カメラの視野を制御する3要素を兼ね備えるPTZカメラを例示したが、少なくとも1つ以上の要素を制御可能なカメラであってもよい。 Camera 30 is an example of an imaging device that captures images. For example, camera 30 may be realized by a PTZ camera that allows remote control of pan (horizontal rotation around the Y axis), tilt (vertical rotation around the X axis), and optical zoom. Such a camera 30 is installed so that it can capture all or part of course C. This makes it possible to capture images of a moving object such as a racehorse moving along course C. Note that while a PTZ camera that combines three elements for controlling the camera's field of view has been given as an example of camera 30 here, it may also be a camera that allows control of at least one or more elements.
1つの側面として、情報処理装置10およびカメラ30の間では、カメラ30によりフレーム単位で撮影される画像が伝送されてよい。例えば、情報処理装置10からカメラ30への通信は、任意のインタフェイス規格、例えばHDMI(登録商標)(High-Definition Multimedia Interface)などの規格により実現されてよい。なお、これに限らず、イントラネットやインターネット、あるいはIoT(Internet of Things)向けの省電力無線通信規格などの任意の通信技術により実現されることを妨げない。 As one aspect, images captured by the camera 30 on a frame-by-frame basis may be transmitted between the information processing device 10 and the camera 30. For example, communication from the information processing device 10 to the camera 30 may be realized by any interface standard, such as HDMI (registered trademark) (High-Definition Multimedia Interface). However, this is not limited to this, and does not prevent it from being realized by any communication technology, such as an intranet, the Internet, or a low-power wireless communication standard for the IoT (Internet of Things).
他の側面として、情報処理装置10およびカメラ30の間では、カメラ30を遠隔操作するコマンドが伝送されてよい。例えば、情報処理装置10からカメラ30への通信は、カメラ制御用のコマンドを伝送するプロトコル、例えばVISCA(Video System Control Architecture)により実現されてよい。 As another aspect, commands for remotely operating the camera 30 may be transmitted between the information processing device 10 and the camera 30. For example, communication from the information processing device 10 to the camera 30 may be realized by a protocol for transmitting commands for controlling the camera, such as VISCA (Video System Control Architecture).
<課題の一側面>
上記の背景技術の欄で説明した通り、AIによる物体検出の連携時には、次のような課題がある。すなわち、撮影対象物の移動速度が速くなるに従って、撮影画像上の撮影対象物の位置と、撮影画像上で撮影対象物を撮影する目標とする位置との相対位置が撮影対象物の進行方向の前後に入れ替わる頻度が高まる。この結果、パンの移動方向が頻繁に切り替わるので、滑らかなパン制御を行うことが困難である側面がある。
<One aspect of the issue>
As explained in the Background Art section above, the following problem occurs when AI-based object detection is used in conjunction. That is, as the moving speed of the object to be photographed increases, the relative position between the object to be photographed on the photographed image and the target position for photographing the object on the photographed image changes more frequently in front of or behind the moving direction of the object to be photographed. As a result, the pan movement direction changes frequently, making it difficult to perform smooth pan control.
<課題解決アプローチの一側面(1)>
そこで、本実施例に係るカメラ制御機能は、カメラ30の撮影画像における撮影対象物の位置に応じてカメラ30のパンを制御する際、あらかじめ規定した方向にのみパン制御を許可する。
<One aspect of the problem-solving approach (1)>
Therefore, when controlling the pan of the camera 30 in accordance with the position of the subject in the image captured by the camera 30, the camera control function according to this embodiment permits pan control only in a predefined direction.
図2は、課題解決アプローチの一側面を示す図(1)である。例えば、図2には、カメラ30により撮影された撮影画像20に対する物体検出の実行結果が示されている。さらに、図2には、撮影画像20上の先頭の競走馬の位置を照準としてカメラ30のパン方向を制御する制御パラメータが決定される例が示されている。 FIG. 2 is a diagram (1) showing one aspect of the problem-solving approach. For example, FIG. 2 shows the results of performing object detection on an image 20 captured by a camera 30. Furthermore, FIG. 2 shows an example in which a control parameter is determined to control the pan direction of the camera 30 with the position of the leading racehorse on the captured image 20 as the target.
図2に示すように、AIによる物体検出の実行結果として、撮影画像20から3つのバウンディングボックスBB1~BB3が検出される。この場合、3つのバウンディングボックスBB1~BB3のうち、撮影対象物の走行方向に対応する「左方向」の先頭に対応するバウンディングボックスBB1が照準とされる。 As shown in Figure 2, as a result of executing object detection by AI, three bounding boxes BB1 to BB3 are detected from the captured image 20. In this case, of the three bounding boxes BB1 to BB3, the bounding box BB1 that corresponds to the leading edge of the "left direction" that corresponds to the traveling direction of the captured object is targeted.
例えば、撮影対象物を撮影する目標とする位置をスクリーンの中央とする場合を例に挙げる。この場合、バウンディングボックスBB1の特定の位置、例えば左辺に対応する二点鎖線を照準として、目標とする位置、例えばスクリーン中央に対応する破線に合わせる制御パラメータ、例えばパンの相対移動量やパンの絶対位置の指定などが設定される。 For example, let us take the case where the target position for photographing the subject is the center of the screen. In this case, a specific position of the bounding box BB1, for example the two-dot chain line corresponding to the left edge, is set as the aim, and control parameters are set to align with the target position, for example the dashed line corresponding to the center of the screen, such as the relative pan movement amount and absolute pan position.
ここで、上記の従来技術のように、AIによる物体検出の実行結果のみに基づいてパンの制御パラメータが設定される場合、図2に示す事例で撮影対象物の進行方向とは逆方向である「右方向」にパンの移動方向が設定される。すなわち、図2に示す例で言えば、撮影対象物の進行方向上で照準位置が目標位置よりも前に位置する場合、カメラ30のパンの移動方向は、撮影対象物の進行方向とは逆方向である「右方向」に設定される。このため、パンの移動方向が進行方向およびその反対方向の間で切り替わる。 Here, when the pan control parameters are set based solely on the results of object detection by AI, as in the above-mentioned conventional technology, the pan movement direction is set to the "right direction" which is the opposite direction to the traveling direction of the subject in the example shown in FIG. 2. That is, in the example shown in FIG. 2, when the aiming position is located ahead of the target position in the traveling direction of the subject, the pan movement direction of the camera 30 is set to the "right direction" which is the opposite direction to the traveling direction of the subject. Therefore, the pan movement direction switches between the traveling direction and the opposite direction.
一方、本実施例に係るカメラ制御機能では、あらかじめ規定した方向、例えば撮影対象物の進行方向「左方向」にのみパン制御が許可される。換言すれば、撮影対象物の進行方向上で照準位置が目標位置よりも前に位置する場合、カメラ30のパンの移動方向を撮影対象物の進行方向とは逆方向である「右方向」に設定することが禁止される。このため、パンの移動方向が進行方向およびその反対方向の間で切り替わるのを抑止できる。 On the other hand, in the camera control function of this embodiment, pan control is permitted only in a predefined direction, for example, the "left" direction, which is the traveling direction of the subject. In other words, if the aiming position is located ahead of the target position in the traveling direction of the subject, it is prohibited to set the pan movement direction of the camera 30 to the "right" direction, which is the opposite direction to the traveling direction of the subject. This makes it possible to prevent the pan movement direction from switching between the traveling direction and the opposite direction.
したがって、本実施例に係るカメラ制御機能によれば、カメラ30の滑らかなパン制御を実現することが可能になる。さらに、本実施例に係るカメラ制御機能によりカメラ30の滑らかなパン制御が可能な自動撮影が実現される結果、撮影用の人員を不要化できる。それ故、カメラ30を設置する箇所が撮影者の立ち入りの容易性や撮影者の撮影用のスペースなどによる制約を受けない。この結果、カメラアングルが好条件である箇所や競技または観戦の設備によるオクルージョンが発生しにくい箇所にカメラ30を設置することも可能となる。 Therefore, the camera control function according to this embodiment makes it possible to realize smooth pan control of the camera 30. Furthermore, the camera control function according to this embodiment realizes automatic shooting that allows smooth pan control of the camera 30, which makes it possible to eliminate the need for personnel for shooting. Therefore, the location where the camera 30 is installed is not restricted by the ease of access for the photographer or the space available for the photographer to shoot. As a result, it is possible to install the camera 30 in a location where the camera angle is favorable or where occlusion due to competition or spectator facilities is unlikely to occur.
<課題解決アプローチの一側面(2)>
また、本実施例に係るカメラ制御機能は、カメラ30の撮影画像における撮影対象物の位置に応じてカメラ30のパンを制御する際、カメラ30のパンの座標が所定の角度範囲の場合には、あらかじめ規定した速度で移動するパン制御を許可する。
<One aspect of the problem-solving approach (2)>
In addition, the camera control function of this embodiment allows pan control to move at a predefined speed when controlling the pan of camera 30 in accordance with the position of the object being photographed in the image captured by camera 30 and the pan coordinates of camera 30 are within a specified angle range.
図3は、課題解決アプローチの一側面を示す図(2)である。図3には、コースの例として、右回りのコースCが示されている。図3に示すように、カメラ30のパン角度が角度範囲A1、A2およびA3である場合、あらかじめ規定した速度V1、V2またはV3でパン方向に移動するパン制御を許可する。 FIG. 3 is a diagram (2) showing one aspect of the problem-solving approach. In FIG. 3, a clockwise course C is shown as an example of a course. As shown in FIG. 3, when the pan angle of the camera 30 is within the angle ranges A1, A2, and A3, pan control is permitted to move in the pan direction at a predefined speed V1, V2, or V3.
例えば、パンの角度範囲A1では、撮影対象物である競走馬が他の角度範囲に比べてカメラ30に近づく。このため、撮影画像上で競走馬が移動する移動速度も相対的に速くなる。このように撮影対象物の移動速度が速くなるに従って、撮影画像上の撮影対象物の位置と、撮影画像上で撮影対象物を撮影する目標とする位置との相対位置が撮影対象物の進行方向の前後に入れ替わる頻度が高まる。競走馬の移動速度は大方決まっており、このようなパンの角度範囲A1で固定のパンの速度V1が制御パラメータとして設定されることで、パンの移動方向が進行方向およびその反対方向の間で切り替わるのを抑止できる。 For example, in pan angle range A1, the racehorse, which is the subject of the photography, is closer to the camera 30 than in other angle ranges. For this reason, the speed at which the racehorse moves in the captured image is also relatively faster. As the moving speed of the subject of the photography increases in this way, the frequency with which the relative position between the position of the subject of the photography in the captured image and the target position for photographing the subject in the captured image switches between before and after the subject's traveling direction increases. The moving speed of a racehorse is largely fixed, and by setting a fixed pan speed V1 in such pan angle range A1 as a control parameter, it is possible to prevent the pan movement direction from switching between the traveling direction and the opposite direction.
また、パンの角度範囲A2およびパンの角度範囲A3では、撮影対象物である競走馬が他の角度範囲に比べてカメラ30から遠ざかる。このように撮影対象物がカメラ30から遠ざかるに従って、AIによる物体検出の精度が低下、あるいは不安定化する。この結果、先頭馬に対応するバウンディングボックスが検出されたり、ロストしたりするので、パンの制御パラメータを決定する照準が頻繁に切り替わる。これらパンの角度範囲A2およびパンの角度範囲A3で固定のパンの速度V2または速度V3が制御パラメータとして設定されることで、パンの移動方向が進行方向およびその反対方向の間で切り替わるのを抑止できる。 Furthermore, in pan angle range A2 and pan angle range A3, the racehorse, which is the subject of the shot, is farther away from camera 30 than in other angle ranges. As the subject of the shot moves farther away from camera 30 in this way, the accuracy of object detection by the AI decreases or becomes unstable. As a result, the bounding box corresponding to the leading horse is detected or lost, and the aim that determines the pan control parameters changes frequently. By setting a fixed pan speed V2 or speed V3 as the control parameter in pan angle range A2 and pan angle range A3, it is possible to prevent the pan movement direction from switching between the forward direction and the opposite direction.
したがって、本実施例に係るカメラ制御機能によれば、カメラ30の滑らかなパン制御を実現することが可能になる。さらに、本実施例に係るカメラ制御機能によりカメラ30の滑らかなパン制御が可能な自動撮影が実現される結果、撮影用の人員を不要化できる。それ故、カメラ30を設置する箇所が撮影者の立ち入りの容易性や撮影者の撮影用のスペースなどによる制約を受けない。この結果、カメラアングルが好条件である箇所や競技または観戦の設備によるオクルージョンが発生しにくい箇所にカメラ30を設置することも可能となる。 Therefore, the camera control function according to this embodiment makes it possible to realize smooth pan control of the camera 30. Furthermore, the camera control function according to this embodiment realizes automatic shooting that allows smooth pan control of the camera 30, which makes it possible to eliminate the need for personnel for shooting. Therefore, the location where the camera 30 is installed is not restricted by the ease of access for the photographer or the space available for the photographer to shoot. As a result, it is possible to install the camera 30 in a location where the camera angle is favorable or where occlusion due to competition or spectator facilities is unlikely to occur.
<情報処理装置の構成>
次に、本実施例に係る情報処理装置10の機能構成について説明する。図4は、情報処理装置10の機能構成例を示すブロック図である。図4は、情報処理装置10の機能構成例を示すブロック図である。図4には、情報処理装置10が有するカメラ制御機能に関連するブロックが模式化されている。
<Configuration of information processing device>
Next, a functional configuration of the information processing device 10 according to the present embodiment will be described. Fig. 4 is a block diagram showing an example of the functional configuration of the information processing device 10. Fig. 4 is a block diagram showing an example of the functional configuration of the information processing device 10. Fig. 4 shows a schematic diagram of blocks related to a camera control function of the information processing device 10.
図4に示すように、情報処理装置10は、通信制御部11と、記憶部13と、制御部15とを有する。なお、図4には、上記のカメラ制御機能に関連する機能部が抜粋して示されているに過ぎず、図示以外の機能部、例えば入力部や表示部などが情報処理装置10に備わることとしてもよい。 As shown in FIG. 4, the information processing device 10 has a communication control unit 11, a storage unit 13, and a control unit 15. Note that FIG. 4 merely shows an excerpt of the functional units related to the above-mentioned camera control function, and the information processing device 10 may also be provided with functional units other than those shown, such as an input unit and a display unit.
通信制御部11は、カメラ30などの他の装置との間の通信を制御する機能部である。例えば、通信制御部11は、ネットワークインタフェイスカードにより実現され得る。1つの側面として、通信制御部11は、カメラ30から撮影画像を受け付けることができる。他の側面として、通信制御部11は、カメラ30を制御するコマンドやコマンドで指定される制御パラメータなどをカメラ30へ出力することができる。 The communication control unit 11 is a functional unit that controls communication with other devices such as the camera 30. For example, the communication control unit 11 can be realized by a network interface card. In one aspect, the communication control unit 11 can accept captured images from the camera 30. In another aspect, the communication control unit 11 can output commands for controlling the camera 30 and control parameters specified by the commands to the camera 30.
記憶部13は、各種のデータを記憶する機能部である。例えば、記憶部13は、情報処理装置10の内部、外部または補助のストレージにより実現される。1つの態様として、記憶部13は、区間設定データ13Aなどの情報を記憶する。なお、記憶部13には、区間設定データ13A以外の他の情報、例えば撮影画像、レースが開催されるプログラム、各レースに出場する騎手や競走馬の情報などが格納されてよい。 The storage unit 13 is a functional unit that stores various types of data. For example, the storage unit 13 is realized by internal, external, or auxiliary storage of the information processing device 10. In one embodiment, the storage unit 13 stores information such as section setting data 13A. Note that the storage unit 13 may also store information other than the section setting data 13A, such as photographed images, programs in which races are held, and information on the jockeys and racehorses participating in each race.
区間設定データ13Aは、区間ごとにカメラ制御に関する定義が設定されたデータである。ここで言う「区間」とは、コースCが分割されたセグメントを指す。図5は、区間の分割例を示す模式図である。図5には、コースの例として、右回りのコースCが示されている。図5に示すように、コースCは、セクション内における撮影対象物の移動方向を一方向のみに絞り込むことができるセクション1~8の8つのセクションに分割される。例えば、セクション1~8の各々では、競走馬の移動方向を左方向、左方向、左方向、右方向、右方向、下方向、下方向、左方向へ限定できる。 The section setting data 13A is data in which definitions regarding camera control are set for each section. The term "section" here refers to the segments into which course C is divided. Figure 5 is a schematic diagram showing an example of section division. Figure 5 shows a clockwise course C as an example of a course. As shown in Figure 5, course C is divided into eight sections, sections 1 to 8, which allow the movement direction of the subject to be photographed within a section to be narrowed down to only one direction. For example, in each of sections 1 to 8, the movement direction of a racehorse can be limited to left, left, left, right, right, down, down, and left.
例えば、区間設定データ13Aは、区間ごとに当該区間の次の区間へ遷移する条件の定義および当該区間で動作が許可または禁止される方向の定義などの設定が対応付けられたデータであってよい。 For example, the section setting data 13A may be data that associates settings such as a definition of the conditions for transitioning to the next section for each section and a definition of the direction in which operations are permitted or prohibited in that section.
図6は、区間設定データ13Aの一例を示す図である。例えば、PTZ座標は、次に説明するPTZの座標系で表現される。例えば、パンの座標系は、左170度に対応する座標「-8704」から右170度に対応する座標「8704」までの範囲で表現される。また、チルトの座標系は、下20度に対応する座標「-1024」から上90度に対応する座標「4608」までの範囲で表現される。さらに、ズームの座標系は、最小のズームアウトに対応する座標「0」から最大のズームインに対応する座標「16384」までの範囲で表現される。 FIG. 6 is a diagram showing an example of section setting data 13A. For example, the PTZ coordinates are expressed in the PTZ coordinate system described below. For example, the pan coordinate system is expressed in the range from the coordinate "-8704" corresponding to 170 degrees left to the coordinate "8704" corresponding to 170 degrees right. The tilt coordinate system is expressed in the range from the coordinate "-1024" corresponding to 20 degrees down to the coordinate "4608" corresponding to 90 degrees up. Furthermore, the zoom coordinate system is expressed in the range from the coordinate "0" corresponding to the minimum zoom out to the coordinate "16384" corresponding to the maximum zoom in.
さらに、PTZの制御パラメータは、次に説明するPTZの速度の範囲で指定できる。例えば、パン速度は、正の符号を「左方向」とし、負の符号を「右方向」として、-24から24までの範囲で指定できる。また、チルト速度は、正の符号を「上方向」とし、負の符号を「下方向」として、-24から24までの範囲で指定できる。さらに、ズーム速度は、正の符号を「ズームイン」とし、負の符号を「ズームアウト」として、-7から7までの範囲で指定できる。 Furthermore, the PTZ control parameters can be specified within the range of PTZ speeds, which are explained below. For example, the pan speed can be specified within the range of -24 to 24, with a positive sign representing "left" and a negative sign representing "right". The tilt speed can be specified within the range of -24 to 24, with a positive sign representing "up" and a negative sign representing "down". The zoom speed can be specified within the range of -7 to 7, with a positive sign representing "zoom in" and a negative sign representing "zoom out".
ここで、図6には、図5に示す8つのセクションのうちセクション1およびセクション2に関する設定が抜粋して示されている。 Here, Figure 6 shows an excerpt of the settings for Section 1 and Section 2 out of the eight sections shown in Figure 5.
例えば、セクション1の例で言えば、セクション1の次のセクションであるセクション2へ遷移するパン座標の条件として、パン座標が4100まで移動することが定義されている。また、チルト座標の条件として、チルト座標が-19まで移動することが定義されている。さらに、ズーム座標の条件として、ズーム座標が16384まで移動することが定義されている。 For example, in the case of section 1, the pan coordinate condition for transitioning to section 2, the next section after section 1, is that the pan coordinate moves up to 4100. Additionally, the tilt coordinate condition is that the tilt coordinate moves up to -19. Additionally, the zoom coordinate condition is that the zoom coordinate moves up to 16384.
さらに、セクション1では、パンの制御パラメータの算出に用いる照準が左方向を基準に設定される一方で、チルトおよびズームの制御パラメータの算出に用いる照準が設定されないことが定義されている。さらに、セクション1では、撮影対象物の走行方向が左方向であることが定義されている。 Furthermore, in section 1, it is defined that the aim used to calculate the pan control parameters is set based on the left direction, while the aim used to calculate the tilt and zoom control parameters is not set. Furthermore, in section 1, it is defined that the traveling direction of the object to be photographed is the left direction.
さらに、セクション1では、次に説明する速度の範囲の動作を許可することが定義されている。例えば、パン速度は、0から3までの範囲で許可される。これはパンの回転を許可する方向として左方向を定義することと等価である側面を有する。また、チルト速度は、-3から0までの範囲で許可される。これはチルトの回転を許可する方向として下方向を定義することと等価である側面を有する。さらに、ズーム速度は、-2から0までの範囲で許可される。これはズームを許可する方向としてズームアウトを定義することと等価である側面を有する。さらに、ズームについては、14921までの縮小を許可するとともに16384までの拡大を許可することが定義されている。なお、図6には、動作を許可する速度の範囲が定義される例を挙げたが、動作を禁止する速度の範囲が定義されることとしてもよい。 Furthermore, in section 1, it is defined that operations within the speed range described below are permitted. For example, pan speed is permitted in the range from 0 to 3. This has the aspect of being equivalent to defining the left direction as the permitted direction of pan rotation. Tilt speed is permitted in the range from -3 to 0. This has the aspect of being equivalent to defining the downward direction as the permitted direction of tilt rotation. Zoom speed is permitted in the range from -2 to 0. This has the aspect of being equivalent to defining zoom out as the permitted direction of zoom. Furthermore, for zooming, it is defined that reduction up to 14921 is permitted and enlargement up to 16384 is permitted. Note that while FIG. 6 shows an example in which a speed range for permitted operations is defined, a speed range for prohibited operations may also be defined.
さらに、セクション1では、パンの制御パラメータの算出に用いる目標として、スクリーン中心が定義されている。さらに、セクション1では、AIによる物体検出で得られるバウンディングボックスのうち確信度が0.2以上であるバウンディングボックスを用いることが定義されている。 Section 1 further defines the center of the screen as the target used to calculate the pan control parameters. Section 1 further defines that bounding boxes obtained by object detection using AI with a confidence level of 0.2 or higher are used.
次に、セクション2の例で言えば、セクション2の次のセクションであるセクション3へ遷移するパン座標の条件として、パン座標が3462まで移動することが定義されている。また、チルト座標の条件として、チルト座標が-87まで移動することが定義されている。さらに、ズーム座標の条件として、ズーム座標が14921まで移動することが定義されている。 Next, in the example of section 2, the pan coordinate condition for transitioning to section 3, the next section after section 2, is that the pan coordinate moves to 3462. Also, the tilt coordinate condition is that the tilt coordinate moves to -87. And the zoom coordinate condition is that the zoom coordinate moves to 14921.
さらに、セクション2では、パンの制御パラメータの算出に用いる照準が左方向を基準に設定されることが定義されている。さらに、チルトの制御パラメータの算出に用いる照準が下方向を基準に設定されることが定義されている。さらに、ズームの制御パラメータの算出に用いる照準がズームアウトを基準に設定されることが定義されている。さらに、セクション2では、撮影対象物の走行方向が左方向であることが定義されている。 Furthermore, section 2 defines that the aim used to calculate the pan control parameter is set based on the left direction.Furthermore, it defines that the aim used to calculate the tilt control parameter is set based on the downward direction.Furthermore, it defines that the aim used to calculate the zoom control parameter is set based on zoom out.Furthermore, section 2 defines that the traveling direction of the subject to be photographed is the left direction.
さらに、セクション2では、次に説明する速度の範囲の動作を許可することが定義されている。例えば、パン速度は、1から7までの範囲で許可される。これはパンの回転を許可する方向として左方向を定義することと等価である側面を有する。また、チルト速度は、-3から-1までの範囲で許可される。これはチルトの回転を許可する方向として下方向を定義することと等価である側面を有する。さらに、ズーム速度は、-3から-1までの範囲で許可される。これはズームを許可する方向としてズームアウトを定義することと等価である側面を有する。さらに、ズームについては、8931までの縮小を許可するとともに14921までの拡大を許可することが定義されている。 Furthermore, section 2 defines that operations in the speed ranges described below are permitted. For example, pan speeds are permitted in the range of 1 to 7. This has the aspect of being equivalent to defining the left direction as the permitted direction of pan rotation. Also, tilt speeds are permitted in the range of -3 to -1. This has the aspect of being equivalent to defining the downward direction as the permitted direction of tilt rotation. Furthermore, zoom speeds are permitted in the range of -3 to -1. This has the aspect of being equivalent to defining zoom out as the permitted direction of zoom. Furthermore, for zooming, it is defined that shrinking up to 8931 is permitted and zooming in up to 14921 is permitted.
さらに、セクション2では、パンの制御パラメータの算出に用いる目標として、スクリーンの高さ方向の中央であり、かつスクリーンの幅方向の中央から左方向に50ピクセルの位置であることが定義されている。さらに、セクション2では、AIによる物体検出で得られるバウンディングボックスのうち確信度が0.3以上であるバウンディングボックスを用いることが定義されている。 Furthermore, Section 2 defines that the target used in calculating the pan control parameters is the center of the screen in the height direction and 50 pixels to the left of the center of the screen in the width direction. Furthermore, Section 2 defines that bounding boxes obtained by object detection using AI should be those with a confidence level of 0.3 or higher.
なお、図6には、セクション1およびセクション2に関する定義を抜粋して説明したが、当然のことながら他のセクションについても定義が設定されるのは言うまでもない。例えば、セクション3、セクション5およびセクション6については、図3に示す角度範囲A1~A3に対応するので、PTZの速度の範囲を他のセクションに定義された速度の範囲よりも狭く設定したり、1つの値、例えばV1~V3に対応する値を設定したりすることができる。これにより、PTZの速度を略一定の値に固定できる。この他、コースCのゴールに対応するセクション8には、次のセクションへの遷移条件の代わりにPTZの視野変更の機能ごとに座標の終点を定義することにより、PTZの移動を停止することができる。 Note that in Figure 6, definitions relating to Sections 1 and 2 have been excerpted and explained, but it goes without saying that definitions are also set for the other sections. For example, Sections 3, 5, and 6 correspond to the angle range A1 to A3 shown in Figure 3, so the PTZ speed range can be set narrower than the speed range defined for the other sections, or a single value, for example a value corresponding to V1 to V3, can be set. This allows the PTZ speed to be fixed at a substantially constant value. In addition, for Section 8, which corresponds to the goal of Course C, the movement of the PTZ can be stopped by defining the end point of coordinates for each function of changing the field of view of the PTZ instead of the transition condition to the next section.
図4の説明に戻り、制御部15は、情報処理装置10の全体制御を行う機能部である。例えば、制御部15は、ハードウェアプロセッサにより実現され得る。図4に示すように、制御部15は、画像取得部15Aと、物体検出部15Bと、制御量算出部15Cと、カメラ制御部15Eと、出力制御部15Fとを有する。なお、制御部15は、ハードワイヤードロジックなどにより実現されてもよい。 Returning to the explanation of FIG. 4, the control unit 15 is a functional unit that performs overall control of the information processing device 10. For example, the control unit 15 can be realized by a hardware processor. As shown in FIG. 4, the control unit 15 has an image acquisition unit 15A, an object detection unit 15B, a control amount calculation unit 15C, a camera control unit 15E, and an output control unit 15F. Note that the control unit 15 may also be realized by hardwired logic, etc.
画像取得部15Aは、撮影画像を取得する処理部である。一実施形態として、画像取得部15Aは、カメラ30から撮影画像をフレーム単位で取得することができる。なお、ここでは、カメラ30から伝送される撮影画像を取得する例を挙げたが、外部の装置、例えばファイルサーバや記憶媒体、例えばリムーバブルメディアなどを経由して撮影画像を取得することとしてもよい。 The image acquisition unit 15A is a processing unit that acquires captured images. In one embodiment, the image acquisition unit 15A can acquire captured images from the camera 30 on a frame-by-frame basis. Note that, although an example of acquiring captured images transmitted from the camera 30 has been given here, the captured images may also be acquired via an external device, such as a file server or a storage medium, such as removable media.
物体検出部15Bは、撮影画像から物体を検出する処理部である。このような物体検出は、画像を入力として画像中の物体の位置およびカテゴリを出力する物体検出タスクを実行する機械学習モデルにより実現されてよい。例えば、機械学習モデルは、YOLO(You Only Look Once)、Faster-RCNN(Regions with Convolutional Neural Network)、DETR(End-to-End Object Detection with Transformers)などにより実現されてよい。 The object detection unit 15B is a processing unit that detects objects from a captured image. Such object detection may be realized by a machine learning model that executes an object detection task that takes an image as input and outputs the position and category of an object in the image. For example, the machine learning model may be realized by YOLO (You Only Look Once), Faster-RCNN (Regions with Convolutional Neural Network), DETR (End-to-End Object Detection with Transformers), etc.
このような機械学習モデルの訓練には、画像と、画像中の物体の位置を示すバウンディングボックスおよび物体のカテゴリを示すクラスを含む正解ラベルとが対応付けられた訓練データの訓練データセットを用いることができる。 To train such machine learning models, a training dataset can be used, which is training data that matches images with bounding boxes indicating the location of objects in the images and ground truth labels that include classes indicating the object categories.
1つの側面として、訓練フェイズでは、画像を説明変数とし、正解ラベルを目的変数とし、機械学習のアルゴリズム、例えば深層学習などにしたがって機械学習モデルを訓練できる。これにより、訓練済みの機械学習モデルが得られる。 On one hand, in the training phase, the image is used as the explanatory variable, the correct label is used as the objective variable, and a machine learning model can be trained according to a machine learning algorithm, such as deep learning. This results in a trained machine learning model.
他の側面として、予測フェイズでは、撮影画像が訓練済みの機械学習モデルへ入力される。このように入力シーンが入力された機械学習モデルは、バウンディングボックス、クラスおよび確信度を出力する。 On the other hand, in the prediction phase, the captured image is input to a trained machine learning model. Given the input scene, the machine learning model outputs a bounding box, a class and a confidence score.
以下、物体検出タスクを実現する訓練済みの機械学習モデルのことを指して「物体検出モデル」と表記する場合がある。 In the following, the term "object detection model" may refer to a trained machine learning model that performs object detection tasks.
一実施形態として、物体検出部15Bは、画像取得部15Aにより新規のフレームの差撮影画像が取得された場合、当該撮影画像を物体検出モデルへ入力することにより、物体検出モデルが出力する物体検出結果(予測結果)を取得する。 In one embodiment, when a difference image of a new frame is acquired by the image acquisition unit 15A, the object detection unit 15B inputs the acquired image to the object detection model, thereby acquiring the object detection result (prediction result) output by the object detection model.
図7は、物体検出の一例を示す模式図である。図7に示すように、物体検出部15Bは、撮影画像20を物体検出モデルへ入力する。このように撮影画像20が入力された物体検出モデルは、撮影画像20から検出された物体ごとにバウンディングボックス、クラスおよび確信度を含む物体検出結果を出力する。例えば、図7に示す例で言えば、撮影画像20から検出されたバウンディングボックスBB1~BB3ごとに、馬などの「クラス名」および0~1の「確信度」が予測される。 FIG. 7 is a schematic diagram showing an example of object detection. As shown in FIG. 7, the object detection unit 15B inputs the captured image 20 to the object detection model. The object detection model to which the captured image 20 is input in this manner outputs an object detection result including a bounding box, class, and confidence level for each object detected from the captured image 20. For example, in the example shown in FIG. 7, a "class name" such as horse and a "confidence level" of 0 to 1 are predicted for each of the bounding boxes BB1 to BB3 detected from the captured image 20.
制御量算出部15Cは、カメラ30のPTZを制御する制御パラメータを算出する処理部である。以下、制御パラメータの例として、PTZの速度が指定される例を挙げるが、現在位置からの相対移動を指定する場合に限らず、PTZの座標を絶対値で指定することができるのは言うまでもない。 The control amount calculation unit 15C is a processing unit that calculates the control parameters that control the PTZ of the camera 30. Below, an example of a control parameter in which the speed of the PTZ is specified is given, but it goes without saying that it is not limited to specifying a relative movement from the current position, and the coordinates of the PTZ can be specified as absolute values.
一実施形態として、制御量算出部15Cは、カメラ30の視野変更の機能、例えばPTZごとに次のような処理を実行する。すなわち、制御量算出部15Cは、記憶部13に記憶された区間設定データ13Aのうち撮影対象物によるレースの進行状態に対応する区間に定義された照準および目標の設定に従って制御パラメータを算出する。例えば、レースの進行状態は、新規フレームの撮影画像が取得される度に、当該新規フレームで観測されるPTZの座標が次の区間への遷移条件を満たすか否かの監視結果に基づいて区間のループカウンタを更新することにより管理できる。 In one embodiment, the control amount calculation unit 15C executes the following process for each function of changing the field of view of the camera 30, for example, for each PTZ. That is, the control amount calculation unit 15C calculates control parameters according to the settings of the aim and target defined for the section corresponding to the progress of the race by the subject of the image in the section setting data 13A stored in the memory unit 13. For example, the progress of the race can be managed by updating the loop counter of the section based on the monitoring result of whether or not the coordinates of the PTZ observed in the new frame satisfy the transition condition to the next section each time a photographed image of a new frame is acquired.
図8は、制御パラメータの算出例を示す模式図である。例えば、図8には、図7に示す撮影画像20に対する物体検出結果からPTZの制御パラメータを算出する例が示されている。さらに、図8には、区間設定データ13Aに含まれる区間のうちセクション2に定義された照準の設定に従ってPTZの制御パラメータが算出する例が示されている。さらに、図8には、制御パラメータのうちパン速度が算出される例が示されている。 FIG. 8 is a schematic diagram showing an example of calculation of control parameters. For example, FIG. 8 shows an example of calculation of PTZ control parameters from object detection results for the captured image 20 shown in FIG. 7. Furthermore, FIG. 8 shows an example of calculation of PTZ control parameters according to the aim setting defined in section 2 of the section included in the section setting data 13A. Furthermore, FIG. 8 shows an example of calculation of the pan speed, which is one of the control parameters.
図8に示すように、物体検出モデルの実行結果として、撮影画像20から3つのバウンディングボックスBB1~BB3が検出される。この場合、3つのバウンディングボックスBB1~BB3のうち、撮影対象物の走行方向に対応する「左方向」の先頭に対応するバウンディングボックスBB1が照準とされる。このとき、セクション2の確信度の定義に従って確信度が閾値「0.3」以上であるバウンディングボックスに絞り込んでから照準とするバウンディングボックスを決定してもよい。 As shown in FIG. 8, as a result of executing the object detection model, three bounding boxes BB1 to BB3 are detected from the captured image 20. In this case, of the three bounding boxes BB1 to BB3, the bounding box BB1 corresponding to the beginning of the "left direction" corresponding to the traveling direction of the captured object is set as the target. At this time, the bounding box to be set as the target may be determined after narrowing down to bounding boxes with a certainty level equal to or greater than the threshold value of "0.3" according to the definition of certainty level in Section 2.
ここで、セクション2では、図6を用いて説明した通り、パンの制御パラメータの算出に用いる目標として、スクリーンの高さ方向の中央であり、かつスクリーンの幅方向の中央から左方向に50ピクセルの位置T1が定義されている。 Here, in section 2, as explained using Figure 6, position T1 is defined as the center of the screen in the height direction and 50 pixels to the left of the center of the screen in the width direction, as the target used to calculate the pan control parameters.
この場合、バウンディングボックスBB1の特定の位置、例えば左辺に対応する二点鎖線を照準として、目標とされる位置、例えば破線および一点鎖線が交差する位置T1に合わせるパン速度が算出される。例えば、照準から目標までの距離D1が大きくなるに従って大きいパン速度が算出される一方で、照準から目標までの距離D1が小さくなるに従って小さいパン速度が算出される。さらに、パン速度には、撮影対象物の進行方向上で照準位置が目標位置よりも前に位置する場合、負の符号、すなわち右方向が設定される一方で、撮影対象物の進行方向上で照準位置が目標位置よりも後に位置する場合、正の符号、すなわち左方向が設定される。なお、ここでは、パン速度を算出する例を説明したが、チルト速度およびズーム速度についても同様に算出することができる。 In this case, a specific position of the bounding box BB1, for example the two-dot chain line corresponding to the left side, is used as the aim, and a pan speed is calculated to align with a targeted position, for example the position T1 where the dashed line and the one-dot chain line intersect. For example, a higher pan speed is calculated as the distance D1 from the aim to the target increases, while a lower pan speed is calculated as the distance D1 from the aim to the target decreases. Furthermore, if the aim position is located before the target position in the traveling direction of the subject, a negative sign, i.e., a rightward direction, is set for the pan speed, whereas if the aim position is located after the target position in the traveling direction of the subject, a positive sign, i.e., a leftward direction, is set. Note that although an example of calculating the pan speed has been described here, the tilt speed and zoom speed can also be calculated in a similar manner.
カメラ制御部15Eは、カメラ30のPTZを制御する処理部である。一実施形態として、カメラ制御部15Eは、カメラ30の視野変更の機能、例えばPTZごとに次のような処理を実行する。すなわち、カメラ制御部15Eは、制御量算出部15Cにより算出された制御パラメータが区間設定データ13Aのうち撮影対象物によるレースの進行状態に対応する区間に定義された許可動作であるか否かを判定する。このとき、制御パラメータが許可動作でない場合、カメラ制御部15Eは、当該区間の許可動作として定義された制御パラメータの範囲の境界値のうち制御量算出部15Cにより算出された制御パラメータの符号に対応する側の境界値を遠隔操作のコマンドの制御パラメータとして指定する。一方、制御パラメータが許可動作である場合、カメラ制御部15Eは、制御量算出部15Cにより算出された制御パラメータをカメラ30の遠隔操作のコマンドの制御パラメータとして指定する。その後、カメラ制御部15Eは、カメラ30の視野変更の機能ごとに制御パラメータが指定されたPTZの遠隔操作のコマンドをカメラ30へ送信する。 The camera control unit 15E is a processing unit that controls the PTZ of the camera 30. As an embodiment, the camera control unit 15E executes the following process for each function of changing the field of view of the camera 30, for example, for each PTZ. That is, the camera control unit 15E judges whether the control parameter calculated by the control amount calculation unit 15C is an allowed operation defined in the section setting data 13A corresponding to the progress state of the race by the subject to be photographed. At this time, if the control parameter is not an allowed operation, the camera control unit 15E specifies the boundary value corresponding to the sign of the control parameter calculated by the control amount calculation unit 15C among the boundary values of the range of the control parameter defined as the allowed operation of the relevant section as the control parameter of the remote control command. On the other hand, if the control parameter is an allowed operation, the camera control unit 15E specifies the control parameter calculated by the control amount calculation unit 15C as the control parameter of the remote control command of the camera 30. After that, the camera control unit 15E transmits to the camera 30 a remote control command of the PTZ in which the control parameter is specified for each function of changing the field of view of the camera 30.
出力制御部15Fは、画像取得部15Aにより取得された撮影画像の出力制御を実行する処理部である。一実施形態として、出力制御部15Fは、画像取得部15Aにより取得される撮影画像をフレーム単位で出力できる。例えば、時系列に撮影される撮影画像は、動画として出力されてよい。このような出力は、テレビ放送、インターネット配信、SNS(Social Networking Service)などを用いたライブ放送などの任意の形態で実施されてよい。 The output control unit 15F is a processing unit that executes output control of the captured image acquired by the image acquisition unit 15A. In one embodiment, the output control unit 15F can output the captured image acquired by the image acquisition unit 15A on a frame-by-frame basis. For example, the captured images captured in chronological order may be output as a video. Such output may be implemented in any form, such as television broadcasting, internet distribution, live broadcasting using SNS (Social Networking Service), etc.
<処理の流れ>
次に、本実施例に係る情報処理装置10の処理の流れについて説明する。図9は、カメラ制御処理の手順を示すフローチャートである。この処理は、上記のカメラ制御機能が起動された場合に開始することができる。
<Processing flow>
Next, a process flow of the information processing device 10 according to the embodiment will be described. Fig. 9 is a flowchart showing the procedure of the camera control process. This process can be started when the above-mentioned camera control function is activated.
図9に示すように、カメラ制御部15Eは、カメラ30を初期位置に移動させ(ステップS101)、カメラ制御部15Eは、区間のループカウンタmに初期値、例えば「1」を設定する(ステップS102)。 As shown in FIG. 9, the camera control unit 15E moves the camera 30 to an initial position (step S101), and the camera control unit 15E sets an initial value, for example "1", to the loop counter m for the section (step S102).
その後、画像取得部15Aは、新規フレームの撮影画像を取得する(ステップS103)。すると、物体検出部15Bは、ステップS103で取得された撮影画像を物体検出モデルへ入力することにより、物体検出モデルが出力する物体検出結果(予測結果)を取得する(ステップS104)。 Then, the image acquisition unit 15A acquires a captured image of a new frame (step S103). Then, the object detection unit 15B inputs the captured image acquired in step S103 into the object detection model, thereby acquiring the object detection result (prediction result) output by the object detection model (step S104).
続いて、制御量算出部15Cは、ステップS104で物体検出結果として得られたバウンディングボックスのうち、ループカウンタmの値に対応する区間に定義された照準のバウンディングボックスを識別する(ステップS105)。 Then, the control amount calculation unit 15C identifies the bounding box of the target defined in the section corresponding to the value of the loop counter m from among the bounding boxes obtained as the object detection result in step S104 (step S105).
その後、カメラ30の視野変更の機能の数Nに対応する回数の分、下記のステップS106から下記のステップS108までの処理を反復するループ処理1が実行される。なお、ここでは、下記のステップS106から下記のステップS108までの処理が反復される例を挙げるが、下記のステップS106から下記のステップS108までの処理は並列して実行されてもよい。 Then, loop process 1 is executed in which the processes from step S106 to step S108 below are repeated a number of times corresponding to the number N of field of view changing functions of camera 30. Note that, although an example is given here in which the processes from step S106 to step S108 below are repeated, the processes from step S106 to step S108 below may be executed in parallel.
すなわち、制御量算出部15Cは、ステップS105で照準として識別されたバウンディングボックスの位置と、区間設定データ13Aのうちループカウンタmの値に対応する区間に定義された目標の位置とに基づいてn番目の視野変更の機能に関する制御パラメータを算出する(ステップS106)。 In other words, the control amount calculation unit 15C calculates the control parameters related to the nth field of view change function based on the position of the bounding box identified as the aim in step S105 and the position of the target defined in the section corresponding to the value of the loop counter m in the section setting data 13A (step S106).
そして、カメラ制御部15Eは、ステップS106で算出された制御パラメータが区間設定データ13Aのうちループカウンタmの値に対応する区間に定義された許可動作であるか否かを判定する(ステップS107)。 Then, the camera control unit 15E determines whether the control parameters calculated in step S106 are permitted operations defined in the section corresponding to the value of the loop counter m in the section setting data 13A (step S107).
ここで、n番目の視野変更の機能に関する制御パラメータが許可動作でない場合(ステップS107No)、カメラ制御部15Eは、ループカウンタmの値に対応する区間の許可動作として定義された制御パラメータの範囲の境界値のうちステップS106で算出された制御パラメータの符号に対応する側の境界値を遠隔操作のコマンドの制御パラメータとして指定する(ステップS108)。 Here, if the control parameter related to the nth field of view change function is not a permitted operation (No in step S107), the camera control unit 15E specifies, among the boundary values of the range of control parameters defined as permitted operations for the section corresponding to the value of the loop counter m, the boundary value on the side corresponding to the sign of the control parameter calculated in step S106 as the control parameter of the remote control command (step S108).
一方、制御パラメータが許可動作でない場合(ステップS107Yes)、ステップS108の処理がスキップされる。この場合、ステップS106で算出された制御パラメータがカメラ30の遠隔操作のコマンドの制御パラメータとして指定される。 On the other hand, if the control parameters are not a permitted operation (Yes in step S107), the process of step S108 is skipped. In this case, the control parameters calculated in step S106 are specified as the control parameters of the command for remotely controlling the camera 30.
このようなループ処理1が反復されることにより、カメラ30の視野変更の機能ごとに制御パラメータが指定される。 By repeating this loop process 1, control parameters are specified for each field of view change function of the camera 30.
その後、カメラ制御部15Eは、カメラ30の視野変更の機能ごとに制御パラメータが指定された遠隔操作のコマンドをカメラ30へ送信する(ステップS109)。 Then, the camera control unit 15E transmits a remote control command to the camera 30, in which control parameters are specified for each function of changing the field of view of the camera 30 (step S109).
続いて、カメラ制御部15Eは、PTZの座標が区間設定データ13Aのうちループカウンタmの値に対応する区間に定義された次の区間への遷移条件を満たすか否かを判定する(ステップS110)。 The camera control unit 15E then determines whether the coordinates of the PTZ satisfy the transition condition to the next section defined in the section corresponding to the value of the loop counter m in the section setting data 13A (step S110).
このとき、PTZの座標が次の区間への遷移条件を満たす場合(ステップS110Yes)、カメラ制御部15Eは、ループカウンタmをインクリメントする(ステップS111)。その後、カメラ制御部15Eは、区間設定データ13Aのうちループカウンタmの値に対応する区間の設定を取得し(ステップS112)、ステップS103の処理へ移行する。 At this time, if the PTZ coordinates satisfy the transition condition to the next section (step S110: Yes), the camera control unit 15E increments the loop counter m (step S111). After that, the camera control unit 15E obtains the section setting corresponding to the value of the loop counter m from the section setting data 13A (step S112), and proceeds to the processing of step S103.
なお、PTZの座標が次の区間への遷移条件を満たさない場合(ステップS110No)、ステップS111およびステップS112の処理は実行されずにステップS103の処理へ移行する。 If the coordinates of the PTZ do not satisfy the transition condition to the next section (No in step S110), the processing proceeds to step S103 without executing steps S111 and S112.
<効果の一側面>
1つの側面として、本実施例に係る情報処理装置10は、カメラ30の撮影画像における撮影対象物の位置に応じてカメラ30のパンを制御する際、あらかじめ規定した方向にのみパン制御を許可する。このため、パンの移動方向が進行方向およびその反対方向の間で切り替わるのを抑止できる。したがって、本実施例に係るカメラ制御機能によれば、カメラ30の滑らかなパン制御を実現することが可能である。
<One aspect of the effect>
As one aspect, the information processing device 10 according to the present embodiment allows pan control only in a predefined direction when controlling the pan of the camera 30 according to the position of the object in the image captured by the camera 30. This makes it possible to prevent the pan movement direction from switching between the forward direction and the opposite direction. Therefore, the camera control function according to the present embodiment makes it possible to realize smooth pan control of the camera 30.
他の側面として、本実施例に係る情報処理装置10は、カメラ30の撮影画像における撮影対象物の位置に応じてカメラ30のパンを制御する際、カメラ30のパンの座標が所定の角度範囲の場合には、あらかじめ規定した速度で移動するパン制御を許可する。このため、パンの移動方向が進行方向およびその反対方向の間で切り替わるのを抑止できる。したがって、本実施例に係るカメラ制御機能によれば、カメラ30の滑らかなパン制御を実現することが可能である。 As another aspect, when the information processing device 10 according to this embodiment controls the pan of the camera 30 according to the position of the subject in the image captured by the camera 30, if the pan coordinates of the camera 30 are within a predetermined angle range, pan control that moves at a predefined speed is permitted. This makes it possible to prevent the pan movement direction from switching between the forward direction and the opposite direction. Therefore, the camera control function according to this embodiment makes it possible to realize smooth pan control of the camera 30.
さらに、本実施例に係るカメラ制御機能によりカメラ30の滑らかなパン制御が可能な自動撮影が実現されるので、撮影用の人員を不要化できる。それ故、カメラ30を設置する箇所が撮影者の立ち入りの容易性や撮影者の撮影用のスペースなどによる制約を受けない。この結果、カメラアングルが好条件である箇所や競技または観戦の設備によるオクルージョンが発生しにくい箇所にカメラ30を設置することも可能となる。 Furthermore, the camera control function according to this embodiment realizes automatic shooting with smooth pan control of the camera 30, eliminating the need for personnel for shooting. Therefore, the location where the camera 30 is installed is not restricted by the ease of access for the photographer or the space available for the photographer to take pictures. As a result, it is possible to install the camera 30 in a location where the camera angle is favorable or where occlusion due to the facilities for the competition or spectators is unlikely to occur.
<実施例2>
さて、これまで本開示の実施例について説明したが、種々の応用が可能であり、さらに、上述した実施例1以外にも、種々の異なる形態にて実施されてよいものである。
Example 2
Although the embodiments of the present disclosure have been described above, various applications are possible, and further, the present disclosure may be embodied in various different forms other than the above-described first embodiment.
<数値等>
上記の実施例1で説明した事項、例えば制御パラメータの種類やカメラ30の数などの具体例などは、あくまで一例であり、変更することができる。また、実施例で説明したフローチャートも、矛盾のない範囲内で処理の順序を変更することができる。
<Numeric values, etc.>
The matters described in the first embodiment above, such as the types of control parameters and the number of cameras 30, are merely examples and may be changed. In addition, the order of processes in the flowcharts described in the embodiments may be changed within a range that does not cause inconsistencies.
<応用例>
例えば、上記の実施例1では、コースCの撮影に用いるカメラ30の数が1つである例を挙げたが、2つ以上のカメラ30を用いて競馬中継の撮影を行うこともできる。図10は、区間分割の応用例を示す模式図である。図10には、カメラ30Aおよびカメラ30Bの2台のカメラ30を競馬中継の撮影に用いる例が示されている。この場合、図10に示すように、カメラ30Aには、セクション1~8のうちセクション1~4およびセクション7~8の撮影を割り当てるとともに、カメラ30Bには、セクション5および6の撮影を割り当てることができる。このような区間の割り当てにより、コースC全体で競走馬の近距離撮影を実現するとともに、競技や観戦の設備、例えば大型表示板などによるオクルージョンの発生も抑制できる。
<Application Examples>
For example, in the above embodiment 1, one camera 30 is used to shoot the course C, but two or more cameras 30 can be used to shoot the horse race broadcast. FIG. 10 is a schematic diagram showing an application example of section division. FIG. 10 shows an example in which two cameras 30, camera 30A and camera 30B, are used to shoot the horse race broadcast. In this case, as shown in FIG. 10, camera 30A can be assigned to shoot sections 1 to 4 and sections 7 to 8 out of sections 1 to 8, and camera 30B can be assigned to shoot sections 5 and 6. By allocating sections in this way, close-up photography of the racehorses can be achieved over the entire course C, and occlusion caused by facilities for the race or spectator, such as large display boards, can be suppressed.
<システム>
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、画像取得部15A、物体検出部15B、制御量算出部15C、カメラ制御部15Eおよび出力制御部15Fのうちいずれか1つ以上の機能部は、別々の装置で構成されていてもよい。
<System>
The information including the processing procedures, control procedures, specific names, various data and parameters shown in the above documents and drawings can be changed arbitrarily unless otherwise specified. For example, any one or more of the functional units among the image acquisition unit 15A, the object detection unit 15B, the control amount calculation unit 15C, the camera control unit 15E and the output control unit 15F may be configured as separate devices.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散および統合して構成することができる。なお、各構成は、物理的な構成であってもよい。 Furthermore, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure. In other words, all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc. Each configuration may also be a physical configuration.
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)および当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Furthermore, each processing function performed by each device can be realized, in whole or in part, by a CPU (Central Processing Unit) and a program that is analyzed and executed by the CPU, or can be realized as hardware using wired logic.
<ハードウェア>
次に、上記の実施例で説明したコンピュータのハードウェア構成例を説明する。図11は、ハードウェア構成例を示す図である。図11に示すように、情報処理装置10は、通信装置10a、記憶装置10b、メモリ10c、プロセッサ10dを有する。なお、図11に示した各部は、バス等で相互に接続されてよい。
<Hardware>
Next, a hardware configuration example of the computer described in the above embodiment will be described. Fig. 11 is a diagram showing the hardware configuration example. As shown in Fig. 11, the information processing device 10 has a communication device 10a, a storage device 10b, a memory 10c, and a processor 10d. Note that each unit shown in Fig. 11 may be connected to each other by a bus or the like.
通信装置10aは、ネットワークインタフェイスカードなどである。記憶装置10bは、HDD(Hard Disk Drive)やSSD(Solid State Drive)などのストレージ装置である。例えば、記憶装置10bは、図4に示す機能を実現するプログラムやDBなどを記憶する。 The communication device 10a is a network interface card or the like. The storage device 10b is a storage device such as a hard disk drive (HDD) or a solid state drive (SSD). For example, the storage device 10b stores programs and databases that realize the functions shown in FIG. 4.
プロセッサ10dは、図4に示す処理部と同様の処理を実行するプログラムを記憶装置10b等から読み出してメモリ10cに展開することで、図4で説明した機能を実行するプロセスを動作させる。 The processor 10d reads a program that executes the same processing as the processing unit shown in FIG. 4 from the storage device 10b, etc., and loads it into the memory 10c, thereby operating a process that executes the functions described in FIG. 4.
このようなプロセスは、情報処理装置10が有する処理部と同様の機能を実現する。例えば、プロセッサ10dは、画像取得部15A、物体検出部15B、制御量算出部15C、カメラ制御部15Eおよび出力制御部15F等と同様の機能を有するプログラムを記憶装置10b等から読み出す。そして、プロセッサ10dは、画像取得部15A、物体検出部15B、制御量算出部15C、カメラ制御部15Eおよび出力制御部15F等と同様の処理を実行するプロセスを実行する。 Such a process realizes the same functions as the processing units of the information processing device 10. For example, the processor 10d reads out a program having the same functions as the image acquisition unit 15A, the object detection unit 15B, the control amount calculation unit 15C, the camera control unit 15E, the output control unit 15F, etc. from the storage device 10b, etc. Then, the processor 10d executes a process that executes the same processing as the image acquisition unit 15A, the object detection unit 15B, the control amount calculation unit 15C, the camera control unit 15E, the output control unit 15F, etc.
このように、情報処理装置10は、プログラムを読み出して実行することで算出方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。 In this way, the information processing device 10 operates as an information processing device that executes a calculation method by reading and executing a program. The information processing device 10 can also realize functions similar to those of the above-mentioned embodiment by reading the program from a recording medium using a media reading device and executing the read program. Note that the program in these other embodiments is not limited to being executed by the information processing device 10. For example, the present invention can be similarly applied to cases where another computer or server executes a program, or where these cooperate to execute a program.
上記のプログラムは、インターネットなどのネットワークを介して配布することができる。また、上記のプログラムは、任意の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。例えば、記録媒体は、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などにより実現され得る。 The above program can be distributed via a network such as the Internet. The above program can also be recorded on any recording medium and executed by a computer by reading it from the recording medium. For example, the recording medium can be a hard disk, a flexible disk (FD), a CD-ROM, an MO (Magneto-Optical disk), a DVD (Digital Versatile Disc), etc.
1 カメラ制御システム
10 情報処理装置
11 通信制御部
13 記憶部
13A 区間設定データ
15 制御部
15A 画像取得部
15B 物体検出部
15C 制御量算出部
15E カメラ制御部
15F 出力制御部
30 カメラ
REFERENCE SIGNS LIST 1 camera control system 10 information processing device 11 communication control unit 13 storage unit 13A section setting data 15 control unit 15A image acquisition unit 15B object detection unit 15C control amount calculation unit 15E camera control unit 15F output control unit 30 camera
Claims (7)
前記撮影画像における撮影対象物の位置に応じて前記カメラのパンを制御する際、あらかじめ規定した方向にのみパン制御を許可する、
処理をコンピュータに実行させることを特徴とするカメラ制御プログラム。 Acquire the image captured by the camera,
When controlling the pan of the camera in accordance with the position of the photographing object in the photographed image, pan control is permitted only in a predefined direction.
A camera control program that causes a computer to execute a process.
前記撮影画像における撮影対象物の位置に応じて前記カメラのパンを制御する際、あらかじめ規定した方向にのみパン制御を許可する、
処理をコンピュータが実行することを特徴とするカメラ制御方法。 Acquire the image captured by the camera,
When controlling the pan of the camera in accordance with the position of the photographing object in the photographed image, pan control is permitted only in a predefined direction.
A camera control method, the processing of which is executed by a computer.
前記撮影画像における撮影対象物の位置に応じて前記カメラのパンを制御する際、あらかじめ規定した方向にのみパン制御を許可する、
処理を実行する制御部を有することを特徴とする情報処理装置。 Acquire the image captured by the camera,
When controlling the pan of the camera in accordance with the position of the photographing object in the photographed image, pan control is permitted only in a predefined direction.
1. An information processing device comprising: a control unit that executes processing.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024002656A JP2025109015A (en) | 2024-01-11 | 2024-01-11 | Camera control program, camera control method, and information processing device |
| JP2024-002656 | 2024-01-11 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025150216A1 true WO2025150216A1 (en) | 2025-07-17 |
Family
ID=96386871
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/029114 Pending WO2025150216A1 (en) | 2024-01-11 | 2024-08-15 | Camera control program, camera control method, and information processing device |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2025109015A (en) |
| WO (1) | WO2025150216A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011030164A (en) * | 2009-07-29 | 2011-02-10 | Sony Corp | Image pickup apparatus, image pickup system, image pickup method, and program |
| US20130300937A1 (en) * | 2012-05-14 | 2013-11-14 | Sony Corporation | Apparatus and method of video comparison |
-
2024
- 2024-01-11 JP JP2024002656A patent/JP2025109015A/en active Pending
- 2024-08-15 WO PCT/JP2024/029114 patent/WO2025150216A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011030164A (en) * | 2009-07-29 | 2011-02-10 | Sony Corp | Image pickup apparatus, image pickup system, image pickup method, and program |
| US20130300937A1 (en) * | 2012-05-14 | 2013-11-14 | Sony Corporation | Apparatus and method of video comparison |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2025109015A (en) | 2025-07-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111246091B (en) | Dynamic automatic exposure control method and device and electronic equipment | |
| EP3853812B1 (en) | Object tracking | |
| US20170345162A1 (en) | Video processing apparatus, video processing method, and storage medium | |
| JP2015104016A (en) | Subject detection apparatus, imaging apparatus, subject detection apparatus control method, subject detection apparatus control program, and storage medium | |
| JP7446060B2 (en) | Information processing device, program and information processing method | |
| KR20200080402A (en) | System and method for detecting abnormal situation | |
| CN111314609A (en) | Method and device for controlling pan-tilt tracking camera shooting | |
| JP2008259161A (en) | Target tracing device | |
| WO2019021412A1 (en) | Location estimation device, location estimation method, and program recording medium | |
| CN112906428A (en) | Image detection area acquisition method and space use condition judgment method | |
| Qiu et al. | Real-time lane-wise traffic monitoring in optimal rois | |
| CN114359351B (en) | Target tracking method, system, device and equipment | |
| WO2025150216A1 (en) | Camera control program, camera control method, and information processing device | |
| WO2025150217A1 (en) | Camera control program, camera control method, and information processing device | |
| GB2598640A (en) | Processing of images captured by vehicle mounted cameras | |
| JP6313725B2 (en) | Image processing apparatus and computer-readable storage medium | |
| US11394877B2 (en) | Control apparatus, image pickup apparatus, and control method | |
| CN117641085B (en) | Dynamic tracking monitoring system and method based on liquid lens | |
| Carrillo et al. | Automatic football video production system with edge processing | |
| CN112613516A (en) | Semantic segmentation method for aerial video data | |
| KR101793702B1 (en) | Video storage apparatus and method for searching thereof | |
| CN111988520B (en) | Picture switching method and device, electronic equipment and storage medium | |
| KR101070448B1 (en) | The method for tracking object and the apparatus thereof | |
| WO2023135621A1 (en) | Surveillance camera image analysis system | |
| CN116342642B (en) | Target tracking methods, apparatus, electronic devices and readable storage media |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24917091 Country of ref document: EP Kind code of ref document: A1 |