[go: up one dir, main page]

EP3997479A1 - Method for determining the spatial coverage of a detection system - Google Patents

Method for determining the spatial coverage of a detection system

Info

Publication number
EP3997479A1
EP3997479A1 EP20735426.7A EP20735426A EP3997479A1 EP 3997479 A1 EP3997479 A1 EP 3997479A1 EP 20735426 A EP20735426 A EP 20735426A EP 3997479 A1 EP3997479 A1 EP 3997479A1
Authority
EP
European Patent Office
Prior art keywords
determining
detection
data
sensors
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP20735426.7A
Other languages
German (de)
French (fr)
Inventor
Charles LEVY
Sébastien BLAISE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Publication of EP3997479A1 publication Critical patent/EP3997479A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6245Stereoscopic displays; Three-dimensional displays; Pseudo-three dimensional displays
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the invention relates to detection systems, and in particular to the three-dimensional representation of the spatial coverage of a detection system.
  • Detection systems such as sonar or radar are used in many fields of application today.
  • sonar is used in the field of underwater acoustics to detect and locate objects underwater.
  • the detection systems can be used by various surveillance infrastructures (for example for the detection of submarines or objects placed on the seabed, in the field of fishing for the detection of schools of fish, in the field of cartography to map a geographical area, the ocean floor and other bodies of water, or in the field of archaeologists, for example underwater and underwater archeology).
  • various surveillance infrastructures for example for the detection of submarines or objects placed on the seabed, in the field of fishing for the detection of schools of fish, in the field of cartography to map a geographical area, the ocean floor and other bodies of water, or in the field of archaeologists, for example underwater and underwater archeology).
  • the detection systems are provided with antennas for transmitting and / or receiving signals.
  • Detection systems are conventionally used to detect threats in areas to be protected, for example in areas defined with respect to a sensitive infrastructure to be protected.
  • the processing of the data collected by the various components of the detection system network makes it possible to represent the spatial coverage of the detection system from which an operator of the detection system can determine the dynamics and the trajectory of the target objects, the position of the objects. targets in distance, bearing and depth, as well as the nature of the target objects.
  • POD Probabilities of detection
  • a POD representation is a representation of the probabilities of detection that allows you to determine the spatial coverage of a detection system and to estimate the ability of the detection system to detect target objects.
  • Such a representation is generated from a data matrix of detection probabilities as a function of the distance from the position of the detection system antenna and the depth between the surface and the seabed, using a color coding.
  • the probabilities of detection can be displayed graphically as data or colored elements, with each color representing a probability range varying from 0 to 10%, from 1 1 to 20%, up to the range of values [ 91, 100%].
  • the representation takes into account the detection probabilities of a single sensor of the detection system at a time and does not not make it possible to generate a visualization of the entire area in a way that can be used by the operator of the detection system, which can limit the efficiency of the naval fleet.
  • the subject of the invention is a method for determining the spatial coverage of a multi-sensor detection system comprising a plurality of sensors, the plurality of sensors being carried by supporting structures moving in a given geographical area, some at least of the supporting structures being mobile, the method being characterized in that it comprises the steps consisting in:
  • the method further comprises determining an intersection of the selected shadow areas forming an access channel to safe areas.
  • the detection system can be a sonar type detection system, the environment being a maritime environment, said environment data comprising data which vary in space and in time and represent a profile of the seabed in a geographical area defined, a temperature profile of the water volume, information defining the state of the sea, and information related to sea noise, the data of supporting structures operating in the marine domain defining one or more mobile platforms and / or one or more background objects.
  • said calculation can be carried out periodically according to a chosen period or continuously.
  • the spatial coverage of the detection system is represented according to a given position and a given viewing orientation
  • the step of determining a three-dimensional representation of the spatial coverage of the detection system comprising, for each sensor of said detection system, the steps consisting in:
  • Receive a set of data comprising a probability of detection of said sensor in said geographical area, the probability of detection being determined in a calculation area associated with said sensor and included in said geographical area, the data of said set comprising position data of the area calculation and dimension data of the calculation area,
  • the method further comprises a step consisting in determining a main data structure having at least three dimensions from said probability data.
  • the method may further comprise a step consisting in determining a depth rendering of the volume encompassing the calculation area from the position data of the calculation area, the dimension data, and of viewing position and orientation.
  • the 3D rendering can be volume, the method further comprising a step of determining a volume rendering of the probability of detection according to at least one function in a given color space from said structure of main data and said depth rendering.
  • the step of determining a volume rendering can comprise the steps consisting in: - determining a volume rendering in gray levels of the detection probability from said 3D data structure and from said depth rendering;
  • the step of determining a three-dimensional representation of the spatial coverage of the detection system comprises a step of generating the display of said three-dimensional representation of the spatial coverage, of the shadow zones inside safety zones and access channels to safety zones on a screen or in augmented reality mode or in virtual reality mode.
  • the embodiments of the invention allow real-time calculation of the probabilities of detection associated with a multi-sensor detection system.
  • the embodiments of the invention allow real-time representation of the detection probabilities associated with a multi-sensor detection system for a real three-dimensional scene.
  • the embodiments of the invention can provide a mode of representation of the probabilities of detection in volume form, which allows a 3D display of the spatial coverage of the detection system in the entire geographical area considered. .
  • the embodiments of the invention allow a three-dimensional representation of the spatial coverage of the detection system on a display device such as a screen or an augmented reality device.
  • the representation of the spatial coverage of the detection system on an augmented reality device allows in particular a better perception of the three-dimensional representation, the sharing of the same tactical situation between several actors or control systems, and visualization of a hologram on a tactical table without requiring the addition of additional screens in the operational environment considered.
  • the embodiments of the invention also make it possible to determine actions to be implemented in response to the identification of gray areas of non-coverage by the detection of the system located in security zones in the geographical area, or an access channel constructed by the sum of the shadow areas no coverage leading to these safety zones, regardless of the complexity of the shape of these shadow zones or these access channels.
  • FIG. 1 is an example of an environment for using a method for determining spatial coverage of a sonar type detection system, according to some embodiments.
  • FIG.2 is a flowchart showing a method for determining a spatial coverage of a multi-sensor detection system, according to certain embodiments of the invention.
  • FIG.3 is a flowchart representing a method for determining a three-dimensional representation of the spatial coverage of a multi-sensor detection system, according to some embodiments of the invention.
  • FIG.4 is a schematic view showing an accumulation ray tracing algorithm ("Ray Marching" in English), according to certain embodiments of the invention.
  • FIG.5 shows an example of spatial coverage of a sonar type detection system used for object detection, obtained using prior art spatial coverage display methods.
  • FIG.6 is a schematic representation of the theoretical target detection zones in an example of application to the detection of objects in an underwater environment.
  • FIG.7 is a schematic representation of realistic detection zones in an example of application to the detection of objects in an underwater environment.
  • FIG.8 represents an example of display on screen of the spatial coverage of a multi-sensor detection system of sonar type obtained from the volume rendering of the probabilities of detection, according to certain embodiments of the 'invention.
  • FIG.9 shows an example of display in augmented reality mode of the spatial coverage of a multi-sensor detection system of sonar type obtained from the volume rendering of the probabilities of detection, according to certain embodiments of the invention.
  • FIG.10 is a schematic view of a device for determining the spatial coverage of a detection system, according to certain embodiments of the invention.
  • the embodiments of the invention provide a method for determining the spatial coverage of a multi-sensor detection system deploying a plurality of sensors and operating in a given geographic area.
  • the geographical area includes a calculation area, the calculation area being a restricted geometric area included in the geographical area such that it includes all of the non-zero calculated detection probabilities of the detection system and determined by a center and a frame of reference (for example a Cartesian frame of reference).
  • FIG. 1 shows an example of an environment 100 in which a method is used for determining a three-dimensional representation of the spatial coverage of a detection system operating in a geographical area.
  • the detection system can be any detection system carried by a supporting structure capable of operating in the geographical area such as a radar or a sonar for example.
  • the detection system is a sonar carried by a supporting structure of the surface building type 101.
  • the spatial coverage of the detection system is represented according to a given position and viewing orientation (the whole position and orientation data is also called "point of view").
  • the data of the set of data associated with a detection system carried by a supporting structure include, by way of nonlimiting example, position data of the calculation area, data of dimensions of the calculation area, and information on the supporting structure and the sensors.
  • the detection system can be used in various systems or infrastructures for the detection and location of objects in the geographical area considered (for example in water for a sonar type detection system).
  • the detection system can include one or more acoustic detection devices (for example sonars 107, 108 and / or 109) used:
  • the detection system can also be used to locate the detected objects.
  • auxiliary elements can be deployed to implement preventive, defensive, or offensive actions in depending on the object detected.
  • the auxiliary elements can include, for example, a surface ship 101 equipped with one or more sonars, one or more maritime patrol aircraft, and one or more attack submarine.
  • sonars may include active bow sonar 107, towed active sonar 108, and wet active sonar 109 deployed by helicopter 103.
  • the different elements of the environment 100 can be controlled by an operator or a control system present for example in the surface vessel 101, to monitor and protect the elements of the environment 100 against threats by implementing operations or actions.
  • the operator or the control system can, for example, implement preventive, defensive or offensive actions.
  • FIG. 2 represents a method for determining a spatial coverage of a multi-sensor detection system deploying a plurality of sensors carried by supporting structures moving in a given geographical area is illustrated.
  • a supporting structure can carry one or more sensors.
  • a sensor can operate in passive, mono-static, or multistatic mode.
  • the supporting structures can be independent or not independent.
  • a set of parameters representing the given geographical area comprising environmental data (for example the underwater, marine or terrestrial environment), data relating to the supporting structures (for example the speed of the supporting structure) and data relating to the sensors of the multi-sensor detection (for example for a sonar-type detection system, the data relating to the sensors may include the passive or active mode of the sonar, the frequency (s) of the sonar, the maximum range of the sonar, the gain of the sonar).
  • the environmental data may further include tactical data.
  • Such parameters make it possible to define the location of the detection system, the environmental conditions relating to this location, the initial trajectories followed by different platforms of the detection system, the threats, the units to be protected, and / or the equipment of the suitable platforms. to ensure this protection.
  • the environmental data can include marine and / or terrestrial environment data which vary in space and time and represent:
  • the profile of the seabed in a defined geographical area (which can be chosen with high resolution, for example up to 20cm); this profile can be supplemented by the type of bottom (combinations of mud, sand and / or rock);
  • sea noise for example rain, traffic noise, diffuse biological noise, seismic, etc.
  • the data relating to the supporting structures moving in the given geographical area can be associated with the bearing structures moving in the geographical area marine domain such as one or more mobile platforms (for example, surface vessels , submarines, drones, airplanes, helicopters, sonar drifting buoys, biological entities, etc.) and / or one or more bottom objects (e.g. mines, static acoustic detection systems, wrecks, or any other background object having an influence on the detections).
  • the supporting structures can have a predefined trajectory, be controlled by an operator of the detection system or by a control system.
  • the load-bearing structures can have their own noise (due for example to machines and / or noises of flow in water), can be equipped with sensors of any type, and / or can also emit sounds.
  • Bottom objects can be equipped with sensors, behavioral automatons and explosive charges.
  • the tactical data can be associated with one or more threats to be detected (compound fleet for example), and the supporting structures can include one or more High Value units (in English 'High Value Unit' or HUV), one or more protective elements of the HUV units arranged in surveillance zones or at the level of Limits of Approach (LLA).
  • HUV High Value Unit
  • LPA Limits of Approach
  • step 201 can be performed by a scenario generator in the environment considered (marine environment for example).
  • a detection probability can be calculated iteratively, for example at predefined time intervals or according to a fixed period or continuously, for the plurality of sensors of the multi-sensor detection system from certain or less of the set of parameters determined in step 201.
  • a detection probability denoted p (D) denotes the probability that an actual target echo will be detected when an actual target echo exists.
  • the detection probability represents the probability of detecting an actual target object which emits a given noise level at different frequencies.
  • the detection probability represents the probability of obtaining a viable echo through emission of acoustic waves by the active sonar.
  • the probability that an actual target echo will not be detected while the target echo exists is 1 -p (D).
  • the probability of false alarm denoted p (FA) designates the probability that a false echo (or spurious echo) is detected, i.e. the probability that there is a false detection of an echo which or really noise.
  • the probability of detection calculated for the plurality of sensors can be determined by combining the elementary probabilities of detection of the different sensors.
  • the detection probabilities can change at any time taking into account the profile of the environment in the vicinity of the supporting structure (bottom under the platform considered, for example), the movements of the supporting structure and the environmental conditions.
  • the detection probabilities can be updated periodically over a chosen period of less than one minute, for example every 30 seconds (or more quickly depending on the available computing power), taking into account the speeds of the structures. carriers (the speed is low, for example for naval platforms) and the fact that the detection probabilities vary according to certain quantities relating to the environment (for example, they decrease when the noise of water flowing over Sonar type sensors increases).
  • Step 203 may include a step of saving data representing the probabilities of detection calculated for the plurality of sensors in a file.
  • the detection probability data may be represented by a probability data matrix. The position of the center of this matrix (center of the reference frame of the matrix) can then be located at the position of the supporting structure of the detection system.
  • a three-dimensional representation of the spatial coverage of the detection system can be determined for the plurality of sensors.
  • the three-dimensional representation of the spatial coverage according to the embodiments of the invention makes it possible to represent the detection probabilities for the set of sensors of the multi-sensor detection system and over the entire geographical area, taking into account the parameters representing the geographic area.
  • the representation of the spatial coverage in three dimensions can take into account the relief of the seabed, the supporting structures evolving in the geographical area in a marine environment. , and tactical zones determined in step 201.
  • the relief of the environment under consideration such as for example the relief of a seabed, can be imported from maps such as nautical charts used for example for S57 type navigation.
  • the relief can undergo a smoothing and lighting treatment with a shadow treatment to be able to optimize the representation of the entire area.
  • the load-bearing structures can be associated with a fairly faithful 3D model given the scale of the objects.
  • the position of the supporting structures can be updated periodically, such as for example every 200 ms, the period being chosen or determined to be adapted to the fluid movements of the supporting structures taking account of their speeds.
  • step 205 may include a display of the three-dimensional representation of the spatial coverage of the detection system on a rendering device such as a screen, an augmented reality rendering device or yet another virtual reality rendering device.
  • a rendering device such as a screen, an augmented reality rendering device or yet another virtual reality rendering device.
  • the display in augmented reality mode advantageously makes it possible to improve the perception of the three-dimensional representation thanks to holograms, the sharing of the same tactical situation between several operators equipped with rendering devices allowing them to visualize the holograms with dots different views, and to transfer the hologram to a tactical table without requiring the addition of additional screens in the already crowded operational environment.
  • the vision of the hologram can be synchronized with the data of the tactical table.
  • the three-dimensional representation of the spatial coverage can be analyzed to determine 3D shadow zones of the geographic zone, the shadow zones being zones in which the probability of detection is lower. at at least a given threshold.
  • the shadow areas can be located in at least one predefined security area of the system.
  • Safety zones can be selected based on strategic criteria.
  • the safety zone with respect to a structure to be protected by the multi-sensor detection system can be substantially a sphere centered on the infrastructure to be protected, the radius of the sphere being for example of the order of 30 km.
  • a 3D shadow zone can be, for example, a non-detection cuvette.
  • step 209 may include determining an intersection of the selected shadow zones forming an access channel to safety zones, a channel designating the sum of the shadow zones leading to the security zone.
  • a risk zone is a gray area within the safety zone.
  • the three-dimensional representation of the spatial coverage of the multi-sensor sonar in step 205 can be based on the determination of a 3D rendering of the detection probabilities calculated for the set of sensors. in step 203.
  • the step of determining the 3D rendering (in three dimensions) of the probability of detection can also take into account the visualization data (position and orientation data).
  • the determination of the 3D rendering of the probabilities of detection can be carried out using 3D image synthesis techniques to convert the raw data of the probabilities of detection into a 3D image to generate a display of the 3D image on the device.
  • chosen rendering a 3D device on screen, augmented reality device or virtual reality device.
  • the 3D representation of the spatial coverage can be advantageously superimposed with a representation of the geographic area on the rendering device, which allows a 3D display of the spatial coverage of the detection system in the geographic area considered.
  • Geometric modeling makes it possible to define the geometric properties of objects either by a mathematical representation from the definitions or from the mathematical systems which describe them, or by a representation by construction tree by representing the complex objects as a composition of objects simple called primitives, or by a representation which represents an object by materializing the limit between the interior of the object and the exterior of the object by a series of geometric elements linked together (generally triangles).
  • the scene creation step makes it possible to define the appearance of the objects and to determine the non-geometric parameters of the scene to be displayed.
  • the appearance of objects is defined by determining surface or volume properties of objects including optical properties, color and texture.
  • Non-geometric scene parameters include the position and type of light sources, the position and orientation of the scene visualization forming the chosen vantage point.
  • each pixel displayed on the image represents a vector of four components, comprising a first R value representing a red color value (Red), a second G value representing a green color value (Green), a third B value representing a blue color value (Blue), and a fourth A value representing a transparency component (or alpha component).
  • each pixel is associated with three geometric dimensions (x, y, z) in an XYZ frame of reference comprising a width x (or abscissa of the frame of reference), a depth y (or ordinate of the frame of reference) and a height z (or side of the frame of reference).
  • the XYZ frame of reference is defined by the calculation area and can be centered at the center of the calculation area.
  • a 3D texture refers to a data structure allowing the representation of a synthetic image.
  • a rendering method refers to a computer method consisting in converting the model of the objects into an image displayable on the chosen rendering device.
  • the determination of the spatial coverage of the three-dimensional detection system from the detection probabilities can use the transformation (or conversion) of the raw data of the probabilities of detection into a structure usable by the rendering calculation functions.
  • FIG. 3 a flowchart representing the step 205 of determining a representation of the spatial coverage of a three-dimensional multi-sensor detection system operating in a geographical area according to certain embodiments.
  • step 301 data from the set of data comprising a probability of the sensor in the geographical area are received, the detection probability being determined in a calculation area associated with the considered sensor and included in said geographical area .
  • the data of the dataset further includes the dimension of the calculation area associated with the considered sensor, and position data of the calculation area.
  • the data in the dataset can be read or extracted.
  • visualization data position and orientation
  • a 3D rendering of the detection probability of the sensor is then determined from at least some of the probability data, the position data of the calculation zone and the dimension data.
  • the method can comprise a step 303 in which a main data structure having at least three dimensions (in particular 3D or 4D), also conventionally called 3D Texture 'is determined at from the probability of detection data.
  • the data structure can be for example a matrix.
  • the input data set may further include the input resolution, the input resolution corresponding to the distance between two points in the computation area.
  • Step 303 of determining the data structure can then include the steps of:
  • auxiliary data structure from the detection probability data, the auxiliary data structure having dimensions defined from the probability, and the input resolution
  • a depth rendering of the volume encompassing the calculation area can be determined from the position and dimension data of the calculation area, and the display position and orientation data.
  • the step 305 of determining the depth rendering can comprise the determination of a first depth image of a cube including the data structure and of a second depth image of the rear face of the cube.
  • the depth of the cube including the main data structure (3D Texture) representing the distance of the surface of the cube from the position and orientation of visualization (Z depth or 'Z-depth' in English), the depth rendering comprising the first depth image and the second depth image.
  • a depth image includes a set of surfaces associated with positional information.
  • the second depth image can be determined as the depth image of the cube whose normals have been inverted, corresponding to the depth image of the rear face of the cube at the point of view.
  • the 3D rendering can be a volume rendering.
  • a volume rendering of the probability of detection following at least one function in a given color space is determined from the main data structure (3D texture) and the rendering of depth.
  • the functions used to determine the volume rendering can include at least one transfer function defined from a minimum probability bound, a maximum probability bound, a colorimetry bound. minimum, and a maximum colorimetry bound.
  • Each information of a depth image associated with x, y, z geometric dimensions can be defined in a color space, for example in the RGBA coding format.
  • step 307 of determining a volume rendering can comprise:
  • a step 3073 for determining a volume rendering in colors of the detection probabilities from the volume rendering in gray levels can be determined from the 3D texture, from the first depth image, and the second depth image by applying an algorithm (or technique) for calculating volume rendering of the accumulation ray tracing type ('Ray Marching' in English).
  • a Ray Marching type algorithm is illustrated in FIG. 4 in an embodiment using RGBA coding.
  • a Ray Marching-type algorithm is based on geometric optics to simulate the path of light energy in the image to be displayed.
  • a projection plane 403, placed in front of a viewpoint 401, represents the visualized image (that is, the volume rendering in grayscale).
  • Each point of the projection plane 403 corresponds to a pixel of the volume rendering in gray levels.
  • the implementation of step 307 by applying an algorithm of the Ray Marching type according to the embodiments of the invention can comprise the generation of a ray 407 (defined by a point of origin and a direction) for each pixel the desired image of the volume rendering in grayscale.
  • the radius can be sampled in regular steps within volume 405 and the values in the color space (RGBA colors for example) of the various pixels thus calculated can be summed in proportion to their contribution of Alpha transparency.
  • the algorithm traverses, in the direction of the projection plane 403, the oriented volumes of the results representing the detection probabilities, while collecting the probability values step by step.
  • the value of a displayed pixel is the result of a function (eg transfer function) of the values collected.
  • the Ray Marching type algorithm can be applied to calculate a probability value accumulated by a radius 407 starting from the front of the enclosing cube 3D texture to the back of the cube.
  • the application of a Ray Marching type algorithm in step 307 can include the operations consisting in, for each pixel of the volume rendering and for each update of the detection probabilities:
  • the determination of a color representing a probability value for a selected pixel can comprise the operations consisting in:
  • a 'black' value can be associated with a probability close to zero ( ⁇ ') and a' white 'value can be associated with a probability close to one (' 1 ');
  • the transfer function can be a software function configured to perform linear or non-linear interpolation, between a minimum color boundary and a maximum color boundary, the color space in which is determined the volume rendering representing a detection probability lying between a minimum probability limit and a maximum probability limit.
  • a color volume rendering of the detection probabilities is determined from the gray level volume rendering of the detection probabilities determined in sub-step 3071, the color volume rendering can be determined by applying a color transfer function to the grayscale volume rendering, the color transfer function using the minimum probability bound, the maximum probability bound, the minimum color bound, and the maximum color bound.
  • the color transfer function can then for example perform a linear interpolation, between the minimum color bound and the maximum color bound, the colors of the volume rendering representing a detection probability between the minimum probability bound and the probability bound maximum.
  • the 3D rendering can be surface.
  • the method then comprises, as an alternative to steps 303, 305 and 307, a step 31 1 consisting in determining a surface rendering from the probabilities of detection, of the data of position of the computation area, dimension data, at least one detection probability threshold value, and viewing position and orientation.
  • step 31 1 of determining the surface rendering can comprise the generation of polygonal objects from the three-dimensional data matrix to approximate at least one iso-surface conducted from at least one given detection probability threshold ('Marching cube' in English).
  • the functions of calculating the probabilities of detection and of determining the texture can be software functions executed by a processing unit or processor.
  • the functions implemented in the rendering process can be software programs called "shaders” or “shaders” in English, executed by a graphics processing unit.
  • the method according to the various embodiments of the invention can be implemented in a detection system in "mission preparation” mode or in "online” mode.
  • the "mission preparation” mode optimizes the movement of the detection system by simulating a scenario based on a future mission.
  • the "online” mode consists in implementing the process by coupling the detection system to the tactical links.
  • the actual positions, speeds, and headings of the various supporting structures as well as the use of their various sensors can be used to update the parameters defining the environment and making it possible to generate a representation. in real time.
  • Data collected on-board the 'online' detection system can be converted into information that can be used for detection probability updates.
  • FIG. 5 represents an example of spatial coverage of a detection system of sonar type used in an anti-submarine warfare device obtained by using a detection probability display technique of the prior art.
  • This representation is generated from a matrix of detection system detection probabilities as a function of distance from the detection system antenna and depth between the surface and the seabed, using with coding colors used to assess the sonar's ability to detect a threat.
  • zone 1 which corresponds to a zone associated with 100% probability of detecting a threat (an enemy platform for example) and zone 2 corresponds to a zone associated with 0% probability of detecting a threat.
  • the shapes thus obtained are complex and non-uniform.
  • FIG. 6 is a schematic representation of the theoretical target detection zones in an anti-submarine warfare device using circles to identify the target. intended protection of a naval fleet against a possible threat
  • Figure 7 is a schematic representation of realistic detection areas obtained using state of the art spatial coverage display methods. The two figures show that the actual global detection zone is far from the desired theoretical global detection zone, which does not allow effective preventive surveillance to be ensured in order to protect the naval fleet and may represent a danger in the presence of threats. possible.
  • FIG. 7 represents an example of a display on a screen of a spatial coverage of a detection system of the multi-sensor sonar type obtained according to an embodiment with volume rendering of the detection probabilities of the detection system.
  • the three-dimensional representation of the spatial coverage according to the invention makes it possible to display a global view of the complete zone in three dimensions, to cover a very large zone on the scale of the naval fleet, and to highlight non-insonified dangerous areas and non-detection cuvettes.
  • FIG. 8 represents an example of display in augmented reality mode of a multi-sensor spatial coverage obtained according to the volume rendering modes of the probabilities of detection of the sonar according to the embodiments of the invention.
  • the invention also provides a device for determining a spatial coverage of a multi-sensor detection system comprising a plurality of sensors, said plurality of sensors being carried by supporting structures moving in a given geographical area, some at least. bearing structures being mobile, characterized in that the device is configured for:
  • the invention further provides a computer program product for determining a spatial coverage of a multi-sensor detection system comprising a plurality of sensors, said plurality of sensors being carried by supporting structures moving in a geographical area. data, at least some of the supporting structures being mobile, characterized in that the computer program product comprising computer program code instructions which, when executed by one or more processors cause the processor (s) to:
  • FIG. 10 represents the device 4000 for determining a three-dimensional representation of the spatial coverage of a detection system (for example of the sonar type) operating in a geographical area (for example marine scene) from the set of data comprising the detection probabilities of the detection system.
  • the data set can be saved for example in a memory 430 or in a mass memory device 420.
  • Device 4000 can be any type of device or computer system referred to as a computer.
  • the device 4000 may include at least one processing unit 4010 configured to determine a 3D rendering of the probabilities of detection from at least some of the probability data, the position data of the calculation area and the dimension data.
  • the 3D (three-dimensional) rendering of the probabilities of detection can further be determined from the visualization data (position and orientation data).
  • the device 4000 can further include a memory 430, a database 420 forming part of a mass storage memory device, an I / O input / output interface 470, and a Human-Machine interface. 410 to receive entries or return outputs from / to a detection system operator.
  • the interface 410 can be used for example to configure or configure various parameters or functions used by the method for determining representation according to certain embodiments of the invention, such as the configuration of the volume rendering of the probabilities of detection.
  • External resources may include, but are not limited to, servers, databases, mass storage devices, edge devices, cloud network services, or any other suitable computing resource that may be used with device 4000.
  • the processing unit 4010 may include one or more devices selected from microprocessors, microcontrollers, digital signal processors, microcomputers, central processing units, programmable gate arrays, logic devices. programmable, defined state machines, logic circuits, analog circuits, digital circuits, or any other device used to manipulate signals (analog or digital) based on operating instructions stored in memory 430.
  • Memory 430 may include a single device or a plurality of memory devices, including but not limited to read-only memory (ROM), random access memory (RAM )), volatile memory, non-volatile memory, static random access memory (SRAM), dynamic random access memory (DRAM), flash memory, cache memory or any other e device capable of storing information.
  • the mass storage device 420 may include data storage devices such as a hard disk, an optical disk, a magnetic tape drive, a volatile or non-volatile solid state circuit, or any other device capable of storing informations.
  • a database may reside on the mass memory storage device 420.
  • the processing unit 4010 can operate under the control of an operating system 440 which resides in the memory 430.
  • the operating system 440 can manage the computer resources in such a way that the program code of the computer, integrated in the form of one or more software applications, such as the application 450 which resides in the memory 430, can have instructions executed by the processing unit 4010.
  • the device 4000 can comprise a graphics processing unit 4030 implemented on a graphics card, on a motherboard, or in a central processing unit.
  • the graphics processing unit can generate a display of the 3D rendering on a display device.
  • routines executed to implement the embodiments of the invention may be referred to as “computer program code” or simply “program code”.
  • Program code typically includes computer readable instructions that reside at various times in various memory and storage devices in a computer and which, when read and executed by one or more processors in a computer, cause the computer to perform the operations necessary to perform the operations and / or elements specific to the various aspects of the embodiments of the invention.
  • the instructions of a program, readable by computer, for carrying out the operations of the embodiments of the invention may be, for example, assembly language, or else a source code or an object code written in combination with one or several programming languages.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

The embodiments of the invention provide a method for determining a spatial coverage of a multi-sensor detection system comprising a plurality of sensors, the plurality of sensors being supported by supporting structures situated in a given geographical area, at least some of the supporting structures being movable, the method being characterised in that it comprises the steps of: - determining (201) a set of parameters representing the geographical area and comprising environmental data, data relating to the supporting structures and data relating to the sensors; - iteratively calculating (203) the detection probabilities for the plurality of sensors in the geographical area from at least some of the parameters; - determining (205) a three-dimensional representation of the spatial coverage of the detection system for the plurality of sensors; - determining (207) 3D shadow areas in the geographical area in which the detection probability is less than at least one given threshold; - selecting (209) the shadow areas located in at least one predefined security area of the system.

Description

DESCRIPTION DESCRIPTION

Titre de l’invention : Procédé de détermination de la couverture spatiale d’un système de détection Title of the invention: Method for determining the spatial coverage of a detection system

[0001] Art Antérieur [0001] Prior Art

[0002] L’invention se rapporte aux systèmes de détection, et en particulier à la représentation en trois dimensions de la couverture spatiale d’un système de détection. [0002] The invention relates to detection systems, and in particular to the three-dimensional representation of the spatial coverage of a detection system.

[0003] Les systèmes de détection, tels que les sonars ou les radars sont utilisés dans de nombreux domaines d’application aujourd’hui. Par exemple, les sonars sont utilisés dans le domaine de l’acoustique sous-marine pour détecter et localiser les objets sous l’eau. [0003] Detection systems, such as sonar or radar are used in many fields of application today. For example, sonar is used in the field of underwater acoustics to detect and locate objects underwater.

[0004] Les systèmes de détection peuvent être utilisés par diverses infrastructures de surveillance (par exemple pour la détection de sous-marins ou d’objets posés sur le fond marin, dans le domaine de la pêche pour la détection de bancs de poissons, dans le domaine de la cartographie pour cartographier une zone géographique, le fond des océans et d’autres plans d’eau, ou encore dans le domaine de l’archéologue, par exemple l’archéologie subaquatique et sous-marine). The detection systems can be used by various surveillance infrastructures (for example for the detection of submarines or objects placed on the seabed, in the field of fishing for the detection of schools of fish, in the field of cartography to map a geographical area, the ocean floor and other bodies of water, or in the field of archaeologists, for example underwater and underwater archeology).

[0005] Les systèmes de détection sont munis d’antennes pour émettre et/ou recevoir des signaux. [0005] The detection systems are provided with antennas for transmitting and / or receiving signals.

[0006] Les systèmes de détection sont classiquement utilisés pour détecter des menaces dans des zones à protéger, par exemple dans des zones définies par rapport à une infrastructure sensible à protéger. [0006] Detection systems are conventionally used to detect threats in areas to be protected, for example in areas defined with respect to a sensitive infrastructure to be protected.

[0007] Par exemple, dans un système de détection de type sonar, il est connu d’utiliser un système de lutte anti-sous-marine comprenant des éléments de gestion de scénarios de flotte aéronavale, de modélisation de la couverture spatiale du sonar et des outils d’aide à la décision tactique. [0007] For example, in a sonar type detection system, it is known to use an anti-submarine warfare system comprising elements for managing naval air fleet scenarios, modeling the spatial coverage of the sonar and tactical decision support tools.

[0008] Par exemple, dans «P. C. Etter, Underwater Acoustic Modeling and Simulation, CRC Press, 5eme édition, 2018, Taylor&Francis Group», des technologies de modélisation et de simulation pour l’aide à la décision tactique dans le cadre de la lutte anti-sous-marine ont été proposées pour améliorer l’efficacité de la gestion et de déploiement des ressources déployées. Une telle solution utilise un réseau de composants répartis géographiquement comprenant des véhicules autonomes sous- marins (en anglais‘Autonomous Undersea Vehicles’, AUV), des navires de surface, des sous-marins, des avions, et/ou des satellites. De tels composants du réseau déploient des capteurs distribués. [0009] Le traitement des signaux reçus par le système de détection utilise une étape de traitement de signal et une étape de traitement de l’information. Le traitement des données collectées par les différents composants du réseau du système de détection permet de représenter la couverture spatiale du système de détection à partir de laquelle un opérateur du système de détection peut déterminer la dynamique et la trajectoire des objets cibles, la position des objets cibles en distance, en gisement et en profondeur, ainsi que la nature des objets cibles. [0008] For example, in "PC Etter, Underwater Acoustic Modeling and Simulation, CRC Press, 5 th edition, 2018, Taylor & Francis Group," modeling and simulation technologies to help with tactical decision in the context of the Anti-submarine warfare has been proposed to improve the efficiency of the management and deployment of deployed resources. Such a solution uses a network of geographically distributed components comprising autonomous underwater vehicles (AUV), surface ships, submarines, airplanes, and / or satellites. Such network components deploy distributed sensors. The processing of the signals received by the detection system uses a signal processing step and an information processing step. The processing of the data collected by the various components of the detection system network makes it possible to represent the spatial coverage of the detection system from which an operator of the detection system can determine the dynamics and the trajectory of the target objects, the position of the objects. targets in distance, bearing and depth, as well as the nature of the target objects.

[0010] Il est connu d’utiliser une représentation appelée‘Probabilités de détection ou POD’ (‘Performance of the day’ en langue anglo-saxonne). Une représentation POD est une représentation des probabilités de détection qui permet de déterminer la couverture spatiale d’un système de détection et d’estimer la capacité du système de détection à détecter des objets cibles. Une telle représentation est générée à partir d’une matrice de données de probabilités de détection en fonction de la distance par rapport à la position de l'antenne du système de détection et de la profondeur entre la surface et le fond marin, en utilisant un codage couleur. Les probabilités de détection peuvent être affichées graphiquement sous la forme de données ou d’éléments de couleur, chaque couleur représentant une plage de probabilité variant de 0 à 10%, de 1 1 à 20%, jusqu’à l’intervalle de valeurs [91 ,100%]. It is known to use a representation called "probabilities of detection or POD" ("Performance of the day" in Anglo-Saxon language). A POD representation is a representation of the probabilities of detection that allows you to determine the spatial coverage of a detection system and to estimate the ability of the detection system to detect target objects. Such a representation is generated from a data matrix of detection probabilities as a function of the distance from the position of the detection system antenna and the depth between the surface and the seabed, using a color coding. The probabilities of detection can be displayed graphically as data or colored elements, with each color representing a probability range varying from 0 to 10%, from 1 1 to 20%, up to the range of values [ 91, 100%].

[001 1 ] Les formes obtenues au moyen de cette représentation sont relativement complexes et non uniformes en raison de la non linéarité de la propagation des ondes dans l’environnement considéré (par exemple la propagation du son dans l’eau pour un système de détection de type sonar) et au fait que l’image qui représente ces probabilités de détection ne permet de visualiser qu'une partie de la scène considérée. Dans des environnements complexes, la forme finale obtenue en trois dimensions (3D) peut être relativement complexe à interpréter. Par ailleurs, cette représentation ne permet pas de mettre en évidence les zones dangereuses représentant un risque potentiel pour l’infrastructure utilisant le système de détection (plateforme ou bâtiment à protéger par exemple). Elle ne permet pas non plus d’avoir une vue globale complète en trois dimensions de la zone géographique couverte par le système de détection. En outre, une telle représentation ne permet pas de couvrir une zone suffisamment importante par rapport à l’échelle de l’infrastructure utilisant le système de détection. [001 1] The shapes obtained by means of this representation are relatively complex and non-uniform due to the non-linearity of the propagation of the waves in the environment considered (for example the propagation of sound in water for a detection system sonar type) and the fact that the image which represents these detection probabilities only makes it possible to visualize part of the scene considered. In complex environments, the final three-dimensional (3D) shape can be relatively complex to interpret. Furthermore, this representation does not make it possible to highlight the dangerous areas representing a potential risk for the infrastructure using the detection system (platform or building to be protected for example). It also does not provide a complete three-dimensional overview of the geographic area covered by the detection system. In addition, such a representation does not cover a sufficiently large area compared to the scale of the infrastructure using the detection system.

[0012] Pour les systèmes de détection de type sonar, des outils d’aide à la décision tactique ont été proposés. Cependant, de tels outils sont sous-optimaux. En effet, les outils d’aide à la décision connus fournissent un environnement de modélisation considérant un seul capteur à la fois et sur une distance liée à la portée maximale de ce capteur, ce qui ne permet pas d’avoir une vue globale de la zone géographique couverte par le sonar et peut exposer l’infrastructure à protéger (flotte navale par exemple) à des risques d’attaques par des menaces ne pouvant pas être détectées si elles évoluent dans les zones non-couvertes par le capteur considéré. For sonar type detection systems, tactical decision support tools have been proposed. However, such tools are suboptimal. Indeed, the known decision-support tools provide a modeling environment considering a single sensor at a time and over a distance linked to the maximum range of this sensor, which does not make it possible to have a global view of the sensor. geographic area covered by sonar and may expose the infrastructure to be protected (naval fleet for example) to the risk of attacks by threats that cannot be detected if they operate in areas not covered by the considered sensor.

[0013] En outre dans les solutions existantes basées sur la représentation des probabilités de détection pour évaluer la capacité de détection du système de détection, la représentation tient compte des probabilités de détection d’un seul capteur du système de détection à la fois et ne permet pas de générer une visualisation de la totalité de la zone de façon exploitable par l’opérateur du système de détection, ce qui peut limiter l’efficacité de la flotte navale. [0013] In addition, in the existing solutions based on the representation of the detection probabilities to evaluate the detection capacity of the detection system, the representation takes into account the detection probabilities of a single sensor of the detection system at a time and does not not make it possible to generate a visualization of the entire area in a way that can be used by the operator of the detection system, which can limit the efficiency of the naval fleet.

[0014] Il existe donc un besoin pour un procédé et un dispositif améliorés capable de déterminer la couverture spatiale d’un système de détection de manière efficace. A cet effet, l’invention a pour objet un procédé pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, la pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, le procédé étant caractérisé en ce qu’il comprend les étapes consistant à : [0014] There is therefore a need for an improved method and device capable of determining the spatial coverage of a detection system in an efficient manner. To this end, the subject of the invention is a method for determining the spatial coverage of a multi-sensor detection system comprising a plurality of sensors, the plurality of sensors being carried by supporting structures moving in a given geographical area, some at least of the supporting structures being mobile, the method being characterized in that it comprises the steps consisting in:

- déterminer un ensemble de paramètres représentant la zone géographique et comprenant des données d’environnement, des données relatives aux structures porteuses et des données relatives aux capteurs ; - determine a set of parameters representing the geographical area and comprising environmental data, data relating to supporting structures and data relating to sensors;

- calculer itérativement les probabilités de détection de la pluralité de capteurs dans la zone géographique à partir de certains au moins des paramètres ; iteratively calculating the probabilities of detection of the plurality of sensors in the geographical area from at least some of the parameters;

- déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ; - determining a three-dimensional representation of the spatial coverage of the detection system for the plurality of sensors;

- déterminer des zones d’ombre 3D de la zone géographique dans lesquelles la probabilité de détection est inférieure à au moins un seuil donné ; - determine 3D shadow zones of the geographical area in which the probability of detection is less than at least a given threshold;

- sélectionner les zones d’ombre situées dans au moins une zone de sécurité prédéfinie du système. - select the shadow zones located in at least one predefined security zone of the system.

[0015] Selon certains modes de réalisation, le procédé comprend en outre la détermination d’une intersection des zones d’ombre sélectionnées formant un chenal d’accès à des zones de sécurité. [0015] According to some embodiments, the method further comprises determining an intersection of the selected shadow areas forming an access channel to safe areas.

[0016] Selon certains modes de réalisation, le système de détection peut être un système de détection de type sonar, l’environnement étant un environnement maritime, lesdites données d’environnement comprenant des données variables dans l’espace et dans le temps et représentant un profil du fond de la mer dans une zone géographique définie, un profil de température du volume d’eau, des informations définissant l’état de la mer, et des informations liées au bruit de mer, les données de structures porteuses évoluant dans le domaine marin définissant une ou plusieurs plateformes mobiles et/ou un ou plusieurs objets de fond. [0016] According to certain embodiments, the detection system can be a sonar type detection system, the environment being a maritime environment, said environment data comprising data which vary in space and in time and represent a profile of the seabed in a geographical area defined, a temperature profile of the water volume, information defining the state of the sea, and information related to sea noise, the data of supporting structures operating in the marine domain defining one or more mobile platforms and / or one or more background objects.

[0017] Selon certains modes de réalisation, ledit calcul peut être réalisé périodiquement selon une période choisie ou en continu. [0017] According to some embodiments, said calculation can be carried out periodically according to a chosen period or continuously.

[0018] Selon certains modes de réalisation, la couverture spatiale du système de détection est représentée selon une position et une orientation de visualisation données, l’étape de détermination d’une représentation en trois dimensions de la couverture spatiale du système de détection comprenant, pour chaque capteur dudit système de détection, les étapes consistant à : [0018] According to certain embodiments, the spatial coverage of the detection system is represented according to a given position and a given viewing orientation, the step of determining a three-dimensional representation of the spatial coverage of the detection system comprising, for each sensor of said detection system, the steps consisting in:

Recevoir un ensemble de données comprenant une probabilité de détection dudit capteur dans ladite zone géographique, la probabilité de détection étant déterminée dans une zone de calcul associée audit capteur et incluse dans ladite zone géographique, les données dudit ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul, Receive a set of data comprising a probability of detection of said sensor in said geographical area, the probability of detection being determined in a calculation area associated with said sensor and included in said geographical area, the data of said set comprising position data of the area calculation and dimension data of the calculation area,

- déterminer un rendu 3D de ladite probabilité de détection dudit capteur à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension. determining a 3D rendering of said probability of detection of said sensor on the basis of at least some of the probability data, the position data of the calculation zone and the dimension data.

[0019] Selon certains modes de réalisation, le procédé comprend en outre une étape consistant à déterminer une structure de données principale ayant au moins trois dimensions à partir desdites données de probabilité. [0019] According to certain embodiments, the method further comprises a step consisting in determining a main data structure having at least three dimensions from said probability data.

[0020] Selon certains modes de réalisation, le procédé peut comprendre en outre une étape consistant à déterminer un rendu de profondeur du volume englobant la zone de calcul à partir des données de position de la zone de calcul, des données de dimension, et de la position et de l’orientation de visualisation. [0020] According to certain embodiments, the method may further comprise a step consisting in determining a depth rendering of the volume encompassing the calculation area from the position data of the calculation area, the dimension data, and of viewing position and orientation.

[0021 ] Selon certains modes de réalisation, le rendu 3D peut être volumique, le procédé comprenant en outre une étape consistant à déterminer un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de ladite structure de données principale et dudit rendu de profondeur. According to some embodiments, the 3D rendering can be volume, the method further comprising a step of determining a volume rendering of the probability of detection according to at least one function in a given color space from said structure of main data and said depth rendering.

[0022] Selon certains modes de réalisation, l’étape de détermination d’un rendu volumique peut comprendre les étapes consistant à: - déterminer un rendu volumique en niveaux de gris de la probabilité de détection à partir de ladite structure de données 3D et dudit rendu de profondeur ; [0022] According to certain embodiments, the step of determining a volume rendering can comprise the steps consisting in: - determining a volume rendering in gray levels of the detection probability from said 3D data structure and from said depth rendering;

- déterminer un rendu volumique en couleurs de la probabilité de détection à partir du rendu volumique en niveaux de gris. determining a volume rendering in colors of the detection probability from the volume rendering in gray levels.

[0023] Selon certains modes de réalisation, l’étape de détermination d’une représentation en trois dimensions de la couverture spatiale du système de détection comprend une étape de génération de l’affichage de ladite représentation en trois dimensions de la couverture spatiale, des zones d’ombre à l’intérieur de zones de sécurité et de chenaux d’accès aux zones de sécurité sur un écran ou en mode réalité augmentée ou en mode réalité virtuelle. [0023] According to some embodiments, the step of determining a three-dimensional representation of the spatial coverage of the detection system comprises a step of generating the display of said three-dimensional representation of the spatial coverage, of the shadow zones inside safety zones and access channels to safety zones on a screen or in augmented reality mode or in virtual reality mode.

[0024] Avantageusement, les modes de réalisation de l’invention permettent un calcul en temps réel des probabilités de détection associées à un système de détection multi- capteur. [0024] Advantageously, the embodiments of the invention allow real-time calculation of the probabilities of detection associated with a multi-sensor detection system.

[0025] Avantageusement, les modes de réalisation de l’invention permettent une représentation en temps réel des probabilités de détection associées à un système de détection multi-capteur pour une scène réelle en trois dimensions. Advantageously, the embodiments of the invention allow real-time representation of the detection probabilities associated with a multi-sensor detection system for a real three-dimensional scene.

[0026] Avantageusement, les modes de réalisation de l’invention peuvent fournir un mode de représentation des probabilités de détection sous forme volumique, ce qui permet un affichage en 3D de la couverture spatiale du système de détection dans la totalité de la zone géographique considérée. Advantageously, the embodiments of the invention can provide a mode of representation of the probabilities of detection in volume form, which allows a 3D display of the spatial coverage of the detection system in the entire geographical area considered. .

[0027] Avantageusement, les modes de réalisation de l’invention permettent une représentation en trois dimensions de la couverture spatiale du système de détection sur un dispositif de visualisation tel qu’un écran ou un dispositif de réalité augmentée. [0027] Advantageously, the embodiments of the invention allow a three-dimensional representation of the spatial coverage of the detection system on a display device such as a screen or an augmented reality device.

[0028] La représentation de la couverture spatiale du système de détection sur un dispositif de réalité augmentée permet notamment une meilleure perception de la représentation en trois dimensions, le partage d’une même situation tactique entre plusieurs acteurs ou systèmes de contrôle, et la visualisation d’un hologramme sur une table tactique sans nécessiter l’ajout d’écrans supplémentaires dans l’environnement opérationnel considéré. The representation of the spatial coverage of the detection system on an augmented reality device allows in particular a better perception of the three-dimensional representation, the sharing of the same tactical situation between several actors or control systems, and visualization of a hologram on a tactical table without requiring the addition of additional screens in the operational environment considered.

[0029] Les modes de réalisation de l’invention permettent en outre de déterminer des actions à mettre en oeuvre en réponse à la mise en évidence de zones d’ombre de non couverture par la détection du système se trouvant dans des zones de sécurité dans la zone géographique, ou d’un chenal d’accès construit par la somme des zones d’ombre de non couverture menant à ces zones de sécurité, quelle que soit la complexité de la forme de ces zones d’ombres ou de ces chenaux d’accès. [0029] The embodiments of the invention also make it possible to determine actions to be implemented in response to the identification of gray areas of non-coverage by the detection of the system located in security zones in the geographical area, or an access channel constructed by the sum of the shadow areas no coverage leading to these safety zones, regardless of the complexity of the shape of these shadow zones or these access channels.

[0030] Brève description des dessins Brief description of the drawings

[0031 ] D’autres caractéristiques et avantages de l’invention apparaîtront à l’aide de la description qui suit faite en référence aux dessins annexés, donnés à titre d’exemple, et qui représentent, respectivement : [0031] Other characteristics and advantages of the invention will become apparent from the following description, made with reference to the accompanying drawings, given by way of example, and which represent, respectively:

[0032] [Fig.1 ] est un exemple d’environnement d’utilisation de procédé de détermination d’une couverture spatiale d’un système de détection de type sonar, selon certains modes de réalisation. [0032] [Fig. 1] is an example of an environment for using a method for determining spatial coverage of a sonar type detection system, according to some embodiments.

[0033] [Fig.2] est un organigramme représentant un procédé pour déterminer une couverture spatiale d’un système de détection multi-capteur, selon certains modes de réalisation de l’invention. [0033] [Fig.2] is a flowchart showing a method for determining a spatial coverage of a multi-sensor detection system, according to certain embodiments of the invention.

[0034] [Fig.3] est un organigramme représentant une méthode pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection multi-capteur, selon certains modes de réalisation de l’invention. [0034] [Fig.3] is a flowchart representing a method for determining a three-dimensional representation of the spatial coverage of a multi-sensor detection system, according to some embodiments of the invention.

[0035] [Fig.4] est une vue schématique représentant un algorithme de lancer de rayon par accumulation (‘Ray Marching’ en langue anglo-saxonne), selon certains modes de réalisation de l’invention. [0035] [Fig.4] is a schematic view showing an accumulation ray tracing algorithm ("Ray Marching" in English), according to certain embodiments of the invention.

[0036] [Fig.5] représente un exemple de couverture spatiale d’un système de détection de type sonar utilisé pour la détection d’objets, obtenue en utilisant des méthodes d’affichage de la couverture spatiale de l’art antérieur. [0036] [Fig.5] shows an example of spatial coverage of a sonar type detection system used for object detection, obtained using prior art spatial coverage display methods.

[0037] [Fig.6] est une représentation schématique des zones de détection théorique cible dans un exemple d’application à la détection d’objets en environnement sous-marin. [0037] [Fig.6] is a schematic representation of the theoretical target detection zones in an example of application to the detection of objects in an underwater environment.

[0038] [Fig.7] est une représentation schématique des zones de détection réaliste dans un exemple d’application à la détection d’objets en environnement sous-marin. [0038] [Fig.7] is a schematic representation of realistic detection zones in an example of application to the detection of objects in an underwater environment.

[0039] [Fig.8] représente un exemple d’affichage sur écran de la couverture spatiale d’un système de détection multi-capteur de type sonar obtenue à partir du rendu volumique des probabilités de détection, selon certains modes de réalisation de l’invention. [0039] [Fig.8] represents an example of display on screen of the spatial coverage of a multi-sensor detection system of sonar type obtained from the volume rendering of the probabilities of detection, according to certain embodiments of the 'invention.

[0040] [Fig.9] représente un exemple d’affichage en mode réalité augmentée de la couverture spatiale d’un système de détection multi-capteur de type sonar obtenue à partir du rendu volumique des probabilités de détection, selon certains modes de réalisation de l’invention. [0041 ] [Fig.10] est une vue schématique d’un dispositif de détermination de la couverture spatiale d’un système de détection, selon certains modes de réalisation de l’invention. [0040] [Fig.9] shows an example of display in augmented reality mode of the spatial coverage of a multi-sensor detection system of sonar type obtained from the volume rendering of the probabilities of detection, according to certain embodiments of the invention. [0041] [Fig.10] is a schematic view of a device for determining the spatial coverage of a detection system, according to certain embodiments of the invention.

[0042] Description détaillée [0042] Detailed description

[0043] Les modes de réalisation de l’invention fournissent un procédé pour déterminer la couverture spatiale d’un système de détection multi-capteur déployant une pluralité de capteurs et évoluant dans une zone géographique donnée. La zone géographique inclut une zone de calcul, la zone de calcul étant une zone géométrique restreinte incluse dans la zone géographique telle qu’elle comprend l’ensemble des probabilités de détection calculées non-nulles du système de détection et déterminée par un centre et un référentiel (par exemple un référentiel cartésien). [0043] The embodiments of the invention provide a method for determining the spatial coverage of a multi-sensor detection system deploying a plurality of sensors and operating in a given geographic area. The geographical area includes a calculation area, the calculation area being a restricted geometric area included in the geographical area such that it includes all of the non-zero calculated detection probabilities of the detection system and determined by a center and a frame of reference (for example a Cartesian frame of reference).

[0044] La figure 1 représente un exemple d’environnement 100 dans lequel est utilisé procédé de détermination d’une représentation en trois dimensions de la couverture spatiale d’un système de détection évoluant dans une zone géographique. [0044] FIG. 1 shows an example of an environment 100 in which a method is used for determining a three-dimensional representation of the spatial coverage of a detection system operating in a geographical area.

[0045] Le système de détection peut être tout système de détection porté par une structure porteuse capable d’évoluer dans la zone géographique tel qu’un radar ou un sonar par exemple. Dans l’exemple de la figure 1 , le système de détection est un sonar porté par une structure porteuse de type bâtiment de surface 101. La couverture spatiale du système de détection est représentée selon une position et une orientation de visualisation données (l’ensemble des données de position et d’orientation est encore appelé « point de vue »). Les données de l’ensemble de données associées à un système de détection porté par une structure porteuse comprennent, à titre d’exemple non limitatif, des données de position de la zone de calcul, des données de dimensions de la zone de calcul, et des informations sur la structure porteuse et les capteurs. The detection system can be any detection system carried by a supporting structure capable of operating in the geographical area such as a radar or a sonar for example. In the example of FIG. 1, the detection system is a sonar carried by a supporting structure of the surface building type 101. The spatial coverage of the detection system is represented according to a given position and viewing orientation (the whole position and orientation data is also called "point of view"). The data of the set of data associated with a detection system carried by a supporting structure include, by way of nonlimiting example, position data of the calculation area, data of dimensions of the calculation area, and information on the supporting structure and the sensors.

[0046] Le système de détection peut être utilisé dans divers systèmes ou infrastructures pour la détection et localisation d’objets dans la zone géographique considérée (par exemple dans l’eau pour un système de détection de type sonar). Par exemple, le système de détection peut comprendre un ou plusieurs dispositifs de détection acoustique (par exemples les sonars 107, 108 et/ou 109) utilisés: The detection system can be used in various systems or infrastructures for the detection and location of objects in the geographical area considered (for example in water for a sonar type detection system). For example, the detection system can include one or more acoustic detection devices (for example sonars 107, 108 and / or 109) used:

- pour la détection de sous-marins ou des bâtiments de surface et/ou des menaces (par exemple des mines) ou objets posés sur le fond marin; - for the detection of submarines or surface vessels and / or threats (eg mines) or objects placed on the seabed;

- pour la détection des bancs de poissons, dans le domaine de la navigation maritime et fluviale ; - for the detection of schools of fish, in the field of maritime and river navigation;

- en hydrographie pour cartographier le fond des océans et d’autres plans d’eau, - en archéologie subaquatique et sous-marine ou dans les capteurs de pollutions aquatiques. - in hydrography to map the bottom of the oceans and other bodies of water, - in underwater and underwater archeology or in aquatic pollution sensors.

[0047] Le système de détection peut être utilisé en outre pour localiser les objets détectés. [0047] The detection system can also be used to locate the detected objects.

[0048] Dans l’exemple de l’environnement 100 de la figure 1 (représentant un dispositif de lutte anti-sous-marine), d’autres éléments auxiliaires peuvent être déployés pour mettre en oeuvre des actions préventives, défensives, ou offensives en fonction de l’objet détecté. Les éléments auxiliaires peuvent comprendre par exemple un navire de surface 101 équipés d’un ou plusieurs sonars, un ou plusieurs avions de patrouille maritime, et un ou plusieurs sous-marin d’attaque. Les sonars peuvent par exemple comprendre un sonar actif d’étrave 107, un sonar actif remorqué 108, et un sonar actif trempé 109 déployé par l’hélicoptère 103. In the example of the environment 100 of Figure 1 (representing an anti-submarine warfare device), other auxiliary elements can be deployed to implement preventive, defensive, or offensive actions in depending on the object detected. The auxiliary elements can include, for example, a surface ship 101 equipped with one or more sonars, one or more maritime patrol aircraft, and one or more attack submarine. For example, sonars may include active bow sonar 107, towed active sonar 108, and wet active sonar 109 deployed by helicopter 103.

[0049] Les différents éléments de l’environnement 100 peuvent être contrôlés par un opérateur ou un système de contrôle présent par exemple dans le navire de surface 101 , pour surveiller et protéger les éléments de l’environnement 100 contre des menaces en mettant en oeuvre des opérations ou actions. L’opérateur ou le système de contrôle peut par exemple mettre en oeuvre des actions de type préventives, défensives, ou offensives. The different elements of the environment 100 can be controlled by an operator or a control system present for example in the surface vessel 101, to monitor and protect the elements of the environment 100 against threats by implementing operations or actions. The operator or the control system can, for example, implement preventive, defensive or offensive actions.

[0050] La description des modes de réalisation de l’invention qui suit sera faite principalement en référence à un système de détection de type sonar mettant en oeuvre au moins un sonar passif ou actif multi-capteur pour faciliter la compréhension des modes de réalisation de l’invention, à titre d’exemple non limitatif. Cependant, l’homme du métier comprendra aisément que l’invention s’applique plus généralement à tout système de détection capable de détecter un objet dans l’eau ou dans tout autre environnement. The description of the embodiments of the invention which follows will be made mainly with reference to a detection system of the sonar type implementing at least one passive or active multi-sensor sonar to facilitate understanding of the embodiments of the invention, by way of nonlimiting example. However, those skilled in the art will easily understand that the invention applies more generally to any detection system capable of detecting an object in water or in any other environment.

[0051 ] La figure 2 représente un procédé pour déterminer une couverture spatiale d’un système de détection multi-capteur déployant une pluralité de capteurs portés par des structures porteuses évoluant dans une zone géographique donnée est illustré. Une structure porteuse peut porter un ou plusieurs capteurs. Un capteur peut opérer en mode passif, mono-statique, ou multistatique. FIG. 2 represents a method for determining a spatial coverage of a multi-sensor detection system deploying a plurality of sensors carried by supporting structures moving in a given geographical area is illustrated. A supporting structure can carry one or more sensors. A sensor can operate in passive, mono-static, or multistatic mode.

[0052] Selon certains modes de réalisation, les structures porteuses peuvent être indépendantes ou non indépendantes. According to certain embodiments, the supporting structures can be independent or not independent.

[0053] A l’étape 201 , un ensemble de paramètres représentant la zone géographique donnée comprenant des données d’environnement (par exemple l’environnement sous- marin, marin ou terrestre), des données relatives aux structures porteuses (par exemple la vitesse de la structure porteuse) et des données relatives aux capteurs du système de détection multi-capteur (par exemple pour un système de détection de type sonar, les données relatives aux capteurs peuvent comprendre le mode passif ou actif du sonar, la ou les fréquences du sonar, la portée maximale du sonar, le gain du sonar). Les données d’environnement peuvent en outre comprendre des données tactiques. De tels paramètres permettent de définir l’emplacement du système de détection, les conditions environnementales relatives à cet emplacement, les trajectoires initiales suivies par différentes plateformes du système de détection, les menaces, les unités à protéger, et/ou les équipements des plateformes aptes à assurer cette protection. In step 201, a set of parameters representing the given geographical area comprising environmental data (for example the underwater, marine or terrestrial environment), data relating to the supporting structures (for example the speed of the supporting structure) and data relating to the sensors of the multi-sensor detection (for example for a sonar-type detection system, the data relating to the sensors may include the passive or active mode of the sonar, the frequency (s) of the sonar, the maximum range of the sonar, the gain of the sonar). The environmental data may further include tactical data. Such parameters make it possible to define the location of the detection system, the environmental conditions relating to this location, the initial trajectories followed by different platforms of the detection system, the threats, the units to be protected, and / or the equipment of the suitable platforms. to ensure this protection.

[0054] Dans un système de détection de type sonar, les données d’environnement peuvent comprendre des données d’environnement marin et/ou terrestre variables dans l’espace et dans le temps et représentant : [0054] In a sonar type detection system, the environmental data can include marine and / or terrestrial environment data which vary in space and time and represent:

- le profil du fond de la mer dans une zone géographique définie (qui peut être choisie avec une grande résolution, allant par exemple jusqu’à 20cm) ; ce profil peut être complété par le type de fond (combinaisons de boue, sable et/ou roche) ; - the profile of the seabed in a defined geographical area (which can be chosen with high resolution, for example up to 20cm); this profile can be supplemented by the type of bottom (combinations of mud, sand and / or rock);

- un profil de température de volume d’eau et de salinité, la température de volume d’eau et la salinité influant sur la propagation des ondes acoustiques ; - a temperature profile of water volume and salinity, water volume temperature and salinity influencing the propagation of acoustic waves;

- des informations définissant l’état de la mer (par exemple la hauteur des vagues et leur direction) et ayant une influence sur la manière dont les ondes acoustiques se réfléchissent sur la surface ; - information defining the state of the sea (for example the height of the waves and their direction) and having an influence on the way in which the acoustic waves are reflected on the surface;

- des informations liées au bruit de la mer (par exemple la pluie, les bruits de trafic, de biologiques diffus, sismiques, etc. - information related to sea noise (for example rain, traffic noise, diffuse biological noise, seismic, etc.

[0055] Selon certains modes de réalisation, les données relatives aux structures porteuses évoluant dans la zone géographique donnée peuvent être associées aux structures porteuses évoluant dans la zone géographique domaine marin telles qu’une ou plusieurs plateformes mobiles (par exemple, des bâtiments de surface, des sous- marins, des drones, des avions, des hélicoptères, des bouées sonar dérivantes, des entités biologiques, etc.) et/ou un ou plusieurs objets de fond (par exemple des mines, des systèmes de détection acoustiques statiques, des épaves, ou tout autre objet de fond ayant une influence sur les détections). Les structures porteuses peuvent avoir une trajectoire prédéfinie, être contrôlées par un opérateur du système de détection ou par un système de contrôle. Les structures porteuses peuvent avoir leur propre bruit (dû par exemple aux machines et/ou bruits d’écoulement dans l’eau), peuvent être équipées de capteurs de tout type, et/ou peuvent aussi émettre des sons. Les objets de fond peuvent être équipés de capteurs, d’automates de comportement et de charges explosives. [0056] Dans un exemple de réalisation, les données tactiques peuvent être associées à une ou des menaces à détecter (flotte composée par exemple), et les structures porteuses peuvent comprendre un ou plusieurs unités à Haute Valeur (en anglais‘High Value Unit’ ou HUV), un ou plusieurs éléments protecteurs des unités HUV agencés dans des zones de surveillance ou au niveau de Lignes Limites d’approche (LLA). According to some embodiments, the data relating to the supporting structures moving in the given geographical area can be associated with the bearing structures moving in the geographical area marine domain such as one or more mobile platforms (for example, surface vessels , submarines, drones, airplanes, helicopters, sonar drifting buoys, biological entities, etc.) and / or one or more bottom objects (e.g. mines, static acoustic detection systems, wrecks, or any other background object having an influence on the detections). The supporting structures can have a predefined trajectory, be controlled by an operator of the detection system or by a control system. The load-bearing structures can have their own noise (due for example to machines and / or noises of flow in water), can be equipped with sensors of any type, and / or can also emit sounds. Bottom objects can be equipped with sensors, behavioral automatons and explosive charges. In an exemplary embodiment, the tactical data can be associated with one or more threats to be detected (compound fleet for example), and the supporting structures can include one or more High Value units (in English 'High Value Unit' or HUV), one or more protective elements of the HUV units arranged in surveillance zones or at the level of Limits of Approach (LLA).

[0057] Dans un exemple de réalisation, l’étape 201 peut être réalisée par un générateur de scénarios dans l’environnement considéré (environnement marin par exemple). [0057] In an exemplary embodiment, step 201 can be performed by a scenario generator in the environment considered (marine environment for example).

[0058] A l’étape 203, une probabilité de détection peut être calculée itérativement, par exemple à intervalles de temps prédéfinis ou selon une période fixe ou en continu, pour la pluralité de capteurs du système de détection multi-capteur à partir de certains ou moins de l’ensemble de paramètres déterminés à l’étape 201. Une probabilité de détection, dénotée p(D), désigne la probabilité qu’un écho cible réel soit détecté lorsqu’un écho cible réel existe. Dans un système de détection de type sonar passif, la probabilité de détection représente la probabilité de détecter un objet cible réel qui émet un niveau de bruit donné à différentes fréquences. Dans un système de détection de type sonar actif, la probabilité de détection représente la probabilité d’obtenir un écho viable grâce à une émission d’ondes acoustiques par le sonar actif. La probabilité qu’un écho cible réel ne soit pas détecté alors que l’écho cible existe est 1 -p(D). La probabilité de fausse alarme, dénotée p(FA), désigne la probabilité qu’un faux écho (ou écho parasite) soit détecté, c’est-à-dire la probabilité qu’il y ait une fausse détection d’un écho qui soit réellement du bruit. In step 203, a detection probability can be calculated iteratively, for example at predefined time intervals or according to a fixed period or continuously, for the plurality of sensors of the multi-sensor detection system from certain or less of the set of parameters determined in step 201. A detection probability, denoted p (D), denotes the probability that an actual target echo will be detected when an actual target echo exists. In a passive sonar type detection system, the detection probability represents the probability of detecting an actual target object which emits a given noise level at different frequencies. In an active sonar-type detection system, the detection probability represents the probability of obtaining a viable echo through emission of acoustic waves by the active sonar. The probability that an actual target echo will not be detected while the target echo exists is 1 -p (D). The probability of false alarm, denoted p (FA), designates the probability that a false echo (or spurious echo) is detected, i.e. the probability that there is a false detection of an echo which or really noise.

[0059] La probabilité de détection calculée pour la pluralité de capteurs peut être déterminée en combinant les probabilités de détection élémentaires des différents capteurs. The probability of detection calculated for the plurality of sensors can be determined by combining the elementary probabilities of detection of the different sensors.

[0060] Les probabilités de détection peuvent évoluer à chaque instant compte tenu du profil de l’environnement au voisinage de la structure porteuse (fond sous la plateforme considérée par exemple), des mouvements de la structure porteuse et des conditions d’environnement. Dans un mode de réalisation, les probabilités de détection peuvent être mises à jour périodiquement selon une période choisie inférieure à une minute, par exemple toutes les 30 secondes (ou plus rapidement selon la puissance de calcul disponible), en tenant compte des vitesses des structures porteuses (la vitesse est faible par exemple pour des plateformes navales) et du fait que les probabilités de détection varient en fonction de certaines grandeurs relatives à l’environnement (par exemple, elles diminuent lorsque le bruit d’écoulement de l’eau sur des capteurs de type Sonar augmente). [0061 ] L’étape 203 peut comprendre une étape de sauvegarde des données représentant les probabilités de détection calculées pour la pluralité de capteurs dans un fichier. Dans un mode de réalisation, les données de probabilité de détection peuvent être représentées par une matrice de données de probabilité. La position du centre de cette matrice (centre du référentiel de la matrice) peut alors être située au niveau de la position de la structure porteuse du système de détection. The detection probabilities can change at any time taking into account the profile of the environment in the vicinity of the supporting structure (bottom under the platform considered, for example), the movements of the supporting structure and the environmental conditions. In one embodiment, the detection probabilities can be updated periodically over a chosen period of less than one minute, for example every 30 seconds (or more quickly depending on the available computing power), taking into account the speeds of the structures. carriers (the speed is low, for example for naval platforms) and the fact that the detection probabilities vary according to certain quantities relating to the environment (for example, they decrease when the noise of water flowing over Sonar type sensors increases). Step 203 may include a step of saving data representing the probabilities of detection calculated for the plurality of sensors in a file. In one embodiment, the detection probability data may be represented by a probability data matrix. The position of the center of this matrix (center of the reference frame of the matrix) can then be located at the position of the supporting structure of the detection system.

[0062] A l’étape 205, une représentation en trois dimensions de la couverture spatiale du système de détection peut être déterminée pour la pluralité de capteurs. La représentation en trois dimensions de la couverture spatiale selon les modes de réalisation de l’invention permet de représenter les probabilités de détection pour l’ensemble de capteurs du système de détection multi-capteur et sur la totalité de la zone géographique en tenant compte des paramètres représentant la zone géographique. Par exemple, dans une application de l’invention à un système de détection de type sonar, la représentation de la couverture spatiale en trois dimensions peut prendre en compte le relief du fond de mer, les structures porteuses évoluant dans la zone géographique en environnement marin, et des zones tactiques déterminées à l’étape 201 . Le relief de l’environnement considéré, comme par exemple le relief d’un fond de mer, peut être importé de cartes telles que des cartes marines servant par exemple à la navigation de type S57. Le relief peut subir un traitement de lissage et d’éclairage avec un traitement des ombres pour pouvoir optimiser la représentation de la zone complète. Les structures porteuses peuvent être associées à un modèle 3D assez fidèle compte tenu de l’échelle des objets. La position des structures porteuses peut être mise à jour périodiquement, comme par exemple toutes les 200ms, la période étant choisie ou déterminée pour être adaptée à des mouvements fluides des structures porteuses tenant compte de leurs vitesses. [0062] In step 205, a three-dimensional representation of the spatial coverage of the detection system can be determined for the plurality of sensors. The three-dimensional representation of the spatial coverage according to the embodiments of the invention makes it possible to represent the detection probabilities for the set of sensors of the multi-sensor detection system and over the entire geographical area, taking into account the parameters representing the geographic area. For example, in an application of the invention to a sonar type detection system, the representation of the spatial coverage in three dimensions can take into account the relief of the seabed, the supporting structures evolving in the geographical area in a marine environment. , and tactical zones determined in step 201. The relief of the environment under consideration, such as for example the relief of a seabed, can be imported from maps such as nautical charts used for example for S57 type navigation. The relief can undergo a smoothing and lighting treatment with a shadow treatment to be able to optimize the representation of the entire area. The load-bearing structures can be associated with a fairly faithful 3D model given the scale of the objects. The position of the supporting structures can be updated periodically, such as for example every 200 ms, the period being chosen or determined to be adapted to the fluid movements of the supporting structures taking account of their speeds.

[0063] Selon certains modes de réalisation, l’étape 205 peut comprendre un affichage de la représentation en trois dimensions de la couverture spatiale du système de détection sur un dispositif de rendu tel qu’un écran, un dispositif de rendu en réalité augmentée ou encore un dispositif de rendu en réalité virtuelle. L’affichage en mode réalité augmentée permet avantageusement d’améliorer la perception de la représentation en trois dimensions grâce à des hologrammes, le partage d’une même situation tactique entre plusieurs opérateurs équipés de dispositifs de rendu leur permettant de visualiser les hologrammes avec des points de vue différents, et de reporter l’hologramme sur une table tactique sans nécessiter d’ajout d’écrans supplémentaires dans l’environnement opérationnel déjà encombré. La vision de l’hologramme peut être synchronisée avec les données de la table tactique. [0064] A l’étape 207, la représentation en trois dimensions de la couverture spatiale peut être analysée pour déterminer des zones d’ombre 3D de la zone géographique, les zones d’ombre étant des zones dans lesquelles la probabilité de détection est inférieure à au moins un seuil donné. According to some embodiments, step 205 may include a display of the three-dimensional representation of the spatial coverage of the detection system on a rendering device such as a screen, an augmented reality rendering device or yet another virtual reality rendering device. The display in augmented reality mode advantageously makes it possible to improve the perception of the three-dimensional representation thanks to holograms, the sharing of the same tactical situation between several operators equipped with rendering devices allowing them to visualize the holograms with dots different views, and to transfer the hologram to a tactical table without requiring the addition of additional screens in the already crowded operational environment. The vision of the hologram can be synchronized with the data of the tactical table. In step 207, the three-dimensional representation of the spatial coverage can be analyzed to determine 3D shadow zones of the geographic zone, the shadow zones being zones in which the probability of detection is lower. at at least a given threshold.

[0065] A l’étape 209, les zones d’ombres peuvent être situées dans au moins une zone de sécurité prédéfinie du système. Les zones de sécurité peuvent être sélectionnées par rapport à des critères stratégiques. [0065] In step 209, the shadow areas can be located in at least one predefined security area of the system. Safety zones can be selected based on strategic criteria.

[0066] La zone de sécurité par rapport à une structure à protéger par le système de détection multi-capteur peut être sensiblement une sphère centrée sur l’infrastructure à protéger, le rayon de la sphère étant par exemple de l’ordre de 30km. The safety zone with respect to a structure to be protected by the multi-sensor detection system can be substantially a sphere centered on the infrastructure to be protected, the radius of the sphere being for example of the order of 30 km.

[0067] Une zone d’ombre 3D peut être par exemple une cuvette de non détection. A 3D shadow zone can be, for example, a non-detection cuvette.

[0068] Selon certains modes de réalisation, l’étape 209 peut comprendre la détermination d’une intersection des zones d’ombres sélectionnées formant un chenal d’accès à des zones de sécurité, un chenal désignant la somme des zones d’ombre menant à la zone de sécurité. Une zone à risque est une zone d’ombre à l’intérieur de la zone de sécurité. [0068] According to some embodiments, step 209 may include determining an intersection of the selected shadow zones forming an access channel to safety zones, a channel designating the sum of the shadow zones leading to the security zone. A risk zone is a gray area within the safety zone.

[0069] Selon certains modes de réalisation, la représentation en trois dimensions de la couverture spatiale du sonar multi-capteur à l’étape 205 peut se baser sur la détermination d’un rendu 3D des probabilités de détection calculées pour l’ensemble de capteurs à l’étape 203. Dans un mode de réalisation, l’étape de détermination du rendu 3D (en trois dimensions) de la probabilité de détection peut en outre prendre en compte les données de visualisation (données de position et d’orientation). According to some embodiments, the three-dimensional representation of the spatial coverage of the multi-sensor sonar in step 205 can be based on the determination of a 3D rendering of the detection probabilities calculated for the set of sensors. in step 203. In one embodiment, the step of determining the 3D rendering (in three dimensions) of the probability of detection can also take into account the visualization data (position and orientation data).

[0070] La détermination du rendu 3D des probabilités de détection peut être effectuée à partir de techniques de synthèse d’images 3D pour convertir les données brutes des probabilités de détection en une image 3D pour générer un affichage de l’image 3D sur le dispositif de rendu choisi (un dispositif 3D sur écran, dispositif de réalité augmentée ou dispositif de réalité virtuelle). [0070] The determination of the 3D rendering of the probabilities of detection can be carried out using 3D image synthesis techniques to convert the raw data of the probabilities of detection into a 3D image to generate a display of the 3D image on the device. chosen rendering (a 3D device on screen, augmented reality device or virtual reality device).

[0071] La représentation en 3D de la couverture spatiale peut être avantageusement superposée avec une représentation de la zone géographique sur le dispositif de rendu, ce qui permet un affichage en 3D de la couverture spatiale du système de détection dans la zone géographique considérée. The 3D representation of the spatial coverage can be advantageously superimposed with a representation of the geographic area on the rendering device, which allows a 3D display of the spatial coverage of the detection system in the geographic area considered.

[0072] La création d’une image de synthèse peut se décomposer en trois étapes principales : la modélisation géométrique des objets de la scène à représenter, la création de la scène, et le rendu. [0073] La modélisation géométrique permet de définir les propriétés géométriques des objets soit par une représentation mathématique à partir des définitions ou des systèmes mathématiques qui les décrivent, soit par une représentation par arbre de construction en représentant les objets complexes comme une composition d’objets simples appelés primitives, soit par une représentation qui représente un objet en matérialisant la limite entre l’intérieur de l’objet et l’extérieur de l’objet par une série d’éléments géométriques reliés entre eux (généralement des triangles). The creation of a synthetic image can be broken down into three main stages: the geometric modeling of the objects of the scene to be represented, the creation of the scene, and the rendering. Geometric modeling makes it possible to define the geometric properties of objects either by a mathematical representation from the definitions or from the mathematical systems which describe them, or by a representation by construction tree by representing the complex objects as a composition of objects simple called primitives, or by a representation which represents an object by materializing the limit between the interior of the object and the exterior of the object by a series of geometric elements linked together (generally triangles).

[0074] L’étape de création de la scène permet de définir l’apparence des objets et de déterminer les paramètres non géométriques de la scène à afficher. L’apparence des objets est définie en déterminant des propriétés surfaciques ou volumiques des objets dont les propriétés optiques, la couleur et la texture. Les paramètres non géométriques de la scène comprennent la position et le type des sources de lumière, la position et l’orientation de la visualisation de la scène formant le point de vue choisi. The scene creation step makes it possible to define the appearance of the objects and to determine the non-geometric parameters of the scene to be displayed. The appearance of objects is defined by determining surface or volume properties of objects including optical properties, color and texture. Non-geometric scene parameters include the position and type of light sources, the position and orientation of the scene visualization forming the chosen vantage point.

[0075] L’attribution d’une couleur à un objet selon les modes de réalisation de l’invention se base sur l’utilisation d’un espace colorimétrique prenant en compte l’opacité. Par exemple, la conversion de données peut être réalisée par l’utilisation du format de codage des couleurs RGBA qui est une extension du format RGB, prenant en compte la notion de transparence. Dans un tel exemple, chaque pixel affiché sur l’image représente un vecteur de quatre composantes, comprenant une première valeur R représentant une valeur de couleur rouge (Red), une seconde valeur G représentant une valeur de couleur verte (Green), une troisième valeur B représentant une valeur de couleur bleue (Blue), et une quatrième valeur A représentant une composante de transparence (ou composante alpha). En utilisant la représentation géométrique dans l’espace Euclidien, chaque pixel est associé à trois dimensions géométriques (x,y,z) dans un référentiel XYZ comprenant une largeur x (ou abscisse du référentiel), une profondeur y (ou ordonnée du référentiel) et une hauteur z (ou côte du référentiel). Le référentiel XYZ est défini par la zone de calcul et peut être centré au niveau du centre de la zone de calcul. [0075] The assignment of a color to an object according to the embodiments of the invention is based on the use of a color space taking into account the opacity. For example, data conversion can be achieved by using the RGBA color coding format which is an extension of the RGB format, taking into account the notion of transparency. In such an example, each pixel displayed on the image represents a vector of four components, comprising a first R value representing a red color value (Red), a second G value representing a green color value (Green), a third B value representing a blue color value (Blue), and a fourth A value representing a transparency component (or alpha component). Using the geometric representation in Euclidean space, each pixel is associated with three geometric dimensions (x, y, z) in an XYZ frame of reference comprising a width x (or abscissa of the frame of reference), a depth y (or ordinate of the frame of reference) and a height z (or side of the frame of reference). The XYZ frame of reference is defined by the calculation area and can be centered at the center of the calculation area.

[0076] Telle qu’utilisée ici, une texture 3D fait référence à une structure de données permettant la représentation d’une image de synthèse. [0076] As used here, a 3D texture refers to a data structure allowing the representation of a synthetic image.

[0077] Un procédé de rendu fait référence à un procédé informatique consistant à convertir le modèle des objets en une image affichable sur le dispositif de rendu choisi. A rendering method refers to a computer method consisting in converting the model of the objects into an image displayable on the chosen rendering device.

[0078] La détermination de la couverture spatiale du système de détection en trois dimensions à partir des probabilités de détection peut utiliser la transformation (ou conversion) des données brutes des probabilités de détection en une structure exploitable par les fonctions de calcul de rendu. The determination of the spatial coverage of the three-dimensional detection system from the detection probabilities can use the transformation (or conversion) of the raw data of the probabilities of detection into a structure usable by the rendering calculation functions.

[0079] La figure 3, un organigramme représentant l’étape 205 de détermination d’une représentation de la couverture spatiale d‘un système de détection multi-capteur en trois dimensions évoluant dans une zone géographique selon certains modes de réalisation. [0079] FIG. 3, a flowchart representing the step 205 of determining a representation of the spatial coverage of a three-dimensional multi-sensor detection system operating in a geographical area according to certain embodiments.

[0080] Les étapes de la figure 3 sont réalisées pour chaque capteur du système de détection. The steps of Figure 3 are performed for each sensor of the detection system.

[0081] A l’étape 301 , des données de l’ensemble des données comprenant une probabilité du capteur dans la zone géographique sont reçues, la probabilité de détection étant déterminée dans une zone de calcul associée au capteur considéré et incluse dans ladite zone géographique. Les données de l’ensemble de données comprennent en outre la dimension de la zone de calcul associée au capteur considéré, et des données de position de la zone de calcul. En particulier, les données de l’ensemble de données peuvent être lues ou extraites. A l’étape 301 , des données de visualisation (position et orientation) peuvent être également reçues. In step 301, data from the set of data comprising a probability of the sensor in the geographical area are received, the detection probability being determined in a calculation area associated with the considered sensor and included in said geographical area . The data of the dataset further includes the dimension of the calculation area associated with the considered sensor, and position data of the calculation area. In particular, the data in the dataset can be read or extracted. In step 301, visualization data (position and orientation) can also be received.

[0082] Un rendu 3D de la probabilité de détection du capteur est alors déterminé à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension. A 3D rendering of the detection probability of the sensor is then determined from at least some of the probability data, the position data of the calculation zone and the dimension data.

[0083] Dans un mode de réalisation, pour générer le rendu 3D, le procédé peut comprendre une étape 303 dans laquelle une structure de données principale ayant au moins trois dimensions (particulier 3D ou 4D), encore appelée classiquement Texture 3D’ est déterminée à partir des données de probabilité de détection. La structure de données peut être par exemple une matrice. In one embodiment, to generate the 3D rendering, the method can comprise a step 303 in which a main data structure having at least three dimensions (in particular 3D or 4D), also conventionally called 3D Texture 'is determined at from the probability of detection data. The data structure can be for example a matrix.

[0084] Dans un mode de réalisation, l’ensemble de données d’entrée peut comprendre en outre la résolution d’entrée, la résolution d’entrée correspondant à la distance entre deux points de la zone de calcul. L’étape 303 de détermination de la structure de données peut alors comprendre les étapes consistant à : [0084] In one embodiment, the input data set may further include the input resolution, the input resolution corresponding to the distance between two points in the computation area. Step 303 of determining the data structure can then include the steps of:

- générer une structure de données auxiliaire à partir des données des probabilités de détection, la structure de données auxiliaire ayant des dimensions définies à partir de la probabilité, et de la résolution d’entrée, et - generate an auxiliary data structure from the detection probability data, the auxiliary data structure having dimensions defined from the probability, and the input resolution, and

- déterminer la texture 3D en utilisant une conversion des données de la structure auxiliaire en données colorimétriques. [0085] A l’étape 305, un rendu de profondeur du volume englobant de zone de calcul peut être déterminé à partir des données de position et de dimension de la zone de calcul, et des données de position et d’orientation de visualisation. - determine the 3D texture using a conversion of the data from the auxiliary structure into colorimetric data. In step 305, a depth rendering of the volume encompassing the calculation area can be determined from the position and dimension data of the calculation area, and the display position and orientation data.

[0086] En particulier, l’étape 305 de détermination du rendu de profondeur peut comprendre la détermination d’une première image de profondeur d’un cube englobant la structure de données et d’une seconde image de profondeur de la face arrière du cube. La profondeur du cube englobant la structure de données principale (Texture 3D) représentant la distance de la surface du cube par rapport à la position et à l’orientation de visualisation (profondeur Z ou ‘Z-depth’ en langue anglo-saxonne), le rendu de profondeur comprenant la première image de profondeur et la seconde image de profondeur. Une image de profondeur comprend un ensemble de surfaces associées à des informations de position. Dans un mode de réalisation, la seconde image de profondeur peut être déterminée en tant que l’image de profondeur du cube dont les normales ont été inversées, correspondant à l’image de profondeur de la face arrière du cube au point de vue. In particular, the step 305 of determining the depth rendering can comprise the determination of a first depth image of a cube including the data structure and of a second depth image of the rear face of the cube. . The depth of the cube including the main data structure (3D Texture) representing the distance of the surface of the cube from the position and orientation of visualization (Z depth or 'Z-depth' in English), the depth rendering comprising the first depth image and the second depth image. A depth image includes a set of surfaces associated with positional information. In one embodiment, the second depth image can be determined as the depth image of the cube whose normals have been inverted, corresponding to the depth image of the rear face of the cube at the point of view.

[0087] Dans un mode de réalisation, le rendu 3D peut être un rendu volumique. Dans un tel mode de réalisation, à l’étape 307, il est déterminé un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de la structure de données principale (Texture 3D) et du rendu de profondeur. In one embodiment, the 3D rendering can be a volume rendering. In such an embodiment, at step 307, a volume rendering of the probability of detection following at least one function in a given color space is determined from the main data structure (3D texture) and the rendering of depth.

[0088] Dans un mode de réalisation, les fonctions utilisées pour déterminer le rendu volumique peuvent comprendre au moins une fonction de transfert définie à partir d’une borne de probabilité minimale, d’une borne de probabilité maximale, d’une borne de colorimétrie minimale, et d’une borne de colorimétrie maximale. In one embodiment, the functions used to determine the volume rendering can include at least one transfer function defined from a minimum probability bound, a maximum probability bound, a colorimetry bound. minimum, and a maximum colorimetry bound.

[0089] Chaque information d’une image de profondeur associée à des dimensions géométriques x, y, z peut être définie dans un espace colorimétrique, par exemple dans le format de codage RGBA. Each information of a depth image associated with x, y, z geometric dimensions can be defined in a color space, for example in the RGBA coding format.

[0090] Dans un mode de réalisation, l’étape 307 de détermination d’un rendu volumique peut comprendre : [0090] In one embodiment, step 307 of determining a volume rendering can comprise:

- une étape 3071 de détermination d’un rendu volumique en niveaux de gris des probabilités de détection à partir de la texture 3D et du rendu de profondeur et - a step 3071 of determining a volume rendering in gray levels of the probabilities of detection from the 3D texture and the depth rendering, and

- une étape 3073 de détermination d’un rendu volumique en couleurs des probabilités de détection à partir du rendu volumique en niveaux de gris. [0091 ] Dans un mode de réalisation, le rendu volumique en niveaux de gris peut être déterminé à partir de la texture 3D, de la première image de profondeur, et la seconde image de profondeur en appliquant un algorithme (ou technique) de calcul de rendu volumique de type lancer de rayons par accumulation (‘Ray Marching’ en langue anglo- saxonne). a step 3073 for determining a volume rendering in colors of the detection probabilities from the volume rendering in gray levels. In one embodiment, the volume rendering in gray levels can be determined from the 3D texture, from the first depth image, and the second depth image by applying an algorithm (or technique) for calculating volume rendering of the accumulation ray tracing type ('Ray Marching' in English).

[0092] Un algorithme de type Ray Marching est illustré sur la figure 4 dans un mode de réalisation utilisant le codage RGBA. Un algorithme de type Ray Marching se base sur l’optique géométrique pour simuler le trajet de l’énergie lumineuse dans l’image à afficher. Un plan de projection 403, placé devant un point de vue 401 , représente l’image visualisée (c’est-à-dire le rendu volumique en niveaux de gris). Chaque point du plan de projection 403 correspond à un pixel du rendu volumique en en niveaux de gris. La mise en oeuvre de l’étape 307 en appliquant un algorithme de type Ray Marching selon les modes de réalisation de l’invention peut comprendre la génération d’un rayon 407 (défini par un point d’origine et une direction) pour chaque pixel de l’image désirée du rendu volumique en niveaux de gris. Le rayon peut être échantillonné à pas réguliers à l’intérieur du volume 405 et les valeurs dans l’espace colorimétrique (couleurs RGBA par exemple) des différents pixels ainsi calculées peuvent être sommées au prorata de leur contribution de transparence Alpha. L’algorithme traverse, dans la direction du plan de projection 403, les volumes orientés des résultats représentant les probabilités de détection, tout en collectant pas-à-pas les valeurs de probabilité. La valeur d’un pixel affiché constitue le résultat d’une fonction (par exemple fonction de transfert) des valeurs collectées. A Ray Marching type algorithm is illustrated in FIG. 4 in an embodiment using RGBA coding. A Ray Marching-type algorithm is based on geometric optics to simulate the path of light energy in the image to be displayed. A projection plane 403, placed in front of a viewpoint 401, represents the visualized image (that is, the volume rendering in grayscale). Each point of the projection plane 403 corresponds to a pixel of the volume rendering in gray levels. The implementation of step 307 by applying an algorithm of the Ray Marching type according to the embodiments of the invention can comprise the generation of a ray 407 (defined by a point of origin and a direction) for each pixel the desired image of the volume rendering in grayscale. The radius can be sampled in regular steps within volume 405 and the values in the color space (RGBA colors for example) of the various pixels thus calculated can be summed in proportion to their contribution of Alpha transparency. The algorithm traverses, in the direction of the projection plane 403, the oriented volumes of the results representing the detection probabilities, while collecting the probability values step by step. The value of a displayed pixel is the result of a function (eg transfer function) of the values collected.

[0093] Pour chaque point du plan de projection, chaque point correspondant à un pixel du rendu volumique, l’algorithme de type Ray Marching peut être appliqué pour calculer une valeur de probabilité cumulée par un rayon 407 partant de l’avant du cube englobant la texture 3D jusqu’à l’arrière du cube. For each point of the projection plane, each point corresponding to a pixel of the volume rendering, the Ray Marching type algorithm can be applied to calculate a probability value accumulated by a radius 407 starting from the front of the enclosing cube 3D texture to the back of the cube.

[0094] Dans un mode de réalisation, l’application d’un algorithme de type Ray Marching à l’étape 307 peut comprendre les opérations consistant à, pour chaque pixel du rendu volumique et pour chaque mise à jour des probabilités de détection : In one embodiment, the application of a Ray Marching type algorithm in step 307 can include the operations consisting in, for each pixel of the volume rendering and for each update of the detection probabilities:

- déterminer les positions 3D de départ et d’arrivée du rayon 407 à partir des valeurs lues de couleurs des textures de la première image de profondeur et de la seconde image de profondeur pour le pixel sélectionné ; - determining the start and arrival 3D positions of ray 407 from the read values of the textures of the first depth image and of the second depth image for the selected pixel;

- calculer un vecteur de déplacement pas-à-pas pendant un nombre d’itérations donné ou prédéterminé, à partir du vecteur de déplacement de direction du rayon 407, de la distance du pas des itérations déterminée en divisant la distance totale par le nombre d’itérations, et en multipliant le vecteur de déplacement de direction par la distance du pas. - calculate a step-by-step displacement vector during a given or predetermined number of iterations, from the direction displacement vector of the radius 407, of the distance of the iterations step determined by dividing the total distance by the number iterations, and multiplying the direction displacement vector by the step distance.

[0095] Pour chaque itération, la détermination d’une couleur représentant une valeur de probabilité pour un pixel sélectionné peut comprendre les opérations consistant à : For each iteration, the determination of a color representing a probability value for a selected pixel can comprise the operations consisting in:

- mettre à jour la position du parcours du rayon 407 en ajoutant le vecteur de déplacement ; - update the position of the path of radius 407 by adding the displacement vector;

- associer une valeur de niveau de gris à la couleur de probabilité correspondant à la position mise à jour dans la texture 3D, une telle couleur représentant un niveau de gris associé à la probabilité correspondante : par exemple, une valeur‘noire’ peut être associée à une probabilité proche de zéro (Ό’) et une valeur‘blanc’ peut être associée à une probabilité proche de un (‘1’) ; - associate a gray level value with the probability color corresponding to the updated position in the 3D texture, such a color representing a gray level associated with the corresponding probability: for example, a 'black' value can be associated with a probability close to zero (Ό ') and a' white 'value can be associated with a probability close to one (' 1 ');

- déterminer la composante de transparence Alpha de la valeur de la couleur ; - determine the alpha transparency component of the color value;

- appliquer une fonction dans l’espace colorimétrique (par exemple de transfert) ; - apply a function in the color space (eg transfer);

- ajouter la couleur déterminée à la couleur du pixel résultant de l’algorithme. - add the determined color to the color of the pixel resulting from the algorithm.

[0096] Dans un mode de réalisation, la fonction de transfert peut être une fonction logicielle configurée pour exécuter une interpolation linéaire ou non-linéaire, entre une borne de couleurs minimale et une borne de couleurs maximale, l’espace colorimétrique dans lequel est déterminé le rendu volumique représentant une probabilité de détection comprise entre une borne de probabilité minimale et une borne de probabilité maximale. In one embodiment, the transfer function can be a software function configured to perform linear or non-linear interpolation, between a minimum color boundary and a maximum color boundary, the color space in which is determined the volume rendering representing a detection probability lying between a minimum probability limit and a maximum probability limit.

[0097] Par exemple, à l’étape 3073, un rendu volumique en couleurs des probabilités de détection est déterminé à partir du rendu volumique en niveaux de gris des probabilités de détection déterminé à la sous-étape 3071 , le rendu volumique en couleurs peut être déterminé en appliquant une fonction de transfert de couleurs au rendu volumique en niveaux de gris, la fonction de transfert de couleurs utilisant la borne de probabilité minimale, la borne de probabilité maximale, la borne de couleurs minimale, et la borne de couleurs maximale. La fonction de transfert de couleurs peut alors par exemple exécuter une interpolation linéaire, entre la borne de couleurs minimale et la borne de couleurs maximale, les couleurs du rendu volumique représentant une probabilité de détection comprise entre la borne de probabilité minimale et la borne de probabilité maximale. For example, at step 3073, a color volume rendering of the detection probabilities is determined from the gray level volume rendering of the detection probabilities determined in sub-step 3071, the color volume rendering can be determined by applying a color transfer function to the grayscale volume rendering, the color transfer function using the minimum probability bound, the maximum probability bound, the minimum color bound, and the maximum color bound. The color transfer function can then for example perform a linear interpolation, between the minimum color bound and the maximum color bound, the colors of the volume rendering representing a detection probability between the minimum probability bound and the probability bound maximum.

[0098] Dans un autre mode de réalisation, le rendu 3D peut être surfacique. Le procédé comprend alors, en alternative des étapes 303, 305 et 307 une étape 31 1 consistant à déterminer un rendu surfacique à partir des probabilités de détection, des données de position de la zone de calcul, des données de dimensions, d’au moins une valeur de seuil des probabilités de détection, et de la position et de l’orientation de visualisation. In another embodiment, the 3D rendering can be surface. The method then comprises, as an alternative to steps 303, 305 and 307, a step 31 1 consisting in determining a surface rendering from the probabilities of detection, of the data of position of the computation area, dimension data, at least one detection probability threshold value, and viewing position and orientation.

[0099] En particulier, l’étape 31 1 de détermination du rendu surfacique peut comprendre la génération d’objets polygonaux à partir de la matrice de données en trois dimensions pour approximer au moins une iso-surface conduit à partir d’au moins un seuil de probabilité de détection donné (‘Marching cube’ en langue anglo-saxonne). In particular, step 31 1 of determining the surface rendering can comprise the generation of polygonal objects from the three-dimensional data matrix to approximate at least one iso-surface conducted from at least one given detection probability threshold ('Marching cube' in English).

[0100] Les fonctions de calcul des probabilités de détection et de la détermination de la texture peuvent être des fonctions logicielles exécutées par une unité de traitement ou processeur. Les fonctions mises en oeuvre dans le processus du rendu peuvent être des programmes logiciels appelés ‘nuanceurs’ ou ‘shaders’ en langue anglo-saxonne, exécutées par une unité de traitement graphique. The functions of calculating the probabilities of detection and of determining the texture can be software functions executed by a processing unit or processor. The functions implemented in the rendering process can be software programs called "shaders" or "shaders" in English, executed by a graphics processing unit.

[0101 ] Le procédé selon les différents modes de réalisation de l’invention peut être implémenté dans un système de détection en mode‘préparation de mission’ ou en mode‘en ligne’. Le mode‘préparation de mission’ permet d’optimiser le déplacement du système de détection en simulant un scénario basé sur une mission future. Le mode‘en ligne’ consiste à implémenter le procédé en couplant le système de détection aux liaisons tactiques. Dans ce mode‘en ligne’, les positions, les vitesses, et les caps réels des différentes structures porteuses ainsi que l’utilisation de leurs différents capteurs peuvent être utilisés pour mettre à jour les paramètres définissant l’environnement et permettant de générer une représentation en temps réel. Les données recueillies à bord du système de détection‘en ligne’ peuvent être converties en informations utilisables pour les mises à jour des probabilités de détection. [0101] The method according to the various embodiments of the invention can be implemented in a detection system in "mission preparation" mode or in "online" mode. The "mission preparation" mode optimizes the movement of the detection system by simulating a scenario based on a future mission. The "online" mode consists in implementing the process by coupling the detection system to the tactical links. In this 'online' mode, the actual positions, speeds, and headings of the various supporting structures as well as the use of their various sensors can be used to update the parameters defining the environment and making it possible to generate a representation. in real time. Data collected on-board the 'online' detection system can be converted into information that can be used for detection probability updates.

[0102] La figure 5 représente un exemple de couverture spatiale d’un système de détection de type sonar utilisé dans un dispositif de lutte-anti-sous-marins obtenue en utilisant une technique d’affichage de probabilités de détection de l’art antérieur. Cette représentation est générée à partir d’une matrice de probabilités de détection du système de détection en fonction de la distance par rapport à l’antenne du système de détection et de la profondeur entre la surface et le fond marin, en utilisant avec un codage couleurs permettant d’évaluer la capacité du sonar à détecter une menace. Dans l’exemple de la figure 5, la zone 1 qui correspond à une zone associée à 100% de probabilité de détecter une menace (une plateforme ennemie par exemple) et la zone 2 correspond à une zone associée à 0% de probabilité de détecter une menace. Les formes ainsi obtenues sont complexes et non-uniformes. [0102] FIG. 5 represents an example of spatial coverage of a detection system of sonar type used in an anti-submarine warfare device obtained by using a detection probability display technique of the prior art. . This representation is generated from a matrix of detection system detection probabilities as a function of distance from the detection system antenna and depth between the surface and the seabed, using with coding colors used to assess the sonar's ability to detect a threat. In the example of figure 5, zone 1 which corresponds to a zone associated with 100% probability of detecting a threat (an enemy platform for example) and zone 2 corresponds to a zone associated with 0% probability of detecting a threat. The shapes thus obtained are complex and non-uniform.

[0103] La figure 6 est une représentation schématique des zones de détection théorique cible dans un dispositif de lutte-anti-sous-marine utilisant des cercles pour identifier la protection prévue d’une flotte navale contre une menace éventuelle et la figure 7 est une représentation schématique des zones de détection réaliste obtenues en utilisant des méthodes d’affichage de la couverture spatiale de l’état de l’art. Les deux figures montrent que la zone globale de détection réelle est éloignée de la zone globale de détection théorique souhaitée, ce qui ne permet pas d’assurer une surveillance préventive efficace afin de protéger de la flotte navale et peut représenter un danger en présence de menaces éventuelles. [0103] FIG. 6 is a schematic representation of the theoretical target detection zones in an anti-submarine warfare device using circles to identify the target. intended protection of a naval fleet against a possible threat and Figure 7 is a schematic representation of realistic detection areas obtained using state of the art spatial coverage display methods. The two figures show that the actual global detection zone is far from the desired theoretical global detection zone, which does not allow effective preventive surveillance to be ensured in order to protect the naval fleet and may represent a danger in the presence of threats. possible.

[0104] La figure 7 représente un exemple d’affichage sur écran d’une couverture spatiale d’un système de détection de type sonar multi-capteur obtenue selon un mode de réalisation avec rendu volumique des probabilités de détection du système de détection. Comme illustré par la figure 7, la représentation en trois dimensions de la couverture spatiale selon l’invention permet d’afficher une vue globale de la zone complète en trois dimensions, de couvrir une zone très importante à l’échelle de la flotte navale, et de mettre en évidence les zones dangereuses non insonifiées et les cuvettes de non détection. [0104] FIG. 7 represents an example of a display on a screen of a spatial coverage of a detection system of the multi-sensor sonar type obtained according to an embodiment with volume rendering of the detection probabilities of the detection system. As illustrated by FIG. 7, the three-dimensional representation of the spatial coverage according to the invention makes it possible to display a global view of the complete zone in three dimensions, to cover a very large zone on the scale of the naval fleet, and to highlight non-insonified dangerous areas and non-detection cuvettes.

[0105] La figure 8 représente un exemple d’affichage en mode réalité augmentée d’une couverture spatiale multi-capteur obtenue selon les modes de rendu volumique des probabilités de détection du sonar selon les modes de réalisation de l’invention. [0105] FIG. 8 represents an example of display in augmented reality mode of a multi-sensor spatial coverage obtained according to the volume rendering modes of the probabilities of detection of the sonar according to the embodiments of the invention.

[0106] L’invention fournit aussi un dispositif pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, caractérisé en ce que le dispositif est configuré pour : [0106] The invention also provides a device for determining a spatial coverage of a multi-sensor detection system comprising a plurality of sensors, said plurality of sensors being carried by supporting structures moving in a given geographical area, some at least. bearing structures being mobile, characterized in that the device is configured for:

- déterminer un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ; - determining a set of parameters representing said geographical area and comprising environmental data, data relating to said supporting structures and data relating to said sensors;

- calculer itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ; iteratively calculating the probabilities of detection of said plurality of sensors in the geographical area from at least some of said parameters;

- déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ; - determining a three-dimensional representation of the spatial coverage of the detection system for the plurality of sensors;

- déterminer des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ; - determining 3D shadow zones of said geographical zone in which said probability of detection is less than at least a given threshold;

- sélectionner les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système. [0107] L’invention fournit en outre un produit programme d’ordinateur pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, caractérisé en ce que le produit programme d’ordinateur comprenant des instructions de code de programme informatique qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs amènent le ou les processeurs à: - select the shadow zones located in at least one predefined security zone of the system. [0107] The invention further provides a computer program product for determining a spatial coverage of a multi-sensor detection system comprising a plurality of sensors, said plurality of sensors being carried by supporting structures moving in a geographical area. data, at least some of the supporting structures being mobile, characterized in that the computer program product comprising computer program code instructions which, when executed by one or more processors cause the processor (s) to:

- déterminer un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ; - determining a set of parameters representing said geographical area and comprising environmental data, data relating to said supporting structures and data relating to said sensors;

- calculer itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ; iteratively calculating the probabilities of detection of said plurality of sensors in the geographical area from at least some of said parameters;

- déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ; - determining a three-dimensional representation of the spatial coverage of the detection system for the plurality of sensors;

- déterminer des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ; - determining 3D shadow zones of said geographical zone in which said probability of detection is less than at least a given threshold;

sélectionner les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système. select the shadow areas located in at least one predefined security zone of the system.

[0108] La figure 10 représente le dispositif 4000 de détermination d’une représentation en trois dimensions de la couverture spatiale d’un système de détection (par exemple de type sonar) évoluant dans une zone géographique (scène marine par exemple) à partir de l’ensemble de données comprenant les probabilités de détection du système de détection. L’ensemble de données peut être sauvegardé par exemple dans une mémoire 430 ou dans un dispositif de mémoire de masse 420. Le dispositif 4000 peut être tout type de dispositif ou système informatique désigné sous le nom d’ordinateur. Le dispositif 4000 peut comprendre au moins une unité de traitement 4010 configurée pour déterminer un rendu 3D des probabilités de détection à partir de certaines au moins des données de probabilités, des données de position de la zone de calcul et des données de dimension. Dans un mode de réalisation, le rendu 3D (en trois dimensions) des probabilités de détection peut en outre être déterminé à partir des données de visualisation (données de position et d’orientation). FIG. 10 represents the device 4000 for determining a three-dimensional representation of the spatial coverage of a detection system (for example of the sonar type) operating in a geographical area (for example marine scene) from the set of data comprising the detection probabilities of the detection system. The data set can be saved for example in a memory 430 or in a mass memory device 420. Device 4000 can be any type of device or computer system referred to as a computer. The device 4000 may include at least one processing unit 4010 configured to determine a 3D rendering of the probabilities of detection from at least some of the probability data, the position data of the calculation area and the dimension data. In one embodiment, the 3D (three-dimensional) rendering of the probabilities of detection can further be determined from the visualization data (position and orientation data).

[0109] Le dispositif 4000 peut en outre inclure une mémoire 430, une base de donnée 420 faisant partie d’un dispositif de mémoire de stockage de masse, une interface d’entrée/sortie E/S 470, et une interface Homme-Machine 410 pour recevoir des entrées ou retourner des sorties de/à un opérateur du système de détection. L’interface 410 peut être utilisée par exemple pour configurer ou paramétrer différents paramètres ou fonctions utilisées par le procédé de détermination de représentation selon certains modes de réalisation de l’invention, tels que la configuration du rendu volumique des probabilités de détection. Les ressources externes peuvent inclure, mais sans s’y limiter, des serveurs, des bases de données, des dispositifs de stockage de masse, des dispositifs périphériques, des services de réseau en nuage (cloud), ou toute autre ressource informatique appropriée qui peut être utilisée avec le dispositif 4000. [0109] The device 4000 can further include a memory 430, a database 420 forming part of a mass storage memory device, an I / O input / output interface 470, and a Human-Machine interface. 410 to receive entries or return outputs from / to a detection system operator. The interface 410 can be used for example to configure or configure various parameters or functions used by the method for determining representation according to certain embodiments of the invention, such as the configuration of the volume rendering of the probabilities of detection. External resources may include, but are not limited to, servers, databases, mass storage devices, edge devices, cloud network services, or any other suitable computing resource that may be used with device 4000.

[01 10] L’unité de traitement 4010 peut inclure un ou plusieurs dispositifs sélectionnés parmi des microprocesseurs, des microcontrôleurs, des processeurs de signal numérique, des micro-ordinateurs, des unités centrales de traitement, des réseaux de portes programmables, des dispositifs logiques programmables, des machines à état défini, des circuits logiques, des circuits analogiques, des circuits numériques, ou tout autre dispositif servant à manipuler des signaux (analogues ou numériques) basé sur des instructions de fonctionnement enregistrées dans la mémoire 430. La mémoire 430 peut inclure un seul dispositif ou une pluralité de dispositifs de mémoire, notamment mais sans s’y limiter, la mémoire à lecture seule (‘read-only memory’ (ROM)), la mémoire à accès aléatoire (‘random access memory’ (RAM)), la mémoire volatile, la mémoire non volatile, la mémoire vive statique (SRAM), la mémoire dynamique à accès aléatoire (DRAM), la mémoire flash, l'antémémoire (cache memory) ou tout autre dispositif capable de stocker des informations. Le dispositif de mémoire de masse 420 peut inclure des dispositifs de stockage de données tels qu'un disque dur, un disque optique, un dérouleur de bande magnétique, un circuit à l'état solide volatile ou non volatile ou tout autre dispositif capable de stocker des informations. Une base de données peut résider sur le dispositif de stockage de mémoire de masse 420. [01 10] The processing unit 4010 may include one or more devices selected from microprocessors, microcontrollers, digital signal processors, microcomputers, central processing units, programmable gate arrays, logic devices. programmable, defined state machines, logic circuits, analog circuits, digital circuits, or any other device used to manipulate signals (analog or digital) based on operating instructions stored in memory 430. Memory 430 may include a single device or a plurality of memory devices, including but not limited to read-only memory (ROM), random access memory (RAM )), volatile memory, non-volatile memory, static random access memory (SRAM), dynamic random access memory (DRAM), flash memory, cache memory or any other e device capable of storing information. The mass storage device 420 may include data storage devices such as a hard disk, an optical disk, a magnetic tape drive, a volatile or non-volatile solid state circuit, or any other device capable of storing informations. A database may reside on the mass memory storage device 420.

[01 1 1 ] L’unité de traitement 4010 peut fonctionner sous le contrôle d'un système d'exploitation 440 qui réside dans la mémoire 430. Le système d'exploitation 440 peut gérer les ressources informatiques de telle façon que le code de programme de l'ordinateur, intégré sous forme d'une ou de plusieurs applications logicielles, telles que l'application 450 qui réside dans la mémoire 430, puisse disposer d'instructions exécutées par l’unité de traitement 4010. Le dispositif 4000 peut comprendre une unité de traitement graphique 4030 implémentée sur une carte graphique, sur une carte-mère, ou dans une unité centrale de traitement. L’unité de traitement graphique peut générer un affichage du rendu 3D sur un dispositif d’affichage. [01 1 1] The processing unit 4010 can operate under the control of an operating system 440 which resides in the memory 430. The operating system 440 can manage the computer resources in such a way that the program code of the computer, integrated in the form of one or more software applications, such as the application 450 which resides in the memory 430, can have instructions executed by the processing unit 4010. The device 4000 can comprise a graphics processing unit 4030 implemented on a graphics card, on a motherboard, or in a central processing unit. The graphics processing unit can generate a display of the 3D rendering on a display device.

[01 12] En général les routines exécutées pour mettre en oeuvre les modes de réalisation de l'invention, qu'elles soient mises en oeuvre dans le cadre d'un système d'exploitation ou d'une application spécifique, d'un composant, d'un programme, d'un objet, d'un module ou d'une séquence d'instructions, ou même d’un sous-ensemble de ceux-là, peuvent être désignées comme “code de programme informatique” ou simplement“code de programme”. Le code de programme comprend typiquement des instructions lisibles par ordinateur qui résident à divers moments dans des dispositifs divers de mémoire et de stockage dans un ordinateur et qui, lorsqu'elles sont lues et exécutées par un ou plusieurs processeurs dans un ordinateur, amènent l’ordinateur à effectuer les opérations nécessaires pour exécuter les opérations et/ou les éléments propres aux aspects variés des modes de réalisation de l'invention. Les instructions d'un programme, lisibles par ordinateur, pour réaliser les opérations des modes de réalisation de l'invention peuvent être, par exemple, le langage d'assemblage, ou encore un code source ou un code objet écrit en combinaison avec un ou plusieurs langages de programmation. [01 12] In general, the routines executed to implement the embodiments of the invention, whether they are implemented within the framework of a system operating or a specific application, a component, a program, an object, a module or a sequence of instructions, or even a subset of these , may be referred to as “computer program code” or simply “program code”. Program code typically includes computer readable instructions that reside at various times in various memory and storage devices in a computer and which, when read and executed by one or more processors in a computer, cause the computer to perform the operations necessary to perform the operations and / or elements specific to the various aspects of the embodiments of the invention. The instructions of a program, readable by computer, for carrying out the operations of the embodiments of the invention may be, for example, assembly language, or else a source code or an object code written in combination with one or several programming languages.

[01 13] L'invention n'est pas limitée aux modes de réalisation décrits ci-avant à titre d’exemple non limitatif. Elle englobe toutes les variantes de réalisation qui pourront être envisagées par l'homme du métier. [01 13] The invention is not limited to the embodiments described above by way of non-limiting example. It encompasses all the variant embodiments which may be envisaged by those skilled in the art.

Claims

REVENDICATIONS 1. Procédé pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, le procédé étant caractérisé en ce qu’il comprend les étapes consistant à : 1. Method for determining the spatial coverage of a multi-sensor detection system comprising a plurality of sensors, said plurality of sensors being carried by supporting structures moving in a given geographical area, at least some of the supporting structures being mobile, the method being characterized in that it comprises the steps of: - déterminer (201 ) un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ; - determining (201) a set of parameters representing said geographical area and comprising environmental data, data relating to said supporting structures and data relating to said sensors; - calculer (203) itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ; - iteratively calculating (203) the probabilities of detection of said plurality of sensors in the geographical area from at least some of said parameters; déterminer (205) une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ; determining (205) a three-dimensional representation of the spatial coverage of the detection system for the plurality of sensors; - déterminer (207) des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ; - determining (207) 3D shadow zones of said geographical zone in which said probability of detection is less than at least a given threshold; - sélectionner (209) les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système. - select (209) the shadow zones located in at least one predefined security zone of the system. 2. Procédé selon la revendication 1 , caractérisé en ce qu’il comprend en outre la détermination d’une intersection des zones d’ombre sélectionnées formant un chenal d’accès à des zones de sécurité. 2. Method according to claim 1, characterized in that it further comprises determining an intersection of the selected shadow areas forming an access channel to safety areas. 3. Procédé selon la revendication 1 , caractérisé en ce que ledit système de détection est un système de détection de type sonar, ledit environnement étant un environnement maritime, lesdites données d’environnement comprenant des données variables dans l’espace et dans le temps et représentant un profil du fond de la mer dans une zone géographique définie, un profil de température du volume d’eau, des informations définissant l’état de la mer, et des informations liées au bruit de la mer, lesdites données de structures porteuses évoluant dans ledit domaine marin définissant une ou plusieurs plateformes mobiles et/ou un ou plusieurs objets de fond. 3. Method according to claim 1, characterized in that said detection system is a sonar type detection system, said environment being a maritime environment, said environment data comprising variable data in space and time and representing a profile of the seabed in a defined geographical area, a temperature profile of the volume of water, information defining the state of the sea, and information related to sea noise, said supporting structure data evolving in said marine domain defining one or more mobile platforms and / or one or more bottom objects. 4. Procédé selon l’une quelconque des précédentes revendications, caractérisé en ce que ledit calcul (203) est réalisé périodiquement selon une période choisie ou en continu. 4. Method according to any one of the preceding claims, characterized in that said calculation (203) is carried out periodically according to a selected period or continuously. 5. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la couverture spatiale du système de détection est représentée selon une position et une orientation de visualisation données, l’étape (205) de détermination d’une représentation en trois dimensions de la couverture spatiale du système de détection comprenant, pour chaque capteur dudit système de détection, les étapes consistant à : 5. Method according to any one of the preceding claims, characterized in that the spatial coverage of the detection system is represented according to a given position and viewing orientation, the step (205) of determining a three-dimensional representation. the spatial coverage of the detection system comprising, for each sensor of said detection system, the steps consisting in: Recevoir un ensemble de données comprenant une probabilité de détection dudit capteur dans ladite zone géographique, la probabilité de détection étant déterminée dans une zone de calcul associée audit capteur et incluse dans ladite zone géographique, les données dudit ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul, Receive a set of data comprising a probability of detection of said sensor in said geographical area, the probability of detection being determined in a calculation area associated with said sensor and included in said geographical area, the data of said set comprising position data of the area calculation and dimension data of the calculation area, - déterminer un rendu 3D de ladite probabilité de détection dudit capteur à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension. determining a 3D rendering of said probability of detection of said sensor on the basis of at least some of the probability data, the position data of the calculation zone and the dimension data. 6. Procédé selon la revendication 5, caractérisé en ce qu’il comprend en outre une étape consistant à déterminer (303) une structure de données principale ayant au moins trois dimensions à partir desdites données de probabilité. 6. Method according to claim 5, characterized in that it further comprises a step of determining (303) a main data structure having at least three dimensions from said probability data. 7. Procédé selon l’une des revendications 5 et 6, caractérisé en ce qu’il comprend en outre une étape consistant à déterminer (305) un rendu de profondeur du volume englobant la zone de calcul à partir des données de position de la zone de calcul, des données de dimension, et de la position et de l’orientation de visualisation. 7. Method according to one of claims 5 and 6, characterized in that it further comprises a step of determining (305) a depth rendering of the volume encompassing the calculation area from the position data of the area. calculation, dimension data, and visualization position and orientation. 8. Procédé selon les revendications 2 et 3, caractérisé en ce que ledit rendu 3D est volumique et en ce que le procédé comprend en outre une étape consistant à déterminer (307) un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de ladite structure de données principale et dudit rendu de profondeur. 8. Method according to claims 2 and 3, characterized in that said 3D rendering is volume and in that the method further comprises a step of determining (307) a volume rendering of the probability of detection according to at least one function in a given color space from said main data structure and said depth rendering. 9. Procédé selon la revendication 8, caractérisé en ce que ladite étape de détermination d’un rendu volumique (307) comprend les étapes consistant à: - déterminer un rendu volumique en niveaux de gris de la probabilité de détection à partir de ladite structure de données 3D et dudit rendu de profondeur ; 9. The method of claim 8, characterized in that said step of determining a volume rendering (307) comprises the steps of: - determining a volume rendering in gray levels of the detection probability from said 3D data structure and from said depth rendering; - déterminer un rendu volumique en couleurs de la probabilité de détection à partir du rendu volumique en niveaux de gris. determining a volume rendering in colors of the detection probability from the volume rendering in gray levels. 10. Procédé selon l’une des revendications précédentes, caractérisé en ce que l’étape de détermination (205) d’une représentation en trois dimensions de la couverture spatiale du système de détection comprend une étape de génération de l’affichage de ladite représentation en trois dimensions de la couverture spatiale, des zones d’ombre à l’intérieur de zones de sécurité et de chenaux d’accès aux zones de sécurité sur un écran ou en mode réalité augmentée ou en mode réalité virtuelle. 10. Method according to one of the preceding claims, characterized in that the step of determining (205) a three-dimensional representation of the spatial coverage of the detection system comprises a step of generating the display of said representation. in three dimensions of the spatial coverage, shadow areas inside security zones and access channels to security zones on a screen or in augmented reality mode or in virtual reality mode. 1 1 . Dispositif pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, caractérisé en ce que le dispositif est configuré pour : 1 1. Device for determining a spatial coverage of a multi-sensor detection system comprising a plurality of sensors, said plurality of sensors being carried by supporting structures moving in a given geographical area, at least some of the supporting structures being mobile, characterized in that that the device is configured for: - déterminer un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ; - determining a set of parameters representing said geographical area and comprising environmental data, data relating to said supporting structures and data relating to said sensors; - calculer itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ; iteratively calculating the probabilities of detection of said plurality of sensors in the geographical area from at least some of said parameters; - déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ; - determining a three-dimensional representation of the spatial coverage of the detection system for the plurality of sensors; - déterminer des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ; - determining 3D shadow zones of said geographical zone in which said probability of detection is less than at least a given threshold; - sélectionner les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système. - select the shadow zones located in at least one predefined security zone of the system. 12. Produit programme d’ordinateur pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, caractérisé en ce que le produit programme d’ordinateur comprenant des instructions de code de programme informatique qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs amènent le ou les processeurs à :12. Computer program product for determining the spatial coverage of a multi-sensor detection system comprising a plurality of sensors, said plurality of sensors being carried by supporting structures moving in a given geographic area, at least some of the supporting structures being mobile, characterized in that the computer program product comprising computer program code instructions which, when executed by one or more processors cause the processor (s) to: - déterminer un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ; - determining a set of parameters representing said geographical area and comprising environmental data, data relating to said supporting structures and data relating to said sensors; - calculer itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ; iteratively calculating the probabilities of detection of said plurality of sensors in the geographical area from at least some of said parameters; - déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ; - determining a three-dimensional representation of the spatial coverage of the detection system for the plurality of sensors; - déterminer des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ; - determining 3D shadow zones of said geographical zone in which said probability of detection is less than at least a given threshold; - sélectionner les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système. - select the shadow zones located in at least one predefined security zone of the system.
EP20735426.7A 2019-07-09 2020-07-06 Method for determining the spatial coverage of a detection system Withdrawn EP3997479A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1907676A FR3098602B1 (en) 2019-07-09 2019-07-09 METHOD FOR DETERMINING THE SPATIAL COVERAGE OF A DETECTION SYSTEM
PCT/EP2020/068939 WO2021004987A1 (en) 2019-07-09 2020-07-06 Method for determining the spatial coverage of a detection system

Publications (1)

Publication Number Publication Date
EP3997479A1 true EP3997479A1 (en) 2022-05-18

Family

ID=68733211

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20735426.7A Withdrawn EP3997479A1 (en) 2019-07-09 2020-07-06 Method for determining the spatial coverage of a detection system

Country Status (4)

Country Link
EP (1) EP3997479A1 (en)
AU (1) AU2020309309A1 (en)
FR (1) FR3098602B1 (en)
WO (1) WO2021004987A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3143921B1 (en) * 2022-12-20 2024-12-20 Thales Sa Method for monitoring an environment by a plurality of carriers and associated devices
CN116912438B (en) * 2023-06-30 2025-08-19 西藏巨龙铜业有限公司 Three-dimensional visualization method and system for multi-type real-time mapping of abnormal data of chemical exploration
CN118967727B (en) * 2024-07-16 2025-03-28 武汉理工大学 Sonar image difference area boundary line detection method, device, equipment and medium

Also Published As

Publication number Publication date
FR3098602A1 (en) 2021-01-15
AU2020309309A1 (en) 2022-02-24
WO2021004987A1 (en) 2021-01-14
FR3098602B1 (en) 2022-09-02

Similar Documents

Publication Publication Date Title
Li et al. Exploring modern bathymetry: A comprehensive review of data acquisition devices, model accuracy, and interpolation techniques for enhanced underwater mapping
EP3805794A1 (en) Analysis of sar data using neural networks
US9702966B2 (en) Synthetic underwater visualization system
Mandlburger A review of active and passive optical methods in hydrography
WO2021004987A1 (en) Method for determining the spatial coverage of a detection system
Liniger et al. On the autonomous inspection and classification of marine growth on subsea structures
Grossmann et al. Digital twinning in the ocean-chanllenges in multimodal sensing and multiscale fusion based on faithful visual models
Fan et al. Underwater ice adaptive mapping and reconstruction using autonomous underwater vehicles
Atkinson et al. Nearshore monitoring with X‐Band Radar: maximizing utility in dynamic and complex environments
FR2954540A1 (en) METHOD FOR CLASSIFYING OBJECTS IN A SLEEPING SYSTEM BY IMAGING.
Stone et al. Mapping emergent coral reefs: a comparison of pixel‐and object‐based methods
Braga et al. Estimation of UAV position using LiDAR images for autonomous navigation over the ocean
Ekelund et al. High-resolution, precision mapping of seagrass blue carbon habitat using multi-spectral imaging and aerial LiDAR
Durap Explainable machine learning for bathymetric mapping: adaptive normalization and feature engineering in complex seabed terrains
WO2021005096A1 (en) Method for three-dimensional representation of the spatial coverage of one or more detection systems
Araujo et al. Bathymetric data visualization–A review of current methods, practices and emerging interface opportunities
Murawski et al. Bathymetric mapping in the coastal zone: Approaches, challenges, and opportunities
Pittman et al. Outlining a methodological pathway to improve the global seagrass map
Voinov Deep learning-based vessel detection from very high and medium resolution optical satellite images as component of maritime surveillance systems
Reithmeier et al. Improving global coastal bathymetry from waves–Introducing scalable processing and post-processing workflows for 100 m resolution grids
Birkeland The potential of LIDAR as an antisubmarine warfare sensor
Kataraihya Affinamento e automatizione delle procedure di batimetria derivata da satellite con lo sviluppo di un nuovo strumento software
Sego Attacks on Sar Image Models
Mayer et al. UNH/NOAA Joint Hydrographic Center 2020 Performance and Progress Report
Demarte Innovative REA tools for seabed mapping

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20211216

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20241023

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20250225