[go: up one dir, main page]

WO1999018451A1 - Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede - Google Patents

Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede Download PDF

Info

Publication number
WO1999018451A1
WO1999018451A1 PCT/FR1998/002124 FR9802124W WO9918451A1 WO 1999018451 A1 WO1999018451 A1 WO 1999018451A1 FR 9802124 W FR9802124 W FR 9802124W WO 9918451 A1 WO9918451 A1 WO 9918451A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
interactive
images
data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/FR1998/002124
Other languages
English (en)
Inventor
Georges Thomas
Didier Bergero
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Direction General de lArmement DGA
Gouvernement de la Republique Francaise
Original Assignee
Delegation Generale pour lArmement
Gouvernement de la Republique Francaise
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Delegation Generale pour lArmement, Gouvernement de la Republique Francaise filed Critical Delegation Generale pour lArmement
Priority to EP98947603A priority Critical patent/EP1021734A1/fr
Priority to CA002305497A priority patent/CA2305497A1/fr
Priority to US09/529,006 priority patent/US6421300B1/en
Publication of WO1999018451A1 publication Critical patent/WO1999018451A1/fr
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6263Cathode-ray tube displays in which different colours are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/20Stereoscopic displays; Three-dimensional displays; Pseudo-three-dimensional displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/062Cathode-ray tube displays or other two dimensional or three-dimensional displays in which different colours are used

Definitions

  • the present invention relates to the passive listening sonar technique and relates more particularly to the processing and interactive presentation of multidimensional data provided by passive listening sonars in order to optimize the efficiency of the human-machine system. consisting of the sonar and its operator.
  • the invention can also be used in other fields where the need for interactive exploitation of multidimensional data is felt, for example in radar imagery, in geophysics, in medicine, in remote sensing or others.
  • the data provided by a passive sonar is part of a five-dimensional hypervoiume:
  • azimuth-time format which presents the azimuthal scrolling of the noise detectors detected thanks to spatial processing.
  • frequencies executed in the "upstream” part of the sonar receiver with coding of the signal / noise ratio by the brightness.
  • the operator does not have spatial information - format called "lofagram, or lofar", which presents in a sector of the horizon corresponding to a channel formed by spatial processing, the frequency information as a function of time with coding of the signal / noise ratio by the brightness.
  • the operator does not have the information scrolling to cover the 360 * of azimuth, or juxtaposes as many elementary "lofar" images as of channels, which requires a large screen surface materialized by the use of at least two screens and thereby causes a great difficulty of operation, - format called "instant azimuth-frequency” which presents frequency information as a function of azimuth for the present moment or after a fixed temporal integration , with signal-to-noise coding by brightness.
  • the operator does not have the time information.
  • the complete presentation of the information delivered by the sonar therefore requires the juxtaposition of elementary three-dimensional images (x, y and brightness) corresponding of the cuts in the volume of the data, which requires large areas of presentation.
  • sonar images are composed of raw video signals and superimposed synthetic objects (tracks), leading to significant information flows that must be controlled in order not to saturate the operator.
  • the invention aims to improve the performance of current or future passive listening sonars, by means of an interactive exploitation of the data, compatible with the real time of the sonar process and which meets the following needs, which are not satisfied by the known methods.
  • the invention further aims to create methods which mobilize only conventional means currently for image processing and manipulation which are independent of the spatial and spectral processing of the signals coming from the hydrophonic sonar sensors and adapt to the parameters.
  • processing operations such as the number of channels formed, the number of spectral analysis channels, insofar as these "upstream” processing operations deliver "raw” information in the form of "quadruplets” time, bearing (or azimuth), frequency , signal-to-noise ratio without preliminary formatting.
  • the screen area which results from the use of the invention is reduced compared to that required by conventional methods.
  • the invention further aims to provide the advantage of completely decoupling the computer systems dedicated to "upstream” processing of the sonar receiver, of the graphical information system which performs the processing operations and supports the Human-Machine interfaces, and of reduce the data rates between these systems: the links are made in raw "quadruplet" packets and not by images formatted with the redundancies that this implies.
  • the subject of the invention is therefore a method of representing a multidimensional data field on a display screen, characterized in that it consists in using the screen coordinates for two dimensions of the data and at least two perception components. color among the brightness, hue and saturation for at least two other dimensions of said data. According to other characteristics of the invention:
  • the method consists in organizing the multidimensional data fields in a volume memory broken down into virtual image planes;
  • the method consists in each virtual image plane, in coding specific parameters of data samples by graphic parameters, two parameters being related to the memory coordinates and a parameter being coded by the dynamic of the pixel in level of Grey; - The method further comprises performing filtering operations on specific parameters;
  • the filtering operations are carried out by interactive modification of transfer tables acting on the gray levels stored in the virtual images;
  • the filtering operations are carried out by logical and / or mathematical operations between virtual images.
  • the subject of the invention is also a method of the "type defined above applied to the production of a real image presented on a display screen from results stored in virtual images, characterized in that it consists in ensure an interactive modification of a final transfer table which calculates the values of the red, green and blue components of the pixels as a function of the desired brightness, hue and saturation values.
  • the subject of the invention is also a method for developing from passive listening sonar data operational images interactively controlled by the operator continuously as a function of the operational need and compatible with the time information needs. real, characterized in that it implements the representation method of the type defined above to develop a bearing-time or azimuth-time image with representation of the frequencies by the hue and interactive filtering. According to other characteristics:
  • the interactive filtering also comprises the development of a circulating lofar image which can be adjusted interactively in the direction and in extent of the deposit;
  • the interactive filtering also comprises the development of a spectrum image on the area of interest in time-field interactively adjustable; - interactive filtering also includes the development of an image in frequency-deposit format with interactively adjustable history.
  • FIG. 1 is a block diagram of the interactive sonar data operating system according to the invention.
  • FIG. 2 is a block diagram of the graphics processor which is part of the system of Figure 1;
  • FIG. 3 is a more detailed diagram of the graphics processor of FIG. 2;
  • Figure 4 is a representation of spectral filters or "threat filters" developed by the method of one invention;
  • FIG. 5 is a representation of a deposit filter or "circulating lofar"
  • FIG. 6 is a representation of an image in frequency-deposit format with history; and FIG. 7 is an amplitude-frequency representation on "zone of interest in deposit-emps". The general means of the invention will first be described.
  • Standard means include a conventional workstation under UNIX or WINDOWS NT and basic software for image generation.
  • the specific means include image processing cards with memory and pixel calculation processors as well as original application software for processing and manipulating data and images.
  • the system for interactive processing and presentation of multidimensional data shown in FIG. 1 comprises a work station equipped with image processing cards.
  • the workstation is a DIGITAL station under XWINDOWS / MOTIF. It has a host processor 2 with a RAM memory 3 of 32 Mbytes, a control screen 4. The host processor 2 is connected by a line 5 to a sonar chain (not shown) from which it receives raw triplet data as defined above.
  • the host processor 2 is also associated with a keyboard 6, a fixed hard disk 7 of 5 "1/4 with a capacity of 1 Gigabytes, intended to store the system software including the operating software and the specific software, and to permanently store sonar data such as raw triples or standby images, such as lofars, IFA and standby ( ⁇ (t)), a removable hard drive 8 of 5 "1/4 of a capacity of 500 Megabytes to store sonar data such as raw triples or standby images such as lofars, IFA and standby ( ⁇ (t)) temporarily so that they can be used on land or on another site that can accept the disc removable hard.
  • sonar data such as raw triples or standby images, such as lofars, IFA and standby ( ⁇ (t)
  • a removable hard drive 8 of 5 "1/4 of a capacity of 500 Megabytes to store sonar data such as raw triples or standby images such as lofars, IFA and standby ( ⁇ (t)) temporarily so that they can be used on land or on another site that
  • the system furthermore comprises a 4-inch magnetic cartridge reader 9 with a capacity of 256 Megabytes to ensure the computer security of the system by remedying the failure of one of the hard disks 7 and 8 and for storing or re-reading data with a support as universal as possible.
  • the host processor 2 is connected by an internal bus 10 to an image processor 12 with which are associated a high resolution color screen 14, an image memory 16 of 32
  • the image processor or graphics processor whose diagram is shown in Figure 2 is in this example a GOULD IP9527 processor.
  • the processor 20 itself is a fast pixel processing processor allowing the execution of logical and arithmetic operations between high-speed images. tesse and execution of conventional image processing algorithms such as convolutions, histograms, etc.
  • an image workstation including the color monitor 14 (FIG. 1), a video output controller 22 capable of managing the color monitor 14 from three composite red, green and blue signals, a cursor generator. 24 with which the 18 " rolling ball is associated (FIG. 1) and a character generator for producing annotations superimposed on an image or on either side of an image (not shown), software in the host processor 2, this software being modular on several levels going from the programming of registers to the interactive exploitation of the system under the operating system of the host
  • An interface controller 26 is connected by the bus 10 to the host processor 2.
  • FIG. 3 The image memory 16 of the image processor is produced as follows.
  • the images displayed and processed by the system are contained in eight 4Kbyte 2K * 2K * 8-bit direct random access memory channels of 2K * 2K * where the byte represents the gray level of the pixel ranging from 0 (-black) to 255 (white ) and where each pixel is accessible by its X and Y coordinates, in an orthogonal coordinate system with an axis length of 2048.
  • Each memory channel such as the channel 25 shown in FIG. 3 can be used to store images or graphic information in overlay on 256 - grayscale and 4096 different colors.
  • the Scroll function 27 allows the scrolling of the image on the corresponding memory channel 25 with or without looping back on the channel or - "wrap around".
  • the transfer function 28 is made up of tables with 256 inputs and 256 outputs, one input for one output, where a pixel can change the gray level with 256 possibilities, ie 2 8 .
  • the tables are provided by four sections of 256 bytes each.
  • the masking function 29 relates to the depth of the pixel according to the read / write orders received from the host processor 2 (FIG. 1).
  • the eight memory channels of 2048 *, 2048 * 8 bits can be configured according to any logical combination and can be decoupled by the software into areas of interest in the form of a parallelogram (for making histograms in particular).
  • the images are accessible by a multi-bus access, by the video controller 22 (FIG. 2), by the pixel processing processor 20 and by the system controller 26 for writing and reading the pixels by the host processor 2.
  • the pixel processing processor 20 is a fast "pipeline" processor which processes as input a combination of memory channels 25 with the output of the video controller 22 to perform operations such as multiplication, addition, subtraction and comparison.
  • the output of processor 20 is sent on selected memory channels 25.
  • the processor 20 is capable of performing operations on 16 bits to facilitate standard image processing algorithms, such as convolutions, correlations, edge detections and flexible control makes it possible to carry out separate operations on different regions of a picture.
  • the video controller output can be sent to the processor; thus the final output image can contain the raw information, the overlaps, the alphanumeric characters and the cursors and thus be sent in a memory channel.
  • the computing power of this processor is close to 40 operations per second.
  • the histogram generator of processor 20 is a counter for the occurrences of the gray levels of the pixels of an image region. It creates a table which contains the frequencies of distribution of the gray levels on the image; the frequency is relative to the number of pixels processed (1048576 in the case 1K * 1K).
  • a pass corresponds to the processing of a standard video image of 512 * 512 pixels in 1/25 s, that is to say to the processing of 6.25 Mpixels / s.
  • the video controller 22 selects, modifies, draws the displayable data and performs the digital / analog conversion of the data into a video signal for the monitor 14.
  • the system also includes:
  • a mixer 32 for taking into account overlapping information such as that of a cursor, alphanumeric characters and graphic information coming to be superimposed on the image, a character generator.
  • the typefaces are free, within the limits of ergonomic concerns but must be programmable by the host processor 2 (figure 1).
  • the system comprises two programmable cursors 34, to be chosen from a set of standard cursors and from a set of cursors imagined entirely by the user.
  • the cursor generator receives an external control coming from a peripheral such as a ball or a joystick operating lever to modify the position (x, y) of the cursor and to be able to emit interrupts for cursor management (for example : the blocking of one of the two cursors when creating a parallelogram).
  • a peripheral such as a ball or a joystick operating lever to modify the position (x, y) of the cursor and to be able to emit interrupts for cursor management (for example : the blocking of one of the two cursors when creating a parallelogram).
  • This multi-fenestration is rigid, "according to a combination of quadrants of the space 1024 * 1024.
  • Eight memory channels can appear on the screen on eight windows of variable shapes and controlled by software.
  • the com- system takes an external device for interactive control, in the form of a ball, for 'allow for example the movement of sliders in the direction of movement of the ball of a value proportional to the latter celle- movement.
  • the ball also contains six push buttons, whose combination of binary logic states is questionable and likely to send interruptions to the cursor generator, an analog-digital converter and the classic circuits of the monitor.
  • the software used uses a library in C, PASCAL or FORTRAN.
  • Multiprogramming is carried out from the host processor 2 (FIG. 1).
  • the system can accommodate four processes launched in parallel which share the following independent internal resources:
  • Each gray level transfer table of each memory channel (one process can generate channel 1 and another can generate the ITT of channel 1).
  • the physical system can be divided, at a given time, into four logical systems made up of a combination of the preceding resources.
  • the physical interface at a low software level, is compatible with the internal bus of the workstation.
  • the instructions sent to the system can be divided into three categories: - writing instructions where - the host processor follows the writings in system registers,
  • An image in "bearing or azimuth-time” format with global spectral information provides the operator with raw information, incorporating first level spectral information which allows by interactive manipulation:
  • the system calculates and displays the histogram in "annex graph":
  • the deposit filter format or "circulating lofar” is a dynamic version of a classic frequency-time format that can be juxtaposed in an interactive and instantaneous manner, unlike the lofars of the channels reserved for classification, like the panoramic eve of the paragraph relative to the images of the format "bearing or azimuth-time.
  • the width of the zone can be reduced until the resolution of the reservoir-time image, thus allowing the operator to discriminate the signatures of two neighboring noise generators.
  • the interactive determination is carried out as follows: - the operator varies the limits of the relevant bearing range by means of the ball,
  • - shade monochrome, preferably green.
  • the "circulating lofar” is juxtaposed with the image bearing (azimuth) -time, with parallel “time” axes so as to allow the temporal correlation between the two images.
  • Spectral filters or "threat filters” are obtained by applying spectral filtering to the reservoir-time image, in a template fixed interactively by the operator; it composes its filter (s) continuously or discreetly, within the limits of the combinations allowed by the quantization of frequencies.
  • This filtering can very quickly reveal the possible presence of a noise generator whose acoustic radiation corresponds to the size of the filter, changes in the acoustic situation of noise makers already detected, or allow the detection of noise makers not detected by other methods.
  • the continuous interactive construction of the filter is ensured by means of the ball:
  • a front-back movement determines the width of the template.
  • the discrete interactive construction of the filter is carried out by means of the keyboard or any other input means.
  • the operator enters discrete frequency values accompanied by an appropriate df, which are said to characterize the threat.
  • the system instantly recomposes the bearing-time image while viewing only the quadruplets whose frequency is inside the template.
  • these quadruplets are displayed with a hue contrasting with that of the rest of the image which in this case must be monochrome (green).
  • An image in frequency-azimuth (or azimuth) format with history constitutes an evolution of the frequency-azimuth "IFA" snapshot. It provides the operator with a global spectral vision, over the entire horizon and over a temporal range that can be interactively adjusted in date and duration. This range may or may not contain the last recurrence, i.e. the frequency-azimuth snapshot.
  • This image gives the bearing (the azimuth) on the abscissa, with the same scales as those of the image in bearing or azimuth-time format. She gives :
  • Interactive manipulations allow the operator to adjust the extent of the time range displayed by means of the ball as follows:
  • the last recurrence is displayed with a particular graphic. Graphic features common to the different images.
  • the method implemented on the computer system described with reference to FIGS. 1 to 3 is based on the grayscale coding of parameters other than the signal amplitudes.
  • an image is characterized by graphic parameters: X coordinate, Y coordinate and "COLOR".
  • the problem consists in associating in a coherent way the physical parameters characteristic of the data to be represented, with the graphic parameters.
  • a conventional standby image consists of the representation as a function of time T and of the azimuth ⁇ of the S / B ratios denoted AMP, associated with a range of frequencies F. O 99/18451
  • AMP as a function of T and ⁇ , AMP being the largest value found for a given T and ⁇ .
  • the images A and F are therefore linearly combined.
  • the standby image formed an operator can examine it by manipulating the gray levels associated with a range of frequencies. This has the effect of varying the brightness of the associated color according to linear or exponential logarithmic laws.
  • standby images such as images in “time-field” format with global spectral information.
  • the implementation of one invention also calls for the use of logical operators.
  • the first solution has the defect of not allowing to use the maximum dynamic of the gray levels of 256.
  • a logical "AND" is then performed between the images A and Fi to obtain an image Ri: standby image given by the frequency range i.
  • the images obtained can be explored interactively by playing on the gray level.
  • FIG. 4 illustrates the process of implanting spectral filters or filters of enace.
  • Image S appears in a second area of the screen.
  • the development of the deposit filter or "circulating lofar" is shown in Figure 5.
  • a panoramic LOFAR image 0-180 * is formed on a memory channel 1. This image A appears in the first area of the monitor screen.
  • the gray level gives the S / N ratio:
  • a LOFAR source image on 0-180 * is formed on a memory channel 2
  • This image S appears in a second area of the screen.
  • the gray level indicates the TETA value:
  • a frequency-bearing image is produced over a memory channel 1 over the entire time range.
  • the operator chooses a time filter on transfer function, in an interval T1, T2 of application and a logical AND operation between images allows the elaboration in a memory channel 3 of the frequency-deposit image filtered over the interval time T1-T2 and appearing in a third area of the screen.
  • FIG. 7 represents the development of an amplitude-frequency representation on "zone of interest in time-deposit".
  • the images A and S are the same as those developed for the spectral filters or "threat filters" in FIG. 4.
  • an area of interest is delimited by a rectangle and a histogram is established on 1 ' image of the sources in the area of interest. This histogram indicates the signature of the sources in the area of interest.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Procédé d'élaboration à partir de données de sonar d'écoute passive d'images opérationnelles contrôlées interactivement par l'opérateur de façon continue en fonction du besoin opérationnel et compatible avec les besoins d'informations en temps réel, caractérisé en ce qu'il met en oeuvre un procédé de représentation d'un champ de données multidimensionnelles sur un écran de visualisation (14) consistant à utiliser les coordonnées d'écran pour deux dimensions des données et trois composantes de perception de la couleur parmi la luminosité, la teinte et la saturation pour trois autres dimensions desdites données, pour élaborer des images gisement-temps, azimut-temps, ou fréquence-temps (lofar circulant) ou fréquence-gisement avec représentation des fréquences par la teinte et filtrage interactif.

Description

PROCEDE DE REPRESENTATION SUR UN ECRAN DE VISUALISATION D'UN CHAMP DE DONNEES MULTIDI- RECTIONNELLES NOTAMMENT DE DONNEES FOURNIES PAR UN SONAR D'ECOUTE PASSIVE ET SYSTEME POUR LA MISE EN OEUVRE D'UN TEL PROCEDE ' à ïM fcMfc
La présente invention concerne la technique des sonars d'écoute passive et se rapporte plus particulièrement au traitement et à la présentation interactive de données multidimensionnelles fournies par des sonars d'écoute pas- sive en vue d'optimiser l'efficacité du système Homme- Machine constitué par le sonar et son opérateur.
L'invention peut être également mise à profit dans d'autres domaines où la nécessité d'exploitation interactive de données multidimensionnelles se fait sentir, par exemple en imagerie radar, en géophysique, en médecine, en télédétection ou autres.
Les données fournies par un sonar passif s ' inscrivent dans un hypervoiume à cinq dimensions :
- temps, distance, azimut, fréquence, rapport si- gnal/bruit.
Jusqu'à présent, ces données ont été présentées à l'opérateur sous forme d'images de formats classiques figés, ne restituant que trois dimensions de volume par image : format azimut-temps qui présente le défilement azimutal des bruiteurs détectés grâce aux traitements spatiaux et fréquentiels exécutés dans la partie "amont" du récepteur du sonar, avec codage du rapport signal/bruit par la luminosité. L'opérateur ne dispose pas de l'information spatiale, - format dit "lofagramme, ou lofar", qui présente dans un secteur d ' horizon correspondant à une voie formée par le traitement spatial, l'information fréquence en fonction du temps avec codage du rapport signal/bruit par la luminosité. L'opérateur ne dispose pas de l'information défi- lement pour couvrir les 360* d'azimut, ou juxtapose autant d'images "lofar" élémentaires que de voies, ce qui nécessite une surface d'écran importante matérialisée par l'utilisation d'au moins deux écrans et entraîne par là même une grande difficulté d'exploitation, - format dit "instantané azimut-fréquence" qui présente 1 ' information fréquence en fonction de 1 ' azimut pour l'instant présent ou après une intégration temporelle fixe, avec codage du rapport signal/bruit par la luminosité. L'opérateur ne dispose pas de l'information de temps. La présentation complète de 1 ' information délivrée par le sonar nécessite donc la juxtaposition d'images élémentaires à trois dimensions (x,y et luminosité) correspondantes des coupes dans le volume des données, ce qui néces- site de vastes surfaces de présentation.
La corrélation entre les différentes images n'est pas interactive, ce qui n'est pas compatible avec le besoin opérationnel d'exploitation en "temps réel" des données sonar. De plus, les images sonar sont composées de signaux de vidéo brute et d'objets (pistes) synthétiques superposés, conduisant à des flux d'informations importants qu'il faut maîtriser pour ne pas saturer l'opérateur.
L'invention vise à améliorer les performances des sonars d'écoute passive actuels ou futurs, grâce à une exploitation interactive des données, compatible avec le temps réel du processus sonar et qui répond aux besoins suivants, lesquels ne sont pas satisfaits par les procédés connus utilisés jusqu'à ce jour : - faculté pour l'opérateur d'appréhender globalement, c'est-à-dire avec une vision panoramique et multidi- mensionnelle, les informations fournies par les traitements "amont", sans avoir à appeler successivement plusieurs images prédéfinies de façon rigide et attendre leur établisse- ment,
- corrélation dynamique, souple et rapide entre les différentes informations contenues dans les coupes sélectionnées interactive ent dans le "volume" des données,
- création de filtres interactifs dans les trois di- mensions temps, fréquence et azimut, ces- filtres permettant de limiter les informations présentées à l'opérateur, à celles qui l'intéressent, sans interaction avec les traitements "amont" et apportant un "gain de traitement" visuel qui améliore l'efficacité du système Homme-Machine, - compatibilité et complémentarité entre la présentation des données dites synthétiques fournies par les algorithmes de traitement de 1 ' information du sonar et celle de données "brutes", améliorées par l'invention. L ' invention vise en outre à créer des procédés qui ne mobilisent que des moyens classiques actuellement de traitement et de manipulation d'images qui soient indépendants des traitements spatiaux et spectraux des signaux pro- venant des capteurs hydrophoniques du sonar et s ' adaptent aux paramètres de ces traitements tels que le nombre de voies formées, le nombre de canaux d'analyse spectrale, dans la mesure où ces traitements "amont" délivrent des informations "brutes" sous forme de "quadruplets" temps, gisement (ou azimut), fréquence, rapport signal/bruit sans formatage préliminaire .
La surface d'écran qui découle de l'emploi de l'invention est réduite par rapport à celle nécessitée par les procédés classiques. L'invention vise en outre à procurer l'avantage de découpler complètement les systèmes informatiques dédiés aux traitements "amont" du récepteur sonar, du système d'information graphique qui exécute les traitements d'exploitation et supporte les interfaces Homme-Machine, et de diminuer les débits informatiques entre ces systèmes : les liaisons s'effectuent par paquets de "quadruplets" bruts et non par images formatées avec les redondances que cela implique.
L'invention a donc pour objet un procédé de représentation d'un champs de données multidimensionnelles sur un écran de visualisation, caractérisé en ce qu'il consiste à utiliser les coordonnées d'écran pour deux dimensions des données et au moins deux composantes de perception de la couleur parmi la luminosité, la teinte et la saturation pour au moins deux autres dimensions desdites données. Suivant d'autres caractéristiques- de l'invention:
- le procédé consiste à organiser les champs de données multidimensionnelles dans une mémoire volumique décomposée en plans d ' images virtuelles ;
- le procédé consiste dans chaque plan d'image vir- tuelle, à coder des paramètres spécifiques d'échantillons de données par des paramètres graphiques, deux paramètres étant rapportés aux coordonnées de mémoire et un paramètre étant codé par la dynamique du pixel en niveau de gris; - le procédé consiste en outre à effectuer des opérations de filtrage de paramètres spécifiques ;
- les opérations de filtrage sont réalisées par modification interactives de tables de transfert agissant sur les niveaux de gris mémorisées dans les images virtuelles;
- les opérations de filtrage sont réalisées par des opérations logiques et/ou mathématiques entre images virtuelles .
L'invention a également pour objet un procédé du "type défini ci-dessus appliqué à l'élaboration d'une image réelle présentée sur un écran d'affichage à partir de résultats mémorisés en images virtuelles, caractérisé en ce qu'il consiste à assurer une modification interactive d'une table de transfert finale qui calcule les valeurs des composantes rouge, verte, bleue des pixels en fonction des valeurs de luminosité, teinte et saturation souhaitées.
L'invention a également pour objet un procédé d'élaboration à partir de données de sonar d'écoute passive d'images opérationnelles contrôlées interactivement par 1 ' opérateur de façon continue en fonction du besoin opérationnel et compatibles avec les besoins d ' informations en temps réel, caractérisé en ce qu'il met en oeuvre le procédé de représentation du type défini plus haut pour élaborer une image gisement-temps ou azimut-temps avec représentation des fréquences par la teinte et filtrage interactif. Suivant d'autres caractéristiques :
- le filtrage interactif comporte l'élaboration d'un filtre de nuance par imagerie ;
- le filtrage interactif comporte en outre 1 ' élabo- ration d'une image lofar circulant réglable interactivement en direction et en étendue du gisement ;
- le filtrage interactif comporte en outre l'élaboration d'une image de spectre sur zone d'intérêt en gisement-temps réglable interactivement ; - le filtrage interactif comporte en outre l'élaboration d ' une image au format fréquence-gisement avec historique réglable interactivement. L'invention sera mieux comprise à la lecture de la description qui va suivre faite en référence aux dessins annexés, donnés uniquement à'"titre d'exemple et sur lesquels :
- la figure 1 est un schéma synoptique du système d ' exploitation interactive de données sonar suivant 1 ' invention ;
- la figure 2 est un schéma synoptique du processeur graphique qui fait partie du système de la figure 1 ;
- la figure 3 est un schéma plus détaillé du proces- seur graphique de la figure 2 ; la figure 4 est une représentation de filtres spectraux ou "filtres de menace" élaborée par le procédé de 1 ' invention ;
- la figure 5 est une représentation d'un filtre en gisement ou "lofar circulant" ;
- la figure 6 est une représentation d ' une image au format fréquence-gisement avec historique ; et la figure 7 est une représentation amplitude- fréquence sur "zone d'intérêt en gisement- emps" . Les moyens généraux de 1 ' invention vont tout d ' abord être décrits.
Ces moyens se décomposent en moyens standards et en moyens spécifiques.
Les moyens standards comportent une station de tra- vail classique sous UNIX ou WINDOWS NT et des logiciels de base pour la génération d'images.
Les moyens spécifiques comportent des cartes de traitement d'images avec mémoire et processeurs de calcul sur pixels ainsi que des logiciels applicatifs originaux de traitement et de manipulation des données et des images.
On va maintenant décrire de façon détaillée un mode de réalisation de l'invention.
Le système de traitement et de présentation interactifs de données multidimensionnelles représenté à la figure 1 comporte une station de travail équipée de cartes de traitement d ' images .
Selon le présent exemple la station de travail est une station DIGITAL sous XWINDOWS/MOTIF. Elle possède un processeur hôte 2 avec une mémoire RAM 3 de 32 Moctets, un écran de contrôle 4. Le processeur hôte 2 est connecté par une ligne 5 une chaîne sonar (non représentée) dont il reçoit des données de triplets bruts tels que définis plus haut. Au processeur hôte 2 sont en outre associés un clavier 6, un disque dur fixe 7 de 5 "1/4 d'une capacité de 1 Gigaoctets, destiné à stocker le logiciel du système y compris le logiciel d'exploitation et le logiciel spécifique, et pour conserver de manière durable des données sonar tel- les que les triplets bruts ou des images de veille, telles que lofars, IFA et veille (θ(t)), un disque dur amovible 8 de 5" 1/4 d'une capacité de 500 Megaoctets pour stocker des données sonar telles que les triplets bruts ou des images de veille telles que lofars, IFA et veille (θ(t)) de manière temporaire pour pouvoir les exploiter à terre ou sur un autre site pouvant accepter le disque dur amovible.
Le système comporte en outre un lecteur de cartouche magnétique 9 de 4 pouces d'une capacité de 256 Megaoctets pour assurer la sécurité informatique du système en palliant la défaillance d'un des disques durs 7 et 8 et pour stocker ou relire des données avec un support le plus universel possible.
Le processeur hôte 2 est relié par un bus interne 10 à un processeur d'images 12 auquel sont associés un écran couleur 14 à haute résolution, une mémoire d'images 16 de 32
Megaoctets et un dispositif de commande constitué par une boule roulante 18.
Le processeur d'images ou processeur graphique dont le schéma est représenté à la figure 2 est dans le présent exemple un processeur GOULD IP9527.
A ce processeur est associée la mémoire d'images 16 de grande taille et à hautes performances permettant à 1 ' opérateur un accès instantané à de nombreuses images latentes. Le processeur 20 proprement dit est un processeur rapide de traitement de pixels permettant l'exécution d'opérations logiques et arithmétiques entre images à grande vi- tesse et l'exécution d'algorithmes classiques de traitement d'images tels que convolutions, histogrammes, etc..
Sont en outre prévus un poste de travail sur images incluant le moniteur 'couleur 14 (figure 1), un contrôleur de sortie vidéo 22 capable de gérer le moniteur couleur 14 à partir de trois signaux composites rouge, vert et bleu, un générateur de curseur 24 auquel sont associés la boule roulante 18" (figure 1) et un générateur de caractères pour produire des annotations superposées à une image ou de part et d'autre d'une image (non représenté), un logiciel dans le processeur hôte 2, ce logiciel étant modulaire sur plusieurs niveaux allant de la programmation de registres à l'exploitation interactive du système sous le système d'exploitation de l'hôte. Un contrôleur d'interface 26 est relié par le bus 10 au processeur hôte 2.
On va maintenant se référer à la figure 3 pour décrire de façon plus détaillée le processeur d'image dont le schéma synoptique est donné à la figure 2. La mémoire d'images 16 du processeur d'images est réalisée comme suit.
Les images affichées et traitées par le système sont contenues dans huit canaux mémoires de 4 Moctets à accès aléatoire direct de 2K* 2K* 8 bits où l'octet représente le niveau de gris du pixel allant de 0 (-noir) à 255 (blanc) et où chaque pixel est accessible par ses coordonnées X et Y, dans un repère orthogonal de longueur d'axe 2048. Chaque canal mémoire tel que le canal 25 représenté à la figure 3 peut servir à stocker des images ou des informations graphi- ques en recouvrement "overlay" sur 256 - niveaux de gris et 4096 couleurs différentes.
Sur les images stockées on peut effectuer les fonctions Zoom, Scroll, Transfert, Masquage, Adressage dont certains sont représentées à la figure 3. La fonction Zoom 26 associée à chaque canal mémoire
25 se fait par simple duplication de pixels de (1:2) à (1:16) en X. La fonction Scroll 27 permet le défilement de 1 ' image sur le canal mémoire 25 correspondant avec ou sans rebouclage sur le canal ou --"wrap around" .
La fonction transfert 28 est constituée par des ta- blés à 256 entrées et 256 sorties, une entrée pour une sortie, où un pixel peut changer de niveau de gris avec 256 possibilités soit 28. Les tables sont fournies par quatre sections de 256 octets chacune.
La fonction masquage 29 concerne la profondeur du pixel suivant les ordres de lecture/écriture reçus du processeur hôte 2 (figure 1).
Les huit canaux mémoires de 2048*, 2048*8 bits peuvent être configurés suivant n'importe quelle combinaison logique et découplables par le logiciel en zones d'intérêt en forme de parallélogramme (pour la réalisation d'histogrammes notammen ) .
Les images sont accessibles grâce à un accès multi- bus, par le contrôleur vidéo 22 (figure 2), par le processeur de traitement de pixels 20 et par le contrôleur du sys- tème 26 pour l'écriture et la lecture des pixels par le processeur hôte 2.
Le processeur de traitement de pixels 20 est un processeur rapide "pipeline" qui traite en entrée une combinaison de canaux mémoire 25 avec la sortie du contrôleur vidéo 22 pour réaliser des opérations telles que multiplications, additions, soustractions et comparaisons.
La sortie du processeur 20 est envoyée sur des canaux mémoire 25 choisis.
Le processeur 20 est capable de réaliser des opéra- tions sur 16 bits pour faciliter les algorithmes standards de traitement d'images, tels que convolutions, corrélations, détections de contours et un contrôle flexible permet de réaliser des opérations séparées sur différentes régions d ' une image. La sortie du contrôleur vidéo peut être envoyée sur le processeur; ainsi l'image de sortie finale peut contenir l'information brute, les recouvrements, les caractères alphanumériques et les curseurs et ainsi être envoyée dans un canal mémoire. La puissance de calcul de ce processeur est voisine de 40 Mopérations par seconde.
Les opérations de base sont les suivantes :
- somme de 4 produits sur 8 bits ( ax+by+cz+d ) où x,y, z,w, a, b,c, d sont des images, des constantes ou des fonctions en une passe, multiplication sur 16 bits sans signe en une passe,
- multiplication sur 16 bits avec complément à 2 en 3 passes,
- addition et soustraction sur 8,16 et 32 bits,
- maximum MAX et minimum MIN de deux images pixel par pixel sur des régions de 8 ou 16 bits de profondeur, sélection de régions d'intérêt où réaliser les opérations (régions en forme de parallélogramme),
- décalage en sortie par rotation de bits "shift", sur un nombre de 32 bits, sur un parmi deux nombres de 16 bits et sur un parmi 4 nombres de 8 bits.
Les opérations plus élaborées sont les suivantes : - filtrage linéaire en deux dimensions en une passe, filtrage non linéaire en deux dimensions en une passe,
- réalisation de statistiques locales (moyenne en une passe et variance en une passe de plus ) , - pondération d'images pour la réalisation de fondus enchaînés en une passe.
Le générateur d'histogramme du processeur 20 est un compteur des occurrences des niveaux de gris des pixels d'une région d'image. II crée une table qui contient- les fréquences de distribution des niveaux de gris sur 1 ' image ; la fréquence est relative au nombre de pixels traités (1048576 dans le cas 1K*1K).
Les performances sont les suivantes : - résultats sur 24 bits en 4 passes,
- niveaux de gris en entrée sur 8 ou 12 bits,
- contrôle de la région d'intérêt (région en forme de parallélogramme). On notera qu'une passe correspond au traitement d'une image vidéo standard de 512*512 pixels en 1/25 s c'est-à-dire au traitement de 6,25 Mpixels/s.
Le contrôleur vidéo 22 sélectionne, modifie, puise les données affichables et réalise la conversion numérique/analogique des données en signal vidéo pour le moniteur 14.
Le système comporte en outre :
- une fonction de transfert 30 pour la coloration LUT,
- un mélangeur 32 pour la prise en compte des informations en recouvrement telles que celles d'un curseur, des caractères alphanumériques et informations graphiques venant se superposer à l'image, - un générateur de caractères. Les fontes de caractères sont libres, dans la limite des soucis ergonomiques mais doivent être programmables par le processeur hôte 2 ( figure 1 ) .
Le système comporte deux curseurs programmables 34, à choisir parmi un ensemble de curseurs standards et parmi un ensemble de curseurs imaginés entièrement par l'utilisateur.
Le générateur de curseur reçoit un contrôle extérieur venant d ' un périphérique tel qu ' une boule ou un levier de manoeuvre "joystick" pour modifier la position (x,y) du curseur et pour pouvoir émettre des interruptions de gestion de curseurs (par exemple : le blocage d'un des deux curseurs lors de la création d'un parallélogramme).
- un multi-fenetrage à partir de plusieurs canaux mémoires. Ce multi-fenetrage est rigide," suivant une combinaison de quadrants de l'espace 1024*1024. Huit canaux mémoires peuvent apparaître à l'écran sur huit fenêtres de formes variables et contrôlées par logiciel.
- un gestionnaire de périphériques. Le système com- prend un périphérique externe pour la commande interactive, sous la forme d'une boule, pour ' permettre par exemple le déplacement des curseurs dans la direction du déplacement de la boule d ' une valeur proportionnelle au mouvement de celle- ci. La boule contient également six boutons poussoirs, dont la combinaison d ' états logiques binaires est scrutable et susceptibles d'envoyer des interruptions au générateur de curseur, un convertisseur analogique-numérique et les cir- cuits classiques du moniteur.
Le logiciel utilisé utilise une bibliothèque en C, PASCAL ou FORTRAN.
On procède à une multiprogrammation à partir du processeur hôte 2 (figure 1). Le système peut accueillir quatre processus lancés en parallèle qui se partagent les ressources internes indépendantes suivantes :
- processeur de pixels,
- contrôleur vidéo, - générateur de texte,
- générateur de curseur,
- périphérique (boule)
- chaque canal mémoire.
Chaque table de transfert de niveau de gris de cha- que canal mémoire ( un processus peut générer le canal 1 et un autre peut générer l'ITT du canal 1).
En fait le système physique peut se découper, à un instant donné en quatre systèmes logiques constitués d'une combinaison des ressources précédentes. L'interface physique, à un niveau logiciel bas, est compatible avec le bus interne de la station de travail.
A un niveau haut, proche de l'application, les instructions envoyées au système peuvent se répartir en trois catégories : - les instructions d'écriture où- le processeur hôte suit les écritures dans des registres du système,
- les instructions de lecture où le processeur hôte suit la lecture dans des registres du système, les instructions automatiques où le processeur hôte laisse le système travailler seul.
Le système qui vient d ' être décrit en référence aux figures 1 à 3 permet de réaliser les fonctions suivantes. Images au format "gisement ou azimut-temps" avec informations spectrales globales.
Une image au format "gisement ou azimut-temps" avec informations spectrales globales fournit à 1 ' opérateur 1 ' in- formation brute, incorporant une information spectrale de premier niveau qui permet par manipulation interactive :
- d'augmenter le contraste dans certaines bandes de fréquence afin de mieux faire ressortir les bruiteurs faibles éventuellement non détectés par la poursuite "bruiteurs",
- de déceler des changements classifiants de situation acoustique des bruiteurs poursuivis ou non,
- d'orienter l'opérateur vers les bandes de fréquences qui paraissent contenir de l'information pertinente. Les images peuvent être décrites comme suit :
- abscisses : gisement (ou azimut) ; résolution pratique de l'ordre de 0,2 degré (1024 pixels pour 180 degrés),
- ordonnées : temps, luminosité : proportionnelle au rapport si- gnal/bruit exprimée sur huit bits,
- teintes : quatre teintes correspondant chacune au quart de 1 ' étendue spectrale des données : une teinte par h d'octave ou une teinte par octave,
- manipulations interactives : variation sélective et continue de la luminosité (pouvant aller jusqu'à l'extinction complète) au moyen d'une souris (ou de la boule roulante "track bail") pour chacune des combinaisons des quatre teintes ; cette manipulation est guidée par une réglette colorée portant les limites de fréquence en Hz. Représentation amplitude-fréquence sur "zones d'intérêt" en gisement ou azimut-temps.
Le format de représentations amplitude-fréquence sur "zones d'intérêt" en gisement (ou azimut)- temps va être décrit ci-après. Ce format est un "graphe annexe" à juxtaposer à l'image décrite au paragraphe précédent.
Il permet à l'opérateur d'obtenir instantanément une vue globale aux dimensions amplitude-fréquence du contenu spectral de la zone gisement-temps qui l'intéresse. Ce format est obtenu par détermination interactive. L'opérateur choisit au moyen de la boule une "zone d'intérêt" en forme de parallélépipède coïncidant grossièrement avec la zone à explorer spectralement sur l'image gisement- temps.
Le système calcule et visualise en "graphe annexe" 1 ' histogramme :
- en abscisses : fréquences,
- en ordonnées : nombre d ' occurrences de chaque fré- quence, dans la zone d'intérêt,
- luminosité : constante à régler une fois pour toutes,
- teinte : verte.
Filtres en gisement ou "lofar circulant". Le format filtre en gisement ou "lofar circulant" est une version dynamique d'un format classique fréquence- temps juxtaposable de façon interactive et instantanée, à la différence des lofars des voies réservées à la classification, à l'image de veille panoramique du paragraphe relatif aux images du format "gisement ou azimut-temps.
Il permet à l'opérateur d'obtenir instantanément une vue globale aux dimensions fréquence-temps du contenu spectral de la zone de gisement qui l'intéresse.
La largeur de la zone peut être réduite jusqu'à la résolution de l'image gisement-temps, permettant ainsi à l'opérateur de discriminer les signatures de deux bruiteurs voisins.
La détermination interactive est réalisée comme suit: - l'opérateur fait varier au moyen de la boule les limites de la plage de gisement intéressante,
- le mouvement droite-gauche détermine la position de la zone,
- le mouvement avant-arrière détermine la largeur de la zone,
- ces limites sont matérialisées par deux traits fins verticaux couvrant toute la hauteur de l'image décrite dans la mise au format. Le système visualise de façon dynamique, c'est-à- dire de façon continue et instantanée le "lofar" correspondant à la zone ainsi déterminée :
- abscisses : fréquences sur 1 ' étendue des données d'entrée,
- ordonnées : temps,
- luminosité proportionnelle au rapport S/B,
- teinte : monochrome, de préférence verte.
Le "lofar circulant" est juxtaposé à l'image gise- ment ( azimut ) -temps, avec des axes "temps" parallèles de façon à permettre la corrélation temporelle entre les deux images. Filtres spectraux ou "filtres de menace".
Des filtres spectraux ou "filtres de menace" sont obtenus en appliquant à l'image gisement-temps un filtrage spectral, dans un gabarit fixé interactivement par l'opérateur ; celui-ci compose son ou ses filtres de façon continue ou discrète, dans les limites des combinaisons permises par la quantification des fréquences. Ce filtrage peut révéler très rapidement la présence éventuelle d'un bruiteur dont le rayonnement acoustique répond au gabarit du filtre, des changements de situation acoustique de bruiteurs déjà détectés, ou permettre la détection de bruiteurs non décelés par d'autres procédés. La construction interactive continue du filtre est assurée au moyen de la boule :
- un mouvement droite-gauche détermine la position du gabarit,
- un mouvement avant-arrière détermine la largeur du gabarit.
La construction interactive discrète du filtre est réalisée au moyen du clavier ou de tout autre moyen d'entrée.
L'opérateur entre les valeurs de fréquences discrè- tes accompagnées d'un df approprié, qui sont sensées caractériser la menace.
Le système recompose instantanément 1 ' image gisement-temps en ne visualisant que les quadruplets dont la fréquence est à l'intérieur du gabarit. En variante, ces quadruplets sont visualisés avec une teinte contrastant avec celle du reste de 1 ' image qui dans ce cas doit être monochrome (verte).
Image au format fréquence-gisement ou azimut avec historique (FGH ou FAH) .
Une image au format fréquence-gisement (ou azimut) avec historique (FGH ou FAH) constitue une évolution de l'instantané fréquence-azimut "IFA". Elle fournit à l'opérateur une vision spectrale globale, sur tout l'horizon et sur une étendue temporelle réglable interactivement en date et en durée. Cette étendue peut ou non contenir la dernière récurrence, c'est-à-dire l'instantané fréquence-azimut. Cette image donne en abscisses le gisement (l'azimut), avec les mêmes échelles que celles de 1 ' image au format gisement ou azimut-temps. Elle donne :
- en abscisses le gisement ou l'azimut, avec les mêmes échelles que celles de l'image au format "gisement ou azimut-temps" décrite plus haut.
- en ordonnées les fréquences sur toute la bande traitée.
Des manipulations interactives permettent à 1 ' opérateur de régler l'étendue de la plage temporelle visualisée au moyen de la boule de la façon suivante :
- un mouvement droite-gauche donne la date de la plage,
- un mouvement avant-arrière donne la durée de la plage.
La dernière récurrence est visualisée avec un graphisme particulier. Fonctionnalités graphiques communes aux différentes images.
Les fonctionnalités graphiques interactives qui sont présentes de façon standard dans les matériels de visualisation modernes telles que "Panoramique" et "Zoom" sont employées chaque fois qu'elles sont utiles à l'exploitation des images :
- centrage des images sur 1 ' azimut ou le gisement sur lequel l'opérateur porte son intérêt ; ceci évite aussi de construire des images avec échelles débordantes et fait donc gagner de la place, - positionnement de 1 ' image visualisée à 1 ' intérieur d'une zone d'image mémorisée ("image virtuelle") de grandes dimensions ; cette fonctionnalité est utile dans les cas opérationnels suivants : rappel en visualisation d'une zone temporelle antérieure, à condition que l'on ait sauvegardé en mémoire d'image les quadruplets bruts correspondants, balayage rapide d'une grande quantité d'informations, - focalisation (avec ou non agrandissement) de
1 ' image sur un secteur choisi interactivement : obtention d'images "sectorielles".
Le procédé implémenté sur le système informatique décrit en référence aux figures 1 à 3 repose sur le codage en niveau de gris de paramètres autres que les amplitudes de signaux.
On retrouve ainsi des images sonar, invisibles pour un opérateur, où la fréquence, le gisement, le temps sont codés en niveaux de gris. L'utilisation de la couleur est réalisée comme suit.
Sur un écran une image est caractérisée par des paramètres graphiques : coordonnée X, coordonnée Y et "COULEUR" .
Le problème consiste à associer d'une façon cohé- rente les paramètres physiques caractéristiques des données à représenter, aux paramètres graphiques.
La couleur se décompose en trois grandeurs presque indépendantes :
- la luminosité, - la teinte,
- la saturation.
La saturation étant difficile d'emploi, on la fixe à 1 et on utilise les deux premiers paramètres.
A titre d'illustration on prend pour exemple la construction d'une image de veille.
Une image de veille classique consiste en la représentation en fonction du temps T et de 1 ' azimut θ des rapports S/B notés AMP, associés à une gamme de fréquences F. O 99/18451
17
On peut poser 1 ' association suivante
PARAMETRES PHYSIQUES PARAMETRES GRAPHIQUES
T _ Y θ - X
AMP LUMINOSITE F TEINTE
Pour combiner d'une façon cohérente LUMINOSITE et TEINTE, on raisonne à partir de deux images intermédiaires obtenues à partir de mesures physiques. L'image A qui donne
AMP en fonction de T et de θ, AMP étant la plus grande valeur trouvée pour un T et un θ donnés .
Figure imgf000019_0001
L'image F qui donne F en fonction de T et de θ, F étant la valeur associée à la plus grande valeur de AMP trouvée pour un T et un θ donnés.
On prend zf pour niveau de gris de base de la plage donné par une table de couleurs "Look Up Tables" ou LUT, constituant la couleur, associée à la gamme de fréquences (on appelle niveau de gris de base le plus petit niveau de gris d ' une rampe de LUT ) .
Figure imgf000019_0002
On doit trouver 1 ' image R
Figure imgf000020_0001
On a Xa = Xf = Xr Ya = Yf = Tf Zr = f(Za,Zf)
On essaie de déterminer f(u,v) pour que sa perception soit égale à R. Pour cela on fait intervenir une ressource du processeur graphique : les tables de couleurs associées aux "canons" rouge, vert, bleu (les tables LUT ou "Tables de couleurs").
On place dans une table par exemple quatre rampes de couleurs (bleue, verte, jaune et rouge). Les quatre teintes implantées servent à décerner en pratique quatre gammes de fréquences .
->Rampe Bleue
->Rampe Rouge
LUT R
LUT V
LUT B
Ainsi, pour obtenir l'image R, il suffit de se dé- placer dans la rampe de couleur associée à la gamme de fréquences, proportionnellement à AMP. De manière générale AMP est codé sur 256 niveaux de gris. Il faut donc restreindre le domaine de variation de Za à 256/4.
En effet, plus on augmente le nombre de couleurs, plus on diminue la dynamique de Za.
Finalement on obtient :
Xâ = Xf = Xr
Ya = Yf = Yr
Zr = Z f + 255 Za nombre de teintes
Pour obtenir R on combine donc linéairement les images A et F. L'image de veille constituée, un opérateur peut l'examiner en manipulant les niveaux de gris associés à une gamme de fréquences. Ceci a pour effet de faire varier la luminosité de la couleur associée suivant des lois logarithmiques linéaires ou exponentielles. Ainsi on peut obtenir des images de veille telles que des images au format «gisement-temps» avec informations spectrales globales.
La mise en oeuvre de 1 ' invention fait également appel à l'utilisation d'opérateurs logiques. La première solution a pour défaut de ne pas permettre d'utiliser la dynamique maximale des niveaux de gris au nombre de 256.
La solution qui va être décrite maintenant remédie à ce problème. On dispose toujours des images A et F mais toutes deux servent maintenant à coder respectivement 256 amplitudes et 256 plages de fréquences en niveaux de gris.
On peut alors créer facilement une image Fi où tous les pixels sont à zéro sauf ceux dus à une certaine plage de fréquences dont le niveau de gris est 255. Pour cela il suffit d'injecter dans la table de couleurs "LUT" associée une fonction de masquage en créneau.
Figure imgf000022_0001
fonction de masquage i
On effectue alors un "ET" logique entre les images A et Fi pour obtenir une image Ri : image de veille donnée par la gamme de fréquences i.
Figure imgf000022_0002
Cette méthode est très intéressante puisque l'opérateur peut modifier interactivement la table "LUT" pour obtenir 256 images Ri tout en n'ayant en mémoire que les deux images A et Fi.
Les images obtenues pourront être explorées interactivement en jouant sur le niveau de gris.
La figure 4 illustre le processus d'implantation de filtres spectraux ou filtres de, enace.
On élabore tout d'abord une image de veille centrée sur toute la gamme de fréquence qui apparaît sur un canal mémoire 1, et dont le niveau de gris ndg détermine le rapport signal/bruit : ndg = S/B.
L'image correspondante apparaît sur l'écran du moniteur sous la forme d'une image A. On élabore ensuite sur un canal mémoire 2 une image
S de veille des sources fréquentielles sur toute la gamme.
Le niveau de gris ndg de cette image indique la fréquence ndg = freq. L'image S apparaît dans une seconde zone de l'écran. On choisit un filtre en fréquence sur fonction de transfert entre les fréquences FI et F2 et on applique une opération ET logique entre les deux images compte tenu du filtrage en fréquence choisi et on obtient sur un canal mémoire 3 une image de veille filtrée sur F1-F2. L'élaboration du filtre en gisement ou "lofar circulant" est représenté à la figure 5.
C'est le premier aspect dual de l'application précédente. On manipule ici des images au format lofar (F,T) avec une image source où est codé le gisement origine du maximum du rapport S/B à un instant donné.
On forme sur un canal mémoire 1 une image LOFAR panoramique 0-180*. Cette image A apparaît dans une première zone de l'écran du moniteur.
Le niveau de gris donne le rapport S/B :
ndg = S/B
On forme sur un canal mémoire 2 une image LOFAR de source sur 0-180*
Cette image S apparaît dans une seconde zone de 1 ' écran.
Le niveau de gris indique la valeur TETA :
ndg = TETA
Ensuite l'opérateur choisit un secteur sur fonction de transfert d'après l'image de veille (TETA,T) élaborée sur un canal mémoire 4. Une opération logique ET entre images entraîne 1 ' apparition dans une troisième zone de 1 ' écran de 1 ' image LOFAR de poursuite élaborée sur ui canal mémoire 3.
L'élaboration d'une image au format fréquence- gisement avec historique (FHG) est représentée à la figure 6.
C'est le deuxième aspect dual de la première application.
On manipule ici des images au format lofar (F,θ) avec une image source où est codé le temps origine du maximum de S/B à un instant donné.
On élabore sur un canal mémoire 1 une image A fréquence-gisement sur toute la gamme de temps.
Cette image apparaît dans une première zone de l'écran ; le niveau de gris ndg donne le rapport S/B :
ndg = S/B
On élabore sur un canal mémoire 2 une image S fré- quence-gise ent des sources temporelles sur toute la gamme.
Cette image apparaît dans une seconde zone de l'écran, les niveaux de gris indiquant le temps ndg = temps. L'opérateur choisit un filtre en temps sur fonction de transfert, dans un intervalle Tl, T2 d'application et une opération ET logique entre images permet l'élaboration dans un canal mémoire 3 de 1 ' image fréquence-gisement filtrée sur l'intervalle du temps T1-T2 et apparaissant dans une troisième zone de l'écran.
La figure 7 représente l'élaboration d'une représen- tation amplitude-fréquence sur "zone d'intérêt en gisement- temps" .
Les images A et S sont les mêmes que celles élaborées pour les filtres spectraux ou "filtres de menace" de la figure 4. Sur les images A et S on délimite une zone d'intérêt par un rectangle et on établit un histogramme sur 1 ' image des sources dans la zone d'intérêt. Cet histogramme indique la signature des sources dans la zone d'intérêt.
Dans le mode de réalisation qui vient d'être décrit on utilise un certain matériel informatique donné' à titre indicatif. On comprendra cependant que d'autres systèmes informatiques possédant des fonctionnalités et des performances équivalentes peuvent convenir.

Claims

REVENDICATIONS
1. Procédé de représentation d'un champs de données multidimensionnelles sur un écran de visualisation (14), consistant à : - utiliser les coordonnées d'écran pour deux dimensions des données et au moins deux composantes de perception de la couleur parmi la luminosité, la teinte et la saturation pour au moins deux autres dimensions desdites données,
- organiser les champs de données multidimensionnelles dans une mémoire volumique (16) décomposée en plans d'images virtuelles, et caractérisé en ce qu'il consiste dans chaque plan d'image virtuelle, à coder des paramètres spécifiques d'échantillons de données par des paramètres graphiques, deux paramètres étant rapportés aux coordonnées de mémoire et un paramètre étant codé par la dynamique du pixel en niveau de gris.
2. Procédé de représentation suivant la revendication 1 , caractérisé en ce qu'il consiste en outre à effectuer des opérations de filtrage de paramètres spécifiques.
3. Procédé de représentation suivant la revendication 2, caractérisé en ce que les opérations de filtrage sont réalisées par modification interactives de tables de transfert (28) agissant sur les niveaux de gris mémorisées dans les images virtuelles.
4. Procédé de représentation suivant l'une des revendications 2 et 3, caractérisé en ce que les opérations de filtrage sont réalisées par des opérations logiques et/ou mathématiques entre images virtuelles.
5. Procédé suivant l'une des revendications 1 à 4, appliqué à l'élaboration d'une image réelle présentée sur un écran d'affichage (14) à partir de résultats mémorisés en images virtuelles, caractérisé en ce qu'il consiste à assurer une modification interactive d'une table de transfert finale (28) qui calcule les valeurs des composantes rouge, verte, bleue des pixels en fonction des valeurs de luminosité, teinte et saturation souhaitées.
6. Procédé d'élaboration à partir de données de sonar d'écoute passive d'images opérationnelles contrôlées interactivement par l'opérateur de façon continue en fonction du besoin opérationnel et compatible avec les besoins d'informations en temps réel, caractérisé en ce qu'il met en oeuvre le procédé de représentation suivant l'une des revendications 1 à 5, pour élaborer une image gisement-temps ou azimut-temps avec représentation des fréquences par la teinte et filtrage interactif.
7. Procédé suivant la revendication 6, caractérisé en ce que le filtrage interactif comporte l'élaboration d'un filtre de nuance par imagerie.
8. Procédé suivant l'une des revendications 6 et 7, caractérisé en ce que le filtrage interactif comporte en outre l'élaboration d'une image lofar circulant réglable interactivement en direction et en gisement.
9. Procédé suivant l'une des revendications 6 à 8, caractérisé en ce que le filtrage interactif comporte en outre l'élaboration d'une image de spectre sur zone d'intérêt en gisement-temps réglable interactivement.
10. Procédé suivant l'une des revendications 6 à 8, caractérisé en ce que le filtrage interactif comporte en outre l'élaboration d'une image au format fréquence-gisement avec historique réglable interactivement.
11. Système de représentation d'un champ de données multidimensionnelles sur un écran de visualisation (14), destiné à la mise en oeuvre du procédé suivant l'une des revendications 1 à 12, comportant un processeur hôte (2) destiné à être connecté à une chaîne de prise de données multidirectionnelles et auquel sont associés des moyens (7,8,9) de mémorisation du logiciel du système et du logiciel d'exploitation, et pour conserver les données multidimensionnelles, un processeur d'images (12) relié au processeur hôte (2) par un bus interne (20) et auquel sont associés un écran couleur (14) à haute résolution, une mémoire d'image (16) et un dispositif de commande actionnable par un opérateur, caractérisé en ce que la mémoire d'image (16) comporte des canaux mémoires (25) à accès aléatoire direct, dans lesquels chaque pixel est accessible par des coordonnées X et Y dans un repère orthogonal, chaque canal mémoire (25) servant à stocker des images ou des informations graphiques en recouvrement sur un nombre prédéterminé de niveaux de gris et de couleurs différentes.
12. Système de représentation suivant la revendication 11 , caractérisé en ce que les canaux mémoires (25) peuvent être configurés suivant une combinaison logique quelconque et découplés par le logiciel du système en zones d'intérêt en forme de parallélogramme en particulier pour la réalisation d'histogrammes.
13. Système de représentation suivant l'une des revendications 11 et 12, caractérisé en ce qu'il comporte en outre un contrôleur vidéo (22) capable de gérer le moniteur de couleur (14) à partir de trois signaux composites vert, bleu, rouge, un générateur de curseur (24) auquel sont associés le dispositif de commande (18) actionnable par une opérateur et un générateur de caractères pour produire des annotations associées à une image et en ce que le logiciel contenu dans le processeur hôte (2) est un logiciel modulaire sur plusieurs niveaux allant de la programmation de registres à l'exploitation interactive du système.
PCT/FR1998/002124 1997-10-06 1998-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede Ceased WO1999018451A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP98947603A EP1021734A1 (fr) 1997-10-06 1998-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede
CA002305497A CA2305497A1 (fr) 1997-10-06 1998-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede
US09/529,006 US6421300B1 (en) 1997-10-06 1998-10-06 Method for screen display of a multidimensional data field, particularly for data supplied by a passive sonar, and system for implementing said method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9712430A FR2771532B1 (fr) 1997-10-06 1997-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par une source d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede
FR97/12430 1997-10-06

Publications (1)

Publication Number Publication Date
WO1999018451A1 true WO1999018451A1 (fr) 1999-04-15

Family

ID=9511869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR1998/002124 Ceased WO1999018451A1 (fr) 1997-10-06 1998-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede

Country Status (5)

Country Link
US (1) US6421300B1 (fr)
EP (1) EP1021734A1 (fr)
CA (1) CA2305497A1 (fr)
FR (1) FR2771532B1 (fr)
WO (1) WO1999018451A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001098796A3 (fr) * 2000-06-22 2002-05-02 Lockheed Corp Systeme de surveillance acoustique dote d'un affichage de donnnees de signature et de portee
WO2009098180A1 (fr) * 2008-02-07 2009-08-13 Atlas Elektronik Gmbh Procédé pour guider une attaque par torpille

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2800879B1 (fr) * 1999-11-09 2007-03-02 France Etat Procedes et dispositifs associes de determination de la forme d'une antenne lineaire et de lever d'ambiguite conique
US6801908B1 (en) * 2002-01-28 2004-10-05 Supplychainge Inc System and method for selectively presenting multi-dimensional data in two-dimensional form
GB0717031D0 (en) * 2007-08-31 2007-10-10 Raymarine Uk Ltd Digital radar or sonar apparatus
CN101825704B (zh) * 2009-12-08 2012-12-12 中国科学院声学研究所 一种用于合成孔径声纳系统中的图像显示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1236971A (en) * 1968-05-31 1971-06-23 Ferranti Ltd Information display systems incorporating multicolour cathode ray tubes
US4596145A (en) * 1983-09-20 1986-06-24 Smith Stephen W Acoustic orthoscopic imaging system
US4641668A (en) * 1982-07-28 1987-02-10 Aloka Co., Ltd. Ultrasonic blood flow imaging method and apparatus
US5175710A (en) * 1990-12-14 1992-12-29 Hutson William H Multi-dimensional data processing and display
DE4409117A1 (de) * 1994-03-17 1995-09-21 Stn Atlas Elektronik Gmbh Echolot
US5455806A (en) * 1990-12-14 1995-10-03 Hutson; William H. Multi-dimensional signal processing and display

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6070003A (en) * 1989-11-17 2000-05-30 Texas Instruments Incorporated System and method of memory access in apparatus having plural processors and plural memories

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1236971A (en) * 1968-05-31 1971-06-23 Ferranti Ltd Information display systems incorporating multicolour cathode ray tubes
US4641668A (en) * 1982-07-28 1987-02-10 Aloka Co., Ltd. Ultrasonic blood flow imaging method and apparatus
US4641668B1 (fr) * 1982-07-28 1991-12-24 Aloka Co Ltd
US4596145A (en) * 1983-09-20 1986-06-24 Smith Stephen W Acoustic orthoscopic imaging system
US5175710A (en) * 1990-12-14 1992-12-29 Hutson William H Multi-dimensional data processing and display
US5455806A (en) * 1990-12-14 1995-10-03 Hutson; William H. Multi-dimensional signal processing and display
DE4409117A1 (de) * 1994-03-17 1995-09-21 Stn Atlas Elektronik Gmbh Echolot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001098796A3 (fr) * 2000-06-22 2002-05-02 Lockheed Corp Systeme de surveillance acoustique dote d'un affichage de donnnees de signature et de portee
US6501705B1 (en) 2000-06-22 2002-12-31 Lockheed Martin Corporation Acoustic surveillance system with signature and bearing data display
WO2009098180A1 (fr) * 2008-02-07 2009-08-13 Atlas Elektronik Gmbh Procédé pour guider une attaque par torpille

Also Published As

Publication number Publication date
US6421300B1 (en) 2002-07-16
EP1021734A1 (fr) 2000-07-26
FR2771532B1 (fr) 2000-09-22
CA2305497A1 (fr) 1999-04-15
FR2771532A1 (fr) 1999-05-28

Similar Documents

Publication Publication Date Title
Weier et al. Perception‐driven accelerated rendering
US10073602B2 (en) System and method for displaying a suggested luminance adjustment for an image
EP1227442B1 (fr) Procédé de traitement d'images en 2D appliquées sur des objets en 3D
Ma et al. Change blindness images
EP0840252A1 (fr) Procédé de traitement d'image numérique pour l'extraction automatique d'objets en forme de rubans
US10791412B2 (en) Particle-based spatial audio visualization
FR2842931A1 (fr) Amelioration d'un procede pour afficher des variations temporelles dans des images superposees dans l'espace.
WO2008048470A1 (fr) Écran en verre de visualisation pour des images multicomposantes
WO1999018451A1 (fr) Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede
WO2022196200A1 (fr) Dispositif de traitement d'informations, procédé de traitement d'informations, programme de traitement d'informations et système de traitement d'informations
Elmqvist et al. Color lens: Adaptive color scale optimization for visual exploration
JP2000348205A (ja) レンダリングパイプラインにおけるボリュームデータの調整ライティング方法及び装置
FR2565052A1 (fr) Systeme d'imagerie a ecran divise
Zhou et al. Photographic high-dynamic-range scalar visualization
FR2741521A1 (fr) Procede d'acquisition automatique de l'angle doppler, en echographie, et agencement pour la mise en oeuvre du procede
WO2007135309A2 (fr) Procede de codage et systeme d'affichage sur un ecran d'une maquette numerique d'un objet sous forme d'une image de synthese
Reinhard Natural image statistics for computer graphics
EP3818495A1 (fr) Procede et dispositif d'affichage de donnees sonar ou radar a haute dynamique
Jeong et al. A Collaborative Digital Pathology System for Multi‐Touch Mobile and Desktop Computing Platforms
EP2987319A1 (fr) Procede de generation d'un flux video de sortie a partir d'un flux video large champ
Laco et al. Depth in the visual attention modelling from the egocentric perspective of view
Miao et al. Under-scanning non-line-of-sight imaging based on convolution approximation and optimization
Yan et al. Recording and documenting the chromatic information of architectural heritage
CN114972466A (zh) 图像处理方法、装置、电子设备和可读存储介质
US7706586B2 (en) Real-time structure suppression in ultrasonically scanned volumes

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2305497

Country of ref document: CA

Ref country code: CA

Ref document number: 2305497

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 1998947603

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09529006

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1998947603

Country of ref document: EP