[go: up one dir, main page]

WO1992012497A1 - Neural network with binary operators and methods of implementation - Google Patents

Neural network with binary operators and methods of implementation Download PDF

Info

Publication number
WO1992012497A1
WO1992012497A1 PCT/FR1991/001082 FR9101082W WO9212497A1 WO 1992012497 A1 WO1992012497 A1 WO 1992012497A1 FR 9101082 W FR9101082 W FR 9101082W WO 9212497 A1 WO9212497 A1 WO 9212497A1
Authority
WO
WIPO (PCT)
Prior art keywords
type
neurons
neuron
domain
synapses
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/FR1991/001082
Other languages
French (fr)
Inventor
Claude Abin
Patrick Demoncy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of WO1992012497A1 publication Critical patent/WO1992012497A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Definitions

  • the present invention relates to associative memories constituted by neural networks.
  • Such networks are generally made up of artificial neurons comprising input synapses connected to a summation operator followed by a non-linear element, said artificial neurons being interconnected with one another.
  • the present invention proposes to provide a neural network which does not have the aforementioned drawbacks.
  • the subject of the invention is a neural network comprising neurons comprising input synapses connected to a logical operator, said neurons being interconnected with each other, characterized in that: - it is made up of fully binary neurons;
  • the summation operator performs a "NON-OR" logic function such that its output is only active if all of its inputs are at the inactive level;
  • the neurons are grouped into areas of mutual exclusion which include several neurons of a first type N and a single neuron of a second type G;
  • the synapses of the neuron of the second type G respectively receive the output signals of the neurons of the first type N of the domain considered and the output signals of the neurons of the second type G of the domains interconnected with the domain considered; and - in each mutual exclusion domain, the synapses of the neurons of the first type N respectively receive the output signals of the neurons of the first type N of the domain considered, the output signals of the neurons of the first type N of the domains interconnected with domain considered, at least one inhibition signal coming from neurons of the second type G of the domains interconnected with the domain considered and external signals.
  • the N type neurons are connected by a synapse to the output of each of the G neurons from the domains interconnected to their domain.
  • each neuron of the second type G comprises a circuit generating an inhibition signal H, said circuit being controlled by the output signal of the type G neuron considered and by the output signals of type G neurons from the domains interconnected to the domain considered.
  • the inhibition signal is transmitted to each neuron of type N by a synapse connected to the output of the circuit generating the inhibition signal H of the neuron of type G of the domain considered.
  • each neuron of the second type G comprises a circuit generating a learning command (A1, A2) controlled by the output signal of this neuron
  • the neurons of the first type N comprise interruptible synapses provided with a control circuit and a circuit generating a blocking signal Z and a learning signal C, receiving the learning command (A1, A2) supplied by the neuron of the second type of domain considered, and an INIT initialization signal.
  • the abovementioned blocking Z and learning signals C are sent to all the control circuits of the interruptible synapses.
  • the learning command is a two-bit reflected binary code.
  • the invention relates to a method for producing an associative memory constituted by a neural network according to the invention, this method being characterized in that a neural network is connected, connected by permanent synapses according to a determined configuration. A non-modifiable memory is thus produced.
  • the invention also relates to another method for producing an associative memory constituted by a neural network according to the invention, this method being characterized in that a network is made up of interruptible synapses controllable by an external system.
  • the interruptible synapses can be constituted by fuses, switching elements controlled by a rocker or switching elements controlled by a memory cell.
  • the invention also relates to a method for producing an associative memory constituted by a neural network according to the invention, characterized in that, by the action of the initialization signal, all the interruptible synap ⁇ its are set to active state and that unsupervised learning is then carried out.
  • Figure 1 A is the basic diagram of a neuron according to the invention and Figure 1 B represents the response curve of the amplifier-inverter stage;
  • FIG. 1 shows an electrical embodiment of the neuron of Figure 1;
  • FIG. 3 is a symbolic representation of this neuron
  • Figure 4 A is an exemplary embodiment of a modifiable synapse with its control circuit and Figure 4 B its symbolic representation;
  • FIG. 4 C represents an example of the creation of a permanent synapse and FIG. 4 D is its symbolic representation;
  • FIG. 5 shows the Petri graph of the triggering of the modifiable synapse of Figure 4 A;
  • - Figure 6 A is the electrical diagram of the learning control circuit and Figure 6 B its symbolic representation;
  • FIG. 8 is the complete symbolic diagram of a neuron of the first type N;
  • FIG. 10 A is the electrical diagram of the circuit for generating the inhibition signal and FIG. 10 B is the diagram of the circuit for generating the learning signals;
  • FIG. 11 is a block diagram of a mutual exclusion domain
  • FIG. 12 is an explanatory diagram representing a field of mutual exclusion with three elements
  • FIG. 13 A and 13 B show two embodiments of a mutual exclusion network
  • FIG. 14 is the symbolic representation of a network consisting of two areas of mutual exclusion
  • FIG. 15 is the timing diagram representing the changes in the signals between two areas of mutual exclusion before learning
  • - Figure 16 shows the matrix of connections of an exemplary embodiment of a neural network constituting an associative memory before its learning phase
  • - Figure 17 shows the matrix of connections of the same network after learning
  • - Figure 19 shows an example of a tree network
  • - Figure 20 is a timing diagram showing the evolution of the learning signals during a first type learning
  • FIG. 21 is a timing diagram showing the evolution of learning signals during a second type of learning
  • FIG. 23 A and 23 B illustrate the operation of the learning control circuit.
  • a logic signal can take two values: OV for the "inactive” state ("0"), and + V (value of the supply voltage) for the " active "(" 1 ").
  • V value of the supply voltage
  • Figure 1A is the block diagram of a neuron according to the present invention. It comprises several input synapses E1 to EN whose signals are sent on a summing circuit ⁇ ; the output of this summing circuit is sent to a gain inverting amplifier - A, A being greater than 1, which has a VTH threshold as can be seen on the curve of FIG. 1 B which shows the output S of this inverting amplifier depending on the input signal E.
  • the logic signals used in this circuit can take the value + V for the active state and the value zero for the inactive state.
  • the characteristics of the inverting amplifier fulfill the following condition: V --- A ⁇ VTH ⁇ + V
  • the excursion of the output signal is limited to a range between OV and + V.
  • the output is active. The neuron therefore behaves like a logical "NO-OR" element.
  • FIG. 2 represents an example of an electrical device advantageously performing this function with a MOSFET transistor, P channel.
  • Each permanent synapse consists of a simple diode.
  • Figure 3 is a proposed symbolic representation of the neuron.
  • the different synapses of the neurons according to the invention can be either permanent, or modifiable or interruptible, which means that the synapse can take two states, valid or invalid.
  • a signal relating to a synapse is only taken into account by the summing-inverting stage if this synapse is valid. In the initial state the synapses are all valid.
  • a neuron of this type is in the active state if all the afferent signals having their valid synapses are inactive.
  • FIGS. 4 A and 4 B represent an exemplary embodiment of a modifiable synapse and of its control circuit.
  • the circuit shown in FIG. 4 A consists of five NAND logic circuits 11 to 15, an inverter circuit 16 and a controlled switch 17 whose output is connected to a diode 18.
  • the control circuit receives three signals C /, E and Z / and outputs an X signal, as symbolized in FIG. 4 B.
  • the signal E is one of the afferent signals of the neuron
  • the signal C / is a signal for controlling learning
  • the signal Z / is an initialization signal.
  • the signal X supplied by this synapse is sent to the inverting summing stage which has been described above.
  • FIGS. 4 C and 4 D represent an example of embodiment of a non-modifiable or permanent synapse; it can be constituted by a diode 21 and represented symbolically as shown in FIG. 4 D.
  • the triggering of the synapse of figure 4 A corresponds to the sequence described by the Petri graph of figure 5.
  • the signal Z places the synapse in the valid state, that is to say that the signal output of the synapse is the copying of the related signal E connected to its input.
  • the transition of this synapse from the valid state to the invalid state takes place according to the following sequence:
  • FIG. 6 A describes a circuit for controlling the learning of a neuron of type N.
  • This circuit receives the input signal INIT, the logic signals Al and A2, and the output N (the state) of the neuron possibly by via a low-pass filter 31 in order to guarantee against transient states at the time of competition between the neurons. It delivers as output the logic signal C for controlling learning, and the logic signal Z, signals which are distributed over all the modifiable synapses of the neuron.
  • FIG. 7 indicates the actions carried out by the learning control circuit as a function of the signals A1 and A2.
  • FIG. 8 represents the complete diagram of a neuron of type N, integrating the elements described above: permanent synapses, modifiable synapses, amplifier-inverter stage similar to the basic diagram, circuit for controlling learning.
  • Each exclusion domain comprises a large number of neurons of a first type N which has just been described above; each exclusion domain also includes a second type G neuron, FIG. 9 of which represents the complete block diagram.
  • this type G neuron receives a synapse from each of the type N neurons of its exclusion domain, namely NI, N2 ..., NN and synapses originating from the same type G neurons of the others. exclusion fields, namely G2, G3 ..., GN. Synapses originating from type N neurons are sent to a first summing circuit 21 followed by an inverting amplifier 22 of the type described above; similarly, the synapses coming from type G neurons of the external domains are sent to a second summator 23, the output of which is sent to an inverting amplifier 24. The signals supplied by these two summing amplifiers are sent to an AND logic circuit which provides at the output a signal G.
  • This signal G is sent to a circuit 26 generator of learning signals A1 and A2 and on a circuit 27 generator of an inhibition signal H which also receives the output signal from the adder 24.
  • FIG. 10 A represents an exemplary embodiment tion of the circuit generating the inhibition signal H.
  • the output signal G of the logic circuit 25 is sent to an inverter 31 whose output is sent to a timer circuit 32 introducing a time delay T2; the circuit coming from the summing amplifier 24 of the signals of the synapses connected to the neurons G of the other domains is sent to an inverter 33 whose output signal is sent directly and via a timer circuit 34 introducing a time delay Tl on an AND logic circuit 35 whose output is sent to a logic circuit 36 which also receives the signal from the timing circuit 32 and provides at its output the inhibition signal H.
  • the signal H is obtained by performing a logical "AND" taking into account three signals: the logical sum of the type G signals, this same sum delayed by a time T1 and the inverted signal G is delayed by time T2.
  • the rising edge of the signal H is delayed by T1 with respect to the rising edge of one of the inputs of type G and T2 with respect to the falling edge of the signal G of the neuron output.
  • FIG. 10B shows an exemplary embodiment of a circuit for generating the learning signals A1 and A2.
  • the signals A1 and A2 are obtained by comparison of the integrated value VA of the signal G with respect to time, with three threshold values: VTH1, VTH2, VTH3.
  • this integrated value can be supplied by a gain amplifier K provided with a constant of time T3, whose transfer function is equal to: K * (l + pT3) p being the Laplace variable, and K being greater than 1.
  • the signal VA is then connected to three comparators referenced respectively to VTH1, VTH2 , VTH3.
  • the logic signals VI, V2, V3 provided by these comparators define four domains for VA, and allow, thanks to a simple coding, the generation of the logic signals Al and A2: Al ⁇ V2
  • A2 VI.V3 / it is also possible, and advantageous in certain cases, to carry out an entirely logical processing on the signal G to obtain a quantity representative of its integrated value, and to deduce therefrom the value of the couple Al, A2 .
  • FIG 11 shows the interconnection of multiple N neurons and one G neuron, as described above, to form a mutually exclusive domain.
  • the number of elements in a domain is the number of N-type neurons it has.
  • Figure 12 symbolically represents an area of mutual exclusion of three elements.
  • FIG. 13 A represents the basic principle of the connection of two domains to form a network of mutual exclusion: each neuron N emits a modifiable inhibitory synapse towards each of the neurons N of the opposite domain, and each neuron G emits a non inhibitory synapse modifiable to each of the neurons N and to the neuron G of the opposing domain.
  • FIG. 13B describes another embodiment of the inhibition interconnections of the G neurons of the external domains on the neurons N of a domain considered.
  • the individual inhibition of the neurons N of a domain by the neuron G of the opposing domain is replaced by a global inhibition effected by the signal H generated by the neuron G of their own domain.
  • This signal H represents the logical sum of the activities of all G neurons in the opposing domains.
  • T1, T2 allows temporal control at this level
  • Figure 14 is a symbolic representation of a mutual exclusion network made up of two areas.
  • the input synapses of a neuron allow it to be informed about the state of the surrounding neurons, which constitute its field of reception. By its output, it can modify the state of other neurons, which form its field of action.
  • the reception field of a type G neuron consists only of type N neurons from its own domain and type G neurons from other domains of the network. Its field of action covers all the neurons of the other connected domains, whether directly for type G neurons, or indirectly for type N neurons (via the H signal from each of the other G neurons).
  • each neuron corresponds to the NOR logical function. Consequently, all the links between the neurons are inhibi ⁇ tion links, which gives rise to competition between the interconnected neurons (mutual exclusion).
  • Within a domain there cannot be more than one active neuron. The emergence of a neuron is defined as the passage of this neuron from the inactive state to the active state.
  • all type N neurons are inactive, we say that the domain is dissatisfied. The domain becomes satisfied when an N-type neuron emerges.
  • a type G neuron is active if its domain is unsatisfied and if none of the type G neurons located in its reception field are active.
  • competition is opened between several neurons from the inactive state, the domain is in a metastable state which is resolved by the emergence of a single neuron. Since the neurons are all almost identical by construction, it is impossible a priori to predict the victorious neuron. However, within a domain, the emergence of a particular neuron can be obtained by the inhibition of all the other neurons in the domain.
  • the action, on a domain of mutual exclusion, of a neuron outside this domain, is analogous to a selection.
  • Such a selection is said to be individual when it inhibits all the elements of the domain, except one. It is a group selection when it allows competition between several neurons. If all emergence is prohibited, there is total inhibition of the domain.
  • a domain of mutual exclusion, at a given instant is restricted, if it is subjected to the action of external neurons of which at least one is active at this instant. The domain is said to be free otherwise.
  • Associative recall is obtained by causing the emergence of a particular element of a domain (by the action of an external neuron), and by leaving the other domain free.
  • the associative mechanism then causes in this area the emergence of an element associated with the first.
  • the network is made up of neurons N and neurons G not including the circuits used for learning.
  • the connection network can be defined in simulation, then produced physically with permanent synapses constituted by diodes. Another possibility is to build a network whose synapses are switching elements controlled by an external system. In both cases, learning is super ⁇ targeted;
  • unsupervised learning it is carried out directly in the network, consisting of neurons equipped with all the learning circuits described above, that is to say comprising modifiable synapses.
  • the learning takes place automatically on presentation of configurations corresponding to "external signal configurations”.
  • the corresponding mutual exclusion network includes as many N-type neurons as there are elements (i.e. 12), and as many G-type neurons as there are domains (i.e. 2).
  • the connections between all these neurons are represented by the matrix in Figure 16, where a white box corresponds to a valid synapse, and a cross to an invalid synapse.
  • the inputs of each neuron are on the same line, and the outputs of each neuron on the same column.
  • the inhibitory action of each G neuron on the neurons of the opposing domain is represented directly without including the H signals.
  • the two domains are established and interconnected, but the network is still free of all knowledge and does not have any 'stable states. It must be given the information necessary for a coherent database to be established, here in the form of pairs of elements each chosen in a field.
  • the following associations can be introduced: Joseph - Montgolfier (1)
  • FIG. 17 indicates, for each invalidated synapse, the number of the associated information.
  • the mutual exclusion network thus programmed is ready to operate in associative memory. Interrogation consists in restricting one or both domains, and letting the network find for itself a stable state. The questions asked of the network are of the type: "what does this situation mean to you?".
  • the answers are of two kinds:
  • the network goes into an unstable state, oscillating between several situations satisfying each constraint in turn; if there are one or more associations compatible with the constraints, the network stabilizes on one of them. The others can be obtained by successive eliminations. When all the possible associations have been eliminated, the network goes into an unstable state, identical to the previous case.
  • Such a memory can be produced from a neural network comprising interruptible synapses, that is to say synapses which can be irreversibly and permanently invalidated.
  • the realization of the connection matrices described above is carried out by cutting the synapses to be invalidated.
  • Interruptible synapses can for example consist of fuse connections, or switching elements controlled by flip-flops or memory cells.
  • Figure 18 illustrates the regime of stress propagation in a mutual exclusion network.
  • This figure represents a linear network comprising three domains A, B, C.
  • domain A neuron A2 cannot emerge, because of Bl.
  • the neuron "Ga” is therefore activated, and inhibits domain B. A2 can therefore emerge, and "Ga” s 'off.
  • FIG. 20 and 21 illustrate the unsupervised learning process intended to achieve an associative random access memory. Unsupervised learning automatically modifies synapses, in response to variations in external signals and changes in other areas of the network. The learning mechanism is internal to each domain, and acts each time on the synapses of a single neuron in the domain. It ensures, for all configurations, the stable emergence of a neuron "N" in each of the network domains.
  • Type 1 learning takes place when a domain is totally inhibited by one or more signals outside the field of action of the neuron "G" (signals from the “outside world”). All the “N” neurons in the domain are therefore inhibited.
  • the neuron “G” is activated, and the signal “Va” follows an increasing progression, causing the generation of the ascending sequence of the signals "A1, A2” described above, until the configuration "1.0" (FIG. 20).
  • the circuit for controlling the learning of each virgin neuron then generates the command "C /" intended for all of its modifiable synapses, which temporarily become invalid. All the virgin neurons in the domain compete, but only one emerges.
  • the present configuration of external signals has just been recorded by the neuron (NI), and by it alone. This neuron can emerge again each time the same configuration of active inputs, even incomplete, presents itself. Type 1 learning occurs only once for each "N" neuron.
  • Type 2 learning takes place when the associative mechanism, in a particular configuration of inputs, does not find an adequate association between two domains connected in a network. In each of these areas, a neuron previously recorded the configuration of the external signals by type 1 learning, and must now associate this configuration with the activity of a neuron from the opposing domain. As long as this association, which corresponds to the interruption of the links between the neurons concerned, is not achieved, the network is the seat of an oscillation, according to the process described above (see Figure 15).
  • NX and NY respectively be the neurons of the domains Dl and D2 having recorded the respective configurations of the external signals arriving on these domains, by a type 1 learning process. An oscillation is established in which Gl and NY emerge in turn. , G2 and NX on the other hand.
  • the pair of signals "A1, A2" generated by the neuron “G” describes an ascending sequence, due to the oscillation of the neuron “G” (see FIG. 21). In its progression, this sequence arrives at the "1,1" configuration.
  • the neuron NX in the normal course of its oscillation, passes to the active state, its learning command is then engaged, and all its synapses still valid pass into the provisionally invalid state.
  • the synapse that comes from NY is invalidated, the neuron NX is therefore no longer inhibited by NY.
  • NY is still inhibited by NX.
  • the oscillation between the two domains therefore continues in another mode, described by the chronogram of the FIG.
  • Type 2 learning is complete when the learning commands for neurons NX and NY are returned to the inactive state.
  • the synapses which connect NX and NY are therefore definitively in the disabled state.
  • a symmetrical cut was then made between NX and NY, and thus recorded the association between the configurations of external signals recognized respectively by NX and NY in the domains Dl and D2.
  • the network is in a stable state, both NX and NY being active.
  • the domain D1 again recognizes the configuration recorded by the neuron NX
  • the emergence of NY will take place in the domain D2 if the latter is left free of constraints. This emergence will correspond to the "evocation" of the configuration recorded by NY.
  • Type 2 learning can be done several times for each neuron "N".
  • the examples described are cable networks, but it is also possible to make provision for the neural networks according to the invention at least partially in the form of programs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

A neural network consisting of neurones comprising input synapses connected to a summation operator, said neurones being interconnected, is characterized in that it comprises neurones having entirely binary operation and that the summation operator provides a 'NOR' logic function so that its output is active only if all its inputs are inactive. The neurones are grouped in mutual exclusion domains which comprise several neurones of a first type (N1, N2,...NN) and a single neurone of a second type (G1). In each mutual exclusion domain, the synapses of the neurone of the second type (G1) receive the output signals from the neurones of the first type in the domain concerned and also the output signals from the neurones of the second type in the domains interconnected to the domain concerned, and in each mutual exclusion domain the synapses of the neurones of the first type receive the output signals from the neurones of the first type in the domain concerned, the output signals from the neurones of the first type in the domains interconnected with the domain concerned, at least an inhibition signal from the neurones of the second type in the domains interconnected with the domain concerned, and external signals.

Description

Réseau neuronal à opérateurs binaires et procédés pour sa réalisation. Neural network with binary operators and methods for its realization.

La présente invention concerne les mémoires associatives constituées par des réseaux neuronaux. De tels réseaux sont généralement constitués de neurones artificiels comportant des synapses d'entrée reliées à un opérateur de sommation suivi d'un élément non linéaire, lesdits neurones artificiels étant interconnectés entre eux.The present invention relates to associative memories constituted by neural networks. Such networks are generally made up of artificial neurons comprising input synapses connected to a summation operator followed by a non-linear element, said artificial neurons being interconnected with one another.

Les réseaux de neurones existants implantés sur silicium sont de deux sortes : les réseaux à couches, et les réseaux complètement connectés, appelés mémoires associatives en raison de leur capacité à reconstituer une configuration complète de signaux d'entrée à partir d'une fraction de cette configuration. Tous ces réseaux présentent actuellement deux inconvénients majeurs : d'une part, leur fonctionnement implique la mise en oeuvre d'algorithmes relativement compliqués ; d'autre part, leur efficacité dépend de la précision de la "force" des synapses reliant entre eux les neurones, le volume de matériel nécessaire étant d'autant plus impor- tant que l'on désire une résolution plus fine. Ces réseaux, dans lesquels les synapses sont réalisées par une combinaison de multiplications et sommations, analo¬ giques ou numériques, n'intègrent généralement pas le mécanisme d'apprentissage : soit parce que le modèle matérialisé ne le permet pas (absence de "loi locale" d'évolution des synapses), soit par manque de place sur le silicium, à cause de la surface importante occupée par les synapses.There are two types of existing neural networks implanted on silicon: layered networks, and completely connected networks, called associative memories because of their ability to reconstruct a complete configuration of input signals from a fraction of this. configuration. All these networks presently present two major drawbacks: on the one hand, their operation involves the implementation of relatively complicated algorithms; on the other hand, their effectiveness depends on the precision of the "force" of the synapses connecting the neurons to each other, the volume of material required being all the more important when one wants a finer resolution. These networks, in which the synapses are produced by a combination of multiplications and summations, analogical or digital, generally do not integrate the learning mechanism: either because the materialized model does not allow it (absence of "local law "synapses evolution), either by lack of space on the silicon, because of the important surface occupied by the synapses.

La présente invention se propose de fournir un réseau neuronal qui ne présente pas les inconvénients précités.The present invention proposes to provide a neural network which does not have the aforementioned drawbacks.

A cet effet, l'invention a pour objet un réseau neuronal comportant des neurones comportant des synapses d'entrée reliées à un opérateur logique, lesdits neurones étant interconnectés entre eux, caractérisé en ce que : - il est constitué de neurones à fonctionnement entièrement binaire ;To this end, the subject of the invention is a neural network comprising neurons comprising input synapses connected to a logical operator, said neurons being interconnected with each other, characterized in that: - it is made up of fully binary neurons;

- l'opérateur de sommation réalise une fonction logique "NON-OU" telle que sa sortie n'est active que si toutes ses entrées sont au niveau inactif ;- the summation operator performs a "NON-OR" logic function such that its output is only active if all of its inputs are at the inactive level;

- les neurones sont regroupés en domaines d'ex¬ clusion mutuelle qui comportent plusieurs neurones d'un premier type N et un seul neurone d'un second type G ;- the neurons are grouped into areas of mutual exclusion which include several neurons of a first type N and a single neuron of a second type G;

- dans chaque domaine d'exclusion mutuelle, les synapses du neurone du deuxième type G reçoivent respec¬ tivement les signaux de sortie des neurones du premier type N du domaine considéré et les signaux de sortie des neurones du deuxième type G des domaines interconnectés au domaine considéré ; et - dans chaque domaine d'exclusion mutuelle, les synapses des neurones du premier type N reçoivent respec¬ tivement les signaux de sortie des neurones du premier type N du domaine considéré, les signaux de sortie des neurones du premier type N des domaines interconnectés au domaine considéré, au moins un signal d'inhibition provenant des neurones du deuxième type G des domaines interconnectés au domaine considéré et des signaux extérieurs.- in each area of mutual exclusion, the synapses of the neuron of the second type G respectively receive the output signals of the neurons of the first type N of the domain considered and the output signals of the neurons of the second type G of the domains interconnected with the domain considered; and - in each mutual exclusion domain, the synapses of the neurons of the first type N respectively receive the output signals of the neurons of the first type N of the domain considered, the output signals of the neurons of the first type N of the domains interconnected with domain considered, at least one inhibition signal coming from neurons of the second type G of the domains interconnected with the domain considered and external signals.

Il s'agit donc d'un réseau de neurones binaires reliés entre eux par des synapses binaires fonctionnant en tout ou rien, c'est-à-dire qu'elles sont actives ou bloquées.It is therefore a network of binary neurons linked together by binary synapses functioning in all or nothing, that is to say that they are active or blocked.

Selon un mode de réalisation de 1'invention les neurones de type N sont reliés par une synapse à la sortie de chacun des neurones G des domaines intercon¬ nectés à leur domaine .According to one embodiment of the invention, the N type neurons are connected by a synapse to the output of each of the G neurons from the domains interconnected to their domain.

Selon un deuxième mode de réalisation, chaque neurone du deuxième type G comporte un circuit générateur d'un signal d'inhibition H, ledit circuit étant commandé par le signal de sortie du neurone de type G considéré et par les signaux de sortie des neurones du type G des domaines interconnectés au domaine considéré. Le signal d'inhibition est transmis à chaque neurone de type N par une synapse reliée à la sortie du circuit générateur du signal d'inhibition H du neurone de type G du domaine considéré. Ce deuxième mode de réalisation permet de limiter le nombre de synapses nécessaires pour réaliser l'inhibition d'un neurone N par un neurone G d'un domaine extérieur. Selon une autre caractéristique de l'invention, chaque neurone du deuxième type G comporte un circuit générateur d'une commande d'apprentissage (A1,A2) com¬ mandé par le signal de sortie de ce neurone, les neurones du premier type N comportent des synapses interruptibles munies d'un circuit de commande et un circuit générateur d'un signal de bloquage Z et d'un signal d'apprentissage C, recevant la commande d'apprentissage (A1,A2) fournie par le neurone du deuxième type du domaine considéré, et un signal d'initialisation INIT. Dans chaque neurone du premier type N, les signaux de bloquage Z et d'apprentis¬ sage C précités sont envoyés à tous les circuits de commande des synapses interruptibles.According to a second embodiment, each neuron of the second type G comprises a circuit generating an inhibition signal H, said circuit being controlled by the output signal of the type G neuron considered and by the output signals of type G neurons from the domains interconnected to the domain considered. The inhibition signal is transmitted to each neuron of type N by a synapse connected to the output of the circuit generating the inhibition signal H of the neuron of type G of the domain considered. This second embodiment makes it possible to limit the number of synapses necessary to effect the inhibition of an N neuron by a G neuron from an external domain. According to another characteristic of the invention, each neuron of the second type G comprises a circuit generating a learning command (A1, A2) controlled by the output signal of this neuron, the neurons of the first type N comprise interruptible synapses provided with a control circuit and a circuit generating a blocking signal Z and a learning signal C, receiving the learning command (A1, A2) supplied by the neuron of the second type of domain considered, and an INIT initialization signal. In each neuron of the first type N, the abovementioned blocking Z and learning signals C are sent to all the control circuits of the interruptible synapses.

Grâce à cette disposition, l'apprentissage, c'est-à-dire la commande de la modification des synapses, est réalisée de manière simple.Thanks to this arrangement, learning, that is to say the control of the modification of the synapses, is carried out in a simple manner.

Avantageusement, la commande d'apprentissage est un code binaire réfléchi à deux bits.Advantageously, the learning command is a two-bit reflected binary code.

L'invention concerne un procédé de réalisation d'une mémoire associative constituée par un réseau neuronal selon l'invention, ce procédé étant caractérisé en ce que l'on réalise un réseau de neurones relié par des synapses permanentes selon une configuration détermi¬ née. On réalise ainsi une mémoire non modifiable.The invention relates to a method for producing an associative memory constituted by a neural network according to the invention, this method being characterized in that a neural network is connected, connected by permanent synapses according to a determined configuration. A non-modifiable memory is thus produced.

L'invention concerne également un autre procédé de réalisation d'une mémoire associative constituée par un réseau neuronal selon l'invention, ce procédé étant caractérisé en ce que l'on réalise un réseau comportant des synapses interruptibles commandables par un système extérieur. Les synapses interruptibles peuvent être consti¬ tuées par des fusibles, des éléments de commutation commandés par une bascule ou des éléments de commutation commandés par une cellule de mémoire.The invention also relates to another method for producing an associative memory constituted by a neural network according to the invention, this method being characterized in that a network is made up of interruptible synapses controllable by an external system. The interruptible synapses can be constituted by fuses, switching elements controlled by a rocker or switching elements controlled by a memory cell.

L'invention a également pour objet un procédé de réalisation d'une mémoire associative constituée par un réseau neuronal selon l'invention, caractérisé en ce que, par action du signal d'initialisation, toutes les synap¬ ses interruptibles sont mises à l'état actif et que l'on effectue ensuite un apprentissage non supervisé. L'invention sera mieux comprise à l'aide de la description qui va suivre, donnée uniquement à titre d'exemples et faite en se référant aux dessins annexés sur lesquels :The invention also relates to a method for producing an associative memory constituted by a neural network according to the invention, characterized in that, by the action of the initialization signal, all the interruptible synap¬ its are set to active state and that unsupervised learning is then carried out. The invention will be better understood with the aid of the description which follows, given solely by way of examples and made with reference to the appended drawings in which:

- la figure 1 A est le schéma de base d'un neurone selon l'invention et la figure 1 B représente la courbe de réponse de l'étage amplificateur-inverseur ;- Figure 1 A is the basic diagram of a neuron according to the invention and Figure 1 B represents the response curve of the amplifier-inverter stage;

- la figure 2 montre un exemple de réalisation électrique du neurone de la figure 1 ;- Figure 2 shows an electrical embodiment of the neuron of Figure 1;

- la figure 3 est une représentation symbolique de ce neurone ;- Figure 3 is a symbolic representation of this neuron;

- la figure 4 A est un exemple de réalisation d'une synapse modifiable avec son circuit de commande et la figure 4 B sa représentation symbolique ;- Figure 4 A is an exemplary embodiment of a modifiable synapse with its control circuit and Figure 4 B its symbolic representation;

- la figure 4 C représente un exemple de rêalisa- tion d'une synapse permanente et la figure 4 D est sa représentation symbolique ;FIG. 4 C represents an example of the creation of a permanent synapse and FIG. 4 D is its symbolic representation;

- la figure 5 représente le graphe de Pétri du déclenchement de la synapse modifiable de la figure 4 A; - la figure 6 A est le schéma électrique du circuit de commande de l'apprentissage et la figure 6 B sa représentation symbolique ;- Figure 5 shows the Petri graph of the triggering of the modifiable synapse of Figure 4 A; - Figure 6 A is the electrical diagram of the learning control circuit and Figure 6 B its symbolic representation;

- la figure 7 illustre les séquences d'apprentis- sage ;- Figure 7 illustrates the learning sequences;

- la figure 8 est le schéma symbolique complet d'un neurone du premier type N ;- Figure 8 is the complete symbolic diagram of a neuron of the first type N;

- la figure 9 est le schéma synoptique complet d'un neurone de type G ; - la figure 10 A est le schéma électrique du circuit de génération du signal d'inhibition et la figure 10 B est le schéma du circuit de génération des signaux d'apprentissage ;- Figure 9 is the complete block diagram of a type G neuron; FIG. 10 A is the electrical diagram of the circuit for generating the inhibition signal and FIG. 10 B is the diagram of the circuit for generating the learning signals;

- la figure 11 est une représentation synoptique d'un domaine d'exclusion mutuelle ;- Figure 11 is a block diagram of a mutual exclusion domain;

- la figure 12 est un schéma explicatif représen¬ tant un domaine d'exclusion mutuelle à trois éléments ;- Figure 12 is an explanatory diagram representing a field of mutual exclusion with three elements;

- les figures 13 A et 13 B représentent deux modes de réalisation d'un réseau d'exclusion mutuelle ; - la figure 14 est la représentation symbolique d'un réseau constitué de deux domaines d'exclusion mutuelle ;- Figures 13 A and 13 B show two embodiments of a mutual exclusion network; - Figure 14 is the symbolic representation of a network consisting of two areas of mutual exclusion;

- la figure 15 est le chronogramme représentant les évolutions des signaux entre deux domaines d'exclu- sion mutuelle avant apprentissage ;FIG. 15 is the timing diagram representing the changes in the signals between two areas of mutual exclusion before learning;

- la figure 16 représente la matrice des con¬ nexions d'un exemple de réalisation d'un réseau neuronal constituant une mémoire associative avant sa phase d'apprentissage ; - la figure 17 représente la matrice des con¬ nexions du même réseau après apprentissage ;- Figure 16 shows the matrix of connections of an exemplary embodiment of a neural network constituting an associative memory before its learning phase; - Figure 17 shows the matrix of connections of the same network after learning;

- la figure 18 décrit la propagation des con¬ traintes dans un réseau d'exclusion mutuelle ;- Figure 18 describes the propagation of constraints in a mutual exclusion network;

- la figure 19 montre un exemple de réseau arborescent ; - la figure 20 est un chronogramme montrant l'évolution des signaux d'apprentissage lors d'un appren¬ tissage de premier type ;- Figure 19 shows an example of a tree network; - Figure 20 is a timing diagram showing the evolution of the learning signals during a first type learning;

- la figure 21 est un chronogramme montrant l'évolution des signaux d'apprentissage lors d'un appren¬ tissage de deuxième type ;- Figure 21 is a timing diagram showing the evolution of learning signals during a second type of learning;

- la figure 22 décrit le fonctionnement d'une synapse modifiable ; et- Figure 22 describes the operation of a modifiable synapse; and

- les figures 23 A et 23 B illustrent le fonc- tionnement du circuit de commande de l'apprentissage.- Figures 23 A and 23 B illustrate the operation of the learning control circuit.

Dans la description qui va suivre, on considérera qu'un signal logique peut prendre deux valeurs : OV pour l'état "inactif" ("0"), et +V (valeur de la tension d'alimentation) pour 1'état "actif" ("1" ). Le signe "/" après un nom de signal correspondant à une inversion logique. Par exemple, le signal "C" étant actif à "1", son inverse "C/" est actif à "0".In the description which follows, it will be considered that a logic signal can take two values: OV for the "inactive" state ("0"), and + V (value of the supply voltage) for the " active "(" 1 "). The sign "/" after a signal name corresponding to a logical inversion. For example, the signal "C" being active at "1", its inverse "C /" is active at "0".

La figure 1 A est le schéma de principe d'un neurone conforme à la présente invention. Il comporte plusieurs synapses d'entrée El à EN dont les signaux sont envoyés sur un circuit sommateur Σ ; la sortie de ce circuit sommateur est envoyée sur un amplificateur inver¬ seur de gain - A, A étant supérieur à 1, qui présente un seuil VTH comme on peut le voir sur la courbe de la figure 1 B qui montre la sortie S de cet amplificateur inverseur en fonction du signal d'entrée E. Les signaux logiques utilisés dans ce circuit peuvent prendre la valeur +V pour l'état actif et la valeur zéro pour l'état inaσtif. Les caractéristiques de l'amplificateur inver- seur remplissent la condition suivante : V---A < VTH < +VFigure 1A is the block diagram of a neuron according to the present invention. It comprises several input synapses E1 to EN whose signals are sent on a summing circuit Σ; the output of this summing circuit is sent to a gain inverting amplifier - A, A being greater than 1, which has a VTH threshold as can be seen on the curve of FIG. 1 B which shows the output S of this inverting amplifier depending on the input signal E. The logic signals used in this circuit can take the value + V for the active state and the value zero for the inactive state. The characteristics of the inverting amplifier fulfill the following condition: V --- A <VTH <+ V

L'excursion du signal de sortie est limitée à un domaine compris entre OV et +V. La valeur du gain A et celle du seuil VTH sont telles qu'une entrée active (=+V) suffit pour faire passer la sortie à l'état inactif (=0V). Lorsque toutes les entrées sont inactives, la sortie est active. Le neurone se comporte donc comme un élément logique "NON-OU".The excursion of the output signal is limited to a range between OV and + V. The value of the gain A and that of the threshold VTH are such that an active input (= + V) is enough to put the output in the inactive state (= 0V). When all the inputs are inactive, the output is active. The neuron therefore behaves like a logical "NO-OR" element.

La figure 2 représente un exemple de dispositif électrique réalisant avantageusement cette fonction avec un transistor MOSFET, canal P. chaque synapse permanente est constituée par une simple diode. La figure 3 est une proposition de représentation symbolique du neurone.FIG. 2 represents an example of an electrical device advantageously performing this function with a MOSFET transistor, P channel. Each permanent synapse consists of a simple diode. Figure 3 is a proposed symbolic representation of the neuron.

Les différentes synapses des neurones selon l'invention peuvent être soit permanentes, soit modifia¬ bles ou interruptibles, ce qui veut dire que la synapse peut prendre deux états, valide ou invalide. Un signal afférent sur une synapse n'est pris en compte par l'étage sommateur-inverseur que si cette synapse est valide. A l'état initial les synapses sont toutes valides.The different synapses of the neurons according to the invention can be either permanent, or modifiable or interruptible, which means that the synapse can take two states, valid or invalid. A signal relating to a synapse is only taken into account by the summing-inverting stage if this synapse is valid. In the initial state the synapses are all valid.

Par conséquent un neurone de ce type est à l'état actif si tous les signaux afférents ayant leurs synapses valides sont inactifs.Consequently, a neuron of this type is in the active state if all the afferent signals having their valid synapses are inactive.

Les figures 4 A et 4 B représentent un exemple de réalisation d'une synapse modifiable et de son circuit de commande. Le circuit représenté à la figure 4 A est constitué de cinq circuits logiques NON-ET 11 à 15, d'un circuit inverseur 16 et d'un interrupteur commandé 17 dont la sortie est connectée à une diode 18. Le circuit de commande reçoit trois signaux C/, E et Z/ et fournit en sortie un signal X, comme cela est symbolisé sur la figure 4 B. Le signal E est un des signaux afférents du neurone, le signal C/ est un signal de commande de l'apprentissage et le signal Z/ est un signal d'initiali- sation. Le signal X fourni par cette synapse est envoyé sur 1'étage sommateur inverseur qui a été décrit plus haut.FIGS. 4 A and 4 B represent an exemplary embodiment of a modifiable synapse and of its control circuit. The circuit shown in FIG. 4 A consists of five NAND logic circuits 11 to 15, an inverter circuit 16 and a controlled switch 17 whose output is connected to a diode 18. The control circuit receives three signals C /, E and Z / and outputs an X signal, as symbolized in FIG. 4 B. The signal E is one of the afferent signals of the neuron, the signal C / is a signal for controlling learning and the signal Z / is an initialization signal. The signal X supplied by this synapse is sent to the inverting summing stage which has been described above.

Les figures 4 C et 4 D représentent un exemple de réalisation d'une synapse non modifiable ou permanente ; elle peut être constituée par une diode 21 et représentée symboliquement comme représenté à la figure 4 D. Le déclenchement de la synapse de la figure 4 A correspond à la séquence décrite par le graphe de Pétri de la figure 5. Au départ, le signal Z place la synapse dans l'état valide, c'est-à-dire que le signal de sortie de la synapse est la recopie du signal afférent E connec¬ té à son entrée. La transition de cette synapse de l'état valide à l'état invalide s'effectue selon la séquence suivante :FIGS. 4 C and 4 D represent an example of embodiment of a non-modifiable or permanent synapse; it can be constituted by a diode 21 and represented symbolically as shown in FIG. 4 D. The triggering of the synapse of figure 4 A corresponds to the sequence described by the Petri graph of figure 5. At the start, the signal Z places the synapse in the valid state, that is to say that the signal output of the synapse is the copying of the related signal E connected to its input. The transition of this synapse from the valid state to the invalid state takes place according to the following sequence:

- état initial : synapse valide (état 1) ; - C actif : la synapse passe provisoirement à l'état invalide (état 2) ;- initial state: valid synapse (state 1); - C active: the synapse temporarily goes to the invalid state (state 2);

- si le signal C retourne à l'état inactif alors que E est inactif ou que Z est actif, la synapse rede¬ vient valide (état 1) ; - si le signal C retourne à l'état inactif alors que E est actif et que Z est inactif, l'état invalide devient définitif (état 3). L'apprentissage est alors réalisé.- if the signal C returns to the inactive state while E is inactive or Z is active, the synapse rede¬ comes valid (state 1); - if signal C returns to the inactive state while E is active and Z is inactive, the invalid state becomes definitive (state 3). Learning is then carried out.

La figure 6 A décrit un circuit de commande de l'apprentissage d'un neurone de type N. Ce circuit reçoit en entrée le signal INIT, les signaux logiques Al et A2, et la sortie N (l'état) du neurone éventuellement par l'intermédiaire d'un filtre passe-bas 31 afin de se garantir contre des états transitoires au moment de la compétition entre les neurones. Il délivre en sortie le signal logique C de commande de l'apprentissage, et le signal logique Z, signaux qui sont distribués sur toutes les synapses modifiables du neurone.FIG. 6 A describes a circuit for controlling the learning of a neuron of type N. This circuit receives the input signal INIT, the logic signals Al and A2, and the output N (the state) of the neuron possibly by via a low-pass filter 31 in order to guarantee against transient states at the time of competition between the neurons. It delivers as output the logic signal C for controlling learning, and the logic signal Z, signals which are distributed over all the modifiable synapses of the neuron.

L'équation logique du signal C est la suivante : C = (A1.A2/.V) + T avec : V ≈ T/.(V + INIT) (V = 1 : neurone vierge)The logical equation of signal C is as follows: C = (A1.A2 / .V) + T with: V ≈ T /. (V + INIT) (V = 1: virgin neuron)

T = (Al.N) + (A2.T)T = (Al.N) + (A2.T)

L'équation logique du signal Z/ est la suivante:The logical equation of the signal Z / is as follows:

Z/ = (INIT + V)/ La commande d'apprentissage envoyée aux synapses du neurone est active lorsque (Al,A2) = (1,0), si le neurone est vierge. Il s'agit alors d'un apprentissage dit de type 1. La commande d'apprentissage est également activée lorsque Al = 1, si le neurone est actif (apprentissage de type 2). Dans ce cas, la commande reste maintenue après la désactivation de Al, jusqu'à ce que A2 repasse à zéro. La figure 7 indique les actions effectuées par le circuit de commande de 1'apprentissage en fonction des signaux Al et A2.Z / = (INIT + V) / The learning command sent to the neuron synapses is active when (A1, A2) = (1.0), if the neuron is blank. It is then a type of learning type 1. The learning command is also activated when Al = 1, if the neuron is active (type 2 learning). In this case, the command remains maintained after the deactivation of Al, until A2 returns to zero. FIG. 7 indicates the actions carried out by the learning control circuit as a function of the signals A1 and A2.

La figure 8 représente le schéma complet d'un neurone de type N, intégrant les éléments décrits ci- dessus : synapses permanentes, synapses modifiables, étage amplificateur-inverseur similaire au schéma de base, circuit de commande de l'apprentissage.FIG. 8 represents the complete diagram of a neuron of type N, integrating the elements described above: permanent synapses, modifiable synapses, amplifier-inverter stage similar to the basic diagram, circuit for controlling learning.

Chaque domaine d'exclusion comporte un nombre important de neurones d'un premier type N qui vient d'être décrit ci-dessus ; chaque domaine d'exclusion comporte également un neurone d'un deuxième type G dont la figure 9 représente le schéma synoptique complet.Each exclusion domain comprises a large number of neurons of a first type N which has just been described above; each exclusion domain also includes a second type G neuron, FIG. 9 of which represents the complete block diagram.

Conformément à l'invention, ce neurone de type G reçoit une synapse de chacun des neurones de type N de son domaine d'exclusion, à savoir NI, N2..., NN et des synapses provenant des neurones du même type G des autres domaines d'exclusion, à savoir G2, G3...,GN. Les synapses provenant des neurones de type N sont envoyées sur une premier circuit sommateur 21 suivi d'un amplificateur- inverseur 22 du type décrit plus haut ; de même les synapses provenant des neurones de type G des domaines extérieurs sont envoyées sur un deuxième sommateur 23 dont la sortie est envoyée sur un amplificateur-inverseur 24. Les signaux fournis par ces deux amplificateurs sommateurs sont envoyés sur un circuit logique ET 25 qui fournit en sortie un signal G. Ce signal G est envoyé sur un circuit 26 générateur de signaux d'apprentissage Al et A2 et sur un circuit 27 générateur d'un signal d'inhibi¬ tion H qui reçoit par ailleurs le signal de sortie du sommateur 24. La figure 10 A représente un exemple de réalisa¬ tion du circuit générateur du signal d'inhibition H. Le signal de sortie G du circuit logique 25 est envoyé sur un inverseur 31 dont la sortie est envoyée sur un circuit temporisateur 32 introduisant une temporisation T2 ; le circuit provenant de l'amplificateur sommateur 24 des signaux des synapses reliées aux neurones G des autres domaines est envoyé sur un inverseur 33 dont le signal de sortie est envoyé directement et par l'intermédiaire d'un circuit temporisateur 34 introduisant une temporisation Tl sur un circuit logique ET 35 dont la sortie est envoyée sur un circuit logique 36 qui reçoit par ailleurs le signal issu du circuit de temporisation 32 et fournit à sa sortie le signal d'inhibition H.According to the invention, this type G neuron receives a synapse from each of the type N neurons of its exclusion domain, namely NI, N2 ..., NN and synapses originating from the same type G neurons of the others. exclusion fields, namely G2, G3 ..., GN. Synapses originating from type N neurons are sent to a first summing circuit 21 followed by an inverting amplifier 22 of the type described above; similarly, the synapses coming from type G neurons of the external domains are sent to a second summator 23, the output of which is sent to an inverting amplifier 24. The signals supplied by these two summing amplifiers are sent to an AND logic circuit which provides at the output a signal G. This signal G is sent to a circuit 26 generator of learning signals A1 and A2 and on a circuit 27 generator of an inhibition signal H which also receives the output signal from the adder 24. FIG. 10 A represents an exemplary embodiment tion of the circuit generating the inhibition signal H. The output signal G of the logic circuit 25 is sent to an inverter 31 whose output is sent to a timer circuit 32 introducing a time delay T2; the circuit coming from the summing amplifier 24 of the signals of the synapses connected to the neurons G of the other domains is sent to an inverter 33 whose output signal is sent directly and via a timer circuit 34 introducing a time delay Tl on an AND logic circuit 35 whose output is sent to a logic circuit 36 which also receives the signal from the timing circuit 32 and provides at its output the inhibition signal H.

Il en résulte que le signal H est obtenu en effectuant un "ET" logique prenant en compte trois signaux : la somme logique des signaux de type G, cette mêm somme retardée d'un temps Tl et le signal G inversé est retardé d'un temps T2. De cette façon le front montant du signal H est retardé de Tl par rapport au front montant d'une des entrées de type G et de T2 par rapport au front descendant du signal G de sortie du neurone.It follows that the signal H is obtained by performing a logical "AND" taking into account three signals: the logical sum of the type G signals, this same sum delayed by a time T1 and the inverted signal G is delayed by time T2. In this way the rising edge of the signal H is delayed by T1 with respect to the rising edge of one of the inputs of type G and T2 with respect to the falling edge of the signal G of the neuron output.

La figure 10 B représente un exemple de réalisa¬ tion d'un circuit de génération des signaux d'apprentis- sage Al et A2.FIG. 10B shows an exemplary embodiment of a circuit for generating the learning signals A1 and A2.

Les signaux Al et A2 sont obtenus par comparaison de la valeur intégrée VA du signal G par rapport au temps, avec trois valeurs de seuil : VTH1, VTH2, VTH3. A titre d'exemple, cette valeur intégrée peut être fournie par un amplificateur de gain K muni d'une constante de temps T3, dont la fonction de transfert est égale à : K*(l+pT3) p étant la variable de Laplace, et K étant supé¬ rieur à 1. Le signal VA est alors connecté sur trois comparateurs référencés respectivement à VTHl, VTH2, VTH3. Les signaux logiques VI, V2, V3 fournis par ces comparateurs définissent quatre domaines pour VA, et permettent, grâce à un codage simple, la génération des signaux logiques Al et A2 : Al ≈ V2The signals A1 and A2 are obtained by comparison of the integrated value VA of the signal G with respect to time, with three threshold values: VTH1, VTH2, VTH3. For example, this integrated value can be supplied by a gain amplifier K provided with a constant of time T3, whose transfer function is equal to: K * (l + pT3) p being the Laplace variable, and K being greater than 1. The signal VA is then connected to three comparators referenced respectively to VTH1, VTH2 , VTH3. The logic signals VI, V2, V3 provided by these comparators define four domains for VA, and allow, thanks to a simple coding, the generation of the logic signals Al and A2: Al ≈ V2

A2 = VI.V3/ il est également possible, et avantageux dans certains cas, d'effectuer un traitement entièrement logique sur le signal G pour obtenir une grandeur repré- sentative de sa valeur intégrée, et en déduire la valeur du couple Al, A2.A2 = VI.V3 / it is also possible, and advantageous in certain cases, to carry out an entirely logical processing on the signal G to obtain a quantity representative of its integrated value, and to deduce therefrom the value of the couple Al, A2 .

Un signal d'initialisation "INIT" sert à remettre toutes les synapses de type N à l'état valide et force le couple des signaux Al et A2 à la valeur zéro. La figure 11 représente 1'interconnection de plusieurs neurones N et d'un neurone G, de la manière décrite plus haut, pour former un domaine d'exclusion mutuelle. Le nombre d'éléments d'un domaine est le nombre de neurones de type N qu'il possède. La figure 12 repré- sente symboliquement un domaine d'exclusion mutuelle de trois éléments.An initialization signal "INIT" is used to reset all type N synapses to the valid state and forces the couple of signals A1 and A2 to zero. Figure 11 shows the interconnection of multiple N neurons and one G neuron, as described above, to form a mutually exclusive domain. The number of elements in a domain is the number of N-type neurons it has. Figure 12 symbolically represents an area of mutual exclusion of three elements.

La figure 13 A représente le principe de base de la connexion de deux domaines pour former un réseau d'exclusion mutuelle : chaque neurone N émet une synapse inhibitrice modifiable vers chacun des neurones N du domaine adverse, et chaque neurone G émet une synapse inhibitrice non modifiable vers chacun des neurones N et vers le neurone G du domaine adverse.FIG. 13 A represents the basic principle of the connection of two domains to form a network of mutual exclusion: each neuron N emits a modifiable inhibitory synapse towards each of the neurons N of the opposite domain, and each neuron G emits a non inhibitory synapse modifiable to each of the neurons N and to the neuron G of the opposing domain.

La figure 13 B décrit un autre mode de réalisa- tion des interconnexions d'inhibition des neurones G des domaines extérieurs sur les neurones N d'un domaine considéré. Dans ce mode de réalisation, l'inhibition individuelle des neurones N d'un domaine par le neurone G du domaine adverse est remplacée par une inhibition globale effectuée par le signal H généré par le neurone G de leur propre domaine. Ce signal H représente la somme logique des activités de tous les neurones G des domaines adverses. L'intérêt d'utiliser ce signal intermédiaire est également de permettre à ce niveau un contrôle temporel (Tl, T2) : Tl donne la priorité à l'émergence des neurones N par rapport à l'action des neurones G, alors que T2 permet la propagation des contraintes dans un réseau.FIG. 13B describes another embodiment of the inhibition interconnections of the G neurons of the external domains on the neurons N of a domain considered. In this embodiment, the individual inhibition of the neurons N of a domain by the neuron G of the opposing domain is replaced by a global inhibition effected by the signal H generated by the neuron G of their own domain. This signal H represents the logical sum of the activities of all G neurons in the opposing domains. The advantage of using this intermediate signal is also to allow temporal control at this level (T1, T2): T1 gives priority to the emergence of neurons N over the action of neurons G, whereas T2 allows propagation of constraints in a network.

La figure 14 est une représentation symbolique d'un réseau d'exclusion mutuelle constitué de deux domaines.Figure 14 is a symbolic representation of a mutual exclusion network made up of two areas.

Les synapses d'entrée d'un neurone lui permettent d'être informé sur l'état des neurones environnants, qui constituent son champ de réception. Par sa sortie, il peut modifier l'état d'autres neurones, qui forment son champ d'action. Le champ de réception d'un neurone de type G est uniquement constitué des neurones de type N de son propre domaine et des neurones de type G des autres domaines du réseau. Son champ d'action couvre tous les neurones des autres domaines connectés, que ce soit directement pour les neurones de type G, ou indirectement pour les neurones de type N (par l'intermédiaire du signal H de chacun des autres neurones G).The input synapses of a neuron allow it to be informed about the state of the surrounding neurons, which constitute its field of reception. By its output, it can modify the state of other neurons, which form its field of action. The reception field of a type G neuron consists only of type N neurons from its own domain and type G neurons from other domains of the network. Its field of action covers all the neurons of the other connected domains, whether directly for type G neurons, or indirectly for type N neurons (via the H signal from each of the other G neurons).

Le traitement opéré par chaque neurone correspond à la fonction logique NOR. En conséquence, toutes les liaisons entre les neurones sont des liaisons d'inhibi¬ tion, ce qui donne lieu à une compétition entre les neurones interconnectés (exclusion mutuelle). A l'inté¬ rieur d'un domaine, il ne peut y avoir plus d'un neurone actif. L'émergence d'un neurone est définie comme le passage de ce neurone de l'état inactif à l'état actif. Lorsque dans un domaine tous les neurones de type N sont inactifs, on dit que le domaine est insatisfait. Le domaine devient satisfait quand un neurone de type N émerge.The processing performed by each neuron corresponds to the NOR logical function. Consequently, all the links between the neurons are inhibi¬ tion links, which gives rise to competition between the interconnected neurons (mutual exclusion). Within a domain, there cannot be more than one active neuron. The emergence of a neuron is defined as the passage of this neuron from the inactive state to the active state. When in a domain all type N neurons are inactive, we say that the domain is dissatisfied. The domain becomes satisfied when an N-type neuron emerges.

Un neurone de type G est actif si son domaine est insatisfait et si aucun des neurones de type G situés dans son champ de réception n'est actif. Lorsque, dans un domaine, la compétition est ouverte entre plusieurs neurones à partir de 1'état inactif, le domaine se trouve dans un état métastable qui se résoud par l'émergence d'un seul neurone. Les neurones étant tous quasi-identiques par construction, il est impossible à priori de prédire le neurone victorieux. Cependant, à l'intérieur d'un domaine, l'émergence d'un neurone particulier peut être obtenue par 1'inhibition de tous les autres neurones du domaine.A type G neuron is active if its domain is unsatisfied and if none of the type G neurons located in its reception field are active. When, in a domain, competition is opened between several neurons from the inactive state, the domain is in a metastable state which is resolved by the emergence of a single neuron. Since the neurons are all almost identical by construction, it is impossible a priori to predict the victorious neuron. However, within a domain, the emergence of a particular neuron can be obtained by the inhibition of all the other neurons in the domain.

Considérons un domaine d'exclusion mutuelle, et un neurone isolé à 1'extérieur de ce domaine. Le champ d'action de ce neurone est constitué de tous les neurones de type N du domaine, mais son état ne dépend que de conditions extérieures. On peut établir une association entre ce neurone isolé et un neurone particulier du domaine en rendant invalide la synapse qui relie le second au premier. L'activation du neurone extérieur provoque l'inhibition de tous les autres neurones du domaine et permet 1'émergence du neurone particulier.Consider a mutually exclusive domain, and a neuron isolated outside of this domain. The field of action of this neuron is made up of all the N-type neurons in the domain, but its state depends only on external conditions. We can establish an association between this isolated neuron and a particular neuron of the domain by invalidating the synapse which connects the second to the first. The activation of the external neuron causes the inhibition of all the other neurons in the domain and allows the emergence of the particular neuron.

L'action, sur un domaine d'exclusion mutuelle, d'un neurone extérieur à ce domaine, est analogue à une sélection. Une telle sélection est dite individuelle lorsqu'elle inhibe tous les éléments du domaine, sauf un. C'est une sélection groupée lorsqu'elle autorise la compétition entre plusieurs neurones. Si toute émergence est interdite, il y a inhibition totale du domaine. Un domaine d'exclusion mutuelle, à un instant donné, est restreint, s'il est soumis à l'action de neurones extérieurs dont au moins un est actif à cet instant. Le domaine est dit libre dans le cas contraire. Considérons deux domaines d'exclusion mutuelle Dl et D2 connectés entre eux (cf. fig. 13). Avant tout apprentissage, et en l'absence de contraintes extérieu¬ res, l'ensemble ainsi formé ne possède pas d'état stable et est le siège d'oscillations couplées ainsi que le montre le chronogramme de la figure 15.The action, on a domain of mutual exclusion, of a neuron outside this domain, is analogous to a selection. Such a selection is said to be individual when it inhibits all the elements of the domain, except one. It is a group selection when it allows competition between several neurons. If all emergence is prohibited, there is total inhibition of the domain. A domain of mutual exclusion, at a given instant, is restricted, if it is subjected to the action of external neurons of which at least one is active at this instant. The domain is said to be free otherwise. Let us consider two domains of mutual exclusion Dl and D2 connected to each other (cf. fig. 13). Before any learning, and in the absence of external constraints, the assembly thus formed does not have a stable state and is the seat of coupled oscillations as shown in the timing diagram of FIG. 15.

En effet, si un neurone NX émerge dans le domaine Dl, Gl est inhibé, ainsi que tous les neurones N de D2. Il y a alors émergence de G2, qui inhibe tout le domaine Dl par l'intermédiaire de Hl. Un neurone NY de D2 peut alors émerger, ce qui provoque l'inhibition de G2 et de tous les neurones N de Dl, puis l'émergence de Gl et l'inhibition de tout le domaine D2 par l'intermédiaire de H2, et ainsi de suite...Indeed, if an NX neuron emerges in the D1 domain, Gl is inhibited, as well as all the N neurons of D2. There is then the emergence of G2, which inhibits the entire Dl domain via Hl. A neuron NY of D2 can then emerge, which causes the inhibition of G2 and all the neurons N of Dl, then the emergence of Gl and the inhibition of the entire domain D2 via H2, and so right now...

On peut établir une association entre l'élément NX de Dl et l'élément NY de D2 en rendant invalides les synapses qui les relient mutuellement. De cette façon, l'émergence de NX provoque l'inhibition de Gl et de tous les éléments de D2 sauf NY. On aboutit ainsi à un état stable où les seuls neurones actifs sont NX et NY. De multiples associations peuvent être ainsi établies entre des éléments de Dl et D2. Un même élément d'un domaine peut être associé à plusieurs éléments d'un autre domai¬ ne.One can establish an association between the NX element of D1 and the NY element of D2 by invalidating the synapses which connect them mutually. In this way, the emergence of NX causes the inhibition of Gl and all the elements of D2 except NY. We thus arrive at a stable state where the only active neurons are NX and NY. Multiple associations can thus be established between elements of D1 and D2. The same element of a domain can be associated with several elements of another domain.

Le rappel associatif est obtenu en provoquant l'émergence d'un élément particulier d'un domaine (par 1'action d'un neurone extérieur), et en laissant libre l'autre domaine. Le mécanisme associatif provoque alors dans ce domaine l'émergence d'un élément associé au premier. On distingue deux modes d'apprentissage qui correspondent à deux types de réalisations matérielles :Associative recall is obtained by causing the emergence of a particular element of a domain (by the action of an external neuron), and by leaving the other domain free. The associative mechanism then causes in this area the emergence of an element associated with the first. There are two learning modes which correspond to two types of material achievements:

- apprentissage supervisé : le réseau est consti¬ tué de neurones N et de neurones G ne comportant pas les circuits utilisés pour l'apprentissage. Dans une première version, le réseau de connexion peut être défini en simulation, puis réalisé matériellement avec des synapses permanentes constituées par des diodes. Une autre possi¬ bilité consiste à construire un réseau dont les synapses sont des éléments de commutation commandés par un système extérieur. Dans les deux cas, l'apprentissage est super¬ visé ;- supervised learning: the network is made up of neurons N and neurons G not including the circuits used for learning. In a first version, the connection network can be defined in simulation, then produced physically with permanent synapses constituted by diodes. Another possibility is to build a network whose synapses are switching elements controlled by an external system. In both cases, learning is super¬ targeted;

- apprentissage non supervisé ; il est réalisé directement dans le réseau, constitué de neurones munis de tous les circuits d'apprentissage décrits plus haut c'est-à-dire comportant des synapses modifiables. L'ap¬ prentissage s'effectue automatiquement sur présentation de configurations correspondant à des "configurations de signaux extérieurs". On décrira dans un premier temps la mise en oeuvre de la mémoire associative, et ensuite le fonction¬ nement de l'apprentissage non supervisé.- unsupervised learning; it is carried out directly in the network, consisting of neurons equipped with all the learning circuits described above, that is to say comprising modifiable synapses. The learning takes place automatically on presentation of configurations corresponding to "external signal configurations". We will first describe the implementation of associative memory, and then the operation of unsupervised learning.

La mise en oeuvre de la mémoire associative est décrite ici à partir d'un exemple volontairement très simple.The implementation of the associative memory is described here starting from a deliberately very simple example.

Considérons deux domaines :Consider two areas:

Dl ≈ (Ader, Blériot, Lilienthal, Montgolfier, Wright)Dl ≈ (Ader, Blériot, Lilienthal, Montgolfier, Wright)

D2 = (Clément, Etienne, Louis, Joseph, Orville, Otto, Wilbur)D2 = (Clément, Etienne, Louis, Joseph, Orville, Otto, Wilbur)

Le réseau d'exclusion mutuelle correspondant comporte autant de neurones de type N que d'éléments (soit 12), et autant de neurones de type G que de domaines (soit 2). Les connexions entre tous ces neurones sont représentés par la matrice de la figure 16, où une case blanche corespond à une synapse valide, et une croix à une synapse invalide. Dans cette matrice, les entrées de chaque neurone sont sur une même ligne, et les sorties de chaque neurone sur une même colonne. L'action inhibitrice de chaque neurone G sur les neurones du domaine adverse est représentée directement sans faire figurer les signaux H. Les deux domaines sont établis et interconnec¬ tés, mais le réseau est encore vierge de toute connais¬ sance et ne possède pas d'états stables. II faut lui donner les informations nécessaires pour que s'établisse une base de données cohérente, ici sous la forme de couples d'éléments choisis chacun dans un domaine. Dans le cas présent, on peut introduire les associations suivantes : Joseph - Montgolfier (1)The corresponding mutual exclusion network includes as many N-type neurons as there are elements (i.e. 12), and as many G-type neurons as there are domains (i.e. 2). The connections between all these neurons are represented by the matrix in Figure 16, where a white box corresponds to a valid synapse, and a cross to an invalid synapse. In this matrix, the inputs of each neuron are on the same line, and the outputs of each neuron on the same column. The inhibitory action of each G neuron on the neurons of the opposing domain is represented directly without including the H signals. The two domains are established and interconnected, but the network is still free of all knowledge and does not have any 'stable states. It must be given the information necessary for a coherent database to be established, here in the form of pairs of elements each chosen in a field. In the present case, the following associations can be introduced: Joseph - Montgolfier (1)

Etienne- Montgolfier (2) Otto - Lilienthal (3) Clément- Ader (4) Wilbur - Wright (5) Louis - Blériot (6)Etienne- Montgolfier (2) Otto - Lilienthal (3) Clément- Ader (4) Wilbur - Wright (5) Louis - Blériot (6)

La prise en compte de ces informations corres¬ pond, dans la matrice des connexions, à l'invalidation des synapses qui relient entre eux les éléments d'une même association. Le réseau possède alors autant d'états stables que d'associations enregistrées. La figure 17 indique, pour chaque synapse invalidée, le numéro de l'information associée.The taking into account of this information corresponds, in the matrix of connections, to the invalidation of the synapses which link together the elements of the same association. The network then has as many stable states as there are registered associations. FIG. 17 indicates, for each invalidated synapse, the number of the associated information.

Il reste maintenant à mettre en place les entrées nécessaires pour délimiter le champ d'évolution du système. L'entrée El permettra de sélectionner "Ader" dans le domaine Dl, l'entrée E2 sélectionnera "Blériot", et ainsi de suite jusqu'à E12 pour "Wilbur" dans D2. Les synapses invalidées par cette opération sont marquées "7" dans la figure 17. On peut également interdire l'émer- gence de certains éléments, par exemple "Joseph" avec E13, "Etienne" avec E14, "Orville" avec E15 et "Wilbur" avec El6 (synapses marquées "8" dans la figure 17).It now remains to set up the inputs necessary to delimit the field of evolution of the system. The El entry will select "Ader" in the Dl area, the E2 entry will select "Blériot", and so on until E12 for "Wilbur" in D2. Synapses invalidated by this operation are marked "7" in figure 17. We can also prohibit the emergence of certain elements, for example "Joseph" with E13, "Etienne" with E14, "Orville" with E15 and "Wilbur" with El6 (synapses marked "8" in Figure 17).

Le réseau d'exclusion mutuelle ainsi programmé est prêt à fonctionner en mémoire associative. L'interro¬ gation consiste à restreindre un domaine ou les deux, et à laisser le réseau trouver par lui-même un état stable. Les questions posées au réseau sont du type : "qu'évoque pour vous cette situation ?".The mutual exclusion network thus programmed is ready to operate in associative memory. Interrogation consists in restricting one or both domains, and letting the network find for itself a stable state. The questions asked of the network are of the type: "what does this situation mean to you?".

Les réponses sont de deux sortes :The answers are of two kinds:

- s'il n'existe aucune association enregistrée compatible avec toutes les contraintes d'entrée, le réseau passe dans un état instable, oscillant entre plusieurs situations satisfaisant tour à tour chaque contrainte ; s'il existe une ou plusieurs associations compatibles avec les contraintes, le réseau se stabilise sur 1'une d'entre elles. Les autres peuvent être obtenues par éliminations successives. Lorsque toutes les associa¬ tions possibles ont été éliminées, le réseau passe dans un état instable, identique au cas précédent.- if there is no registered association compatible with all the entry constraints, the network goes into an unstable state, oscillating between several situations satisfying each constraint in turn; if there are one or more associations compatible with the constraints, the network stabilizes on one of them. The others can be obtained by successive eliminations. When all the possible associations have been eliminated, the network goes into an unstable state, identical to the previous case.

Par exemple ; question "Lilienthal" ? (activation E3) réponse "Otto". (émergence N3,NI1) question "Montgolfier"? (activation E4) réponse "Joseph". (émergence N4,N9) question "autre que Joseph"? (activation E4,E13) réponse "Etienne". (émergence N4,N7) question "autre que Joseph et Etienne"? (activation E4,E13,E14) réponse "aucune réponse connue". (état instable) question "Wilbur"? (activation E12) réponse "Wright" . (émergence NI2,N5) question "Wright autre queFor example ; "Lilienthal" question? (activation E3) "Otto" response. (emergence N3, NI1) "Montgolfier" question? (activation E4) "Joseph" response. (emergence N4, N9) question "other than Joseph"? (activation E4, E13) "Etienne" response. (emergence N4, N7) question "other than Joseph and Etienne"? (activation E4, E13, E14) response "no response known". (unstable state) "Wilbur" question? (activation E12) "Wright" response. (emergence NI2, N5) question "Wright other than

Wilbur"? (activation E5,E16) - réponse "aucune réponse connue". (état instable) L'association "Orville-Wright", encore inconnue du réseau, doit être enregistrée en invalidant les synapses reliant N5 et N10 :Wilbur "? (Activation E5, E16) - response" no response known ". (Unstable state) The association "Orville-Wright", still unknown to the network, must be registered by invalidating the synapses connecting N5 and N10:

- question : "Wright autre que Wilbur"? (activation E5,E16)- question: "Wright other than Wilbur"? (activation E5, E16)

- réponse : "Orville". (émergence N5,N10)- answer: "Orville". (emergence N5, N10)

Un telle mémoire peut être réalisée à partir d'un réseau de neurones comportant des synapses interrupti¬ bles, c'est-à-dire des synapses pouvant être invalidées de manière irréversible et définitive. La réalisation des matrices de connexion décrites ci-dessus est effectuée en coupant les synapses devant être invalidées.Such a memory can be produced from a neural network comprising interruptible synapses, that is to say synapses which can be irreversibly and permanently invalidated. The realization of the connection matrices described above is carried out by cutting the synapses to be invalidated.

Les synapses interruptibles peuvent par exemple être constituées par des connexions fusibles, ou des éléments de commutation commandés par des bascules ou des cellules de mémoire.Interruptible synapses can for example consist of fuse connections, or switching elements controlled by flip-flops or memory cells.

La figure 18 illustre le régime de propagation de contraintes dans un réseau d'exclusion mutuelle. Cette figure représente un réseau linéaire comprenant trois domaines A, B, C. Appelons respectivement "Ga", "Gb" et "Gc" les neurones "G" de ces trois domaines, et supposons que ce réseau ait appris les configurations "Al, Bl, Cl" et "A2, B2, C2". En l'absence de toute contrainte, il s'est stabilisé par exemple sur "Al, Bl, Cl". Soit une contrainte extérieure inhibant Al. Dans le domaine A, le neurone A2 ne peut pas émerger, à cause de Bl. Le neurone "Ga" est donc activé, et inhibe le domaine B. A2 peut donc émerger, et "Ga" s'éteint. Aucun neurone du domaine B ne peut émerger, puisque Bl est bloqué par A2, et B2 est bloqué par Cl. Le neurone "Gb" émerge donc, inhibant le domaine C ; le domaine A, par contre, est protégé de cette action grâce au bloquage du signal "H" pendant un temps T2 après le front descendant de Ga. Le neurone Cl n'étant plus actif, B2 peut émerger en accord avec A2. Gb est désactivé et C2 peut émerger, en accord avec B2. On a ainsi propagé dans le réseau une contrainte qui n'af¬ fectait qu'un domaine. Le nouvel état du réseau satisfait de nouveau 1'ensemble des contraintes.Figure 18 illustrates the regime of stress propagation in a mutual exclusion network. This figure represents a linear network comprising three domains A, B, C. Let us call respectively "Ga", "Gb" and "Gc" the neurons "G" of these three domains, and suppose that this network has learned the configurations "Al, Bl, Cl "and" A2, B2, C2 ". In the absence of any constraint, it stabilized for example on "Al, Bl, Cl". Let an external constraint inhibit Al. In domain A, neuron A2 cannot emerge, because of Bl. The neuron "Ga" is therefore activated, and inhibits domain B. A2 can therefore emerge, and "Ga" s 'off. No neuron from domain B can emerge, since Bl is blocked by A2, and B2 is blocked by Cl. The neuron "Gb" therefore emerges, inhibiting domain C; domain A, on the other hand, is protected from this action by blocking the signal "H" for a time T2 after the falling edge of Ga. Since the neuron Cl is no longer active, B2 can emerge in agreement with A2. Gb is deactivated and C2 can emerge, in agreement with B2. We has thus spread a constraint in the network which only affected one area. The new state of the network again satisfies all of the constraints.

Ce principe de propagation s'applique également aux réseaux arborescents, permettant ainsi de relier de nombreux domaines en réseaux complexes (figure 19). Le choix du temps T2 est fait en tenant compte de la profon¬ deur à laquelle il est nécessaire de propager les con¬ traintes. Les figures 20 et 21 illustrent le processus d'apprentissage non supervisé destiné à réaliser une mémoire vive associative. L'apprentissage non supervisé effectue automatiquement la modification des synapses, en réponse aux variations des signaux extérieurs et aux évolutions des autres domaines du réseau. Le mécanisme d'apprentissage est interne à chaque domaine, et agit à chaque fois sur les synapses d'un seul neurone du domai¬ ne. Il permet d'assurer, pour toutes les configurations, l'émergence stable d'un neurone "N" dans chacun des domaines du réseau.This propagation principle also applies to tree networks, thus making it possible to link many domains into complex networks (Figure 19). The choice of time T2 is made taking into account the depth at which it is necessary to propagate the stresses. Figures 20 and 21 illustrate the unsupervised learning process intended to achieve an associative random access memory. Unsupervised learning automatically modifies synapses, in response to variations in external signals and changes in other areas of the network. The learning mechanism is internal to each domain, and acts each time on the synapses of a single neuron in the domain. It ensures, for all configurations, the stable emergence of a neuron "N" in each of the network domains.

On distingue deux sortes d'apprentissage non supervisé, selon la provenance des signaux agissant sur le domaine : signaux en provenance du monde extérieur d'une part, et états des neurones des autres domaines d'autre part. Le même mécanisme est mis en oeuvre dans les deux cas, mais la fonction réalisée est différente : 1'apprentissage de type 1 réalise une fonction de recon¬ naissance, alors que l'apprentissage de type 2 effectue la fonction d'association. Apprentissage de type 1. (voir figure 20)There are two kinds of unsupervised learning, depending on the source of the signals acting on the domain: signals from the outside world on the one hand, and states of neurons in other domains on the other. The same mechanism is used in both cases, but the function performed is different: type 1 learning performs a recognition function, while type 2 learning performs the association function. Type 1 learning (see Figure 20)

L'apprentissage de type 1 s'opère lorsqu'un domaine est totalement inhibé par un ou plusieurs signaux extérieurs au champ d'action du neurone "G" (signaux provenant du "monde extérieur"). Tous les neurones "N" du domaine sont donc inhibés. Le neurone "G" est activé, et le signal "Va" suit une progression montante, provoquant la génération de la séquence ascendante des signaux "Al, A2" décrite plus haut, jusqu'à la configuration "1,0" (figure 20). Le circuit de commande de 1'apprentissage de chaque neurone vierge génère alors la commande "C/" à destination de toutes ses synapses modifiables, qui deviennent provisoirement invalides. Tous les neurones vierges du domaine entrent en compétition, mais un seul émerge. Pour ce neurone (NI), le signal "V" devient inactif, ainsi que le signal "Z/". Le neurone "G" rede¬ vient inactif, et le couple de signaux "Al, A2" amorce une séquence descendante. Lorsque sa configuration passe à "1,1", la commande "C/" redevient inactive pour tous les neurones vierges (voir N2), dont les synapses modi- fiables reprennent leur état antérieur, puisque le front remontant de "C/" survient alors que le signal "Z/" est toujours actif. Au contraire, la commande "C/" est maintenue pour le neurone qui a émergé, jusqu'au retour à la configuration "0,0" pour "Al, A2". Le front remon- tant de "C/" se produisant alors que "Z/" est inactif, le neurone place définitivement dans l'état "invalide" celles de ses synapses modifiables qui recevaient un signal afférent actif à ce moment, les autres redevenant valides. La séquence d'apprentissage de type 1 est alors terminée.Type 1 learning takes place when a domain is totally inhibited by one or more signals outside the field of action of the neuron "G" (signals from the "outside world"). All the "N" neurons in the domain are therefore inhibited. The neuron "G" is activated, and the signal "Va" follows an increasing progression, causing the generation of the ascending sequence of the signals "A1, A2" described above, until the configuration "1.0" (FIG. 20). The circuit for controlling the learning of each virgin neuron then generates the command "C /" intended for all of its modifiable synapses, which temporarily become invalid. All the virgin neurons in the domain compete, but only one emerges. For this neuron (NI), the signal "V" becomes inactive, as well as the signal "Z /". The neuron "G" comes back inactive, and the pair of signals "A1, A2" initiates a descending sequence. When its configuration changes to "1,1", the command "C /" becomes inactive again for all virgin neurons (see N2), whose modifiable synapses resume their previous state, since the rising edge of "C /" occurs while the "Z /" signal is still active. On the contrary, the command "C /" is maintained for the neuron which has emerged, until the return to the configuration "0.0" for "Al, A2". The rising front of "C /" occurring while "Z /" is inactive, the neuron definitively places in the "invalid" state those of its modifiable synapses which received an afferent signal active at this time, the others becoming again valid. The type 1 training sequence is then completed.

La configuration présente de signaux extérieurs vient d'être enregistrée par le neurone (NI), et par lui seul. Ce neurone pourra émerger à nouveau à chaque fois que la même configuration d'entrées actives, même incom- plète, se présentera. L'apprentissage de type 1 ne se produit qu'une fois pour chaque neurone "N".The present configuration of external signals has just been recorded by the neuron (NI), and by it alone. This neuron can emerge again each time the same configuration of active inputs, even incomplete, presents itself. Type 1 learning occurs only once for each "N" neuron.

Lorsque la configuration extérieure change en même temps pour plusieurs domaines d'exclusion mutuelle interconnectés en réseau, l'apprentissage s'effectue de façon séquentielle, un domaine après l'autre, car les neurones "G" s'inhibent mutuellement. Apprentissage de type 2. (voir figure 21)When the external configuration changes at the same time for several areas of mutual exclusion interconnected in a network, learning takes place from sequentially, one domain after another, because the "G" neurons inhibit each other. Type 2 learning (see Figure 21)

L'apprentissage de type 2 s'opère lorsque le mécanisme associatif, dans une configuration d'entrées particulière, ne trouve pas d'association adéquate entre deux domaines connectés en réseau. Dans chacun de ces domaines, un neurone a enregistré auparavant la configu¬ ration des signaux extérieurs par un apprentissage de type 1, et doit à présent associer cette configuration avec 1'activité d'un neurone du domaine adverse. Tant que cette association, qui correspond à la coupure des liaisons entre les neurones concernés, n'est pas réali¬ sée, le réseau est le siège d'une oscillation, selon le processus décrit plus haut (voir figure 15).Type 2 learning takes place when the associative mechanism, in a particular configuration of inputs, does not find an adequate association between two domains connected in a network. In each of these areas, a neuron previously recorded the configuration of the external signals by type 1 learning, and must now associate this configuration with the activity of a neuron from the opposing domain. As long as this association, which corresponds to the interruption of the links between the neurons concerned, is not achieved, the network is the seat of an oscillation, according to the process described above (see Figure 15).

Soient NX et NY respectivement les neurones des domaines Dl et D2 ayant enregistré les configurations respectives des signaux extérieurs arrivant sur ces domaines, par un apprentissage de type 1. Une oscillation s'établit dans laquelle émergent tour à tour Gl et NY d'une part, G2 et NX d'autre part.Let NX and NY respectively be the neurons of the domains Dl and D2 having recorded the respective configurations of the external signals arriving on these domains, by a type 1 learning process. An oscillation is established in which Gl and NY emerge in turn. , G2 and NX on the other hand.

Dans chaque domaine, le couple de signaux "Al, A2" généré par le neurone "G" décrit une séquence ascen¬ dante, à cause de l'oscillation du neurone "G" (voir figure 21). Dans sa progression, cette séquence arrive à la configuration "1,1". Supposons que cela se produise tout d'abord dans le domaine Dl. Lorsque le neurone NX, dans le cours normal de son oscillation, passe à l'état actif, sa commande d'apprentissage est alors enclenchée, et toutes ses synapses encore valides passent dans 1'état provisoirement invalide. En particulier, la synapse qui lui vient de NY est invalidée, le neurone NX n'est donc plus inhibé par NY. En revanche, NY est toujours inhibé par NX. L'oscillation entre les deux domaines se poursuit donc sur un autre mode, décrit par le chronogramme de la figure 21, dans lequel le neurone Gl reste à l'état inactif, puisque l'apprentissage est déjà effectué dans son domaine. Le neurone NX remet NY à "0", donc G2 passe à "1" et remet NX à "0". Le neurone NY peut alors émerger et remet G2 à "0", ce qui autorise l'émergence de NX qui remet NY à "0", et ainsi de suite. La poursuite de l'oscillation de G2 permet à la séquence des signaux "Al, A2" dans le domaine D2 de poursuivre sa progression ascendante, alors que dans le domaine Dl ces signaux ont déjà entamé leur séquence descendante. Cette oscillation se prolonge jusqu'à ce que le même processus s'opère dans le domaine D2, c'est-à-dire que la commande d'apprentis¬ sage de NY passe à l'état actif. Toutes les synapses de NY encore valides passent provisoirement dans l'état invalide. Le neurone NY reste alors actif, comme le neurone NX, les neurones Gl et G2 étant tous deux à l'état inactif.In each domain, the pair of signals "A1, A2" generated by the neuron "G" describes an ascending sequence, due to the oscillation of the neuron "G" (see FIG. 21). In its progression, this sequence arrives at the "1,1" configuration. Suppose this happens first in the domain Dl. When the neuron NX, in the normal course of its oscillation, passes to the active state, its learning command is then engaged, and all its synapses still valid pass into the provisionally invalid state. In particular, the synapse that comes from NY is invalidated, the neuron NX is therefore no longer inhibited by NY. In contrast, NY is still inhibited by NX. The oscillation between the two domains therefore continues in another mode, described by the chronogram of the FIG. 21, in which the neuron Gl remains in the inactive state, since learning is already carried out in its domain. The neuron NX returns NY to "0", so G2 goes to "1" and returns NX to "0". The neuron NY can then emerge and reset G2 to "0", which authorizes the emergence of NX which returns NY to "0", and so on. The continuation of the oscillation of G2 allows the sequence of signals "A1, A2" in the domain D2 to continue its ascending progression, while in the domain Dl these signals have already started their descending sequence. This oscillation continues until the same process takes place in the D2 domain, that is to say that the apprenticeship command from NY goes to the active state. All the synapses of NY still valid temporarily go into the invalid state. The neuron NY then remains active, like the neuron NX, the neurons Gl and G2 being both in the inactive state.

L'apprentissage de type 2 est terminé lorsque les commandes d'apprentissage des neurones NX et NY sont repassées à l'état inactif. Les synapses qui relient NX et NY se trouvent donc définitivement dans l'état invali¬ de. On a alors réalisé une coupure symétrique entre NX et NY, et enregistré ainsi l'association entre les configu¬ rations de signaux extérieurs respectivement reconnues par NX et NY dans les domaines Dl et D2. Le réseau se trouve dans un état stable, NX et NY étant tous les deux actifs. Par la suite, lorsque le domaine Dl reconnaîtra à nouveau la configuration enregistrée par le neurone NX, l'émergence de NY s'effectuera dans le domaine D2 si celui-ci est laissé libre de contraintes. Cette émergence correspondra à l' "évocation" de la configuration enregis¬ trée par NY. L'apprentissage de type 2 peut s'effectuer plusieurs fois pour chaque neurone "N".Type 2 learning is complete when the learning commands for neurons NX and NY are returned to the inactive state. The synapses which connect NX and NY are therefore definitively in the disabled state. A symmetrical cut was then made between NX and NY, and thus recorded the association between the configurations of external signals recognized respectively by NX and NY in the domains Dl and D2. The network is in a stable state, both NX and NY being active. Subsequently, when the domain D1 again recognizes the configuration recorded by the neuron NX, the emergence of NY will take place in the domain D2 if the latter is left free of constraints. This emergence will correspond to the "evocation" of the configuration recorded by NY. Type 2 learning can be done several times for each neuron "N".

Grâce à la structure particulièrement simple du réseau neuronal selon l'invention, il est possible de réaliser des mémoires associatives dont le fonctionnement est fiable ; la procédure d'apprentissage est facile à réaliser et l'on peut donc envisager des applications multiples pour les mémoires associatives conformes à la présente invention.Thanks to the particularly simple structure of the neural network according to the invention, it is possible to create associative memories whose operation is reliable; the learning procedure is easy to carry out and it is therefore possible to envisage multiple applications for the associative memories in accordance with the present invention.

La description ci-dessus n'a été fournie qu'à titre d'exemples illustratifs et nullement limitatifs et il est évident que 1'on peut y apporter des modifications ou variantes sans sortir du cadre de la présente inven- tion.The above description has been provided by way of illustrative and in no way limitative examples and it is obvious that modifications or variations can be made thereto without departing from the scope of the present invention.

En particulier, les exemples décrits sont des réseaux câbles mais on peut également prévoir de réaliser les réseaux neuronaux selon l'invention au moins partiel¬ lement sous forme de programmes. In particular, the examples described are cable networks, but it is also possible to make provision for the neural networks according to the invention at least partially in the form of programs.

Claims

REVENDICATIONS 1. Réseau neuronal constitué de neurones compor¬ tant des synapses d'entrée reliées à un opérateur de sommation, lesdits neurones étant interconnectés entre eux, caractérisé en ce que :CLAIMS 1. Neural network made up of neurons comprising input synapses connected to a summation operator, said neurons being interconnected, characterized in that: - il est constitué de neurones à fonctionnement entièrement binaire ;- it is made up of fully binary neurons; - l'opérateur de sommation réalise une fonction logique "NON-OU" telle que sa sortie n'est active que si toutes ses entrées sont au niveau inaσtif ;- the summation operator performs a "NON-OR" logic function such that its output is only active if all of its inputs are at the inactive level; - les neurones sont regroupés en domaines d'ex¬ clusion mutuelle qui comportent plusieurs neurones d'un premier type (N) et un seul neurone d'un second type (G);- the neurons are grouped into areas of mutual exclusion which include several neurons of a first type (N) and a single neuron of a second type (G); - dans chaque domaine d'exclusion mutuelle, les synapses du neurone du deuxième type (G) reçoivent respectivement les signaux de sortie des neurones du premier type (N) du domaine considéré et les signaux de sortie des neurones du deuxième type (G) des domaines interconnectés au domaine considéré ; et - dans chaque domaine d'exclusion mutuelle, les synapses des neurones du premier type (N) reçoivent respectivement les signaux de sortie des neurones du premier type (N) du domaine considéré, les signaux de sortie des neurones du premier type (N) des domaines interconnectés au domaine considéré, au moins un signal d'inhibition provenant des neurones du deuxième type (G) des domaines interconnectés au domaine considéré et des signaux extérieurs.- in each area of mutual exclusion, the synapses of the neuron of the second type (G) respectively receive the output signals of the neurons of the first type (N) of the domain considered and the output signals of the neurons of the second type (G) of the domains interconnected with the domain considered; and - in each mutual exclusion domain, the synapses of the neurons of the first type (N) respectively receive the output signals of the neurons of the first type (N) of the domain considered, the output signals of the neurons of the first type (N) domains interconnected to the domain considered, at least one inhibition signal coming from neurons of the second type (G) of the domains interconnected to the domain considered and external signals. 2. Réseau neuronal selon la revendication 1, caractérisé en ce que les neurones de type (N) sont reliés par une synapse à la sortie de chacun des neurones (G) des domaines interconnectés à leur domaine .2. Neural network according to claim 1, characterized in that the neurons of type (N) are connected by a synapse to the output of each of the neurons (G) of the domains interconnected to their domain. 3. Réseau neuronal selon la revendication 1, caractérisé en ce que : - chaque neurone du deuxième type (G) comporte un circuit générateur du signal d'inhibition (H), ledit circuit étant commandé par le signal de sortie du neurone de type (G) considéré et par les signaux de sortie des neurones du type (G) des domaines interconnectés au domaine considéré ; et3. Neural network according to claim 1, characterized in that: each neuron of the second type (G) comprises a circuit generating the inhibition signal (H), said circuit being controlled by the output signal of the type neuron (G) considered and by the output signals of the neurons of the type ( G) domains interconnected with the domain considered; and - le signal d'inhibition (H) est transmis à chaque neurone de type (N) par une synapse reliée à la sortie du circuit générateur du signal d'inhibition (H) du neurone de type (G) du domaine considéré.- the inhibition signal (H) is transmitted to each neuron of type (N) by a synapse connected to the output of the circuit generating the inhibition signal (H) of the neuron of type (G) of the domain considered. 4. Réseau neuronal selon la revendication 3, caractérisé en ce que :4. Neural network according to claim 3, characterized in that: - chaque neurone du deuxième type (G) comporte un circuit générateur d'une commande d'apprentissage (A1,A2) commandé par le signal de sortie de ce neurone ;each neuron of the second type (G) comprises a circuit generating a learning command (A1, A2) controlled by the output signal of this neuron; - les neurones du premier type (N) comportent des synapses interruptibles munies d'un circuit de commande associé et un circuit générateur d'un signal de bloquage (Z) et d'un signal d'apprentissage (C), recevant la commande d'apprentissage (A1,A2) fournie par le neurone du deuxième type du domaine considéré, et un signal d'initialisation (INIT) ;- neurons of the first type (N) comprise interruptible synapses provided with an associated control circuit and a circuit generating a blocking signal (Z) and a learning signal (C), receiving the command d learning (A1, A2) provided by the neuron of the second type of the domain considered, and an initialization signal (INIT); - dans chaque neurone du premier type (N), les signaux de bloquage (Z) et d'apprentissage (C) précités sont envoyés à tous les circuits de commande des synapses interruptibles.- in each neuron of the first type (N), the aforementioned blocking (Z) and learning (C) signals are sent to all the interruptible synapses control circuits. 5. Réseau neuronal selon la revendication 4, caractérisé en ce que la commande d'apprentissage est un code binaire réfléchi à deux bits. 5. Neural network according to claim 4, characterized in that the learning command is a two-bit reflected binary code. 6. Réseau neuronal selon la revendication 4, caractérisé en ce que dans chaque neurone du premier type (N), le générateur du signal d'apprentissage (C) reçoit le signal d'initialisation (INI ) et fournit en sortie un signal de bloquage (Z) qui est envoyé à toutes les synapses interruptibles. 6. Neural network according to claim 4, characterized in that in each neuron of the first type (N), the generator of the training signal (C) receives the initialization signal (INI) and provides at output a blocking signal (Z) which is sent to all interruptible synapses. 7. Procédé de réalisation d'une mémoire associa tive constituée par un réseau neuronal selon l'un quelconque des revendications 1 à 3, caractérisé en c que l'on réalise un réseau de neurones reliés par des synapses permanentes selon une configuration déterminée.7. A method of producing an associative memory constituted by a neural network according to any one of claims 1 to 3, characterized in that a network of neurons connected by permanent synapses is produced according to a determined configuration. 8. Procédé de réalisation d'une mémoire vive associative constituée par un réseau neuronal selon l'une quelconque des revendications 4 à 6, caractérisé en ce que, par action du signal d'initialisation, toutes les synapses interruptibles sont mises à l'état valide et que l'on effectue ensuite un apprentissage non supervisé.8. A method of producing an associative random access memory constituted by a neural network according to any one of claims 4 to 6, characterized in that, by action of the initialization signal, all the interruptible synapses are set to the state valid and that unsupervised learning is then carried out. 9. Procédé de réalisation d'une mémoire associa¬ tive constituée par un réseau neuronal selon l'une quelconque des revendications 1 à 3, caractérisé en ce que l'on réalise un réseau comportant des synapses interruptibles et en ce que 1'on effectue un apprentis¬ sage supervisé en bloquant des synapses déterminées dudit réseau.9. A method of producing an associative memory constituted by a neural network according to any one of claims 1 to 3, characterized in that one realizes a network comprising interruptible synapses and in that one performs supervised learning by blocking specific synapses of said network. 10. Procédé selon la revendication 8 ou 9, carac- térisé en ce que chaque synapse interruptible est consti¬ tuée par un fusible.10. The method of claim 8 or 9, charac- terized in that each interruptible synapse is consti¬ killed by a fuse. 11. Procédé selon l'une quelconque des revendica¬ tions 8 ou 9, caractérisé en ce que chaque synapse inter¬ ruptible est un élément de commutation commandé par une bascule.11. Method according to any one of Claims 8 or 9, characterized in that each interruptible synapse is a switching element controlled by a rocker. 12. Procédé selon l'une quelconque des revendica¬ tions 8 ou 9, caractérisé en ce que chaque synapse inter¬ ruptible est un élément de commutation commandé par une cellule de mémoire. 12. Method according to any one of claims 8 or 9, characterized in that each interruptible synapse is a switching element controlled by a memory cell.
PCT/FR1991/001082 1991-01-02 1991-12-30 Neural network with binary operators and methods of implementation Ceased WO1992012497A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR91/00017 1991-01-02
FR9100017A FR2671207B1 (en) 1991-01-02 1991-01-02 NEURONAL NETWORK WITH BINARY OPERATORS AND METHODS FOR MAKING SAME.

Publications (1)

Publication Number Publication Date
WO1992012497A1 true WO1992012497A1 (en) 1992-07-23

Family

ID=9408415

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR1991/001082 Ceased WO1992012497A1 (en) 1991-01-02 1991-12-30 Neural network with binary operators and methods of implementation

Country Status (2)

Country Link
FR (1) FR2671207B1 (en)
WO (1) WO1992012497A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0841621A1 (en) * 1996-11-06 1998-05-13 Sowa Institute of Technology Co., Ltd. Learning methods in binary systems
WO2001011558A1 (en) * 1999-08-05 2001-02-15 Sowa Institute Of Technology Co., Ltd. Learning methods in binary systems
CN108875919A (en) * 2017-07-21 2018-11-23 北京旷视科技有限公司 Data processing device, data processing method and storage medium product
WO2021073752A1 (en) 2019-10-18 2021-04-22 Huawei Technologies Co., Ltd. Design and training of binary neurons and binary neural networks with error correcting codes

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3348214A (en) * 1965-05-10 1967-10-17 Ibm Adaptive sequential logic network
EP0325119A2 (en) * 1988-01-19 1989-07-26 Nestor, Inc. Apparatus for cumulative learning of internal representations in an n-dimensional coulomb network
WO1990010274A1 (en) * 1989-02-21 1990-09-07 Rijksuniversiteit Te Leiden Neuronal data processing network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3348214A (en) * 1965-05-10 1967-10-17 Ibm Adaptive sequential logic network
EP0325119A2 (en) * 1988-01-19 1989-07-26 Nestor, Inc. Apparatus for cumulative learning of internal representations in an n-dimensional coulomb network
WO1990010274A1 (en) * 1989-02-21 1990-09-07 Rijksuniversiteit Te Leiden Neuronal data processing network

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
1990 IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS vol. 4, 1 Mai 1990, NEW ORLEANS,LA,US pages 2967 - 2970; YEAP: 'a hierarchical neural network for temporal pattern recognition' *
IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS vol. 2, 24 Juillet 1988, SAN DIEGO,CA,US pages 9 - 16; TEMPLEMAN: 'RACE NETWORKS' *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0841621A1 (en) * 1996-11-06 1998-05-13 Sowa Institute of Technology Co., Ltd. Learning methods in binary systems
WO2001011558A1 (en) * 1999-08-05 2001-02-15 Sowa Institute Of Technology Co., Ltd. Learning methods in binary systems
CN108875919A (en) * 2017-07-21 2018-11-23 北京旷视科技有限公司 Data processing device, data processing method and storage medium product
CN108875919B (en) * 2017-07-21 2021-04-02 北京旷视科技有限公司 Data processing device, data processing method and storage medium product
WO2021073752A1 (en) 2019-10-18 2021-04-22 Huawei Technologies Co., Ltd. Design and training of binary neurons and binary neural networks with error correcting codes
EP4310732A2 (en) 2019-10-18 2024-01-24 Huawei Technologies Co., Ltd. Design and training of binary neurons and binary neural networks with error correcting codes

Also Published As

Publication number Publication date
FR2671207B1 (en) 1993-04-16
FR2671207A1 (en) 1992-07-03

Similar Documents

Publication Publication Date Title
EP3663988B1 (en) Artificial neuron for neuromorphic chip with resistive synapses
EP2819068B1 (en) Artificial neuron including a resistive memory
EP2713318B1 (en) Neuromorphic system exploiting the intrinsic characteristics of memory cells
EP0591022B1 (en) Voltage boosting circuit of the charge pump type with bootstrap oscillator
FR2787922A1 (en) UNIQUE PROGRAMMED MEMORY CELL IN CMOS TECHNOLOGY
FR2649505A1 (en) INTEGRATED CIRCUIT WITH ADJUSTABLE OSCILLATOR WITH FREQUENCY INDEPENDENT OF THE SUPPLY VOLTAGE
FR2685109A1 (en) NEURAL DIGITAL PROCESSOR OPERATING WITH APPROXIMATION OF NONLINEAR ACTIVATION FUNCTION.
FR2464535A1 (en) REMANENT STATIC MEMORY SYSTEM WITH DIRECT ACCESS
EP0718887A1 (en) Calibration circuit for resistors
FR3089037A1 (en) NEURONAL CIRCUIT CAPABLE OF IMPLEMENTING SYNAPTIC LEARNING
EP0051525B1 (en) Logic array with simplified electric programming
EP0454535B1 (en) Neural classification system and method
WO1992012497A1 (en) Neural network with binary operators and methods of implementation
FR2583602A1 (en) INTEGRATED RETINA WITH PROCESSOR NETWORK
FR2641391A1 (en) FAST ERASABLE PROGRAMMABLE LOGIC COMPONENT
FR2843229A1 (en) DEAD MEMORY CELL AND METHODS OF PROGRAMMING AND MANUFACTURE THEREOF
EP0447729B1 (en) Level detector hardened against noise
EP4576094A1 (en) 2t2r rram cell-based electronic circuit with improved accuracy
WO1992009986A1 (en) Logic circuits for an amorphous silicone self-scanned matrix system
LU88148A1 (en) Mosfet command multiplier
EP0961207B1 (en) Device for communication between a neural network and a user system by means of a bus
FR2837621A1 (en) DIFFERENTIATION OF CHIPS ON A CROSSLINK
FR2611099A1 (en) DYNAMIC LOGIC NETWORK
EP0849659B1 (en) Digital reset device for integrated circuit
EP0917288B1 (en) Cell comprising a pseudo-capacitor. in particular for an artificial retina device

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IT LU MC NL SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: CA