WO2010089363A1 - Procede d'estimation des parametres de la distribution des temps de reponse de particules d'un systeme, applique notamment aux mesures de fluorescence - Google Patents
Procede d'estimation des parametres de la distribution des temps de reponse de particules d'un systeme, applique notamment aux mesures de fluorescence Download PDFInfo
- Publication number
- WO2010089363A1 WO2010089363A1 PCT/EP2010/051404 EP2010051404W WO2010089363A1 WO 2010089363 A1 WO2010089363 A1 WO 2010089363A1 EP 2010051404 W EP2010051404 W EP 2010051404W WO 2010089363 A1 WO2010089363 A1 WO 2010089363A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- function
- distribution
- likelihood
- log
- order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/62—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
- G01N21/63—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
- G01N21/64—Fluorescence; Phosphorescence
- G01N21/6408—Fluorescence; Phosphorescence with measurement of decay time, time resolved fluorescence
Definitions
- the present invention relates to a method for estimating the distribution of particle response times of a system, in particular for the purpose of characterizing it. It applies, for example, to time-resolved fluorescence measurements.
- Fluorescence measurements make it possible to characterize molecules in particular. More particularly, molecules are illuminated by lasers, and the molecules thus excited release photons. The times between the moment of illumination by the laser and the instants of arrival of the photons on a detector make it possible to characterize these molecules in a known manner. The number of photons emitted during each illumination is indeterminate, as an indication, the stronger the pulse emitted by the laser, the more photons there are. There is also an additional hazard on response times. A general technical problem is the measurement of the distribution of the response times of a given system in order to characterize it in the image of the preceding example.
- the distribution of these response times is generally parameterized by a set of numerical parameters and it is these parameters that one wants to measure. This dependence on a parameter set will be noted later by calling the probability density of the distribution of response time, ⁇ o designating a vector of parameters belonging to a set ⁇ of vectors ⁇ . To every element ⁇ in ⁇ one associates a density of probability and thus one defines a family of distribution From a statistical point of view, this approach is a parametric estimation problem. For example, in the context of time-resolved fluorescence, where the studied system is then a set of fluorescent molecules, it is assumed that the distribution function, parameterized by a set of parameters, is a mixture of exponentials and is the set of exponential density mixtures. Modeling is more complex when it comes to the distribution of the response times of a optical system or a transparent medium like the atmosphere. However, the extension of this parametric approach to domains other than time-resolved fluorescence is possible.
- the measurements of the response times are obtained by means of pulsed excitation of the system to be characterized.
- One emits a very brief excitation one measures the time put by the system to answer this excitation and one records this time.
- These three operations are repeated a very large number of times until thousands or millions of response times are available. Finally, it is from this collection of independently collected response times that the parameters of their common distribution are estimated.
- the field of the invention relates to contexts where the system can issue a random number of responses to excitation and where only the first response is detected and recorded.
- the excitation is a laser pulse sent on the fluorescent sample and the response of this sample is generally composed of several photons, because there is a very large number of fluorescent molecules present. Only the response time corresponding to the first photon is recorded because this first photon blinds the electronic detection and recording apparatus. This phenomenon of forgetting the second, third and subsequent photons is called stacking or "stack-up" in the Anglo-Saxon literature.
- the invention thus relates to the contexts which comprise in particular the four following characteristics: - Measurement of the response time distribution of a system,
- the studied system emits a random number of responses to each excitation but only the first response is seen by the measuring equipment.
- Time Correlated Single Photon Counting TCSPC
- Data of the "stack up" type are encountered in time-resolved fluorescence. This involves estimating the distribution of fluorescence lifetimes.
- the lifetime constant of a molecule is the mean time between the moment of excitation of the molecule and the instant of emission of a photon. It contains valuable information about molecules and their environment, such as pH, polarization, or viscosity. It is therefore of great interest in biology, medicine or physics in particular.
- the distribution of the lifetime of a molecule is modeled by an exponential law. Now, the distribution of the arrival times of a mixture of molecules corresponds to a mixture of exponential laws.
- the number of photons emitted by excitation laser pulse is modeled by a Poisson law.
- TCSPC Single Photon Timing
- a technical problem is the opposite problem. More particularly, we want to estimate the parameters of a probability density M), but we do not have direct observations of the density M>. However, we observe the minimum of a random number of random variables independent of the density hh. It is obvious that the density of the observations, denoted by ->' ⁇ , is not the same as the density of probability M'. Indeed, $ & $ results from h'h by a nonlinear distortion, effect of stacking up. The same estimators can not be applied to the "stack up" data from the density M "as to the stack up data from the density”. The estimation problem comes especially the complicated form of density Indeed, classical estimators, such as the maximum likelihood estimator or the moment methods, are not feasible.
- Exponential mixing parameter estimators are obtained by conventional statistical methods such as the least squares method described in B.Valeur et al., Or the entropy maximum method described in JCBrochon's document "Maximum entropy method of data analysis in time-resolved spectroscopy Methods Enzymology, 240: 262-311, 1994.
- the subject of the invention is a method for estimating the parameters ⁇ 0 of the distribution of the response times of particles reemitted by a system, in response to a series of particle emissions to said system, a response time a corresponding particle being measured between an emission instant and the instant of detection of said particle, the method comprising at least:
- Zi, ..., Z n represent the n response time measurements.
- the approximate function is obtained by weighting each term log (f ⁇ (Zi)) of the log-likelihood by a weight which compensates for the fact that Z follows a law ⁇ -> and not because of the "stack-up" phenomenon. .
- m 'the derivative of m and & u is an estimator of the distribution function. If we choose the empirical estimator of the distribution function for the latter and if we reorder the observations in increasing order in the form then the weight corresponding to the term log (f ⁇ (Z (l) )) is written
- the target distribution function is for example considered to be a mixture of exponential densities.
- the target distribution function takes into account the measuring device function, the target function being the product of convolution of the target function without device function (h ⁇ ->) with the probability density of the device function ⁇ .
- the particles are, for example, photons emitted by a laser, the system re-emitting photons.
- the system can be a set of molecules to be characterized by the target distribution function of the response times.
- FIG. 1 an illustration of the effect of "stack-up" on the distributions of response time measurements
- FIGS. 2a, 2b and 2c illustrate histograms of measurements with "stack-up" effect for different intensities of photon emission
- FIG. 1 illustrates by two curves 1, 2 the "stack-up" effect mentioned previously in a system of axes, where the abscissas represent the measured response times and the ordinate axis the number of detected photons corresponding to these response times. The values indicated are standardized.
- the first curve 1 and the second curve 2 respectively illustrate the probability densities and evoked previously.
- a sample of molecules is illuminated with a laser beam, for example.
- the molecules excited by photons from the laser in turn emit photons which are detected by appropriate means, including using suitable filters.
- the arrival time of the photons is measured and recorded. This gives a distribution of the response times characterizing the molecules. The times being of the order of several nanoseconds for a required accuracy of the order of one picosecond.
- the first hazard concerns the number of photons re-emitted by the molecules and the second random relates to the response times, because each photon has its associated response time which is specific and therefore indeterminate.
- the times being very short, the chronometer used can measure only one duration, the duration corresponding to the time of the first photon received. The time the timer resets to engage a second is then too long compared to the observed physical phenomenon. The fluorescence is indeed over and all the photons already received. At each laser pulse, we have a number of photons arriving but only the response time of the first is measured.
- the distribution obtained is therefore constructed only for the first photon received, and therefore for the shortest response time, thus leading to a compressed image and finally to a measurement distortion.
- This is the stacking effect, where only the first photon is detected and measured.
- the density function associated with the measurements is illustrated by the first curve 1.
- This curve 1 has a high concentration of measurements corresponding to the very short response times.
- a known solution is to lower the power of the emitted laser beam so that there is only one photon reemitted at each laser pulse.
- the distribution obtained is satisfactory because it is devoid of distortion.
- the second curve 2, of exponential form illustrates the density associated with this solution.
- the difference of the first curve 1 with respect to this second curve 2 illustrates the distortion caused by the "stack-up" effect.
- the advantage of the measurements corresponding to curve 2 is that we know how to extract parameters ⁇ o sought with statistical methods, since it is an exponential density or in more complex cases of an exponential mixture . However it follows that in the vast majority of cases, in almost 95% pulses, there are no re-emitted photons.
- Figures 2a, 2b and 2c illustrate the measurement histograms 21, 22, 23 with the effect of "stack-up" for different intensities.
- TCSPC the adjustment of the laser intensity, or the attenuation of the optical chain, determines the average number of photons detected by excitation.
- the effect of different intensity choices on the distribution of observations is illustrated by the three histograms of Figures 2a, 2b and 2c corresponding to 1000 observations in each case.
- the target density J f A> is an exponential of average 1 and each histogram is composed of 1000 observations, that is to say 1000 laser pulses, obtained by Monte-Carlo simulation.
- the last bin, noted + °°, represented on the abscissa scale, contains the number of observations where no photon is detected.
- An object of the invention is to obtain a distribution of the response times according to the first curve 1, without loss of time, that is to say obtained much faster than the distribution according to the second curve 2.
- the power of the emitted laser beams is not reduced as much as for the second curve 2. This is in particular the resolution of the inverse problem mentioned above, leading to obtaining the parameters of the distribution according to the second curve 2.
- the parameter obtained is the parameter ⁇ which characterizes the exponential density
- the invention comprises at least two steps as illustrated by FIG. 3.
- a simple function approximating the log-likelihood of the target distribution which is the desired function, illustrated by FIG. second curve 2 of Figure 1.
- the log-likelihood depending on the response time measurements, is a function in the parameter vector that characterizes the family of distributions to which the target density belongs .
- this approximate log-likelihood is maximized at ⁇ . Find the parameters ⁇ o of the function î come back in search for the vector ⁇ of the parameters where the log-likelihood reaches its maximum. The maximization is done on the whole set ⁇ of the parameters ⁇ which determines the family of distributions to which the target density belongs
- the estimation of the log-likelihood is obtained by a reweighting of the log-likelihood the density f ⁇ in order to correct the distortion, W ⁇ n representing the weight associated with the datum Z (i) .
- W ⁇ n representing the weight associated with the datum Z (i) .
- W ⁇ n representing the weight associated with the datum Z (i) .
- the log-likelihood thus corrected is maximized by using a suitable algorithm, such as the EM algorithm, abbreviation for "Expectation-Maximization", presented in the document by APDempster et al, "Maximum likelihood of incomplete data”. via the EM algorithm ", Journal of the Royal Statistical Society, Series B, 39 (1), 1-38, 1977.
- the number N of photons striking the detector by laser pulse is modeled by a Poisson distribution of parameter ⁇ (restricted to .
- the probabilities are given by the following relation:
- the method according to the invention approaches the log-likelihood of by an estimator based on observations with "stack up”. Then, we obtain an estimator of the parameter ⁇ o by maximizing this approximate log-likelihood.
- the simple form of this log-likelihood allows the application of the EM algorithm, defined later, to determine its maximum.
- the EM algorithm to maximize the L (O) function in the case of an exponential mixture, can be defined by the following phases:
- ⁇ be the known value of the Poisson parameter during the experiment.
- n be the observations with "pile-up", that is to say a sample density iid
- Z the ordered observations, n being the total number of measurements with photons detected, and / being the order of arrival of the photon 1.
- t 1.
- the previous model is only close to reality for measuring devices with a laser that emits light instantly, that is to say if the laser pulse can be modeled by a Dirac law with all the mass in zero.
- the light source of most measuring devices emits light for a short time.
- We call function of device the light remission distribution which is different for any device, but which can be easily registered before performing the experiment. So a TCSPC observation is the time that the molecule remains in excited state, the lifetime, to which is added a random duration that comes from the device.
- the EM method takes into account the hazards caused by the device.
- ⁇ is the probability density of the device function. It will be assumed in the following that ⁇ is known. Let (E 1 , i ⁇ 1 ⁇ and (Y 1 , i ⁇ 1) be two independent sequences of random variables independent of law ⁇ respectively of the mmlaellgegege eexxppoonneennttiieell given by relation (1).
- the density of is the convoi ution of
- the EM algorithm to maximize in the case of a device function is defined by the following phases:
- ⁇ be the known value of the Poisson parameter during the experiment.
- ⁇ be a piecewise constant known density given by
- the invention uses the preceding algorithm for the general inverse problem mentioned above, that is to say for density families other than the family of exponential mixtures and for other discrete laws than the Poisson's law.
- This new EM algorithm used to solve the general inverse problem, is thus not restricted to the exponential mixture and Poisson's law.
- We consider any density family such that the EM algorithm applies to a density iid sample Let a sequence of random variables independent of density We note the distribution function associated with the density
- the general EM algorithm for maximizing involves phases following:
- An estimation method can provide very accurate measurements when applied to real data. It requires little computing time, takes into account the device function, is easy to implement and can handle the case of a mixture of several exponentials.
- the system to be characterized may be composed of molecules as described above.
- the invention can nevertheless be applied to other systems.
- a system to be characterized may be, for example, an optical fiber in which photons are injected and whose lifetimes are measured. Other types of particles than photons can also be used.
Landscapes
- Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
Abstract
Procédé d'estimation des paramètres de la distribution des temps de réponse de particules d'un système, appliqué notamment aux mesures de fluorescence La présente invention concerne un procédé d'estimation de la distribution des temps de réponse de particules d'un système, dans le but notamment de le caractériser. Elle s'applique par exemple aux mesures de fluorescence résolues en temps. Le procédé comporte au moins: -une étape (31) de détermination d'une fonction approchant la log- vraisemblance de la distribution cible ?o correspondant à une distribution sans effet d'empilement à partir des mesures de temps de réponse de particules détectées avec effet d'empilement, c'est-à-dire des mesures de la distribution g?o; -une étape (32) de maximisation de la log-vraisemblance approchée sur l'ensemble des paramètres (?) afin de déterminer l'estimateur comme le vecteur ? qui maximise la log-vraisemblance approchée.
Description
PROCEDE D'ESTIMATION DES PARAMETRES DE LA DISTRIBUTION DES TEMPS DE REPONSE DE PARTICULES
D'UN SYSTEME, APPLIQUE NOTAMMENT AUX MESURES DE FLUORESCENCE
La présente invention concerne un procédé d'estimation de la distribution des temps de réponse de particules d'un système, dans le but notamment de le caractériser. Elle s'applique par exemple aux mesures de fluorescence résolues en temps.
Des mesures de fluorescence permettent de caractériser notamment des molécules. Plus particulièrement, on éclaire des molécules par des lasers, puis les molécules ainsi excitées libèrent des photons. Les temps entre l'instant d'éclairement par le laser et les instants d'arrivée des photons sur un détecteur permettent de caractériser ces molécules de façon connue. Le nombre de photons émis lors de chaque éclairement est indéterminé, à titre indicatif plus l'impulsion émise par le laser est forte, plus il y a de photons. Il y a par ailleurs un aléa supplémentaire sur les temps de réponse. Un problème technique général est la mesure de la distribution des temps de réponse d'un système donné dans le but de le caractériser à l'image de l'exemple précédent.
La distribution de ces temps de réponse est généralement paramétrée par un ensemble de paramètres numériques et ce sont ces paramètres que l'on veut mesurer. On notera par la suite cette dépendance envers un jeu de paramètre en appelant la densité de probabilité de la distribution des
temps de réponse, θo désignant un vecteur de paramètres appartenant à un ensemble Θ de vecteurs θ. A tout élément θ dans Θ on associe une densité de probabilité et ainsi on définit une famille de distribution
D'un point de vue statistique, cette approche est un problème d'estimation paramétrique. Par exemple, dans le contexte de la fluorescence résolue en temps, où le système étudié est alors un ensemble de molécules fluorescentes, on suppose que la fonction de distribution, paramétrée par un jeu de paramètres, est un mélange d'exponentielles et
est l'ensemble des mélanges de densités exponentielles. La modélisation est plus complexe lorsqu'il s'agit de la distribution des temps de réponse d'un
système optique ou d'un milieu transparent comme l'atmosphère. Cependant l'extension de cette approche paramétrique à d'autres domaines que la fluorescence résolue en temps est possible.
Les mesures des temps de réponse sont obtenues au moyen d'une excitation puisée du système à caractériser. On émet une excitation très brève, on mesure le temps mis par le système à répondre à cette excitation et on enregistre ce temps. Ces trois opérations sont répétées un très grand nombre de fois jusqu'à ce qu'on dispose de milliers ou de millions de temps de réponse. Enfin, c'est à partir de cette collection de temps de réponse collectés indépendamment que l'on estime les paramètres de leur distribution commune.
Le domaine de l'invention concerne les contextes où le système peut émettre un nombre aléatoire de réponses à l'excitation et où seule la première réponse est détectée et enregistrée. Dans le contexte de la fluorescence résolue en temps, l'excitation est une impulsion laser envoyée sur l'échantillon fluorescent et la réponse de cet échantillon est constituée en général de plusieurs photons, car il y a un très grand nombre de molécules fluorescentes présentes. On enregistre seulement le temps de réponse correspondant au premier photon car ce premier photon aveugle l'appareillage électronique de détection et d'enregistrement. Ce phénomène d'oubli des deuxième, troisième photons et des suivants est appelé empilement ou « pile-up » dans la littérature anglo-saxonne. L'invention concerne donc les contextes qui comportent notamment les quatre caractéristiques suivantes : - Mesure de la distribution de temps de réponse d'un système,
- Distribution paramétrée,
- Mise à disposition d'une collection généralement grande de temps de réponse mesurés indépendamment,
- Le système étudié émet un nombre aléatoire de réponses à chaque excitation mais seule la première réponse est vue par l'appareillage de mesure.
Ces quatre conditions sont rencontrées dans la méthode de mesure dite « Time Correlated Single Photon Counting » (TCSPC) en fluorescence résolue en temps.
Des données du type « pile up » sont rencontrées en fluorescence résolue en temps. Il s'agit d'estimer la distribution des durées de vie en fluorescence. La constante de durée de vie d'une molécule est le temps moyen entre l'instant d'excitation de la molécule et l'instant d'émission d'un photon. Elle contient des précieuses informations sur les molécules et leur milieu, par exemple le pH, la polarisation, ou la viscosité. Elle est donc de grand intérêt en biologie, en médecine ou en physique notamment. Typiquement, la distribution de la durée de vie d'une molécule est modélisée par une loi exponentielle. Or, la distribution des temps d'arrivée d'un mélange des molécules correspond à un mélange des lois exponentielles. En outre, le nombre de photons émis par impulsion de laser d'excitation est modélisé par une loi de Poisson.
Les observations disponibles pour l'estimation des paramètres exponentiels peuvent être obtenues par la méthode TCSPC, aussi appelée la méthode SPT (Single Photon Timing), comme le montrent notamment les documents de B.Valeur « Molecular Fluorescence », WILEY-VCH, Weinheim, 2002, de J.R.Lakowicz « Principles of Fluorescence Spectroscopy », Academic/Plenium, New- York, 1999, ou de D.O'Connors et al « Time- Correlated Single Photon Counting », Académie Press, London, 1984. Dans la méthode TCSPC un coup de laser excite un nombre aléatoire de photons, mais pour des raisons techniques seulement le temps de réponse du photon qui arrive le premier au détecteur peut être enregistré. Les autres photons fluorescents ne sont pas observables. En TCSPC le réglage de l'intensité de laser, ou l'atténuation de la chaîne optique, détermine le nombre moyen de photons détectés par excitation.
Un problème technique est notamment le problème inverse. Plus particulièrement, on veut estimer les paramètres d'une densité de probabilité M) , mais on ne dispose pas d'observations directes de la densité M> Pourtant on observe le minimum d'un nombre aléatoire des variables aléatoires indépendantes de la densité hh . Il est évident que la densité des observations, notée ->'^, n'est pas la même que la densité de probabilité M« . En effet, $&$ résulte de h'h par une distorsion non linéaire, effet de l'empilement « pile up ». On ne peut pas appliquer les mêmes estimateurs aux données sans « pile up », issues de la densité M« , qu'aux données avec pile up, issues de la densité ^. Le problème d'estimation vient
notamment de la forme compliquée de la densité
En effet, les estimateurs classiques, comme l'estimateur du maximum de vraisemblance ou les méthodes des moments, ne sont pas faisable.
Il existe au moins deux façons d'affronter le problème inverse où une observation représente le minimum d'un nombre aléatoire de variables aléatoires. En TCSPC il est courant de travailler avec une intensité de laser tellement faible qu'il y a au plus un photon émis par excitation avec une très forte probabilité. Donc, le problème d'une perte de photons, c'est-à-dire de ne pas observer tous les photons qui arrivent sur le détecteur, est évité. Dans ce cas, les temps d'arrivée observés peuvent être considérés comme des réalisations indépendantes d'un mélange exponentiel. Des estimateurs de paramètres du mélange exponentiel sont obtenues par des méthodes statistiques classiques comme la méthode des moindres carrées décrite dans le document de B.Valeur et al précité, ou la méthode du maximum d'entropie décrite dans le document de J.C.Brochon « Maximum entropy method of data analysis in time-resolved spectroscopy » Methods Enzymology, 240 : 262-311 , 1994.
Or, une très basse intensité de laser entraîne un long temps d'acquisition, car sur 100 excitations il n'y a qu'un à trois photons détectés en général. Les autres excitations ne sont pas suivies par la détection d'un photon, donc elles ne contiennent aucune information sur les paramètres à estimer. Il faut alors un grand nombre d'excitations pour obtenir une quantité suffisante de temps d'arrivée pour une estimation fiable des paramètres. Une étude de la borne de Cramér-Rao montre qu'une minuscule intensité de laser entraîne une forte augmentation de la vahance des estimateurs et qu'il est préférable de travailler avec un laser plus fort que ceux utilisés habituellement afin d'augmenter l'information sur les paramètres qui est contenue dans les données. Cependant, avec une plus forte intensité, les données subissent l'effet de « pile up » et il faut des méthodes statistiques adaptées au modèle avec « pile up ».
La littérature sur le modèle statistique de « pile up », où uniquement le minimum d'un nombre aléatoire de variables aléatoires est observé, est très limitée et, en TCSPC, ces méthodes sont rarement utilisées dans la pratique. Une première méthode, décrite dans le document de P.B.Coates « The correction of photon 'pile-up' in the measurement of relative lifetimes »
Journal of Physics E : Scientific Instruments, 2(1 ) : 878-879, 1968, est une correction de l'histogramme pour des données en TCSPC. Il s'agit de repondérer les groupes ou classes de l'histogramme, encore appelés « bins », afin d'obtenir un histogramme de la distribution cible
Une généralisation de l'approche de P.B.Coates à une grande classe de distributions est présentée dans le document de A.Souloumiac « Apparatus and method for characterizing a System for counting elementary particles », demande de brevet WO2007088173(A1 ). En plus, le document de A.Souloumiac étend la méthode de la repondération à la fonction de répartition afin de corriger l'effet de « pile up ». Dans le document de J.G.Walker « Itérative correction for 'pile-up' in single-photon lifetime measurement », Optics Communications, 201 : 271 -277, 2002, la méthode de P.B.Coates est adaptée au cas d'un laser non stable. Un inconvénient de ces approches de repondération est qu'elles ne fournissent pas d'estimateurs de paramètres. Après la repondération de l'histogramme ou de la fonction de répartition, il faut appliquer une autre méthode statistique pour arriver à des valeurs estimées des paramètres. La repondération ne représente qu'une première étape dans l'estimation. Des méthodes d'estimation de paramètres directe pour le modèle « pile up » ont été développées. Le document de L.Okano et al « Abstracting reliable parameters from time-correlated single photon counting experiments », Journal of Photochemistry and Photobiology A : Chemistry, 175, 221 -225, 2005 propose une méthode des moindres carrées pour ajuster directement la fonction de densité aux données avec empilement. Les méthodes des
moindres carrées sont des « large sample methods » ce qui veut dire que l'on a besoin d'un très grand nombre de temps de réponse afin d'obtenir des estimateurs fiables. Comme nous cherchons à diminuer le temps d'acquisition, ce procédé n'est pas adapté. Une autre méthode directe est présentée dans le document de T. Rebafka « An MCMC approach for estimating a fluorescence lifetime with pile-up distorsion », Actes 21 ιeme Colloque GRETSI sur le Traitement du Signal et des Images (GRETSI 2007), Troyes, France, où un échantillonneur de Gibbs est développé qui est bien adaptée au modèle de mélange exponentiel et à un nombre Poissonien de photons par excitation. Cette méthode présente cependant plusieurs inconvénients, en particulier elle nécessite un long temps de calcul et la
difficulté d'inclure la fonction d'appareil dans le modèle. Elle ne peut donc pas être utilisée en TCSPC où les mesures contiennent généralement du bruit additif.
Enfin les deux méthodes précédentes ne sont pas très souples dans le sens qu'elles sont restreintes au cas multi-exponentiel. Même si la loi exponentielle est la plus utilisée en fluorescence, il y a des applications avec des distribution de Kohlrausch, comme décrit dans le document de M.N.Berberan-Santos et al « Mathematical functions for the analysis of luminescence decays with underlying distribution : 1. Kohlrausch decay function (stretched exponential), Chemical Physics, 315 : 171-182, 2005, ou des distributions de Becquerel comme décrit dans le document de M.N.Berberan-Santos et al « Mathematical functions for the analysis of luminescence decays with underlying distribution : 2. Becquerel (compressed hyperbola) and related decay functions, Chemical Physics, 317 : 57-62, 2005.
Un but de l'invention est notamment de pallier les inconvénients précités en permettant d'obtenir une estimation directe des paramètres de la distribution des temps, adapté à l'effet de « pile-up », ne nécessitant donc pas l'atténuation de la puissance du laser utilisé. A cet effet, l'invention a pour objet un procédé d'estimation des paramètres θo de la distribution des temps de réponse de particules réémises par un système, en réponse à une série d'émissions de particules vers ledit système, un temps de réponse d'une particule correspondant étant mesuré entre un instant d'émission et l'instant de détection de ladite particule, le procédé comportant au moins :
- une étape de détermination d'une fonction approchant la log- vraisemblance de la distribution cible correspondant à une
distribution sans effet d'empilement à partir des mesures de temps de réponse de particules détectées avec effet d'empilement, c'est-à-dire des mesures de la distribution
- une étape de maximisation de la log-vraisemblance approchée sur l'ensemble des paramètres
afin de déterminer l'estimateur comme le vecteur θ qui maximise la log-vraisemblance approchée.
La fonction approchée est une estimation de la log-vraisemblance de la fonction de distribution cible basée sur des mesures observées
distribuées selon la fonction de distribution ^ = avec effet d'empilement. Supposons que Zi,...,Zn représentent les n mesures de temps de réponse. La fonction approchée est obtenue en pondérant chaque terme log(fθ(Zi)) de la log-vraisemblance par un poids qui compense le fait que Z, suit une loi ^- > et non à cause du phénomène du « pile-up ». On peut prendre un poids
de la forme 1
où m note la fonction génératrice de N,
et m' la dérivée de m et &u est un estimateur de la fonction de répartition. Si l'on choisit l'estimateur empirique de la fonction de répartition pour ce dernier et si l'on réordonne les observations dans un ordre croissant sous la forme
alors le poids
correspondant au terme log(fθ(Z(l))) s'écrit
La fonction de distribution cible
est par exemple considérée comme étant un mélange de densités exponentielles.
Avantageusement, dans un mode de mise en œuvre particulier, la fonction de distribution cible prend en compte la fonction d'appareil de mesures, la fonction cible étant le produit de convolution de la fonction cible sans fonction d'appareil (h\-> ) avec la densité de probabilité de la fonction d'appareil η.
Les particules sont par exemple des photons émis par un laser, le système réémettant des photons.
Le système peut être un ensemble de molécules à caractériser par la fonction de distribution cible des temps de réponse.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'aide de la description qui suit faite en regard de dessins annexés qui représentent : - la figure 1 , une illustration de l'effet de « pile-up » sur les distributions de mesures de temps de réponse ;
- les figures 2a, 2b et 2c, des illustrations d'histogrammes de mesures avec effet de « pile-up » pour différentes intensités d'émissions de photons ;
- la figure 3, une présentation des étapes possibles pour la mise en œuvre d'un procédé selon l'invention.
La figure 1 illustre par deux courbes 1 , 2 l'effet de « pile-up » évoqué précédemment dans un système d'axes, où les abscisses représentent les temps de réponse mesurés et l'axe des ordonnées le nombre de photons détectés correspondant à ces temps de réponse. Les valeurs indiquées sont normalisées. La première courbe 1 et la deuxième courbe 2 illustrent respectivement les densités de probabilité
et évoquées
précédemment.
Dans la méthode TCSPC on éclaire donc un échantillon de molécules avec un rayon laser par exemple. Les molécules excitées par des photons issus du laser émettent à leur tour des photons qui sont détectés par des moyens appropriés, utilisant notamment des filtres adaptés. On mesure et on enregistre le temps d'arrivée des photons. On obtient ainsi une distribution des temps de réponse caractérisant les molécules. Les temps étant de l'ordre de plusieurs nanosecondes pour une précision exigée de l'ordre d'une picoseconde.
En réalité, il n'y a pas un seul photon. Il y a en fait deux aléas. Le premier aléa porte sur le nombre de photons réémis par les molécules et le deuxième aléa porte sur les temps de réponse, car chaque photon a son temps de réponse associé qui lui est propre et donc indéterminé. Plus le laser émet des impulsions fortes, plus il y a de photons réémis par les molécules. Les temps étant très courts, le chronomètre utilisé ne peut mesurer qu'une seule durée, la durée correspondant au temps du premier photon reçu. Le temps que le chronomètre se réinitialise pour engager une deuxième est alors trop long en regard du phénomène physique observé. La fluorescence est en effet terminée et tous les photons déjà reçus. A chaque impulsion laser, on a donc un certain nombre de photons qui arrivent mais seul le temps de réponse du premier est mesuré. La distribution obtenue n'est donc construite que pour le premier photon reçu, et donc pour le temps de réponse le plus court, conduisant ainsi à une image compressée et
finalement à une distorsion de mesure. C'est l'effet d'empilement ou « pile- up », où seul le premier photon est détecté et mesuré. La fonction de densité associée aux mesures est illustrée par la première courbe 1. Cette courbe 1 présente une forte concentration de mesures correspondant aux temps de réponse très courts.
Une solution connue consiste à baisser la puissance du faisceau laser émis de façon à ce qu'il n'y ait qu'un seul photon réémis à chaque impulsion laser. La distribution obtenue est satisfaisante car dénuée de distorsion. La deuxième courbe 2, de forme exponentielle, illustre la densité associée à cette solution. La différence de la première courbe 1 par rapport à cette deuxième courbe 2 illustre la distorsion provoquée par l'effet de « pile-up ». L'avantage des mesures correspondant à la courbe 2 est que l'on sait comment en extraire des paramètres θo recherchés avec des méthodes statistiques, puisqu'il s'agit d'une densité exponentielle ou dans des cas plus complexes d'un mélange exponentiel. Cependant il s'ensuit que dans la grande majorité des cas, pratiquement dans environ 95% impulsions, il n'y a pas de photons réémis. Seules 2% à 5% des impulsions laser émises donnent lieu à la réémission d'un photon. L'obtention d'une distribution selon la deuxième courbe 2 se fait donc avec une perte de temps important. Il existe des applications où la distribution doit être obtenue rapidement et où les pertes de temps de la méthode illustrée par cette deuxième courbe 2 n'est pas admissible. En particulier, dans les cas où le système observé est instable et où plus la mesure est longue, plus il y a de possibilités que l'état du système évolue rendant l'ensemble des mesures inaptes à caractériser le système. Il y a aussi des applications qui nécessitent un haut débit de mesures, notamment dans le domaine médical.
Les figures 2a, 2b et 2c illustrent les histogrammes de mesures 21 , 22, 23 avec l'effet de « pile-up » pour des intensités différentes. Comme indiqué précédemment, en TCSPC le réglage de l'intensité de laser, ou l'atténuation de la chaîne optique, détermine le nombre moyen de photons détectés par excitation. L'effet des choix différents de l'intensité sur la distribution des observations est illustré par les trois histogrammes des figures 2a, 2b et 2c correspondant à 1000 observations dans chacun des cas. La densité cible J fA> est une exponentielle de moyenne 1 et chaque histogramme est
composé de 1000 observations, c'est-à-dire 1000 impulsions de laser, obtenues par simulation Monte-Carlo. Le dernier bin, noté +°°, représenté sur l'échelle des abscisses, contient le nombre d'observations où aucun photon n'est détecté. L'intensité du laser est exprimée par le nombre moyen λ de photons détectés par excitation. Plus précisément, λ est le paramètre de la loi de Poisson qui est la distribution du nombre de photons détectés par excitation. Quand l'intensité est faible, λ = 0,02, il n'y a que 13 photons détectés sur 1000 excitations, cas illustré par la figure 2a. Quand l'intensité est très élevée, λ = 20, la distribution est presque dégénérée car presque toutes les observations se trouvent dans le premier bin, cas illustré par la figure 2b. Dans ces deux cas extrêmes, il est clair que les histogrammes contiennent très peu d'information sur le paramètre exponentiel, de la distribution des temps de réponse, à estimer. Il semble favorable d'utiliser une intensité moyenne. La figure 2c montre que λ = 2 mène à un histogramme « habituel » car les observations où un photon a été détecté sont très nombreuses et les temps d'arrivée sont assez dispersés.
Un but de l'invention est d'obtenir une distribution des temps de réponse conforme à la première courbe 1 , sans perte de temps, c'est-à-dire obtenue beaucoup plus rapidement que la distribution selon la deuxième courbe 2. En particulier, la puissance des faisceaux laser émis n'est pas diminuée autant que pour la deuxième courbe 2. C'est notamment la résolution du problème inverse évoqué précédemment, conduisant à l'obtention des paramètres de la distribution selon la deuxième courbe 2. Dans le cas d'une simple exponentielle, par exemple, le paramètre obtenu est le paramètre τ qui caractérise la densité exponentielle
A cet effet, l'invention comporte au moins deux étapes telles qu'illustrées par la figure 3. Dans une première étape 31 on détermine une fonction simple approchant la log-vraisemblance de la distribution cible, qui est la fonction recherchée, illustrée par la deuxième courbe 2 de la figure 1. La log- vraisemblance, dépendant des mesures de temps de réponse, est une fonction en
le vecteur des paramètres qui caractérise la famille des distributions à laquelle appartient la densité cible
. Puis dans une deuxième étape 32, on maximise cette log-vraisemblance approchée en θ. Rechercher les paramètres θo de la fonction î
revient en
fait à rechercher le vecteur θ des paramètres où la log-vraisemblance atteint son maximum. La maximisation est faite sur tout l'ensemble Θ des paramètres θ qui détermine la famille des distributions à laquelle appartient la densité cible
Ainsi dans la première étape 31 , on construit un estimateur de la fonction de log-vraisemblance E[log(fβ(Y))] basée sur des données selon la densité ^, E étant la fonction d'espérance mathématique et Y étant une variable aléatoire de densité h.^ c'est-à-dire E[log(fθ(Y))] = J log(fθ(y)) fβ(y)dy. Soient Zi, ...,Zn des mesures des temps de réponse des photons. On note les mêmes mesures ordonnées par ordre croissant par Z(1), ... ,Z(n). C'est-à-dire que Zf1) désigne le plus petit temps de réponse mesuré, Z(2) le deuxième plus petit et ainsi de suite. L'estimation de la log-vraisemblance est obtenue par une repondération de la log-vraisemblance
de la densité fβ afin de corriger la distorsion, W^n représentant le poids associé à la donnée Z(i). Dans cette phase de repondération, on donne un poids aux données Z(i) qui dépend de leurs positions temporelles. En d'autres termes, les données Z^ sont ordonnées en fonction de leur valeur et leur poids dépend de leur ordre, c'est-à-dire que le poids des photons détectés Z, dépend de leur ordre d'arrivée. En particulier, le temps d'arrivée Z(n) le plus élevé est associé au plus grand poids dans la fonction
Dans la deuxième étape 32, on maximise la log-vraisemblance ainsi corrigée en utilisant un algorithme adapté, comme l'algorithme EM, abbréviation pour « Expectation-Maximization », présenté dans le document de A.P.Dempster et al, « Maximum likelihood from incomplète data via the EM algorithm », Journal of the Royal Statistical Society, Séries B, 39(1 ), 1 -38, 1977.
On présente par la suite un exemple de méthode d'estimation pour une application avec effet de « pile-up » dans le cas simple d'un mélange de densités exponentielles. Puis on présente une méthode d'estimation pour une application avec une fonction d'appareil.
Dans une approche statistique avec « pile up » pour des mélanges exponentiels, on suppose que la distribution des durées de vie en
fluorescence représente un mélange de lois exponentielles. On considère la famille de densités {fθ, θeΘ} donnée par la relation (1 ) suivante :
où > κ>0 sont les paramètres exponentiels et les poids satisfont
et
\e vecteur de paramètres et Θ l'ensemble de paramètres θ. Les constantes de durées de vie en fluorescence sont données par les paramètres exponentiels
En plus, K désigne l'ordre du mélange exponentiel qui correspond au nombre de molécules différentes. On suppose que K est connue et fixe. On note
la fonction de répartition associée à la densité donnée par
On note Y1 Y2, ... une suite de variables aléatoires indépendantes de densité où
est le paramètre inconnu à estimer. Les
représentent les temps d'arrivée des photons de fluorescence qui frappent le détecteur.
Le nombre N de photons qui frappent le détecteur par impulsion laser est modélisé par une loi de Poisson de paramètre λ (restreinte à {
. Les probabilités sont données par la relation suivante :
On suppose que N est indépendant de la suite Y1 Y2, .... On définit alors l'observation avec « pile up » par
la mesure retenue Z correspond, comme indiqué précédemment, au temps de réponse le plus court.
La fonction de répartition avec « pile-up » '":! de la variable aléatoire Z est donnée par la relation suivante :
Pour effectuer l'estimation, la méthode selon l'invention approche la log- vraisemblance de
par un estimateur basé sur des observations avec « pile up ». Ensuite, on obtient un estimateur du paramètre θo en maximisant cette log-vraisemblance approchée. La forme simple de cette log-vraisemblance permet l'application de l'algorithme EM, défini par la suite, pour déterminer son maximum.
On procède ensuite à l'approximation de la log-vraisemblance de fe. La log-vraisemblance de la fonction fθ associée à un échantillon Yi, ...,Ym de variables aléatoires indépendantes et identiquement distribuées (i.i.d) de densité ^
est donnée par la relation suivante :
II découle de la loi forte des grands nombres que L0(θ) est un estimateur consistent de E[log(fe(Y))]. Si Z est une variable aléatoire de densité -^ * , on établit la propriété suivante en utilisant relation (3),
On en déduit que la quantité
est un estimateur consistant de E[log(fo(Y))] basé sur un échantillon Z1, ... ,Zn i.i.d. de densité
Pourtant, la quantité L1(O; θ0) ne peut pas être utilisée pour estimer le paramètre inconnu θo, car elle-même dépend de θo. Or, une autre modification est indispensable. On déduit de la relation (2) que :
E[log(fθ(Y))] similaire à L i(θ; θo) par
où Z(ι) désigne la /-ème statistique d'ordre de Z1, ... ,Zn. On introduit les poids
On définit un nouvel estimateur de θo par la relation suivante
Donc, on cherche le paramètre où la log-vraisemblance approchée atteint son maximum. On peut considérer comme un estimateur de maximum de vraisemblance approché.
On remarque que l'on peut également utiliser d'autres estimateurs de la fonction de répartition que
Cela changera les poids qui sont associés
aux données mais le principe restera le même.
On effectue par la suite une maximisation par l'algorithme EM.
On constate que le problème de maximisation de la relation (5) diffère du problème de la relation (4) seulement par des constantes positives w
Or, la maximisation de la relation (4) peut se faire par l'algorithme EM. Grâce à la structure semblable des problèmes, l'algorithme EM s'applique également à la relation (5).
On introduit la variable manquante S d'une observation Y du mélange exponentiel fe étant l'étiquette de la composante du mélange qui a généré l'observation Y. Plus précisément, S est une variable aléatoire à valeurs dans La loi jointe de (Y1S) est donnée par
Comme dans l'algorithme EM classique, on définit la fonction
et on calcule itérativement la suite (θ(t))t en maximisant Q(θ,(θ(t)) , conduisant à la relation suivante :
Ce problème de maximisation est facile car il se décompose en plusieurs problèmes de maximisation indépendants:
où la dernière maximisation est faite sous la contrainte que tous les ctk sont à valeurs dans ]0,1[ et ∑kCik = 1. On peut montrer qu'avec chaque itération la log-vraisemblance approchée L(θ) augmente. Plus précisément on a pour toute valeur initiale θ<1) e θ et pour tout t ≥1,
Il y a plusieurs critères d'arrêt pour déterminer le moment quand la suite
a convergé et où on peut arrêter le calcul itératif. Un critère repose sur l'évolution de la log-vraisemblance approchée. On calcule la valeur de L(θ(t)) à toute itération et on s'arrête si l'accroissement par rapport à l'étape précédente est inférieur à un certain seuil. Un autre critère étudie la variation des valeurs du paramètre θm. A toute itération on évalue la différence
désigne la norme infinie. Si la différence est inférieure à un certain seuil, on considère la dernière valeur de θm comme limite de la suite
L'algorithme EM pour maximiser la fonction L(O). dans le cas d'un mélange exponentiel, peut être défini par les phases suivantes :
On fixe un seuil σ > 0 pour le critère d'arrêt.
Soit λ la valeur connue du paramètre Poissonien lors de l'expérience. Soit n les observations avec « pile-up », c'est-à-dire un échantillon
i.i.d. de densité
On note Z
les observations ordonnées, n étant le nombre total de mesures avec photons détectés, et / étant l'ordre d'arrivée du photon
1. On pose t = 1.
2. On réitère jusqu'à la convergence les étapes suivantes :
(a) Calculer les probabilités conditionnelles, pour i = 1,...,n et s = 1, ...,K ,
(d) Si σt+i < σ, on passe à la phase 3 ci-dessous qui donne l'estimateur,
(e) dans le cas contraire, on pose t = t+1 et on retourne à l'étape 2(a). 3. L'estimateur du paramètre θo est donné par
Le modèle précédent n'est que proche de la réalité pour des appareils de mesure avec un laser qui émet de la lumière instantanément, c'est-à-dire si l'impulsion laser peut être modélisée par une loi de Dirac avec toute la masse en zéro. Cependant, la source de lumière de la plupart des appareils de mesure émet de la lumière pendant une courte durée. On appelle fonction
d'appareil la distribution de rémission de lumière qui est différente pour tout appareil, mais qui peut être enregistrée facilement avant d'effectuer l'expérience. Donc une observation TCSPC est le temps que la molécule reste en état excité, la durée de vie, à laquelle s'ajoute une durée aléatoire qui provient de l'appareil. La méthode EM prend en compte les aléas dus à l'appareil.
On note η la densité de probabilité de la fonction d'appareil. On supposera dans la suite que η est connue. Soient (E1, i≥1} et (Y1, i≥1} deux suites indépendantes de variables aléatoires indépendantes de loi η respectivement dduu mmééllaannggee eexxppoonneennttiieell
donnée par la relation (1 ).
On note la fonction de répartition de
par ' Or, une observation en
TCSPC a la même distribution que : .
La fonction de répartition avec « pile-up » àe est donnée par :
et la densité avec « pile-up » 5Kest donnée par
De la même manière que précédemment, on déduit l'estimateur comme le vecteur θ qui maximise la log-vraisemblance approchée,
où
désigne des observations avec « pile-up » de densité et
la log-vraisemblance approchée est donnée par
Pour l'observation
on considère les deux variables manquantes (S, E) où S est l'étiquette de la composante du mélange qui a généré Y, et E désigne la durée ajouté à la durée de vie par l'appareil. La loi jointe de
est donnée par :
L'algorithme EM pour maximiser
dans le cas d'une fonction d'appareil est défini par les phases suivantes :
On fixe un seuil σ>0 pour le critère d'arrêt.
Soit λ la valeur connue du paramètre Poissonien lors de l'expérience. Soit η une densité connue constante par morceaux donnée par
Soient les observations avec pile up, un échantillon i.i.d. de
densité .9^ . On note ^ les observations ordonnées
2. On réitère jusqu'à convergence les étapes suivantes : (a) On calcule, pour i=1,...,n et s=1, ...,K,
(e) Dans le cas contraire on pose t = t+1 et on retourne à l'étape 2(a).
L'invention utilise l'algorithme précédent pour le problème inverse général évoqué précédemment, c'est-à-dire pour des familles de densité autres que la famille de mélanges exponentiels et pour d'autres lois discrètes que la loi de Poisson.
Ce nouvel algorithme EM, utilisé pour résoudre le problème inverse général, n'est donc pas restreint au mélange exponentiel et la loi de Poisson. On considère
une famille de densités quelconque telle que l'algorithme EM s'applique à un échantillon i.i.d. de densité
Soient
une suite de variables aléatoires indépendantes de densité On note
la fonction de répartition associée à la densité
On considère N* une variable aléatoire à valeurs dans {1,2, ...} indépendante de la suite i
On note m la fonction génératrice de A/*,
et m' la dérivée de m. On définit l'observation avec « pile-up » par :
On définit
où S dénote les variables manquante associées à la variable
et désigne la densité jointe de ^ - ^ k
On fixe un seuil σ>0 pour le critère d'arrêt. 1. On choisit une valeur d'initialisation On pose t = 1.
2. On réitère jusqu'à la convergence les étapes suivantes : (a) On poser t = t+1.
(b) On calcule
(c) D'après le critère d'arrêt choisi, on évalue
(d) Si σt < σ on passe à la phase (3) ci-dessous, sinon on retourne à l'étape 2(a).
Une méthode d'estimation selon l'invention peut fournir des mesures très précises quand elle est appliquée à des données réelles. Elle demande peu de temps de calcul, prend en compte la fonction d'appareil, est facile à mettre en œuvre et peut traiter le cas d'un mélange de plusieurs exponentielles.
En comparaison avec des méthodes existantes, elle est notamment adaptée à la distorsion non linéaire du problème général. En particulier, on peut appliquer les résultats indiqués dans Rebafka et al, 2008, concernant le réglage optimal de l'intensité du laser. En d'autres termes, l'expérience peut être effectuée sous des conditions optimales et ainsi une réduction du temps d'acquisition, d'un facteur 10 par exemple, peut être atteinte par rapport aux techniques actuellement utilisées.
Le système à caractériser peut être composé de molécules comme décrit précédemment. L'invention peut néanmoins s'appliquer à d'autres systèmes. Un système à caractériser peut être par exemple une fibre optique dans laquelle on injecte des photons et dont mesure les durées de vie. D'autres types de particules que les photons peuvent aussi être utilisés.
Claims
1. Procédé d'estimation des paramètres θo de la distribution des temps de réponse de particules réémises par un système, en réponse à une série d'émissions de particules vers ledit système, un temps de réponse d'une particule correspondant étant mesuré entre un instant d'émission et l'instant de détection de ladite particule, caractérisé en ce que le procédé comporte au moins :
- une étape (31 ) de détermination d'une fonction approchant la log- vraisemblance de la distribution cible <M> correspondant à une distribution sans effet d'empilement à partir des mesures de temps de réponse de particules détectées avec effet d'empilement, c'est-à-dire des mesures de la distribution ^o ;
- une étape (32) de maximisation de la log-vraisemblance approchée sur l'ensemble des paramètres Θ afin de déterminer l'estimateur comme le vecteur θ qui maximise la log-vraisemblance approchée.
2. Procédé selon la revendication 1 , caractérisé en ce que la fonction approchée est une estimation de la log-vraisemblance de la fonction de distribution cible <M> basée sur des mesures observées distribuées selon la fonction de distribution ^ avec effet d'empilement.
3. Procédé selon la revendication 2, caractérisé en ce que la fonction approchée est obtenue par une pondération de la log-vraisemblance de la fonction de distribution cible J** .
4. Procédé selon la revendication 3, caractérisé en ce que la pondération de la log-vraisemblance se fait de façon à ordonner les mesures de temps de réponse observées Zi, ...,Zn en fonction de l'ordre d'arrivée des particules correspondante, le poids affecté à chaque mesure dépendant de son ordre.
5. Procédé selon la revendication 4, caractérisé en ce que le poids affecté à une mesure croît avec son ordre d'arrivée associé.
6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que n étant le nombre total de particules détectées et / étant l'ordre d'arrivée d'une particule, le poids w* hn associé à la mesure du temps de réponse Z(l) d'une particule d'ordre / est donné par la relation suivante : où m note la fonction génératrice de N, et m' la dérivée de m et est un estimateur de la fonction de répartition.
8. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la fonction de distribution cible prend en compte la fonction d'appareil de mesures, la fonction cible étant le produit de convolution de la fonction cible sans fonction d'appareil avec la densité de probabilité de la fonction d'appareil η.
9. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que les particules sont des photons émis par un laser, le système réémettant des photons.
10. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que le système est un ensemble de molécules à caractériser par la fonction de distribution cible des temps de réponse.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR0900524 | 2009-02-06 | ||
| FR0900524A FR2942040B1 (fr) | 2009-02-06 | 2009-02-06 | Procede d'estimation des parametres de la distribution des temps de reponse de particules d'un systeme, applique notamment aux mesures de fluorescence. |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2010089363A1 true WO2010089363A1 (fr) | 2010-08-12 |
Family
ID=41065979
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2010/051404 Ceased WO2010089363A1 (fr) | 2009-02-06 | 2010-02-05 | Procede d'estimation des parametres de la distribution des temps de reponse de particules d'un systeme, applique notamment aux mesures de fluorescence |
Country Status (2)
| Country | Link |
|---|---|
| FR (1) | FR2942040B1 (fr) |
| WO (1) | WO2010089363A1 (fr) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017202980A1 (fr) | 2016-05-25 | 2017-11-30 | Leica Microsystems Cms Gmbh | Procédé de microscopie à durée de vie de fluorescence à comptage de photons uniques corrélé dans le temps, lequel procédé autorise des intensités lumineuses élevées |
| EP3431967A1 (fr) * | 2017-07-19 | 2019-01-23 | PicoQuant Innovations GmbH | Procédé de compensation des effets d'empilement d'impulsion de détection dans des applications de comptage monophotonique à corrélation temporelle |
| WO2019158260A1 (fr) | 2018-02-16 | 2019-08-22 | Leica Microsystems Cms Gmbh | Procédé de microscopie à durée de vie de fluorescence avec comptage de photons individuels corrélé dans le temps |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007088173A1 (fr) | 2006-01-31 | 2007-08-09 | Commissariat A L'energie Atomique | Appareil et procédé de caractérisation d'un système de comptage de particules élémentaires |
-
2009
- 2009-02-06 FR FR0900524A patent/FR2942040B1/fr active Active
-
2010
- 2010-02-05 WO PCT/EP2010/051404 patent/WO2010089363A1/fr not_active Ceased
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007088173A1 (fr) | 2006-01-31 | 2007-08-09 | Commissariat A L'energie Atomique | Appareil et procédé de caractérisation d'un système de comptage de particules élémentaires |
Non-Patent Citations (18)
| Title |
|---|
| A.P.DEMPSTER ET AL.: "Maximum likelihood from incomplete data via the EM algorithm", JOURNAL OF THE ROYAL STATISTICAL SOCIETY, SERIES B, vol. 39, no. 1, 60519, pages 1 - 38 |
| B.VALEUR: "Molecular Fluorescence", 10220, WILEY-VCH |
| COATES: "The correction for photon pile-up in the measurement of radiative lifetimes", JOURNAL OF PHYSICS E. SCIENTIFIC INSTRUMENTS, IOP PUBLISHING, BRISTOL, GB, vol. 1, no. 1, 1 January 1968 (1968-01-01), pages 878/879, XP002111897, ISSN: 0022-3735 * |
| D.O'CONNORS ET AL.: "Time-Correlated Single Photon Counting", 61219, ACADEMIC PRESS |
| DAVIS C C; KING T A: "Correction methods for photon pile-up in lifetime determination by single-photon counting", JOURNAL OF PHYSICS A. GENERAL PHYSICS, INSTITUTE OF PHYSICS. LONDON, GB, vol. 3, 1 January 1970 (1970-01-01), pages 101 - 109, XP002414379 * |
| J.C.BROCHON: "Maximum entropy method of data analysis in time-resolved spectroscopy", METHODS ENZYMOLOGY, vol. 240, 71019, pages 262 - 311 |
| J.G.WALKER: "Iterative correction for 'pile-up' in single-photon lifetime measurement", OPTICS COMMUNICATIONS, vol. 201, 10220, pages 271 - 277, XP004334645, DOI: doi:10.1016/S0030-4018(01)01663-7 |
| J.R.LAKOWICZ: "Principles of Fluorescence Spectroscopy", 80319, ACADEMIC/PLENIUM |
| KOBERLING F; KRAMER B; TANNERT S; RUTTINGER S; ORTMANN U; PATTING M; WAHL M; EWERS B; KAPUSTA P; ERDMANN R: "Recent advances in time-correlated single-photon counting", PROGRESS IN BIOMEDICAL OPTICS AND IMAGING - PROCEEDINGS OF SPIE - SINGLE MOLECULE SPECTROSCOPY AND IMAGING 2008 SPIE US, vol. 6862, 2008, XP002547967 * |
| L.OKANO ET AL.: "Abstracting reliable parameters from time-correlated single photon counting experiments", JOURNAL OF PHOTOCHEMISTRY AND PHOTOBIOLOGY A : CHEMISTRY, vol. 175, 10520, pages 221 - 225, XP025301369, DOI: doi:10.1016/j.jphotochem.2005.04.039 |
| M.N.BERBERAN-SANTOS ET AL.: "Mathematical functions for the analysis of luminescence decays with underlying distribution : 1. Kohlrausch decay function (stretched exponential)", CHEMICAL PHYSICS, vol. 315, 10520, pages 171 - 182 |
| M.N.BERBERAN-SANTOS ET AL.: "Mathematical functions for the analysis of luminescence decays with underlying distribution : 2. Becquerel (compressed hyperbola) and related decay functions", CHEMICAL PHYSICS, vol. 317, 10520, pages 57 - 62 |
| P.B.COATES: "The correction of photon 'pile-up' in the measurement of relative lifetimes", JOURNAL OF PHYSICS E : SCIENTIFIC INSTRUMENTS, vol. 2, no. 1, 50819, pages 878 - 879 |
| T. REBAFKA, AN MCMC APPROACH FOR ESTIMATING A FLUORESCENCE LIFETIME WITH PILE-UP DISTORSION |
| TRIGANO T; SOULOUMIAC A; MONTAGU T; ROUEFF F; MOULINES E: "Statistical Pileup Correction Method for HPGe Detectors", IEEE TRANSACTIONS ON SIGNAL PROCESSING, IEEE SERVICE CENTER, NEW YORK, NY, US, vol. 55, no. 10, 1 October 2007 (2007-10-01), pages 4871 - 4881, XP011192589, ISSN: 1053-587X * |
| TURTON D A; REID G D; BEDDARD G S: "Accurate analysis of fluorescence decays from single molecules in photon counting experiments", ANALYTICAL CHEMISTRY 20030815 AMERICAN CHEMICAL SOCIETY US, vol. 75, no. 16, 15 August 2003 (2003-08-15), pages 4182 - 4187, XP002547968 * |
| WALKER J G: "Iterative correction for 'pile-up' in single-photon lifetime measurement", OPTICS COMMUNICATIONS, NORTH-HOLLAND PUBLISHING CO. AMSTERDAM, NL, vol. 201, no. 4-6, 15 January 2002 (2002-01-15), pages 271 - 277, XP004334645, ISSN: 0030-4018 * |
| WEAR J A; KARP J S; FREIFELDER R; MANKOFF D A; MUEHLLEHNER G ED - NALCIOGLU O: "A model of the high count rate performance of NaI(Tl)-based PET detectors", NUCLEAR SCIENCE SYMPOSIUM, 1997. IEEE ALBUQUERQUE, NM, USA 9-15 NOV. 1997, 19971109 - 19971115 NEW YORK, NY, USA,IEEE, US, vol. 2, 9 November 1997 (1997-11-09), pages 1203 - 1207, XP010275706 * |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017202980A1 (fr) | 2016-05-25 | 2017-11-30 | Leica Microsystems Cms Gmbh | Procédé de microscopie à durée de vie de fluorescence à comptage de photons uniques corrélé dans le temps, lequel procédé autorise des intensités lumineuses élevées |
| US10520434B2 (en) | 2016-05-25 | 2019-12-31 | Leica Microsystems Cms Gmbh | Fluorescence lifetime imaging microscopy method having time-correlated single-photon counting, which method permits higher light intensities |
| EP3431967A1 (fr) * | 2017-07-19 | 2019-01-23 | PicoQuant Innovations GmbH | Procédé de compensation des effets d'empilement d'impulsion de détection dans des applications de comptage monophotonique à corrélation temporelle |
| WO2019158260A1 (fr) | 2018-02-16 | 2019-08-22 | Leica Microsystems Cms Gmbh | Procédé de microscopie à durée de vie de fluorescence avec comptage de photons individuels corrélé dans le temps |
| CN111712705A (zh) * | 2018-02-16 | 2020-09-25 | 莱卡微系统Cms有限责任公司 | 采用时间相关的单光子计数的荧光寿命-显微-方法 |
| US11086119B2 (en) | 2018-02-16 | 2021-08-10 | Leica Microsystems Cms Gmbh | Fluorescence-lifetime imaging microscopy method having time-correlated single-photon counting |
Also Published As
| Publication number | Publication date |
|---|---|
| FR2942040B1 (fr) | 2011-03-18 |
| FR2942040A1 (fr) | 2010-08-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Isbaner et al. | Dead-time correction of fluorescence lifetime measurements and fluorescence lifetime imaging | |
| Becker et al. | FLIM and FCS detection in laser‐scanning microscopes: Increased efficiency by GaAsP hybrid detectors | |
| US8314405B2 (en) | Apparatus for measuring fluorescence lifetime | |
| JP4397692B2 (ja) | 時間相関のある多光子計数計測のシステムおよび方法 | |
| Gerritsma et al. | Precision measurement of the branching fractions of the 4p 2P3/2 decay of Ca II | |
| US11086119B2 (en) | Fluorescence-lifetime imaging microscopy method having time-correlated single-photon counting | |
| CN113514948B (zh) | 估计sted分辨率的方法和设备 | |
| EP2051062B1 (fr) | Appareil pour mesurer la durée de vie de fluorescence | |
| Kilic et al. | Extraction of rapid kinetics from smFRET measurements using integrative detectors | |
| CN110826238B (zh) | 一种荧光寿命估计方法、装置及存储介质 | |
| Garry et al. | Bayesian counting of photobleaching steps with physical priors | |
| Liao et al. | FLIM analysis using the phasor plots | |
| WO2010089363A1 (fr) | Procede d'estimation des parametres de la distribution des temps de reponse de particules d'un systeme, applique notamment aux mesures de fluorescence | |
| WO2005121835A1 (fr) | Mesure et traitement d'un signal comprenant des empilements d'impulsions elementaires | |
| Yang et al. | Quantized Fourier ptychography with binary images from SPAD cameras | |
| EP2553496A1 (fr) | Procede d'analyse spectrometrique et dispositif apparente | |
| FR3066590A1 (fr) | Spectroscopie quantitative de densite de defauts electroniques dans un photorecepteur en couches minces, notamment dans une cellule solaire | |
| WO2013001247A1 (fr) | Procede et dispositif d'identification d'un materiau par analyse spectrale de rayonnements electromagnetiques traversant ce materiau | |
| EP2825995B1 (fr) | Système pour déterminer l'identification d'un appareil photographique a partir d'une photographie et procédé mis en oeuvre dans un tel système | |
| WO2022153016A1 (fr) | Méthode de mesure paramétrique en ligne de la distribution statistique d'un signal physique | |
| EP3572794B1 (fr) | Procédé de détection d'un composé dans une composition à identifier et dispositif de détection | |
| Orphal-Kobin et al. | Retrieving Lost Atomic Information: Monte Carlo-based Parameter Reconstruction of an Optical Quantum System | |
| US20240344981A1 (en) | Systems and methods for single-molecule fret analysis leveraging bayesian non-parametrics | |
| US12159369B2 (en) | Machine learning assisted super resolution microscopy | |
| FR3108758A1 (fr) | Procédé de mise à jour d’une pluralité de réseaux de neurones non indépendants, procédé de contrôle et dispositif associés |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10702683 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 10702683 Country of ref document: EP Kind code of ref document: A1 |