DE4211904C2 - Automatisches Verfahren zum Erstellen einer Liste unterschiedlicher Arten für eine flüssige Probe - Google Patents
Automatisches Verfahren zum Erstellen einer Liste unterschiedlicher Arten für eine flüssige ProbeInfo
- Publication number
- DE4211904C2 DE4211904C2 DE4211904A DE4211904A DE4211904C2 DE 4211904 C2 DE4211904 C2 DE 4211904C2 DE 4211904 A DE4211904 A DE 4211904A DE 4211904 A DE4211904 A DE 4211904A DE 4211904 C2 DE4211904 C2 DE 4211904C2
- Authority
- DE
- Germany
- Prior art keywords
- objects
- cluster
- image
- data
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N33/00—Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
- G01N33/18—Water
- G01N33/186—Water using one or more living organisms, e.g. a fish
- G01N33/1866—Water using one or more living organisms, e.g. a fish using microorganisms
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N33/00—Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
- G01N33/18—Water
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Health & Medical Sciences (AREA)
- Analytical Chemistry (AREA)
- Engineering & Computer Science (AREA)
- Food Science & Technology (AREA)
- Medicinal Chemistry (AREA)
- Physics & Mathematics (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Microbiology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft ein automatisches Verfahren zum Erstellen einer Liste
unterschiedlicher Arten für eine flüssige Probe mit Objekten, die form- und/oder
ortsveränderlich sein können und sich z.T. gegenseitig überdecken oder
überlappen, zur Ermittlung
des ökologischen Zustandes der Probe.
Ein derartiges, allerdings manuell durchgeführtes Verfahren ist aus der Praxis
bekannt. Es dient zur Untersuchung von belebten Schlämmen u.ä.
Biomassen, zur Bestimmung von Gewässergüten und/oder zur
Überwachung biologischer Abwasserreinigungssysteme. Zu diesem
Zweck wird das Ökosystem "belebter Schlamm" untersucht, das
einen definierten Raum mit generell gleichen Eigenschaften
darstellt, der in den Lebensraum, das nicht lebende Biotop,
und in die Artengemeinschaften oder die Lebensgemeinschaft,
die Biozönose zerfällt.
Die Biozönose setzt sich aus unterschiedlichen Arten zusammmen,
die sehr verschiedene Objektdichten aufweisen. Darüber hinaus
reicht die Größe der Objekte, zu denen Algen, Pilze, Protozoen
und Metazoen zählen, von 1 µm (Bakterien) bis zu mehreren mm
(Kleinstlebewesen). Pro Probe finden sich bis 100 und mehr
Objektarten und je Art von einem Objekt bis zu mehreren tausend
Objekten.
Weiterhin finden sich in der Probe nicht nur lebende Objekte,
sondern auch sonstige Partikel, wie Flocken, Fasern, Haare etc.
Mit "Art" oder "Arten" werden im folgenden Text sämtliche Objekte
des Ökosystems bezeichnet, also beispielsweise sowohl Organismen
als auch Flocken, Haare etc.
Zweck der Untersuchung ist es, Aussagen über Vorgeschichte,
Zustand und wahrscheinliche Weiterentwicklung des Ökosystems
machen zu können. Weiterhin geht es um die Überwachung des
Betriebsablaufes und um einen "Gesundheitscheck" des Ökosystems
eines biologischen Abwasserreinigungssystems. Die im Rahmen
der Untersuchung gewonnenen Aussagen werden genutzt, um die
betriebstechnischen und die chemisch-physikalischen Daten der
Anlage zu bestätigen und/oder zu ergänzen bzw. im Falle eines
Störfalles gezielt weitere Untersuchungen zu veranlassen.
Die Daten werden weiterhin zu einer Langzeituntersuchung der
Biozönose der jeweiligen Anlage verwendet.
Im Rahmen dieser Untersuchungen ist es erforderlich, eine
Artenliste sämtlicher Objekte in einer Probe (z. B. 50 µl) zu
erstellen und auszuwerten. Das Erstellen der Artenliste wird
zur Zeit von Personal mit unterschiedlicher Vorbildung vorge
nommen, das dazu ein Mikroskop und ggf. eine CCD-Kamera mit
Videorekorder zur Dokumentation der untersuchten Proben ver
wendet.
Die Einordnung der unterschiedlichen Objekte in die verschiedenen
Objektklassen oder Arten ist größtenteils Wissens- und Erfah
rungssache, wobei die dabei verwendeten Methoden je nach dem
Erfahrungsstand des mit der Untersuchung Beauftragten sehr unter
schiedlich sind. Naturgemäß ist auf diese Weise nur eine sehr
unvollständige Datenerfassung möglich, die lediglich ein Teil
der zu untersuchenden Biomasse repräsentiert.
Die auf diese Weise erstellte Artenliste wird für eine Fort
schreibung der Langzeitüberwachung (Populationswachstum der
einzelnen Arten; Flockenbildung und -alter; Komplexität der
Biozönose; Sauerstoffgehalt anhand von Indikatororganismen;
Saprobien-Stufen als Index für die Wassergüte) in einen Computer
eingegeben und zur Erkennung von periodischen Prozessen schon
im frühen Stadium verwendet. Weiterhin führt der Computer eine
Modellerstellung der Biozönose durch, um die spezifischen
Abhängigkeiten zwischen den Arten zu bestimmen und um so zwischen
normalen/üblichen Veränderungen der Biozönose einerseits und
von außen hervorgerufenen Abweichungen andererseits unterscheiden
zu können.
Mit dem insoweit beschriebenen Untersuchungsverfahren werden
nicht nur Kläranlagen überprüft, auch natürliche Ökosysteme
wie Seen, Flüsse, Meere etc. werden damit untersucht/überwacht.
Das vom Menschen durchzuführende Erstellen der Artenliste bedingt
nicht nur den limitierenden Zeitfaktor sondern auch eine unerwünscht
hohe Fehlerrate. Darüber hinaus ist die auf diese Weise
gewonnene Datenmenge für einen umfassenden Überblick über den
Zustand des jeweils untersuchten Ökosystems oft viel zu gering.
Eine umfassende chemische Analyse von Belebtschlämmen ist zwar
möglich, dauert aber noch länger als die eingangs beschriebene
Bestimmung unter Heranziehung einer vom Menschen erstellten
Artenliste.
Nun ist es zwar bekannt, Fluoreszenzmikroskope mit Kamerasystemen
zu verwenden, die Proben sind hier jedoch fast ausschließlich
zweidimensional und trocken. Flüssige Proben mit bewegten
Objekten können mit solchen, insbesondere in Forschungslaboratorien
zu findenden Systemen, nicht untersucht werden.
Derartige Systeme suchen aber nach gewünschten Objekten, während
es im Falle der Erstellung der Artenliste um ein Identifizieren
unbekannter Objekte geht, deren Lage im Raum beliebig sein kann.
Darüber hinaus können die Objekte in den zu untersuchenden flüssigen
Proben auch als Clusterobjekte auftreten. Unter Clusterobjekten
werden hier mehrere zusammenhängende Objekte verstanden,
z. B. können sich an einer Flocke mehrere Mikroorganismen anheften,
so daß ein Clusterobjekt entsteht, das aus unbelebten und
belebten Objekten ggf. verschiedener Arten besteht. Die Objekte
eines derartigen Clusterobjektes können sich darüber hinaus gegenseitig
bedecken bzw. überlappend vorliegen oder gar miteinander
verflochten sein, so daß zunächst eine Trennung des Clusterobjektes
in die einzelnen Objekte erforderlich ist. Wie bereits
erwähnt, bewegen sich einige der Objekte in der Probe, d. h.
die Objekte sind ggf. orts- und formveränderlich. Eine Objektart
ist darüber hinaus in verschiedenen Entwicklungsstufen anzutreffen,
also in verschiedenen Größen. Weiterhin ist zu berücksichtigen,
daß zwischen den Abmaßen der kleinsten und der größten
Objekte nahezu vier Größenordnungen liegen können.
Wegen der hohen Formverschiedenheit der lebenden Objekte können
bei dem angestrebten Verfahren nicht alle möglichen Erscheinungsformen
in einer Art Referenzdatenbank gespeichert werden, da
deren Zahl astronomisch hoch ist.
Mit den bekannten Verfahren und Systemen der Bildverarbeitung
ist das Erstellen einer Artenliste bisher nicht in dem
gewünschten Umfang und mit der gewünschten Geschwindigkeit möglich.
So ist beispielsweise aus der DE 29 03 625 A1 eine Vorrichtung zur automatischen
Blutanalyse bekannt. Diese Vorrichtung verwendet ein digitales
Bild- und Mustererkennungssystem mit einer Mikroskopoptik, wobei
ein Verschiebetisch und eine Fokuskontrolle zum Einsatz kommen.
Die zu analysierenden Blutzellen müssen hier räumlich voneinander
getrennt in einer einzelligen Schicht vorliegen, wobei nur Objekte
in einem bestimmten Größenbereich ausgewertet werden. Als
zusätzliche Kriterien werden Form und Farbe der Objekte bestimmt.
Die Probe wird in Einzelbilder zerlegt, wobei für jedes Einzelbild
anhand in sich geschlossener Umrisse die einzelnen Blutzellen
lokalisiert werden. Für eine derart lokalisierte Blutzelle
werden geometrische Parameter wie Rundheit, Sichelförmigkeit
etc. sowie andere morphologische Parameter wie Hämoglobingehalt
etc. bestimmt. Anhand dieser Parameter wird die Blutzelle einer
von mehreren vorgegebenen Subpopulationen zugeordnet, wobei
diese Zuordnung anhand der gemessenen und berechneten Parameter
erfolgt. Für die Gesamtheit der so vermessenen Blutzellen sowie
für die einzelnen Subpopulationen werden statistische Daten
ermittelt, die dann mit vorgegebenen Standards verglichen werden.
Aufgrund dieses Vergleiches wird dann entschieden, zu welcher
Anämieart das untersuchte Blut gehört.
Dieses System hat also eine Wiederfindungserwartung bezüglich
der zu sortierenden Objekte. Objekte, die in einer dem Rechner
nicht vorbekannten Form vorliegen, die sich also beispielsweise
zu Clustern zusammengelagert haben oder die eine nicht vorhergesehene
Form angenommen haben, werden als Schmutzeffekt
ausgesondert. Formveränderliche oder gar bewegliche Objekte,
die sich ggf. zu größeren Clustern zusammengelagert haben, können
mit dieser Vorrichtung nicht analysiert werden.
Aus der DE 33 13 789 A1 ist eine mikroskopische Untersuchungseinrichtung
bekannt, bei der im Ermittlungsbetrieb kernhaltige
Objekte aufgefunden und anhand einer Reihe von Merkmalen, wie
beispielsweise Farbe, Größe und Struktur, klassifiziert werden.
Auch mit dieser Vorrichtung können nur Objekte klassifiziert
werden, für welche eine Wiederfindungserwartung vorhanden ist.
Ferner müssen sich die zu untersuchenden Objekte durch wenige
aus den optischen Daten ermittelbare Merkmale eindeutig identifizieren
lassen.
Damit ist auch dieses Verfahren nicht geeignet, formveränderliche
Objekte, die sich ggf. zu Clustern zusammenfinden können, in
einer flüssigen Probe aufzufinden, zu identifizieren und zu
klassifizieren.
Weiterhin ist in der DE 38 36 716 A1 ein interaktives Verfahren
zur Auswertung von Zellbildern beschrieben, bei dem fachlich
geschultes Personal erforderlich ist, um im Dialogbetrieb den
Rechner bei der Auswertung zu führen und zu unterstützen. Damit
ist dieses Verfahren mit den eingangs bereits erwähnten Nachteilen
- limitierender Zeitfaktor, hohe Fehlerrate - von manuellen
Verfahren behaftet.
Aus der WO 91/02330 ist ein Verfahren zum Differenzieren
verschiedener Partikel bekannt. Zu diesem Zweck wird ein Bild
der zu untersuchenden Probe aufgenommen, woraufhin für jedes
der Partikel in diesem Bild ein erster Parameter gemessen wird,
welcher die Farbe sein kann. Basierend auf diesem Parameter
wird dann eine erste Partikelart anhand eines ersten Schwellwertes
identifiziert, woraufhin für die identifizierten Partikel
ein von dem ersten Parameter verschiedener zweiter Parameter
gemessen wird, um einen zweiten inneren Schwellwert zu bestimmen.
Dieser zweite Parameter kann die Partikelgröße sein. Jetzt wird
der zweite Parameter für alle noch nicht identifizierten Partikel
gemessen, um im Vergleich mit dem soeben bestimmten inneren
Schwellwert eine Identifizierung der restlichen Partikel
durchzuführen, die nach dem Kriterium größer oder kleiner als
die erste Partikelart differenziert werden. Durch das Bestimmen
des inneren Schwellwerts kann der Einfluß z. B. der Alterung
der Probe ausgeschlossen werden, wenn die Beziehung der Partikel
zueinander bezüglich dieser Parameter bekannt ist.
Die DE 28 23 490 A1 beschreibt ein Verfahren zur Analyse von
Organismus-Zellen, bei dem die zu untersuchende Probe ebenfalls
optisch erfaßt wird. In einer Art Voruntersuchung mit niedriger
Vergrößerung werden zunächst die Objekte markiert, die in einem
bestimmten Wellenlängenbereich einen Schwellwert überschreiten.
Alle anderen Partikel werden von der weiteren Analyse ausgeschlossen.
Die markierten Zellen werden dann sowohl mit einer
geringen Auflösung, in der die ganze Zelle zu sehen ist,
bezüglich grober Merkmale wie Farbe, Dichte etc. als auch mit
großer Auflösung bezüglich ihrer Feinstrukturen weiter analysiert.
Ein Vergleich mit Referenzobjekten findet hier nicht
statt, vielmehr werden die Partikel aufgrund von Grauwerthistogrammen
klassifiziert.
Aus der US 4 932 044 ist ein interaktives Zählverfahren
bekannt, bei dem der Anwender Zellen in einem von dem diskutierten
Gerät durchgescannten dreidimensionalen Bereich markiert.
Das Gerät zählt dann die markierten Zellen, wobei es den Bereich
schichtweise abtastet.
Aus der EP 0 136 718 A2 ist ein Mustererkennungsgerät bekannt,
welches das zu identifizierende Muster mit einer Grob- und einer
Feinanalyse untersucht. Der Grobvergleich dient zur Klassifizierung
und damit zur Aufwahl von Referenzparametern für die
Feinanalyse. Die Grobanalyse schränkt also den Suchbereich ein,
während die Feinanalyse zur endgültigen Identifizierung dient.
Das zu untersuchende Muster wird dabei als zweidimensionales
Array abgespeichert, wobei die Analyse für jedes Arrayelement
einzeln erfolgt.
Aus der WO 90/10273 ist ein Verfahren zur Qualitätsprüfung
von Pflanzen bekannt. Zu diesem Zweck wird zunächst
eine Reihe gleicher Pflanzen in einer interaktiven Lernphase
analysiert und damit eine Art Musterpflanze definiert. Die
jeweils zu untersuchende Pflanze wird dann durch eine Farbklassifikation
nach vorgegebenen Farbklassen segmentiert, d. h. die
farblich zusammengehörenden Bereiche der Pflanze wie Blattwerk,
Stiele und Blüten werden für sich genommen ausgewertet und mit
den entsprechenden Daten der Musterpflanze zur Qualitätsüberprüfung
verglichen. Das optisch abgespeicherte Bild der
Pflanze wird dabei nicht verändert, vielmehr werden die unterschiedlich
gefärbten Regionen bezüglich ihrer Fläche vermessen.
Schließlich ist in der US 4 845 765 ein Mustererkennungsverfahren
für sich teilweise gegenseitig überdeckende vorbekannte Objekte beschrieben. In einer Lernphase werden die vorgegebenen
Objekte so aufgearbeitet, daß unveränderbare Segmente der Umrisse
sowie die Verhältnisse dieser Segmente zueinander hierarchisch
bestimmt werden. Es wird davon ausgegangen, daß die einzelnen
Objekte durch diese unveränderbaren Segmente hinreichend
individualisiert sind, so daß auch bei teilweise gegenseitiger
Überdeckung der Objekte diese unveränderbaren Segmente erkannt
und damit die einzelnen Objekte identifiziert werden können.
Ein Vergleich mit Referenzobjekten oder eine Bearbeitung des
gespeicherten Bildes eines derartigen Clusters erfolgt nicht.
Aus den bereits geschilderten Gründen sind alle diese Verfahren
zum automatischen Erstellen einer Artenliste bei Proben mit den genannten Merkmalen
nicht geeignet.
Es ist somit
die Aufgabe der vorliegenden Erfindung, ein Verfahren zum Erstellen
einer Artenliste für eine flüssige Probe zu schaffen, bei dem
ein schneller und hoher Datendurchsatz gewährleistet ist, wobei
auch zusammenhängende Objekte identifizierbar sein sollen.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den
Merkmalen des Anspruchs 1 gelöst.
Durch das automatische Identifizieren mit Hilfe einer Identifizierungseinrichtung
werden Fehler weitgehend ausgeschlossen,
da die Hauptfehlerquelle und der Hauptzeitfaktor in dem Identifizieren
der Objekte liegt. Das neue Verfahren arbeitet darüber
hinaus wesentlich schneller als das auf sich gestellte Personal.
Außerdem ist es jetzt nicht mehr unbedingt erforderlich,
qualifiziertes Fachpersonal einzusetzen.
Da das Verfahren in automatisierte Einzelschritte zerlegt ist,
können beispielsweise erst alle Objekte lokalisiert werden, bevor
die automatischen Identifizierungsprozesse ablaufen. Andererseits
ist es aber auch möglich, wenn die automatische Identifizierungseinrichtung
sehr schnell arbeitet, jedes lokalisierte Objekt
sofort zu identifizieren.
Das Verfahren arbeitet derart, daß zunächst aus den
Bilddaten Grobmerkmale der Objekte extrahiert werden, aufgrund
welcher dann aus den vorhandenen Referenzobjekten eine enge
Gruppe ausgewählt wird, mit der dann die zu identifizierenden
Objekte verglichen werden. Es handelt sich also sozusagen um
ein wissensbasiertes Verfahren.
Bei dem Verfahren wird ein Clusterobjekt, das automatisch
erkannt wird, in Subobjekte zerlegt, die sukzessive mit
den zur Verfügung stehenden Referenzobjekten verglichen werden.
Da die Zahl der möglichen Clusterobjekte, die sich in einer
flüssigen Probe finden können, riesig groß ist, wäre es nicht
möglich, alle möglichen Clusterobjekte als Referenzobjekte
vorrätig zu halten. Durch das Zerlegen der Clusterobjekte in
Subobjekte wird die Zahl der erforderlichen Referenzobjekte
und damit die Zahl der erforderlichen Vergleiche folglich stark
reduziert. Dies führt zu einem schnelleren Ablauf des
Verfahrens.
Dabei bevorzugt das
automatische Identifizieren die weiteren Schritte:
- - Erzeugen eines modifizierten Clusterobjektes durch Vermindern des Clusterobjektes um das zu einem identifizierten Subobjekt gehörende Referenzobjekt und
- - Behandeln des modifizierten Clusterobjektes wie ein lokalisiertes Objekt.
Diese Maßnahme ist insofern vorteilhaft, als bei dem Abspalten
des Subobjektes nicht zwangsläufig ein vollständiges Hauptobjekt
von dem Clusterobjekt abgespalten wurde. Es ist möglich, daß
das abgespaltene Subobjekt nur ein Teil eines an dem Clusterobjekt
hängenden Einzelobjektes ist. Durch das Auswählen des
zu dem Teilobjekt gehörenden Referenzobjektes oder Hauptobjektes
wird die Zahl der erforderlichen Zerlegungen eines Clusterobjektes
reduziert. Das Clusterobjekt wird nämlich nicht nur
um das Subobjekt, sondern um weitere Teilobjekte des zu dem
identifizierten Subobjekt gehörenden Hauptobjektes oder Referenzobjektes
reduziert. Das modifizierte Clusterobjekt enthält
also ggf. wesentlich weniger Subobjekte, als wenn nur das zuvor
angesprochene Subobjekt von dem Clusterobjekt abgezogen worden
wäre.
Ferner wird bevorzugt, wenn das automatische Erkennen
des Vorliegens eines Clusterobjektes die Schritte umfaßt:
- - Bestimmen einer Länge oder maximalen Ausdehnung des lokalisierten Objektes,
- - Bestimmen von quer zu der Länge verlaufenden Breiten des lokalisierten Objektes und
- - Beurteilung der Abweichungen der Breiten untereinander sowie der Lage der Breiten zu der Länge.
Bei diesen Maßnahmen ist von Vorteil, daß aus rein geometrischen
Angaben, nämlich der Länge und den quer zu der Länge genommenen
Breiten erkannt werden kann, ob ein Objekt oder ein Clusterobjekt
vorliegt. Bei einem Clusterobjekt weichen nämlich die Breiten
sehr stark voneinander ab, da beispielsweise lange, dünne Objekte
und eher kugelförmige Objekte miteinander verbunden sind.
Weiterhin liegen bei Clusterobjekten, die beliebige geometrische
Formen annehmen, zumindest einige der Breiten "außerhalb" der
Länge, d. h. das Clusterobjekt ist dermaßen gewunden, daß die
Länge teilweise außerhalb des Umrisses des Clusterobjektes
verläuft.
In einer Weiterbildung des Verfahrens ist es bevorzugt, wenn
der Schritt des Erkennens und Lokalisierens der Objekte die
automatische Überführung eines Objektes in ein Teilbild und
danach das automatische Detektieren von in sich geschlossenen
Umrissen umfaßt.
Bei dieser Maßnahme ist von Vorteil, daß durch das Überführen
eines Objektes in ein Teilbild zunächst die weiter zu verarbeitenden
Daten reduziert werden, es muß nicht das gesamte
Bild, sondern nur das ein oder mehrere Objekte umfassende
Teilbild weiter verarbeitet werden.
Ferner ist es bevorzugt, wenn das optische Erfassen der Probe
das automatische Aufnehmen von Bildfeldern unterschiedlicher
Vergrößerung umfaßt, wobei von der Probe je Vergrößerung über
ihr Volumen verteilte Bildfelder aufgenommen werden.
Auf diese vorteilhafte Weise kann die Probe sukzessiv mit
verschiedenen Vergrößerungsfaktoren abgetastet oder gescannt
werden, so daß in Abhängigkeit von der Größe der zu lokalisierenden
Objekte das gesamte Volumen der Probe mit einer gewissen
Anzahl von Bildfeldern vollständig erfaßt werden kann. Da dieses
Abtasten automatisch erfolgt, werden die beim manuellen Durchsuchen
einer flüssigen Probe häufig auftretenden Fehler - es
werden bestimmte Bereiche der Probe "vergessen" - vermieden.
Auch wird die Probe so mit sämtlichen erforderlichen Vergrößerungsfaktoren
durchsucht. Wegen der nahezu vier Größenordnungen
überstreichenden verschiedenen Größen der einzelnen Objekte
führt dies zu einem hohen Datenaufkommen. Durch den automatisierten
Ablauf ist sichergestellt, daß sämtliche Daten erfaßt
und verarbeitet werden.
Hier sei erwähnt, daß unter "Bildfelder" eine Zusammenstellung
oder Zusammenfassung von "Bilddaten" verstanden wird, die einen
bestimmten Abschnitt der Probe wiedergeben. Bei "Bildfeldern"
handelt es sich folglich um "zusammengehörende" Bilddaten.
Bei diesem Verfahren ist es weiterhin bevorzugt, wenn der Schritt
des Lokalisierens das Zusammenfassen mehrerer Bildfelder, über
die sich ein Objekt erstreckt, zu einem Überlagerungsbild umfaßt.
Durch diese vorteilhafte und einfache Maßnahme werden Objekte,
deren Größe so ist, daß sie sich über mehrere Bildfelder
erstrecken, dennoch als ein Objekt lokalisiert und können in
einem einzigen Vergleichsablauf einem Referenzobjekt zugeordnet
werden.
In einer Weiterbildung des Verfahrens ist es bevorzugt, wenn
der Schritt des Erkennens und Lokalisierens der Objekte oder
Subobjekte das Detektieren von Bereichen gleicher oder ähnlicher
Echtfarbe, Echtfarbmuster oder Echtfarbbereiche umfaßt.
Diese Maßnahme ist insofern vorteilhaft, als es in den Bilddaten
typische Farben für Flocken, Algen, Fäden etc. sowie für den
Hintergrund gibt. Auf diese Weise können beispielsweise die
immer grün erscheinenden Algen oder die jeweils gelblich zu
erkennenden Flocken von dem immer andersfarbigen Hintergrund
unterschieden werden.
Ferner ist es bevorzugt, wenn der Vergleich zwischen Objekt
oder Suchobjekt einerseits und Referenzobjekt andererseits auf
der Basis dreidimensionaler virtueller Vektorgraphik erfolgt.
Durch den quasi-optischen virtuellen Vergleich wird gegenüber
dem reinen Vergleich von extrahierten Grobmerkmalen der Vorteil
erzielt, daß auch Merkmale in die Identifizierung einbezogen
werden können, welche sich nicht in Form von beispielsweise
Algorhythmen niederlegen lassen. So können die Referenzobjekte
Feinststrukturen aufweisen, anhand derer ein leichtes Identifizieren
der Suchobjekte möglich ist, während die Aufspaltung
dieser Feinststrukturen in Merkmale, die einem binären Entscheidungsbaum
zugrundeliegen würden, nicht möglich erscheint.
Es ist ferner bevorzugt, wenn
der Schritt des automatischen Erkennens eines Clusterobjektes
das Zerlegen des Clusterobjektes in Bereiche verschiedener
Echtfarben, Echtfarbbereiche und/oder Echtfarbkontraste umfaßt.
Diese Maßnahme ist insofern von Vorteil, als sich ein Clusterobjekt
immer in Bereiche verschiedener Farben und Farbkontraste
aufspalten läßt. Auf diese Weise ist es möglich, aus den
Bilddaten zusätzliche - physikalische Größen betreffende -
Aussagen über ein Clusterobjekt zu gewinnen, die eine Zerlegung
in Subobjekte ermöglichen.
Außerdem ist es bevorzugt, wenn das Clusterobjekt in
Bereiche unterschiedlicher Bewegung, geometrischer Form und/oder
Größe zerlegt wird.
Auch diese Kriterien ermöglichen in vorteilhafter Weise ein
automatisches Erkennen von Subobjekten in einem Clusterobjekt.
Die Erfindung wird mit Hilfe der
nachfolgenden Beschreibung näher erläutert. Es zeigt
Fig. 1 die Vorrichtung zur Durchführung des Verfahrens
in einer schematischen Gesamtansicht;
Fig. 2 die Steuer- und Auswerteeinheit der Vorrichtung nach
Fig. 1 in einem Prinzipschaltbild;
Fig. 3 eine mit der Vorrichtung nach Fig. 1 zu untersuchende
Probe, mit schematisch angedeuteten Objekten;
Fig. 4 eine Reihe von mit der Bildaufnahmevorrichtung nach
Fig. 1 aufgenommenen Bildfeldern der Probe nach
Fig. 3;
Fig. 5 die Lokalisiereinrichtung aus der Steuer- und Aus
werteeinheit nach Fig. 2, in einem schematisierten
Blockschaltbild;
Fig. 6 in einer detaillierteren Darstellung ein Bildfeld
der Probe nach Fig. 3, mit einer Reihe von Objekten;
Fig. 7 die Identifizierungseinrichtung der Steuer- und
Auswerteeinheit nach Fig. 2, in einem schematisierten
Blockschaltbild;
Fig. 8 eines der Clusterobjekte aus dem Bildfeld nach Fig. 6,
in einer vereinfachten Darstellung;
Fig. 9 die Clustererkennungseinrichtung der Identifizie
rungseinrichtung nach Fig. 7, in einem schematisierten
Blockschaltbild; und
Fig. 10 die Sucheinrichtung der Identifizierungseinrichtung
nach Fig. 7, in einem schematisierten Blockschaltbild.
Fig. 1 zeigt eine insgesamt mit 10 bezeichnete Vorrichtung zum
Erstellen einer Artenliste für eine zwischen einem Objektträger
11 und einem Deckglas 12 befindliche flüssige Probe 13. Die
Probe 13 weist ggf. form- und/oder ortsveränderliche Objekte
14a, 14b unterschiedlicher Arten auf. Die Vorrichtung 10 und
das mit ihr durchzuführende Verfahren dienen zum Erstellen einer
Artenliste und somit zur Ermittlung des ökologischen Zustandes
der Probe 13, die beispielsweise einer Kläranlage oder einem
natürlichen Gewässer entnommen sein kann.
Zur limnologischen Untersuchung ist häufig eine gesonderte
Probennahme erforderlich, um Kleinstlebewesen wie Würmer, Insek
ten oder Schnecken (Größenordnung mm bis cm) erfassen und unter
suchen zu können. Derartige ebenfalls flüssige Proben werden
nicht auf einem Objektträger gehalten, sondern in einer Petri
schale oder einem Uhrglas.
Die zu untersuchenden Probenräume sind also flüssig und in der
Regel optisch durchsichtig. Wegen der hohen Formveränderlichkeit
der unterschiedlichen Objekte 14 einerseits und der Tatsache, daß
die Objekte 14 nicht immer vereinzelt vorliegen, sondern sich
überdecken, überlappen und miteinander verflechten können,
andererseits, hat die Vorrichtung 10 gegenüber dem Objekt 14
in der konkret vorliegenden Form häufig keine Wiederfindungser
wartung, es ist ihr so "nicht bekannt". Das auf der Vorrichtung
10 durchzuführende Verfahren ist daher wissensbasiert und selbst
adaptierend.
Die Vorrichtung 10 weist eine Bildaufnahmevorrichtung 16 auf,
zu der ein Bildaufnahmesystem 17 und eine einstellbare optische
Vergrößerungseinrichtung 18 gehören. Weiterhin ist eine Ver
fahreinrichtung 19 angedeutet, über welche die Probe 13 relativ
zu der Vergrößerungseinrichtung 18 verfahren werden kann. Dieses
Verfahren erfolgt zumindest in zwei der drei Achsen X, Y und
Z eines bei 20 angedeuteten Koordinatensystems.
In dem gezeigten Ausführungsbeispiel ist die Verfahreinrichtung
19 ein Kreuztisch 22, der in der X/Y-Ebene verfahren werden
kann und ggf. eine Hubeinrichtung zur Veränderung seiner
Z-Koordinate aufweist.
Die Vergrößerungseinrichtung 18 umfaßt ein Mikroskop 23, das
verschiedene Vergrößerungsfaktoren einstellen kann. Durch
entsprechendes Fokussieren des Mikroskopes 23 kann gleichfalls
die Z-Ebene, welche von dem als CCD-Kamera 24 ausgebildeten
Bildaufnahmesystem 17 erfaßt wird, eingestellt bzw. verändert
werden.
Bei einer limnologischen Untersuchung von Kleinstlebewesen wird
statt des Mikroskopes 23 eine in der Zeichnung nicht dargestellte
Stereolupe verwendet, an die ebenfalls eine CCD-Kamera 24
angeschlossen ist. Je nach Größe der zu untersuchenden Objekte
kann auch eine Bildaufnahmevorrichtung ohne vorgeschaltete
Vergrößerungseinrichtung verwendet werden.
Weiterhin ist eine Steuer- und Auswerteeinheit 26 vorgesehen,
die über eine Datenleitung 27 sowie eine Steuerleitung 28 mit der
CCD-Kamera 24 verbunden ist. Auf diese Weise erfolgt eine gesteu
erte Aufnahme und Übertragung von Bilddaten in die Steuer- und
Auswerteeinheit 26. Die CCD-Kamera 24 ist außerdem über eine wei
tere Datenleitung 29 mit einem Massenspeicher 31 verbunden, der
beispielsweise ein Videorekorder ist und zur Videoarchivierung
der untersuchten Probe dient. Über eine Datenleitung 32 ist der
Massenspeicher 31 ebenfalls mit der Steuer- und Auswerteeinheit
26 verbunden, die somit die Bilddaten entweder direkt von der
CCD-Kamera 24 oder von dem Massenspeicher 31 abfragen kann.
Über eine Verbindungsleitung 33 ist ein Datenendgerät/Terminal
34 an die Steuer- und Auswerteeinheit 26 angeschlossen, um einem
Benutzer Bilddaten von der Probe 13 anzuzeigen und um ihm die
Möglichkeit zu geben, in den Auswerteprozeß einzugreifen.
Weiterhin sind zwei Steuerleitungen 35 und 36 gestrichelt
angedeutet, über welche die Steuer- und Auswerteeinheit 26 den
Kreuztisch 22 sowie das Mikroskop 23 ansteuert.
Mit der insoweit beschriebenen Vorrichtung wird die Probe 13
nacheinander in X-, Y- und Z-Richtung abgetastet (gescannt),
so daß am Ende des Abtastvorganges dreidimensionale Bilddaten
zur Verfügung stehen. Einige der Objekte 14 sind - wie erwähnt -
beweglich, so daß durch erneutes Scannen auch zusätzlich
Informationen auf der Zeitachse gewonnen werden können. Die
Qualität der Bilder wird dabei wesentlich durch das Objektiv
des Mikroskops 23 und durch die Auflösung/Digitalisierung des
aufgenommenen Bildes bestimmt. Durch die einstellbare Vergrößerung
des Mikroskopes 23 können Objekte 14 unterschiedlichster
Größen erfaßt werden. Die Bilddaten repräsentieren
dabei Echtfarbbilder. Gleichfalls ist es möglich, die Probe
13 einer Fluoreszenzuntersuchung zu unterziehen, indem sie mit
einer in Fig. 1 nicht gezeigten Lichtquelle bestrahlt wird,
wobei dieses Anregungslicht durch ein entsprechendes Filter
in dem Mikroskop 23 wieder herausgefiltert wird.
Die Auswertung der erfaßten Bilddaten erfolgt in der in Fig. 2
detaillierter dargestellten Steuer- und Auswerteeinheit 26.
Über die Datenleitungen 27 bzw. 32 werden Bilddaten entweder
direkt von der CCD-Kamera 24 oder von dem Massenspeicher 31
in einen Bilddatenspeicher 38 geladen. Über dessen Ausgangsleitung
39 gelangen die Bilddaten in eine Lokalisiereinrichtung
40, die in noch näher zu beschreibender Weise die in den Bildern
enthaltenen Objekte "wahrnimmt", d. h. erkennt und lokalisiert.
Die derart lokalisierten Objekte werden über eine Objektdatenleitung
41 in einen Objektdatenspeicher 42 übertragen, von dem
sie über seine Ausgangsleitung 43 zu einer Identifizierungseinrichtung
44 gelangen.
Die Identifizierungseinrichtung identifiziert das in dem
Objektdatenspeicher 42 anstehende lokalisierte Objekt, d. h.
sie bestimmt dessen Art, indem sie das Objekt 14 einer jeweils
übereinstimmenden Art in einem noch zu beschreibenden Referenz
objektspeicher als Angehörigen zuordnet. Über eine Objekt
ausgabeleitung 45 ist die Identifizierungseinrichtung 44 mit
einer Zähleinrichtung 46 verbunden, die die identifizierten
Objekte zählt und über eine Übergabeleitung 47 in eine bei 48
angedeutete Artenliste einträgt.
Ferner ist in Fig. 2 eine Bewertungseinrichtung 49 angedeutet,
welche unter Verwendung zielangepaßter Methoden aus Ökologie,
Biologie und/oder Etologie eine automatische Bewertung oder
Interpretation der in die Artenliste 48 eingetragenen Daten
vornimmt. Die Bewertungseinrichtung 49 liefert aufgrund der
Interpretation der Artenliste 48 Aussagen über den ökologischen
Zustand und ggf. eine Prognose über die Entwicklung der unter
suchten Probe 13.
Die insoweit beschriebene Vorrichtung 10 und das auf ihr
durchzuführende Verfahren sollen jetzt anhand der Fig. 3 bis
10 näher erläutert werden:
In Fig. 3 ist die Probe 13 aus Fig. 1 in vergrößertem Maßstab
dargestellt. Durch gedachte Trennlinien 50 ist die Probe 13
in ein Raster von Bildfeldern 51 unterteilt, die nacheinander
von der Bildaufnahmevorrichtung 16 aus Fig. 1 abgetastet werden.
Zu diesem Zweck wird der Kreuztisch 22 an eine bestimmte
X/Y-Koordinate gefahren und dann werden nacheinander in Z-Richtung
übereinanderliegende Bildfelder 51 eines Stapels 52 von der
CCD-Kamera 24 erfaßt, digitalisiert und als Bilddaten auf die
Datenleitungen 27, 29 gegeben. Die Größe der einzelnen Bildfelder
51 richtet sich nach dem Vergrößerungsfaktor, auf den das
Mikroskop 23 eingestellt ist. Der Abstand zwischen zwei übereinanderliegenden
Bildfeldern 51a, 51d wird bestimmt durch die
Schärfentiefe des Mikroskopes; je geringer dessen Schärfentiefe
nämlich ist, desto mehr Bildfelder 51 in einem Stapel 52 müssen
erfaßt werden, um die ganze Dicke der Probe 13 durchzumustern.
Wenn auf diese Weise ein Stapel 52 "abgearbeitet" wurde, verfährt
der Kreuztisch 22 entweder in X- oder in Y-Richtung um die
Breite/Länge eines Bildfeldes, und das sukzessive Verfahren in
Z-Richtung beginnt von neuem. Auf diese Weise wird die Probe
13 sozusagen mäanderförmig abgetastet. Selbstverständlich ist
es auch möglich, die Bildfelder 51 in verschiedenen Z-Ebenen
nicht in Form eines Stapels 52 anzuordnen, sondern jeweils um
einen kleinen Betrag gegeneinander zu versetzen, so daß über
alles gesehen eine Zick-Zack-Verfahrlinie entsteht. Gegenüber
dem mäanderförmigen Scannen müssen dann weniger Verfahrschritte
unternommen werden, um die gesamte Probe 13 abzutasten.
Selbstverständlich wird eine Probe 13 für unterschiedliche
Vergrößerungsfaktoren des Mikroskopes 23 jeweils erneut abgetastet.
Auf diese Weise werden zunächst die großen Objekte 14
mit geringem Vergrößerungsfaktor und dann mit steigender
Vergrößerung immer kleinere Objekte 14 erkannt, lokalisiert
und identifiziert werden, so daß sie in die Artenliste 48
eingetragen werden können.
In Fig. 3 ist zu erkennen, daß die Objekte 14 beliebige Lagen
im Raum einnehmen können, so daß sie sich über mehrere Bildfelder
51 erstrecken können.
Wie in Fig. 4 zu sehen ist, erzeugt ein Objekt 14, das sich
in einem Stapel 52 über mehrere übereinanderliegende Bildfelder
51c, 51d und 51e erstreckt, in jedem Bildfeld 51 ein anderes
Muster 14′, 14′′ bzw. 14′′′. Um das Objekt 14 identifizieren
zu können, ist es zunächst erforderlich, zu entscheiden, über
wieviele Bildfelder 51 sich ein Objekt 14 erstreckt. In dem
in Fig. 4 gezeigten Beispiel erstreckt sich das Objekt 14 über
die Bildfelder 51c-51e. Bedingt durch die Schärfentiefe des
Mikroskopes 23 sind jeweils bestimmte Abschnitte des Objektes
14 in der Ebene des Bildfeldes 51 scharf abgebildet, wie dies
in Fig. 4 mittels durchgezogener Linien angedeutet ist, während
andere Abschnitte des Objektes 14 lediglich verschwommen zu
sehen sind. Dies ist in Fig. 4 durch gestrichelte Linien
angedeutet.
Um die einzelnen Bildfelder lagerichtig übereinander legen zu
können, müssen die Bildfelder 51 zunächst ggf. gedreht und in
X-, Y- und/oder Z-Richtung verschoben werden, um die Bewegung
des jeweils betrachteten Objektes 14 zu berücksichtigen. Um
zu erkennen, ob es sich in verschiedenen Bildfeldern 51a, 51e
um ein Objekt 14 handelt, das sich zwischen den Aufnahmen der
aufeinanderfolgenden Bildfelder 51 weiter bewegt hat, oder ob
verschiedene Objekte 14, 14b betrachtet werden, können zusätzlich
Informationen herangezogen werden, die aus Bilddaten stammen,
die mit einem geringeren Vergrößerungsfaktor des Bildaufnahme
systems gewonnen wurden. Bei einem geringeren Vergrößerungs
faktor, also bei anderer Schärfentiefe, läßt sich nämlich
leichter unterscheiden, ob es sich um zwei übereinanderliegende
Objekte 14b, 14 oder um ein einziges, sich bewegendes Objekt
14 handelt. Bei dieser Überlagerung der einzelnen Bildfelder
51 fällt sozusagen nebenbei bereits eine Information darüber
ab, ob es sich um ein sich bewegendes Objekt 14 handelt.
Da zwischen den einzelnen Aufnahmen der Bilder 51c-51e eine
gewisse Zeitspanne vergeht, kann sich das Objekt 14 unterdessen
bewegt haben, was jedoch anhand der Abweichung zwischen scharfen
Konturen und verwischten Konturen in unterschiedlichen Z-Ebenen
erkannt und ausgeglichen werden kann. Bei 53b ist ein weiteres
Stapelbild des Objektes 14b angedeutet.
Legt man die einzelnen Bildfelder 51c-51e also lagerichtig
übereinander, so gelangt man zu einem Stapelbild 53, das eine
Art Höhenlinienbild 54 des Objektes 14 wiedergibt. Durch dieses
Stapelbild 53 liegen die Objekte 14 jetzt in Form von dreidimen
sionalen Bilddaten vor, so daß sie in der Lokalisiereinrichtung
40 erkannt und in der automatischen Identifizierungseinrichtung
44 identifiziert werden können. Dazu werden sie als Vektor
graphikobjekte abgelegt.
Selbstverständlich erstrecken sich die Objekte nicht nur in
Z-Richtung durch mehrere Bildfelder 51 hindurch, es ist durchaus
möglich, in gleicher Weise, wie in Fig. 4 für die Z-Richtung
gezeigt, auch in X- und/oder Y-Richtung eine derartige Erkennung
eines Objektes 14 durchzuführen.
In Fig. 5 ist die zuständige Lokalisiereinrichtung 40 detail
lierter dargestellt. Die nacheinander auf der Ausgangsleitung
39 anstehenden Daten der einzelnen Bildfelder 51 gelangen
zunächst in einen Umrißdetektor 56, der die Bilddaten nach in
sich geschlossenen Umrissen und/oder Bereichen gleicher Farbe
durchsucht, und so zu den scharfen (durchgezogenen) Konturen
in den Bildfeldern 51a-51b aus Fig. 4 kommt. Dabei wird die
Tatsache ausgenutzt, daß die Objekte 14 immer andersfarbig sind
als der Hintergrund, diese sich also nicht nur durch den Kontrast
sondern auch durch die Farbgebung von dem Hintergrund unter
scheiden. Außerdem erkennt der Umrißdetektor 56 die verschwomme
nen Konturen der Objekte 14.
Der Umrißdetektor 56 legt zu diesem Zweck wie folgt ein Overlay-
Fenster über die jeweiligen Objekte: Zunächst wird Punkt für
Punkt eines jeden Bildfeldes 51 daraufhin abgefragt, ob seine
Echtfarbe zu dem Hintergrundfarbbereich gehört, oder sich von
diesem abhebt. Ist ein Bildpunkt (Pixel) gefunden, der nicht
zum Hintergrund gehört, damit also Teil eines Objektes 14 ist,
so wird dieser Punkt von einem virtuellen viereckigen Fenster
überdeckt. Die Kanten des Fensters werden jetzt solange iterativ
in alle vier Koordinatenrichtungen voneinander weggerichtet
verschoben, bis die Kanten nur noch über Pixel liegen, die dem
Hintergrundfarbbereich zuzuordnen sind. Da das Ausgangspixel
ein Objekt-Pixel war, ist auf diese Weise sichergestellt, daß
in dem so erzeugten Overlay-Fenster zumindest ein Objekt
eingegrenzt ist.
Das so eingegrenzte Objekt 14 wird in ein Teilbild umkopiert,
so daß die weiterhin zu bearbeitenden Daten deutlich reduziert
worden sind. Nach dem Umkopieren wird das so in dem Original-
Bilddatensatz erkannte Objekt (die Objekte) dadurch "gelöscht",
daß die erkannten Objekt-Pixel in Hintergrund-Pixel umgewandelt
werden. In den Original-Bilddaten sind somit nur noch "nicht
wahrgenommene" Objekte enthalten, die auf gleiche Weise erkannt
und umkopiert werden.
Während des Verschiebens der Overlay-Fensterkanten hat der
Umrißdetektor 56 gleichzeitig jedes Objekt-Pixel als ein solches
markiert und zusätzlich auf folgende Weise Pixel erkannt, die
zum Umriß des jeweiligen Objektes 14 gehören: Jedes Pixel, das
zumindest an einer seiner vier Seiten an ein Pixel mit Hinter
grundfarbe grenzt, "gehört" zum Umriß des Objektes, während
allseitig von Objekt-Pixeln umgebene Pixel "im Inneren" des
Objektes liegen. Wegen des soeben beschriebenen Verfahrens ist
außerdem gewährleistet, daß jede Kante des Overlay-Fensters
zumindest an einer Stelle an das umschlossene Objekt angrenzt.
Nachdem die einzelnen Objekte in den unterschiedlichen Bildfeldern
51 so erkannt worden sind, gelangen die reduzierten Daten
in einen Stapelbildüberlagerer 57, der die einzelnen Bildfelder
51 - wie anhand von Fig. 4 bereits beschrieben - so übereinander
legt, daß die verschwommenen und die scharfen Konturen unterschiedlicher
Bildfelder 51 übereinstimmen. Die derart zueinander
ausgerichteten einzelnen Stapelbilder 51a-51e werden in dem
Objektlokalisierer 58 als dreidimensionale Vektorgraphikdarstellungen
abgelegt. Die Daten gelangen von hier in einen
Bewegungsdetektor 59, der anhand der um zu einem Objekt 14 zu
gelangenden erforderlich gewesenen Verschiebung der einzelnen
Bildfelder 51 ermittelt, ob es sich um ein sich bewegendes Objekt
handelt. Über die Ausgangsleitungen 60 und 61 werden die Daten
des Stapelbildes 53 sowie die Bewegungsinformation einer
Verknüpfungsschaltung 62 zugeführt, die diese Daten über die
Objektdatenleitung 41 in den Objektdatenspeicher 42 gibt.
In Fig. 6 ist ausschnittsweise die Projektion eines von der
Lokalisiereinrichtung 40 erzeugten Stapelbildes 53 dargestellt,
wie es typischerweise für eine Probe 13 eines Belebtschlammes
gefunden wird. Das Stapelbild 53 gibt eine kleine Flocke 64,
eine Protozoe 65 sowie eine Fadenbakterie 66 mit zusätzlichem
bakteriellem Aufwuchs 67 wieder. Weiterhin ist eine große Flocke
68 zu erkennen, an der eine weitere Fadenbakterie 69 sitzt.
Ferner weist Fig. 6 eine Kolonie von drei Glockentierchen 70a,
70b, 70c auf, die einen gemeinsamen Stiel 71 haben, der mit
seinem Fußpunkt 72 an der großen Flocke 68 sitzt. Während die
Objekte 64 und 65 Einzelobjekte sind, die in der Identifizierungseinrichtung
44 problemlos identifiziert werden können,
stellen die Objekte 66, 67 sowie 68, 69, 70, 71 ein Clusterobjekt
73a, 73 dar. Die Zahl der möglichen Clusterobjekte ist so astronomisch
hoch, daß es nicht möglich ist, für diese Clusterobjekte
Referenzdatenobjekte zu erzeugen. Die Identifizierungseinrichtung
44 muß daher jedes beliebige Clusterobjekt 73 so weiterverarbeiten
können, daß es mit einer begrenzten Anzahl von vorgegebenen
Referenzdaten eindeutig identifiziert werden kann.
Hier ist noch zu bedenken, daß die Teilobjekte eines Clusterobjektes
73 sich zumindest teilweise gegenseitig überdecken
bzw. überlappen können und ggf. auch miteinander verflochten
sind.
In Fig. 7 ist gezeigt, daß die Identifizierungseinrichtung 44
aus diesem Grunde eine Clusterzerlegungseinrichtung 74 sowie
eine Objekterkennungseinrichtung 75 aufweist. Die Daten eines
lokalisierten Objektes gelangen über die Ausgangsleitung 43
in eine Clustererkennungseinrichtung 76, die jedes neu anstehende
Objekt daraufhin überprüft, ob es ein Einzelobjekt oder ein
Clusterobjekt 73 ist. Wie dies geschieht, wird noch erläutert.
Handelt es sich bei dem auf der Ausgangsleitung 43 anstehenden
Objekt um ein Einzelobjekt, so überträgt die Clustererkennungseinrichtung
76 die Daten über seine Ausgangsleitung
77 in einen Vergleichsspeicher 78 der Objekterkennungseinrichtung
75. Handelt es sich dagegen um ein Clusterobjekt 73, so werden
die Daten von der Clustererkennungseinrichtung 76 über seine
Ausgangsleitung 79 in einen Clusterspeicher 80 geladen. Von
dem Clusterspeicher 80 gelangen die Daten über eine Clusterdatenleitung
81 in eine Subobjekterkennungseinrichtung 82, die ein
Clusterobjekt 73 in eine Reihe von Subobjekten zerlegt. Diese
Zerlegung in Subobjekte erfolgt anhand weiterer Daten, die
beispielsweise Aussagen über die geometrische Form bestimmter
Bereiche des Clusters machen. Weiterhin werden die Farben der
Clusterbereiche und/oder die unterschiedlichen Kontraste dazu
herangezogen, das in Fig. 6 gezeigte Clusterobjekt 73 in einzelne
Subobjekte zu zerlegen. Zurückkehrend zu Fig. 6 ist zu erkennen,
daß beispielsweise die Glockentierchen 70 und ihre Stiele 71
unterschiedlich schraffiert sind, wodurch eine unterschiedliche
Farbe angedeutet ist. Die Subobjekterkennungseinrichtung 82
spaltet jetzt beispielsweise das Glockentierchen 70a von dem
Cluster 73 ab und übermittelt die Daten des Glockentierchens
70a über eine Subobjekt-Datenleitung 83 in den Vergleichsspeicher
78.
Der Vergleichsspeicher 78 enthält jetzt entweder die Daten eines
Einzelobjektes 14 oder die Daten eines Subobjektes. Diese als
"Suchobjekt" bezeichneten Daten gelangen über eine Suchobjekt-
Datenleitung 84 in eine Sucheinrichtung 85, die ihrerseits über
eine Referenzobjekt-Datenleitung 86 mit einem Referenzdaten
speicher 87 in Verbindung steht. In dem Referenzdatenspeicher
87 sind in vektorieller, dreidimensionaler Darstellung sämtliche
Objekte 14 enthalten, die in einer Probe 13 auftreten können.
Da viele der Objekte 14 formveränderlich sind, also beispiels
weise eine andere geometrische Gestalt aufweisen, wenn sie ruhen
oder sich bewegen, muß dies bei den Referenzobjektdaten berück
sichtigt werden. Die Zahl der möglichen Formen, die ein einziges
bewegliches Objekt 14 annehmen kann, ist jedoch so groß, daß
diese nicht sämtlichst vorhergesehen und abgespeichert werden
können. Aus diesem Grunde erfolgt der Aufbau des Referenzdaten
speichers 87 derart, daß die Referenzobjekte in einer oder
mehreren geometrischen Grundformen abgelegt werden. Zusätzlich
zu dieser Grundform sind Freiheitsgrade abgespeichert, die die
möglichen und zulässigen Bewegungen und Formveränderungen des
jeweiligen Objektes berücksichtigen. Beim Vergleich zwischen
dem Suchobjekt und den verschiedenen Referenzobjekten werden
jetzt die Referenzobjekte im Hinblick auf das Suchobjekt solange
verändert (im Rahmen ihrer zulässigen Freiheitsgrade) bis sie
entweder zu dem Suchobjekt "passen", oder aber bis sich ergibt,
daß keine Übereinstimmung zu erzielen ist. Dieser Vergleich
ist ein virtuell-optischer Vorgang, bei dem aufgrund eines
wissensbasierten Verfahrens (die zulässigen Freiheitsgrade eines
Referenzobjektes sind abgespeichert) die Vektorgraphikdarstellung
eines Objektes/Subobjektes mit einer zweidimensionalen Projektion
eines virtuellen dreidimensionalen Vektorflächengraphikmodells
des jeweils zu vergleichenden Referenzobjektes verglichen wird.
Die Sucheinrichtung 85 vergleicht also jetzt die Daten, die
auf der Suchobjekt-Datenleitung 84 anstehen, mit den vorhandenen
Daten des Referenzdatenspeichers 87, bis das mit dem Suchobjekt
übereinstimmende Referenzobjekt gefunden ist. Bei der Abspaltung
in der Subobjekterkennungseinrichtung 82 kann es nun vorkommen,
daß kein ganzes Objekt 14 von dem Cluster 73 abgespalten wird,
sondern nur ein Teilobjekt. In dem Beispiel der Fig. 6 wird
nicht ein aus Stiel 71a und Glockenteil 70a bestehendes Glocken
tierchen abgespaltet, sondern nur das Teilobjekt 70a.
In dem Referenzdatenspeicher 87 findet sich jedoch zu dem
Teilobjekt 70a ein Hauptobjekt 14, bestehend aus Teilobjekt 70a
und Teilobjekt 71a. Dieses Hauptobjekt wird jetzt über eine
Hauptobjekt-Datenleitung 88 an einen virtuell-optisch arbeitenden
Differenzbildner 89 gegeben, der über eine Leitung 90 ebenfalls
mit dem Clusterspeicher 80 in Verbindung steht. Die Differenz
bildnereinheit 89 modifiziert jetzt das ursprünglich in dem Cluster
speicher 80 befindliche Clusterobjekt derart, daß es um das
bereits erkannte Hauptobjekt reduziert wird.
Das modifizierte Clusterobjekt gelangt über die Leitung 91 zurück
in die Clustererkennungseinrichtung 76, wo die nun anstehenden
Bilddaten entweder erneut als Cluster erkannt werden und in
den Clusterspeicher 80 eingeschrieben werden oder aber als
Einzelobjekt erkannt werden und somit unmittelbar in den
Vergleichsspeicher 78 gegeben werden.
Selbstverständlich wird jedes erkannte Hauptobjekt über die
Objektausgabeleitung 45 an die Zähleinrichtung 46 gemeldet.
Hier sei erwähnt, daß die in dem Referenzdatenspeicher 87
vorhandenen Referenzobjekte von Fall zu Fall um weitere neu
auftretende oder neu zu bestimmende Objekte erweitert werden,
die Vorrichtung 10 ist also selbstadaptierend.
Anhand von Fig. 8 wird jetzt beschrieben, nach welchen Kriterien
die Clustererkennungseinrichtung 76 ermittelt, ob es sich bei
den auf der Ausgangsleitung 43 anstehenden Daten um ein einzelnes
Objekt 14 oder um ein Clusterobjekt 73 handelt.
Aus Gründen der Übersichtlichkeit wurden in Fig. 8 die Glockentierchen
70b und 70c aus Fig. 6 weggelassen. Die Farben und
der Kontrast der einzelnen Elemente des Clusters 73′ aus Fig. 8
spielen in diesem Beispiel für die Erkennung, ob es sich um
ein Cluster handelt, ebenfalls keine Rolle. Das Clusterobjekt
73 ist in Fig. 8 lediglich durch seinen bei 92 angedeuteten
Umriß repräsentiert. Dieser Umriß des Clusterobjektes 73 wurde
bereits mit Hilfe des Umrißdetektors 56 - siehe Fig. 5 -
ermittelt.
Die Clustererkennungseinrichtung 76 legt jetzt einen Umkreis
um das Clusterobjekt und bestimmt so seine bei 93 angedeutete
Länge, seine maximale Ausdehnung in der X/Y-Ebene. Dies geschieht
beispielsweise, indem zwischen sämtlichen Koordinatenpaaren
(X/Y) der Abstand bestimmt wird und dann der maximale Abstand
als Länge 93 in die Bilddaten aufgenommen wird.
Als nächstes wird die Breite des Clusterobjektes 73 bzw. des
Objektes 14 senkrecht zu der Länge 93 bestimmt. Dies geschieht
ebenfalls durch eine Abstandsbestimmung zwischen den entspre
chenden Koordinaten, einige Breiten sind bei 94a, 94b in Fig.
8 angedeutet. Es ist zu erkennen, daß das Clusterobjekt 73
teilweise Breiten 94c aufweist, die keinen Schnittpunkt mit
der Länge 93 aufweisen. Dies ist ein Indiz für eine unregelmäßige
Form des Objektes 14 bzw. des Clusterobjektes 73. Nach jeweils
festzulegenden Kriterien ermittelt die Clustererkennungsein
richtung 76 aus der Variation der verschiedenen Breiten 94a-94c
sowie aus der Tatsache, wie oft die Länge 93 "außerhalb"
des Objektes 14 bzw. des Clusterobjektes 73 liegt, ob es sich
bei dem vorliegenden Datensatz um ein Clusterobjekt 73 handelt.
Die Clustererkennungseinrichtung 76 ist in Fig. 9 detaillierter
dargestellt. Die auf der Ausgangsleitung 43 anstehenden Objekt
daten eines lokalisierten Objektes werden über eine innere
Datenverzweigung 95 einzelnen Baugruppen der Clustererkennungs
einrichtung 76 zugeführt. Über einen Umschalter 96 wird dabei
entweder die Ausgangsleitung 43, die von dem Objektdatenspeicher
42 kommt, oder die Leitung 91, die Informationen eines modifi
zierten Clusterobjektes 73 enthält, auf die innere Datenver
zweigung 95 geschaltet.
Diese Daten gelangen in eine Vorrichtung 97 zur Längenbestimmung,
eine Vorrichtung 98 zur Breitenbestimmung und eine Qualifizie
rungseinrichtung 99, die z. B. aus dem Verhältnis Länge zu Breite
ermittelt, ob es sich bei dem zu bewertenden Objekt 14 um ein
einzelnes Objekt 14 oder um ein Clusterobjekt 73 handelt. Die
Funktionsweise der Vorrichtungen 97, 98 und der Qualifizierungs
einrichtung 99 wurde bereits anhand von Fig. 8 erläutert.
Die Qualifizierungseinrichtung 99 gibt die anstehenden Daten
entweder auf die Ausgangsleitung 77, wenn es sich um ein
einzelnes Objekt 14 handelt, oder auf die Ausgangsleitung 79,
wenn es sich um ein Clusterobjekt 73 handelt.
Die Clustererkennungseinrichtung 76 weist weiterhin eine
Vorrichtung 100 auf, die anhand von Bewegungsvorgängen in
Teilbereichen eines Clusters und/oder von zusammenhängenden
Bereichen gleicher Echtfarben erkennt, ob das lokalisierte Objekt
14 ein Clusterobjekt 73 ist.
Als letztes soll erläutert werden, wie die Sucheinrichtung 85
die auf der Suchobjekt-Datenleitung 84 anstehenden Suchobjekte
mit den auf der Referenzdatenleitung 86 zugänglichen Referenz
daten des Referenzdatenspeichers 87 vergleicht. Dies geschieht
anhand von Fig. 10.
Die Sucheinrichtung 85 weist zu diesem Zweck eine virtuell
optisch arbeitende Vergleichereinrichtung 101 auf, die nachein
ander die zur Verfügung stehenden Daten des Referenzdaten
speichers 87 abfragt und mit den Suchobjektdaten auf der Suchob
jekt-Datenleitung 84 vergleicht. Damit nicht bei jedem Suchobjekt
sämtliche Referenzobjekte durchgemustert werden müssen, umfaßt
die Sucheinrichtung 85 beispielsweise vier Bewertungseinheiten
102, 103, 104 und 105, welche die Suchobjekte nach Farbe, Bewe
gung, Größe und geometrischer Form bzw. Formveränderlichkeit
qualifizieren. Diese Informationen führen zu Entscheidungskri
terien, die es der Vergleichereinrichtung 101 ermöglichen, nur
einen kleinen Satz der gesamten zur Verfügung stehenden Referenz
objekte tatsächlich mit dem jeweiligen Suchobjekt zu vergleichen.
Ist das Suchobjekt beispielsweise in seiner längsten Ausdehnung
kleiner als zwei µm, werden nur die in dem Referenzdatenspeicher
87 gespeicherten Bakterien mit dem Suchobjekt verglichen. Hat
das Suchobjekt dagegen eine ausgefallene, seltene Farbgebung,
so werden nur die mit dem entsprechenden Farbcode identifizierten
Referenzobjekte mit dem Suchobjekt verglichen. Entsprechende
Überlegungen lassen sich auch für Bewegung und geometrische
Form anstellen.
Je nachdem, welches der hier beispielhaft angeführten vier
Kriterien Farbe, Bewegung, Größe und geometrische Form sich
als am relevantesten erweist, durchsucht die Vergleichereinrichtung
101 bestimmte Bereiche des Referenzdatenspeichers 87. Auf
diese Weise läßt sich eine sehr viel schnellere Identifizierung
des Objektes und in rekursiver Weise damit eines Clusters 73
durchführen.
Die Bewertungseinrichtungen 102-105 stellen sozusagen einen
Merkmalssatzvergleicher dar, welcher aufgrund von aus den
Bilddaten extrahierter Merkmalen eine Art morphologische
Klassifizierung der Objekte durchführt. Wegen der hohen Formverschiedenheit
der einzelnen Objekte ein- und derselben Art ist
eine derartige morphologische Klassifizierung aufgrund von
Grobmerkmalen jedoch nur bis zu einem bestimmten Grad möglich.
Danach erfolgt - wie bereits oben beschrieben - in der Vergleichereinrichtung
101 ein quasi-visueller Vergleich, ein
Vergleich auf der Basis virtueller dreidimensionaler Vektorgraphik.
Dabei werden die Vektoren von Such- und Referenzobjekt
hinsichtlich Betrag (Länge) und Raumwinkel (Orientierung im
Raum) miteinander verglichen. Die Referenzobjekte sind dabei
formveränderlich angelegt, sie werden also im Hinblick auf das
jeweilige Suchobjekt solange verändert, bis sie "passen". Auf
diese Weise können alle nicht ohne weiteres beschreibbaren
Merkmale dennoch berücksichtigt werden, da sie in der feinstspezifischen
Struktur des Referenzobjektes implementiert sind.
Eine vollständige Objektidentifizierung anhand beschreibender
Merkmale ist auch deshalb nicht möglich, weil sich die unterschiedlichen
Arten zum Teil durch Merkmalssätze voneinander
unterscheiden, die nur schwer in Algorithmen, sei es auf
Hardware- oder auf Software-Ebene, erfassen lassen.
Ist das Suchobjekt als Teil eines Hauptobjektes erkannt worden,
so wird das entsprechende Hauptobjekt von der Vergleichereinrichtung
101 in einen Hauptobjektspeicher 106 geladen, der über
die Hauptobjekt-Datenleitung 88 mit dem Differenzbildner 89
in Verbindung steht.
Der Vollständigkeit halber sei erwähnt, daß die in den Fig. 2,
4, 5, 7, 9 und 10 angedeuteten Baugruppen in beliebiger
Kombination ganz oder auch zum Teil entweder durch reine
Hardware-Schaltungen/Mikroprogrammsteuerwerke, Rechenschaltungen
oder programmgesteuerte Datenverarbeitungseinheiten realisiert
sein können. Weiterhin ist es selbstverständlich, daß die
einzelnen Speicher entweder getrennte Speicher sein können oder
aber teilweise überlappende Bereiche eines einzigen Speichers
sein können.
Claims (9)
1. Automatisches Verfahren zum Erstellen einer Liste (48)
unterschiedlicher Arten für eine flüssige Probe (13) mit
Objekten (14), die form- und/oder ortsveränderlich sein
können und sich z.T. gegenseitig überdeckend oder überlappen,
zur Ermittlung des ökologischen Zustandes der Probe
(13), wobei die Probe (13) zumindest zweidimensional als
Folge von Bilddaten optisch erfaßt und die Bilddaten
abgespeichert werden und wobei daraufhin folgende Schritte
automatisch durchgeführt werden:
- - Erkennen des Vorhandenseins der Objekte (14) und Lokalisieren der Objekte (14) in den erfaßten Bilddaten mittels einer Lokalisiereinrichtung (40),
- - Identifizieren der lokalisierten Objekte (14) mittels einer Identifizierungseinrichtung (44), die eine Clusterzerlegungseinrichtung (74) und eine Objekterkennungseinrichtung (75) umfaßt, wobei
- - in der Clusterzerlegungseinrichtung (74) ein automatisches Erkennen des Vorliegens eines aus mehreren zusammenhängenden Objekten (14) bestehenden Clusterobjektes (73) mittels einer Clustererkennungseinrichtung (76) und ein automatisches Abspalten eines Subobjektes von dem Clusterobjekt (73) mittels einer Differenzbildnereinheit (89) erfolgt, und wobei
- - in der Objekterkennungseinrichtung (75) die Daten der Objekte (14) und/oder Subobjekte mittels einer Sucheinrichtung (85) mit Daten von Referenzobjekten verglichen und dadurch identifiziert werden,
- - wobei der Vergleich so erfolgt, daß aus den Bilddaten zu identifizierender Objekte (14) oder Subobjekte durch zumindest eine Bewertungseinheit (102, 103, 104, 105) zumindest ein Grobmerkmal ermittelt wird, aufgrund dessen dann aus den vorhandenen Referenzobjekten nur eine bestimmte Gruppe von Referenzobjekten zum Vergleich ausgewählt wird, der mittels Vektorgraphik durchgeführt wird,
- - Zählen der identifizierten Objekte (14) nach den unterschiedlichen Arten und
- - Eintragen der gezählten Objekte (14) in die Liste (48) unterschiedlicher Arten.
2. Verfahren nach Anspruch 1 mit den weiteren Schritten:
- - Erzeugen eines modifizierten Clusterobjektes (73) durch Vermindern des Clusterobjektes (73) um das zu einem identifizierenden Subobjekt gehörende Referenzobjekt und
- - Behandeln des modifizierten Clusterobjektes (73) wie ein lokalisiertes Objekt (14).
3. Verfahren nach einem der Ansprüche 1 oder 2, wobei das
automatische Erkennen des Vorliegens eines Clusterobjektes
(73) die Schritte umfaßt:
- - Bestimmen einer Länge (93) oder maximalen Ausdehnung des lokalisierten Objektes (14),
- - Bestimmen von quer zu der Länge (93) verlaufenden Breiten (94) des lokalisierten Objektes (14) und
- - Bewerten der Abweichungen der Breiten (94a, 94b, 94c) untereinander sowie der Lage der Breiten (94) zu der Länge (93).
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei der
Schritt des Erkennens und Lokalisierens der Objekte (14)
die automatische Überführung eines Objektes (14) in ein
Teilbild und danach das automatische Detektieren von in
sich geschlossenen Umrissen (92) umfaßt.
5. Verfahren nach einem der Ansprüche 1 bis 4, wobei das
optische Erfassen der Probe (13) das automatische Aufnehmen
von Bildfeldern (51) unterschiedlicher Vergrößerung umfaßt,
wobei von der Probe (13) je Vergrößerung über ihr Volumen
verteilte Bildfelder (51) aufgenommen werden.
6. Verfahren nach den Ansprüchen 4 und 5, wobei der Schritt
des Lokalisierens das Zusammenfassen mehrerer Bildfelder
(51), über die sich ein Objekt (14) erstreckt, zu einem
Überlagerungsbild (53) umfaßt.
7. Verfahren nach einem der Ansprüche 1 bis 6, wobei der
Schritt des Lokalisierens der Objekte (14) oder Subobjekte
das Detektieren von Bereichen gleicher oder ähnlicher
Echtfarbe, Echtfarbmuster oder Echtfarbbereiche umfaßt.
8. Verfahren nach einem der Ansprüche 1 bis 7, wobei der
Vergleich zwischen Objekt (14) oder Subobjekt einerseits und
Referenzobjekt andererseits auf der Basis dreidimensionaler
virtueller Vektorgraphik erfolgt.
9. Verfahren nach einem der Ansprüche 1 bis 8, wobei das
Clusterobjekt (73) in Bereiche unterschiedlicher Bewegung,
geometrischer Form und Größe zerlegt wird.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE4211904A DE4211904C2 (de) | 1991-04-09 | 1992-04-09 | Automatisches Verfahren zum Erstellen einer Liste unterschiedlicher Arten für eine flüssige Probe |
| DE4244708A DE4244708C2 (de) | 1992-04-09 | 1992-04-09 | Verfahren und Vorrichtung zum Erstellen einer Artenliste für eine flüssige Probe |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE4111472 | 1991-04-09 | ||
| DE4211904A DE4211904C2 (de) | 1991-04-09 | 1992-04-09 | Automatisches Verfahren zum Erstellen einer Liste unterschiedlicher Arten für eine flüssige Probe |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE4211904A1 DE4211904A1 (de) | 1992-11-19 |
| DE4211904C2 true DE4211904C2 (de) | 1994-03-17 |
Family
ID=6429151
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE4211904A Expired - Fee Related DE4211904C2 (de) | 1991-04-09 | 1992-04-09 | Automatisches Verfahren zum Erstellen einer Liste unterschiedlicher Arten für eine flüssige Probe |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE4211904C2 (de) |
Families Citing this family (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE4337528A1 (de) * | 1993-11-04 | 1995-07-20 | Lothar Bode | Verfahren zur Zustandsfeststellung an Hautgewebe |
| DE19709348C2 (de) * | 1996-05-29 | 1999-07-01 | Schubert Walter Dr Md | Automatisches Multi-Epitop-Ligand-Kartierungsverfahren |
| DE19726226C2 (de) * | 1997-06-22 | 2001-07-26 | Zentrum Fuer Neuroinformatik G | Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe |
| DE19845883B4 (de) * | 1997-10-15 | 2007-06-06 | LemnaTec GmbH Labor für elektronische und maschinelle Naturanalytik | Verfahren zur Bestimmung der Phytotoxizität einer Testsubstanz |
| DE19801400C2 (de) * | 1998-01-16 | 2001-10-18 | Petra Perner | Verfahren zur automatischen Erkennung, Eigenschaftsbeschreibung und Interpretation von Hep-2-Zellmustern |
| DE19858456A1 (de) * | 1998-12-18 | 2000-07-06 | Leica Microsystems | Verfahren zum Auffinden, zur Aufnahme und gegebenenfalls zur Auswertung von Objektstrukturen |
| DE10221124A1 (de) * | 2002-05-13 | 2003-11-27 | Bayer Cropscience Ag | Verfahren und Vorrichtung zur automatischen Auszählung und Klassifizierung von tierischen Schädlingen |
| DE10229880A1 (de) * | 2002-07-03 | 2004-01-29 | Siemens Ag | Bildanalyseverfahren und Vorrichtung zur Bildauswertung für die in vivo Kleintierbildgebung |
| US20040076999A1 (en) * | 2002-07-15 | 2004-04-22 | Baylor College Of Medicine | Computer user interface facilitating acquiring and analyzing of biological specimen traits |
| DE102004051508B4 (de) * | 2003-10-21 | 2006-09-21 | Leica Microsystems Cms Gmbh | Verfahren zur automatischen Erzeugung von Laser-Schnittlinien in der Laser-Mikrodissektion |
| JP2007509334A (ja) | 2003-10-21 | 2007-04-12 | ライカ マイクロシステムス ツェーエムエス ゲーエムベーハー | レーザマイクロ切開におけるレーザ切断線の自動生成方法 |
| DE10361073A1 (de) * | 2003-12-22 | 2005-07-21 | Innovatis Ag | Verfahren und Vorrichtung zur Aufnahme mikroskopischer Bilder |
| DE102004018171B4 (de) * | 2004-04-08 | 2006-12-21 | Perner, Petra, Dr.-Ing. | Verfahren zur Akquisition von Formen aus Bildern luftgetragener Keime und/oder Pollen und zum fallbasierten Erkennen dieser Objekte in digitalen Bildern, Computer-Programm-Produkt und digitales Speichermedium zur Ausführung dieses Verfahrens |
| DE102004018174B4 (de) * | 2004-04-08 | 2006-12-21 | Perner, Petra, Dr.-Ing. | Verfahren zur Akquisition von Formen aus Bildern mit Fällen und zum fallbasierten Erkennen von Objekten in digitalen Bildern, Computer-Programm-Produkt und digitales Speichermedium zur Ausführung dieses Verfahrens |
| WO2005101291A1 (de) | 2004-04-08 | 2005-10-27 | Petra Perner | Verfahren zur akquisition von formen aus hep-2-zellschnitten und zum fallbasierten erkennen von hep-2-zellen |
| DE102004022484B4 (de) | 2004-05-07 | 2007-12-20 | P.A.L.M. Microlaser Technologies Ag | Mikroskoptisch |
| DE102004023262B8 (de) * | 2004-05-11 | 2013-01-17 | Carl Zeiss Microimaging Gmbh | Verfahren zur Bearbeitung einer Masse mittels Laserbestrahlung und Steuersystem |
| DE102007003448A1 (de) | 2007-01-19 | 2008-07-24 | Perner, Petra, Dr.-Ing. | Verfahren und Datenverarbeitungssystem zur automatischen Erkennung, Verarbeitung, Interpretation und Schlussfolgerung von als digitale Datenmengen vorliegenden Objekten |
| DE102007009485A1 (de) | 2007-02-22 | 2008-08-28 | Perner, Petra, Dr.-Ing. | Verfahren und Datenverarbeitungssystem zur Modellbildung für die Bildsegmentierung |
| US20110058728A1 (en) | 2009-08-28 | 2011-03-10 | Petra Perner | Device and Method for Automatic Detection of Dynamic Processes of Cells in Cell Samples |
| CN113283652A (zh) * | 2021-05-27 | 2021-08-20 | 则思科技(苏州)有限公司 | 一种军工行业宏观质量水平的评价方法 |
Family Cites Families (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US3819913A (en) * | 1973-05-21 | 1974-06-25 | Corning Glass Works | Detection of eosinophil cells on a blood smeared slide |
| FR2350596A2 (fr) * | 1976-05-04 | 1977-12-02 | Green James E | Procede et appareillage pour l'analyse d'un champ selon deux resolutions |
| US4307376A (en) * | 1976-12-09 | 1981-12-22 | Geometric Data Corporation | Pattern recognition system for generating hematology profile |
| US4175860A (en) * | 1977-05-31 | 1979-11-27 | Rush-Presbyterian-St. Luke's Medical Center | Dual resolution method and apparatus for use in automated classification of pap smear and other samples |
| DE2903625A1 (de) * | 1978-02-03 | 1979-08-09 | Rush Presbyterian St Luke | Vorrichtung zur automatischen blutanalyse |
| DE2903855A1 (de) * | 1979-02-01 | 1980-08-14 | Bloss Werner H Prof Dr Ing | Verfahren zum automatischen markieren von zellen und bestimmung der merkmale von zellen aus zytologischen abstrichpraeparaten |
| DE3044883A1 (de) * | 1980-11-28 | 1982-07-01 | Fa. Carl Zeiss, 7920 Heidenheim | Verfahren und anordnung zum finden von ansammlungen von teilchen, bspw. metaphasenplatten |
| US4513438A (en) * | 1982-04-15 | 1985-04-23 | Coulter Electronics, Inc. | Automated microscopy system and method for locating and re-locating objects in an image |
| US4521909A (en) * | 1983-10-04 | 1985-06-04 | Wang Laboratories, Inc. | Dual level pattern recognition system |
| FR2555754A1 (fr) * | 1983-11-28 | 1985-05-31 | Inter Inf | Procede et dispositif d'analyse automatique d'echantillons biologiques |
| DE3543515A1 (de) * | 1985-12-10 | 1987-06-11 | Strahlen Umweltforsch Gmbh | Verfahren zur messung der bewegungsweisen und konfigurationen von biologischen und nicht biologischen objekten |
| FR2597636B1 (fr) * | 1986-04-18 | 1988-06-17 | Commissariat Energie Atomique | Procede de reconnaissance automatique d'objets susceptibles de se chevaucher |
| FR2609662B1 (fr) * | 1987-01-20 | 1994-09-23 | Loriot Jean Marc | Procede de decoupage d'un objet en fonction de particularites dudit objet |
| JPH0695008B2 (ja) * | 1987-12-11 | 1994-11-24 | 株式会社東芝 | 監視装置 |
| US4901362A (en) * | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
| DE3836716A1 (de) * | 1988-10-28 | 1990-05-03 | Zeiss Carl Fa | Verfahren zur auswertung von zellbildern |
| US4932044A (en) * | 1988-11-04 | 1990-06-05 | Yale University | Tissue analyzer |
| DE3906215A1 (de) * | 1989-02-28 | 1990-08-30 | Robert Prof Dr Ing Massen | Automatische klassifikation von pflaenzlingen |
| AU6153290A (en) * | 1989-08-10 | 1991-03-11 | International Remote Imaging Systems Inc. | A method of differentiating particles based upon a dynamically changing threshold |
-
1992
- 1992-04-09 DE DE4211904A patent/DE4211904C2/de not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| DE4211904A1 (de) | 1992-11-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE4211904C2 (de) | Automatisches Verfahren zum Erstellen einer Liste unterschiedlicher Arten für eine flüssige Probe | |
| EP1181525B1 (de) | Verfahren zur automatischen analyse von mikroskopaufnahmen | |
| DE19747415C2 (de) | Verfahren zur Unterstützung eines Betrachters bei der Durchmusterung einer Probe und zytologisches Probenanalysiersystem | |
| DE102008059788B4 (de) | Analyse und Klassifizierung insbesondere biologischer oder biochemischer Objekte auf Basis von Zeitreihen-Bildern, anwendbar bei der zytometrischen Time-Lapse-Zellanalyse in der bildbasierten Zytometrie | |
| DE68926796T2 (de) | System und Verfahren für automatische Zellenklassifizierung, basierend auf ein Neuronalnetzwerk | |
| EP0896661A1 (de) | Verfahren zur automatisierten mikroskopunterstützten untersuchung von gewebeproben oder körperflüssigkeitsproben | |
| DE69126839T2 (de) | Automatisches zellenklassifikationssystem und verfahren | |
| DE60120663T2 (de) | Bildgebungseinheit mit assoziierter Bilderdatenbank | |
| DE2823490A1 (de) | Verfahren zur analyse von organismus- zellen | |
| DE3313789A1 (de) | Selbsttaetige mikroskopische untersuchungseinrichtung und verfahren zur ermittlung und wiederfindung von objekten in einem bild | |
| DE69532276T2 (de) | Automatisiertes cytologisches probenklassifizierungsverfahren | |
| DE112018000349T5 (de) | Visuelles Analysesystem für auf einem konvolutionalen neuronalen Netz basierte Klassifizierer | |
| DE69322095T2 (de) | Verfahren und gerät zur identifizierung eines objekts mittels eine geordneten folge von grenz-pixel-parametern | |
| DE60310267T2 (de) | Messung der mitoseaktivität | |
| DE3531969A1 (de) | Geraet und verfahren zur erfassung und klassifizierung von teilchen mit hilfe von techniken der durchfluss-cytometrie | |
| EP2920577A1 (de) | Vorrichtung und verfahren zur mikroskopie einer vielzahl von proben | |
| EP1797533B1 (de) | Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen | |
| DE19801400C2 (de) | Verfahren zur automatischen Erkennung, Eigenschaftsbeschreibung und Interpretation von Hep-2-Zellmustern | |
| DE4244708C2 (de) | Verfahren und Vorrichtung zum Erstellen einer Artenliste für eine flüssige Probe | |
| DE19637741B4 (de) | Automatisches Zytologisches Probenanalysesystem unter Verwendung von individualisierten Patientendaten | |
| DE102020203290A1 (de) | Verfahren und Vorrichtung zur Untersuchung von Mikroskopproben unter Verwendung optischer Marker | |
| DE112023004968T5 (de) | Fossil-erkennungsmethode mit deep-learning-verfahren | |
| DE102022206025A1 (de) | Populationsklassifikation mittels Punktwolken-Merkmalen | |
| DE102022131444A1 (de) | Verfahren zum Identifizieren von Analyten in einer Bildfolge | |
| DE1549893A1 (de) | Verfahren und Anordnung zur elektronischen Klassierung von Bildvorlagen |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8110 | Request for examination paragraph 44 | ||
| 8172 | Supplementary division/partition in: |
Ref country code: DE Ref document number: 4244708 Format of ref document f/p: P |
|
| Q171 | Divided out to: |
Ref country code: DE Ref document number: 4244708 |
|
| AH | Division in |
Ref country code: DE Ref document number: 4244708 Format of ref document f/p: P |
|
| D2 | Grant after examination | ||
| 8364 | No opposition during term of opposition | ||
| AH | Division in |
Ref country code: DE Ref document number: 4244708 Format of ref document f/p: P |
|
| 8339 | Ceased/non-payment of the annual fee |