[go: up one dir, main page]

BE1031749B1 - KI-basierte Analyse eines Videostroms oder von Fotos zur Berechnung zeitlich veränderlicher Koordinaten und Bewegungswinkel der Gelenkpunkte von Vierbeinern - Google Patents

KI-basierte Analyse eines Videostroms oder von Fotos zur Berechnung zeitlich veränderlicher Koordinaten und Bewegungswinkel der Gelenkpunkte von Vierbeinern Download PDF

Info

Publication number
BE1031749B1
BE1031749B1 BE20230050A BE202300050A BE1031749B1 BE 1031749 B1 BE1031749 B1 BE 1031749B1 BE 20230050 A BE20230050 A BE 20230050A BE 202300050 A BE202300050 A BE 202300050A BE 1031749 B1 BE1031749 B1 BE 1031749B1
Authority
BE
Belgium
Prior art keywords
image
living
stream
video stream
machine learning
Prior art date
Application number
BE20230050A
Other languages
English (en)
Other versions
BE1031749A1 (de
Inventor
Lintner Andreas Dr
Original Assignee
Lintner Andreas Dr
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lintner Andreas Dr filed Critical Lintner Andreas Dr
Priority to BE20230050A priority Critical patent/BE1031749B1/de
Priority to PCT/EP2024/067865 priority patent/WO2025003169A1/de
Publication of BE1031749A1 publication Critical patent/BE1031749A1/de
Application granted granted Critical
Publication of BE1031749B1 publication Critical patent/BE1031749B1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1036Measuring load distribution, e.g. podologic studies
    • A61B5/1038Measuring plantar pressure during gait
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Psychiatry (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein computergestütztes Verfahren zur Erfassung von Gelenkpositionen und/oder Winkelbewegungen von Gelenken, insbesondere zur Analyse der Gangmechanik, von Lebewesen, insbesondere von Vierbeinern, insbesondere von Pferden, Ponys, Kamels und/oder Hunden, umfassend ein Bereitstellen mindestens eines Bildes, Bildstroms und/oder Videostroms, welcher/s ein Lebewesen, insbesondere einen Vierbeiner, zeigt, insbesondere aus einer seitlichen Perspektive, insbesondere laufend aus einer Perspektive seitlich zu einer Laufrichtung des Lebewesens; sowie ein Bestimmen mindestens eines Gelenkpunktes und/oder Ankerpunktes an dem Lebewesen in dem Bild, Bildstrom und/oder Videostrom mittels eines Maschinen-Lern-Modells, insbesondere unter Zuhilfenahme eines Bewegungsanatomiemodells des Lebewesens, insbesondere eines art- und/oder gattungsspezifischen Bewegungsanatomiemodells.

Description

Kl-basierte Analyse eines Videostroms oder von Fotos zur Berechnung zeitlich veränderlicher Koordinaten und Bewegungswinkel der Gelenkpunkte von Vierbeinern - Patentanmeldung -
Gebiet der Erfindung
Die vorliegende Erfindung bezieht sich auf das Gebiet der Analyse von anatomischen, insbesondere anatomisch-dynamischen, Eigenschaften von Lebewesen. Besonders geeignet ist die Erfindung für einen Einsatz bei Pferden (bspw. Rennpferden,
Dressurpferden), Ponys, Kamelen und Hunden, aber auch Esel, Katzen, Affen und Tapire.
Eine quantitativ höchst akkurate als auch, hierauf basierend, qualitativ zugängliche und verständliche Analyse von Gangmechaniken der untersuchten Lebewesen wird bereitgestellt. Als wirtschaftliche Verwendungen bieten sich (präventive als auch kurative)
Veterinärmedizin, auch zur Verbesserung von Leistung und Performance, bspw. durch eine
Behandlung und Beseitigung von bisher unerkannten anatomischen und/oder dynamischen
Asymmetrien bei der Bewegung der Individuen, als auch beispielsweise eine verbesserte
Marktwertbestimmung der Tiere durch genauere Kenntnisse der dynamischen
Performanceeigenschaften an.
Technischer Hintergrund
Tiere haben die unterschiedlichsten Rollen in der modernen Gesellschaft. Sie erfreuen die
Menschen. Tierhaltung als auch Tiernutzung genießen eine weite Verbreitung. In vielen
Fällen darunter stellen Tiere ein wichtiges Handelsgut und/oder Leistungssportler dar.
Beispielsweise seien Reitpferde erwähnt. Ein weiteres Beispiel seien Pferdewetten, oder der
Verkauf eines Hundes, Esels oder Kamels.
Häufig werden anatomische Eigenschaften der Tiere gründlich untersucht. Dies geschieht in der Regel durch Augenschein, insbesondere Inaugenscheinnahme und/oder eine
Untersuchung durch einen Experten für die jeweilige Tierart und/oder -gattung. U.a. könnte dies ein Pferdeliebhaber mit viel Tiererfahrung, ein erfahrener Kamelhändler oder aber auch ein Veterinärmediziner sein.
Bei einer solchen Untersuchung können, innerhalb gewisser Limits, auch dynamische
Eigenschaften (wie beispielsweise starke Verhaltensauffälligkeiten bei der Bewegung) berücksichtigt werden. Häufig sind derartige Analysen jedoch höchst unpräzise. Sie basieren, auch wenn sich Experten gerne in vielen Fällen für nahezu uneingeschränkt fach-, d.h. tierkompetent halten, auf „Daumenpeilung“. Insbesondere können kleinere
Bewegungsauffälligkeiten sehr leicht unerkannt bleiben. Im schlimmsten Fall sind diese
Auffälligkeiten einer selbstverstärkenden Natur, sodass sich aus einem initial nur kleinen
Problem eines Tieres ein großes späteres Problem entwickelt. Durch die mangelnde
Erkenntnis bleibt auch das Potential kompensatorischer und/oder veterinärmedizinischer
Maßnahmen, einschließlich solcher welche eine Steigerung der Performance und Leistung des Tiers mit sich bringen, ungenutzt. Die Methoden des Standes der Technik erlauben es nicht, das Potential der Tiere maximal auszuschöpfen. Die Situation ist daher höchst unbefriedigend.
Die Nachteile des Standes der Technik werden überwunden durch das computerimplementierte Verfahren nach Anspruch 1 zur Erfassung von Gelenkpositionen und/oder Winkelbewegungen von Gelenken.
Beschreibung der Erfindung
Die vorliegende Erfindung schafft ein Verfahren mit den Merkmalen des Anspruchs 1.
Weitere vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
Die Aufgabe wird gelöst durch ein computerimplementiertes Verfahren zur Erfassung von
Gelenkpositionen und/oder Winkelbewegungen von Gelenken von Lebewesen. Das
Verfahren kann insbesondere zur Analyse der Gangmechanik eingesetzt werden. Das
Verfahren kann dabei insbesondere bei vierbeinigen Lebewesen zum Einsatz gebracht werden. Beispielsweise sind dies Pferde, Ponys, Kamels und/oder Hunde.
Das Verfahren kann das Bereitstellen mindestens eines Bildes, Bildstroms und/oder
Videostroms umfassen, welcher/s ein Lebewesen, insbesondere einen Vierbeiner, zeigt.
Dies kann insbesondere aus einer seitlichen Perspektive geschehen. Beispielsweise wird mit einer entsprechenden seitlich aufgestellten Kamera, oder mehreren Kameras, entsprechendes Bild- und/oder Videomaterial aufgenommen. Dabei kann insbesondere das laufende Lebewesen aufgenommen werden, insbesondere aus einer Perspektive seitlich zu seiner Laufrichtung. Verschiedene Weiterbildungen, insbesondere auch betreffend den gewinnbringenden Einsatz mehrerer Kameras, werden im Rahmen von Weiterbildungen und/oder Ausführungsformen der Erfindung an späterer Stelle diskutiert.
Das Verfahren kann ferner ein Bestimmen mindestens eines Gelenkpunktes und/oder
Ankerpunktes an dem Lebewesen in dem Bild, Bildstrom und/oder Videostrom mittels eines
Maschinen-Lern-Modells umfassen. Dabei kann insbesondere ein
Bewegungsanatomiemodells des Lebewesens zum Einsatz gebracht werden. Insbesondere kann dies ein art- und/oder gattungsspezifisches Bewegungsanatomiemodell sein, also beispielsweise für ein Pferd (oder für einen bestimmten Typ von Pferd, oder auch für eine übergeordnete Klassifikation wie bspw. Unpaarhufer). Ein solches Modell kann beispielsweise bestimmte Gelenk- und/oder Ankerpunkte und/oder Winkeln an den Gelenken umfassen.
Bestimmte Zwangsbedingungen (constraints) können in manchen Modellen enthalten sein.
Die Erfindung ermöglicht ein enorm präzises quantitatives Bestimmen von Gelenkpositionen, 5 Gelenkwinkeln, Bewegungsbereichen und -amplituden. Ganganalyse wird hierdurch mit einer zuvor ungekannten Präzision möglich. Es werden Effekte wie bspw. Asymmetrien erkennbar, welche selbst die erfahrensten Experten mit bloßem Auge nicht diagnostizieren können. Dabei können weitere Anatomiedaten, zurückgelegte Wege, Geschwindigkeiten als auch Beschleunigungen präzise bestimmt und berücksichtigt werden. Durch Zuhilfenahme eines Bewegungsanatomiemodell, insbesondere passend zum jeweiligen Lebewesen (bspw.
Gattung/Art/Rasse), wird die Präzision verbessert. Eine entsprechende Bestimmung kann beispielsweise in einem vorgelagerten Schritt ebenfalls durch KI erfolgen, sodass dann für die Bestimmung von Gelenkpositionen bereits ein besonders passendes Anatomiemodell ausgewählt werden kann. Die Erfindung erlaubt das Ziehen von wichtigen Rückschlüssen auf die Anatomie und Dynamik eines Lebewesens aus ansonsten diesen Rückschlüssen unzugänglichen Daten.
Eine Aufnahme von zwei Bild-/Videostrômen ermöglicht die Betrachtung und Analyse von beiden Seiten des Lebewesens. Auch Asymmetrien werden hierzu einer Analyse und genaueren Bestimmung mittels Künstlicher Intelligenz (KI) zugänglich. Ein K!-Modell kann beispielsweise ein Künstliches neuronales Netz (KNN oder ANN) umfassen. Für die Seiten der Tieres können unterschiedliche/verschiedene und/oder getrennte Kl-Modelle zum
Einsatz gebracht werden. Besonders vorteilhaft ist jedoch, ein gemeinsames KI-Modell für beide Seiten des Tieres zu nutzen, wobei einer der beiden Bildströme vertikal gespiegelt wird. Bildlich gesprochen laufen dann „beide Tiere in dieselbe Richtung“.
Diese vertikale Spiegelung kann explizit am Datenstrom oder implizit erfolgen. Explizit wird tatsächlich ein Datenbereich mit einem gespiegelten Videostrom geschaffen. Implizite
Verfahren nutzen beispielsweise eine besondere Leserichtung eines rohen
Videodatenstroms, oder ein besonderes zwischengeschaltetes Interface, oder dergleichen.
Der Fachmann kennt zahlreiche Wege, diese effektive Spiegelung für die
Weiterverarbeitung der Daten mit der KI im Detail technisch umzusetzen. Die Erfindung ist hier keineswegs limitiert.
Eine seitliche Perspektive ist jede Sicht auf ein Tier, wo seine Seite erkennbar ist. Das Tier muss dabei keinesfalls rechtwinklig zur Blickrichtung/Kamerarichtung ausgerichtet sein und/oder laufen. Alle Perspektiven, die nicht das Tier exakt von vorne oder von hinten zeigen, können so seitliche Perspektiven sein.
Erkannte Gelenkpositionen können beispielsweise in einem Ausgabe-Videostrom oder einem entsprechenden Ausgabe-Bild graphisch dargestellt werden. Gleiches gilt für Winkel.
Zahlreiche Plots können erstellt und dem Nutzer zur Detailanalyse des Tiers zur Verfügung gestellt werden. Besonders übersichtlich ist eine Darstellung durch Kuchendiagramme, in welchem Winkelbereiche (Minimalwinkel, Maximalwinkel) der mittels der KI erzeugten
Ergebnisse bereitgestellt werden (für beide Seiten links/rechts). Asymmetrien sind so schnell und übersichtlich auffindbar und quantifizierbar.
Für ein verbessertes beispielhaftes Verständnis der Ausführungsformen wird auf die Figuren und die zugehörigen Figurenbeschreibungen verwiesen.
Die Verwendung von Zeitstempeln, insbesondere universellen Unix-Zeitstempeln, an den
Datenströmen hat hervorragende Eigenschaften für eine spätere Synchronisation.
Insbesondere bei lückenhaftem Videomaterial (Löschungen, technischen Ausfällen, etc.), welches nur mit hohem Aufwand erneut zu gewinnen wäre, können so die gewünschten
Analysen und Einsichten erfolgen. Bei mehreren Kameras sind zudem 3D-Analysen (z.B. mehrere/zahlreiche winkelversetzte Kameras) mit hoher Präzision möglich, u.a. dadurch ermöglicht, dass auf eine präzise universelle Zeitsynchronisation (ab Quelle, d.h. nicht durch
Videoabgleich nachträglich eingebracht — solche Zeitstempelquellen erweisen sich häufig als zu unpräzise) zurückgegriffen werden kann.
Die 3D-Analysen, welche aufwändiger sind, sind vor allem im Pferde-Leistungssport begehrt. Auch Winkelanalysen lassen sich auf drei Dimensionen verallgemeinern.
Beschleunigungen können von der Analyse erfasst sein (2D und/oder 3D), auch
Winkelbeschleunigungen. Diese sind wichtige Leistungsgrößen bei Sporttieren, und mit bloßem Auge fast unmöglich zu erfassen und/oder diese unterliegen viel zu stark subjektiven Wahrnehmungen/betrachterseitigen kognitiven Verzerrungen.
Es kann sich eine zweifache Ausführung der Analyse anbieten, zunächst eine grobe
Vorabanalyse (z.B. mit Bild-/Videomaterial nach High Definition HD-Videostandard), danach eine genauere Analyse (z.B. auf Basis von hochauflösendem 4K-Videomaterial). In dieser
Multipass-Strategie sind die Ergebnisse des ersten Passes schnell verfügbar, sodass der
Nutzer nicht warten braucht. Der nachfolgende High-Quality-Pass (z.B. 4K) liefert sodann präzisere Ergebnisse. Unterschiede zwischen den einzelnen Passes können zudem a) zu einer Fehlerabschätzung und b) zu einem Erkennen eines Auftretens von Analysefehlern genutzt werden.
In einer Weiterbildung der Erfindung werden akustische Signale des Tieres (Bewegungsgeräusche) aufgenommen und ausgewertet.
Bevorzugterweise wird ein Referenzgegenstand im Bild angeordnet, welchen die KI als
Referenzobjekt erkennt, und dazu nutzt, Maße zu erkennen und/oder die
Umrechnungsgenauigkeit von Skalen zu verbessern. So sind automatische geometrische
Kompensation möglich. Ebenso wird hierdurch eine dynamische Berücksichtigung eines
Kameraabstandes ermöglicht. Vorzugsweise handelt es sich um einen Referenz-Quader oder ein Referenz-Rechteck (auch Referenz-Quadrat möglich). Experimentieren hat ergeben, dass der Algorithmus besonders stabil wird, wenn zusätzliche Punkte mit vordefiniertem Durchmesser und/oder vordefinierten Abständen voneinander am
Referenzgegenstand angebracht (und berücksichtigt) werden.
Ein Training der Analyse-KI wird bevorzugterweise ergänzt, wie sich in Experimenten gezeigt hat, durch Kl-Techniken des negativen Lernens. Bei einem solchen „Unlearning“ werden negative Beispiele, insbesondere solche, die im regulären Betrieb auftreten, aber als fehlerbehaftet erkannt werden, als „negative Trainingsdaten“ verwendet. Die KI wird dadurch dazu trainiert, dieses Verhalten in Zukunft zu unterlassen. Diese Technik erzeugt im
Anwendungsfall eine besonders hohe Konvergenz und resultierende effektive Fehlerfreiheit, welche mit reinem „positiven Lernen“ nicht gleichsam erzielt werden konnte.
Die Erfindung kann in vielerlei Hinsicht wirtschaftlich verwertet werden. Beispiele seien (nicht limitierend): neue Erkenntnismöglichkeiten im Handel mit Tieren und/oder Performance-
Sport, Sportwetten, Verbesserung der Performance und Gesundheit sowie Ausschöpfen des
Potentials von Tieren, z.B. durch kompensatorische Maßnahmen und/oder veterinärmedizinische Behandlung. Die Erfindung schafft präzise Einsichten, welche ansonsten verborgen bleiben. Bezüglich der zahlreichen sukzessiven
Verwertungsmöglichkeiten dieser Einsichten möchte sich die Erfindung nicht limitieren.
Sämtliche im Zusammenhang mit entsprechenden Verfahren offenbarte Merkmale können im Zusammenhang mit den Vorrichtungen zum Einsatz gebracht werden, als auch umgekehrt. Die verschiedenen hierin offenbarten Merkmale, einschließlich solcher verschiedener Ausführungsformen, lassen sich miteinander kombinieren.
Die hier schematisch beschriebenen Ausführungsformen lassen sich durch zahlreiche, insbesondere durch die oben bereits beschriebenen, Details zur Erfindung weiter ausgestalten.
Obwohl einige Aspekte im Rahmen einer Vorrichtung beschrieben wurden, ist es klar, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, wobei ein Block oder eine Vorrichtung einem Verfahrensschritt oder einer Funktion eines
Verfahrensschritts entspricht. Analog dazu stellen Aspekte, die im Rahmen eines
Verfahrensschritts beschrieben werden, auch eine Beschreibung eines entsprechenden
Biocks oder Elements oder einer Eigenschaft einer entsprechenden Vorrichtung dar.
Ausführungsbeispiele der Erfindung können in einem Computersystem realisiert werden.
Das Computersystem kann eine lokale Computervorrichtung (z.B. Personalcomputer,
Laptop, Tablet-Computer oder Mobiltelefon) mit einem oder mehreren Prozessoren und einer oder mehreren Speichervorrichtungen oder kann ein verteiltes Computersystem (z.B. ein Cloud-Computing-System mit einem oder mehreren Prozessoren oder einer oder mehreren Speichervorrichtungen, die an verschiedenen Stellen verteilt sind, zum Beispiel an einem lokalen Client und/oder einer oder mehreren Remote-Server-Farms und/oder
Datenzentren) sein. Das Computersystem kann irgendeine Schaltung oder Kombination von
Schaltungen umfassen. Bei einem Ausführungsbeispiel kann das Computersystem einen oder mehrere Prozessoren umfassen, die von irgendeinem Typ sein können. Nach hiesigem
Gebrauch kann Prozessor irgendein Typ von Rechenschaltung bedeuten, wie beispielsweise, aber nicht beschränkt auf, ein Mikroprozessor, ein Mikrocontroller, ein
Mikroprozessor mit komplexem Befehlssatz (CISC), ein Mikroprozessor mit reduziertem
Befehlssatz (RISC), ein Sehr-langes-Anweisungswort- (Very Long Instruction Word; VLIW)
Mikroprozessor, ein Graphikprozessor, ein digitaler Signalprozessor (DSP), ein Multi-Core-
Prozessor, ein feld-programmierbares Gate-Array (FPGA) oder irgendein anderer Typ von
Prozessor oder Verarbeitungsschaltung. Andere Typen von Schaltungen, die in dem
Computersystem umfasst sein können, können eine speziell angefertigte Schaltung, eine _anwendungsspezifische integrierte Schaltung (ASIC) oder Ähnliches, wie beispielsweise eine oder mehrere Schaltungen (z. B. eine Kommunikationsschaltung) zur Verwendung bei drahtlosen Vorrichtungen wie z. B. Mobiltelefonen, Tablet-Computern, Laptop-Computern,
Funksprechgeräten und ähnlichen elektronischen Systemen sein. Das Computersystem kann eine oder mehrere Speichervorrichtungen umfassen, die ein oder mehrere
Speicherelemente umfassen können, die für die jeweilige Anwendung geeignet sind, wie beispielsweise einen Hauptspeicher in der Form eines Direktzugriffsspeichers (RAM,
Random Access Memory), eine oder mehrere Festplatten und/oder ein oder mehrere
Laufwerke, die entfernbare Medien, wie beispielsweise CDs, Flash-Speicherkarten, DVD und Ähnliches handhaben. Das Computersystem kann auch eine Anzeigevorrichtung, einen oder mehrere Lautsprecher, und eine Tastatur und/oder Steuerung umfassen, die eine
Maus, Trackball, Touchscreen, Stimmerkennungsvorrichtung oder irgendeine andere
Vorrichtung umfassen kann, die es einem Systemnutzer erlaubt, Information in das
Computersystem einzugeben und Information von demselben zu empfangen.
Einige oder alle Verfahrensschritte können durch (oder unter Verwendung) einer
Hardwarevorrichtung ausgeführt werden, wie es zum Beispiel ein Prozessor, ein
Mikroprozessor, ein programmierbarer Computer oder eine elektronische Schaltung sein kann. In einigen Ausführungsbeispielen können ein oder mehrere der wichtigsten
Verfahrensschritte durch eine solche Vorrichtung ausgeführt werden.
Abhängig von bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder Software implementiert werden. Die Implementierung kann mit einem nicht-flüchtigen Speichermedium wie einem digitalen Speichermedium, wie beispielsweise einer Diskette, einer DVD, einem Blu-Ray, einer CD, einem ROM, einem
PROM und EPROM, einem EEPROM oder einem FLASH-Speicher, durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem so zusammenwirken (oder zusammenwirken können), dass das jeweilige Verfahren durchgeführt wird. Daher kann das digitale Speichermedium computerlesbar sein.
Einige Ausführungsbeispiele gemäß der Erfindung umfassen einen Datenträger mit elektronisch lesbaren Steuersignalen, die mit einem programmierbaren Computersystem zusammenwirken können, so dass eines der hierin beschriebenen Verfahren durchgeführt wird.
Im Allgemeinen können Ausführungsbeispiele der vorliegenden Erfindung als
Computerprogrammprodukt mit einem Programmcode implementiert werden, wobei der
Programmcode für die Ausführung eines der Verfahren wirksam ist, wenn das
Computerprogrammprodukt auf einem Computer läuft. Der Programmcode kann beispielsweise auf einem maschinenlesbaren Träger gespeichert werden.
Weitere Ausführungsbeispiele umfassen das Computerprogramm zur Durchführung eines der hierin beschriebenen Verfahren, das auf einem maschinenlesbaren Träger gespeichert ist.
Mit anderen Worten, ein Ausführungsbeispiel der vorliegenden Erfindung ist daher ein
Computerprogramm mit einem Programmcode zur Durchführung eines der hierin beschriebenen Verfahren, wenn das Computerprogramm auf einem Computer läuft.
Ein weiteres Ausführungsbeispiel der vorliegenden Erfindung ist daher ein Speichermedium (oder ein Datenträger oder ein computerlesbares Medium), das ein darauf gespeichertes
Computerprogramm zum Ausführen eines der hierin beschriebenen Verfahren umfasst, wenn es von einem Prozessor ausgeführt wird. Der Datenträger, das digitale
Speichermedium oder das aufgezeichnete Medium sind in der Regel greifbar und/oder nicht übergangslos. Eine weiteres Ausführungsbeispiel der vorliegenden Erfindung ist eine
Vorrichtung, wie hierin beschrieben, die einen Prozessor und das Speichermedium umfasst.
Ein weiteres Ausführungsbeispiel der Erfindung ist daher ein Datenstrom oder eine
Signalfolge, die das Computerprogramm zur Durchführung eines der hierin beschriebenen
Verfahren darstellt. Der Datenstrom oder die Signalfolge kann beispielsweise so konfiguriert werden, dass sie über eine Datenkommunikationsverbindung, beispielsweise über das
Internet, übertragen werden.
Ein weiteres Ausführungsbeispiel umfasst ein Verarbeitungsmittel, zum Beispiel einen
Computer oder eine programmierbare Logikvorrichtung, das konfiguriert oder angepasst ist, um eines der hierin beschriebenen Verfahren auszuführen.
Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das
Computerprogramm zum Ausführen eines der hierin beschriebenen Verfahren installiert ist.
Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein
System, das konfiguriert ist, um (zum Beispiel elektronisch oder optisch) ein
Computerprogramm zum Ausführen eines der hierin beschriebenen Verfahren an einen
Empfänger zu übertragen. Der Empfänger kann beispielsweise ein Computer, eine mobile
Vorrichtung, eine Speichervorrichtung oder dergleichen sein. Die Vorrichtung oder das
System kann beispielsweise einen Dateiserver zum Übertragen des Computerprogramms an den Empfänger umfassen.
In einigen Ausführungsbeispielen kann eine programmierbare logische Vorrichtung (z.B. eine feldprogrammierbare Gatteranordnung, FPGA) verwendet werden, um einige oder alle
Funktionalitäten der hierin beschriebenen Verfahren auszuführen. In einigen
Ausführungsbeispielen kann eine feldprogrammierbare Gatteranordnung mit einem
Mikroprozessor zusammenarbeiten, um eines der hierin beschriebenen Verfahren durchzuführen. Im Allgemeinen werden die Verfahren vorzugsweise von jedem
Hardwaregerät durchgeführt.
Ausführungsbeispiele können auf dem Verwenden eines Maschinen-Lern-Modells (oder mehrerer Maschinen-Lern-Modelle) basieren. Maschinelles Lernen kann sich auf
Algorithmen und statistische Modelle beziehen, die Computersysteme verwenden können, um eine bestimmte Aufgabe ohne Verwendung expliziter Anweisungen auszuführen, anstatt sich auf Modelle und Inferenz zu verlassen. Beim maschinellen Lernen kann beispielsweise anstatt einer auf Regeln basierenden Transformation von Daten, eine Transformation von
Daten verwendet werden, die aus einer Analyse von Verlaufs- und/oder Trainings-Daten hergeleitet werden kann. Beispielsweise kann der Inhalt von Bildern unter Verwendung eines Maschinenlern-Modells oder unter Verwendung eines Maschinenlern-Algorithmus analysiert werden. Damit das Maschinenlern-Modell den Inhalt eines Bildes analysieren kann, kann das Maschinenlern-Modell unter Verwendung von Trainingsbildern als Eingabe und Trainingsinhaltsinformation als Ausgabe trainiert werden. Durch Trainieren des
Maschinenlern-Modells mit einer großen Anzahl von Trainingsbildern und/oder
Trainingssequenzen (z. B. Wörtern oder Sätzen) und zugeordneter
Trainingsinhaltsinformation (z. B. Kennzeichnungen oder Anmerkungen) „lernt“ das
Maschinenlern-Modell, den Inhalt der Bilder zu erkennen, sodass der Inhalt von Bildern, die in den Trainingsdaten nicht umfasst sind, unter Verwendung des Maschinenlern-Modells erkannt werden kann. Das gleiche Prinzip kann für andere Arten von Sensordaten ebenfalls verwendet werden: Durch Trainieren eines Maschinenlern-Modells unter Verwendung von
Trainingssensordaten und einer erwünschten Ausgabe „lernt“ das Maschinenlern-Modell eine Umwandlung zwischen den Sensordaten und der Ausgabe, was verwendet werden kann, um eine Ausgabe basierend auf an das Maschinenlern-Modell bereitgestellten Nicht-
Trainings-Sensordaten bereitzustellen. Die bereitgestellten Daten (z.B. Sensordaten,
Metadaten und/oder Bilddaten) können vorverarbeitet werden, um einen Merkmalsvektor zu erhalten, welcher als Eingang für das Maschinenlern-Modell verwendet wird.
Maschinenlern-Modelle können unter Verwendung von Trainingseingabedaten trainiert werden. Die oben angeführten Beispiele verwenden ein Trainingsverfahren, das „Supervised
Learning“ genannt wird. Beim Supervised Learning wird das Maschinenlern-Modell unter
Verwendung einer Mehrzahl von Trainingsabtastwerten trainiert, wobei jeder Abtastwert eine
Mehrzahl von Eingabedatenwerten und eine Mehrzahl von erwünschten Ausgabewerten, d.
h. jedem Trainingsabtastwert ist ein erwünschter Ausgabewert zugeordnet, umfassen kann.
Durch Angeben sowohl von Trainingsabtastwerten als auch erwünschten Ausgabewerten „lernt“ das Maschinenlern-Modell, welcher Ausgabewert basierend auf einem
Eingabeabtastwert, der ähnlich zu den während des Trainings bereitgestellten Abtastwerten ist, bereitzustellen ist. Neben dem Supervised Learning kann auch Semi-Supervised
Learning verwendet werden. Beim Semi-Supervised Learning fehlt einigen der
Trainingsabtastwerte ein erwünschter Ausgabewert. Supervised Learning kann auf einem
Supervised Learning-Algorithmus basieren (z. B. einem Klassifizierungsalgorithmus, einem
Regressionsalgorithmus oder einem Ähnlichkeitslernen-Algorithmus).
Klassifizierungsalgorithmen können verwendet werden, wenn die Ausgaben auf eine begrenzte Menge von Werten (kategorische Variablen) beschränkt sind, d. h. die Eingabe ist als einer aus dem begrenzten Satz von Werten klassifiziert. Regressionsalgorithmen können verwendet werden, wenn die Ausgaben irgendeinen Zahlenwert (innerhalb eines Bereichs) ausweisen. Ähnlichkeitslernen-Algorithmen können sowohl Klassifizierungs- als auch
Regressionsalgorithmen ähnlich sein, basieren aber auf dem Lernen aus Beispielen unter
Verwendung einer Ähnlichkeitsfunktion, die misst, wie ähnlich oder verwandt zwei Objekte sind. Neben dem Supervised Learning oder Semi-Supervised Learning kann Unsupervised
Learning verwendet werden, um das Maschinenlern-Modell zu trainieren. Beim
Unsupervised Learning werden möglicherweise (nur) Eingabedaten bereitgestellt und ein _Unsupervised Learning-Algorithmus kann verwendet werden, um eine Struktur in den
Eingabedaten zu finden (z. B. durch Gruppieren oder Clustern der Eingabedaten, Finden von Gemeinsamkeiten in den Daten). Clustern ist die Zuweisung von Eingabedaten, die eine
Mehrzahl von Eingabewerten umfassen, in Teilmengen (Cluster), sodass Eingabewerte innerhalb desselben Clusters gemäß einem oder mehreren (vordefinierten)
Ähnlichkeitskriterien ähnlich sind, während sie Eingabewerten, die in anderen Clustern umfasst sind, unähnlich sind.
Verstärkendes Lernen ist eine dritte Gruppe von Maschinenlern-Algorithmen. Anders ausgedrückt, verstärkendes Lernen kann verwendet werden, um das Maschinenlern-Modell zu trainieren. Beim verstärkenden Lernen werden ein oder mehrere Software-Akteure (sogenannte „Software Agents“) trainiert, um Handlungen in einer Umgebung vorzunehmen.
Basierend auf den vorgenommenen Handlungen wird eine Belohnung berechnet.
Verstärkendes Lernen basiert auf dem Trainieren des einen oder der mehreren Software
Agents, um die Handlungen auszuwählen, derart, dass die kumulative Belohnung erhöht wird, was zu Software Agents führt, die in der Aufgabe, die ihnen gegeben wird, besser werden (wie durch steigende Belohnungen nachgewiesen).
Ferner können einige Techniken auf einige der Maschinenlern-Algorithmen angewandt werden. Zum Beispiel kann Feature Learning verwendet werden. Anders ausgedrückt, das
Maschinenlern-Modell kann zumindest teilweise unter Verwendung von Feature Learning trainiert werden, und/oder der Maschineniern-Algorithmus kann eine Feature Learning-
Komponente umfassen. Feature Learning-Algorithmen, die Representation Learning-
Algorithmen genannt werden, können die Information in ihrer Eingabe erhalten, sie aber derart transformieren, dass sie nützlich wird, häufig als Vorverarbeitungsstufe vor dem
Ausführen der Klassifizierung oder dem Vorhersagen. Feature Learning kann beispielsweise auf einer Hauptkomponenten-Analyse oder Cluster-Analyse basieren.
Bei einigen Beispielen kann eine Anomaliedetektion (d. h. AusreiBer-Detektion) verwendet werden, die darauf abzielt, eine Identifizierung von Eingabewerten bereitzustellen, die
Verdacht erregen, da sie sich erheblich von der Mehrheit von Eingabe- und Trainingsdaten unterscheiden. Anders ausgedrückt, das Maschinenlern-Modell kann zumindest teilweise unter Verwendung von Anomaliedetektion trainiert werden, und/oder der Maschinenlern-
Algorithmus kann eine Anomaliedetektions-Komponente umfassen.
Bei einigen Beispielen kann der Maschinenlern-Algorithmus einen Entscheidungsbaum als
Vorhersagemodell verwenden. Anders ausgedrückt, das Maschinenlern-Modell kann auf einem Entscheidungsbaum basieren. Bei einem Entscheidungsbaum können die
Beobachtungen zu einem Gegenstand (z. B. einer Menge von Eingabewerten) durch die
Zweige des Entscheidungsbaums dargestellt werden, und ein Ausgabewert, der dem
Gegenstand entspricht, kann durch die Blätter des Entscheidungsbaums dargestellt werden.
Entscheidungsbäume können sowohl diskrete Werte als auch fortlaufende Werte als
Ausgabewerte unterstützen. Wenn diskrete Werte verwendet werden, kann der
Entscheidungsbaum als Klassifizierungsbaum bezeichnet werden, wenn fortlaufende Werte verwendet werden, kann der Entscheidungsbaum als Regressionsbaum bezeichnet werden.
Assoziationsregeln sind eine weitere Technik, die bei Maschinenlern-Algorithmen verwendet werden kann. Anders ausgedrückt, das Maschinenlern-Modell kann auf einer oder mehreren
Assoziationsregeln basieren. Assoziationsregeln werden erstellt, indem Verhältnisse zwischen Variablen bei großen Datenmengen identifiziert werden. Der Maschinenlern-
Algorithmus kann eine oder mehrere Verhältnisregeln identifizieren und/oder nutzen, die das
Wissen darstellen, dass aus den Daten hergeleitet ist. Die Regeln können z. B. verwendet werden, um das Wissen zu speichern, zu manipulieren oder anzuwenden.
Maschinenlern-Algorithmen basieren normalerweise auf einem Maschinenlern-Modell.
Anders ausgedrückt, der Begriff „Maschinenlern-Algorithmus“ kann einen Satz von
Anweisungen bezeichnen, die verwendet werden können, um ein Maschinenlern-Modell zu erstellen, zu trainieren oder zu verwenden. Der Begriff „Maschinenlern-Modell“ kann eine
Datenstruktur und/oder einen Satz von Regeln bezeichnen, die/der das erlernte Wissen darstellt (z. B. basierend auf dem durch den Maschinenlern-Algorithmus ausgeführten
Training). Bei Ausführungsbeispielen kann die Verwendung eines Maschinenlern-
Algorithmus die Verwendung eines zugrundeliegenden Maschinenlern-Modells (oder einer
Mehrzahl von zugrundeliegenden Maschinenlern-Modellen) implizieren. Die Verwendung eines Maschinenlern-Modells kann implizieren, dass das Maschinenlern-Modell und/oder die
Datenstruktur/der Satz von Regeln, welche das Maschinenlern-Modell ist/sind, durch einen
Maschinenlern-Algorithmus trainiert wird.
Beispielsweise kann das Maschinenlern-Modell ein künstliches neuronales Netz (ANN; artificial neural network) sein. ANNs sind Systeme, die durch biologische neuronale Netze inspiriert sind, wie sie in einer Netzhaut oder einem Gehirn zu finden sind. ANNs umfassen eine Mehrzahl von zwischenverbundenen Knoten und eine Mehrzahl von Verbindungen, sogenannte Kanten (edges), zwischen den Knoten. Es gibt normalerweise drei Knotentypen,
Eingabeknoten, die Eingabewerte empfangen, versteckte Knoten, die (nur) mit anderen
Knoten verbunden sind, und Ausgabeknoten, die Ausgabewerte bereitstellen. Jeder Knoten kann ein künstliches Neuron darstellen. Jede Kante kann Information senden, von einem
Knoten zum anderen. Die Ausgabe eines Knoten kann als eine (nichtlineare) Funktion der
Eingaben definiert sein (z.B. der Summe seiner Eingaben). Die Eingaben eines Knoten können in der Funktion basierend auf einem „Gewicht“ der Kante oder des Knoten, der die
Eingabe bereitstellt, verwendet werden. Das Gewicht von Knoten und/oder von Kanten kann indem Lernprozess angepasst werden. Anders ausgedrückt, das Training eines künstlichen neuronalen Netzes kann ein Anpassen der Gewichte der Knoten und/oder Kanten des künstlichen neuronalen Netzes umfassen, d. h. um eine erwünschte Ausgabe für eine bestimmte Eingabe zu erreichen.
Alternativ kann das Maschinenlern-Modell eine Support-Vector-Machine, ein Random-
Forest-Modell oder ein Gradient-Boosting-Modell sein. Support Vector Machines (d. h.
Stützvektornetze) sind Supervised Learning-Modelle mit zugeordneten Lernalgorithmen, die verwendet werden können, um Daten zu analysieren (z. B. in einer Klassifizierungs- oder
Regressionsanalyse). Support Vector Machines können durch Bereitstellen einer Eingabe mit einer Mehrzahl von Trainingseingabewerten, die zu einer von zwei Kategorien gehören, trainiert werden. Die Support Vector Machine kann trainiert werden, um einer der beiden
Kategorien einen neuen Eingabewert zuzuweisen. Alternativ kann das Maschinenlern-
Modell ein bayessches Netz sein, das ein probabilistisches gerichtetes azyklisches graphisches Modell ist.
Ein bayessches Netz kann einen Satz von Zufallsvariablen und ihre bedingten Abhängigkeiten unter Verwendung eines gerichteten azyklischen Graphen darstellen.
Alternativ kann das Maschinenlern-Modell auf einem genetischen Algorithmus basieren, der ein Suchalgorithmus und heuristische Technik ist, die den Prozess der natürlichen Selektion imitiert.
Figurenliste
Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren der
Zeichnungen angegebenen Ausführungsbeispiele näher erläutert. Es zeigen dabei:
Fig. 1 ein Pferd mit einer graphischen Darstellung eines Bewegungsanatomiemodells,
Fig. 2 ein Pferd mit Gelenk-/Ankerpunkten P1 — P15 und einer graphischen Darstellung eines Bewegungsanatomiemodells,
Fig. 3 ein Pferd mit 12 Gelenk-/Ankerpunkten samt Definitionen,
Fig. 4 ein Pferd mit 8 beispielhaften Gelenkwinkeln samt Definitionen,
Fig. 5 ein Übersichts- und/oder Flussdiagramm zu einer Ausführungsform der vorliegenden
Erfindung,
Fig. 6 eine Skizze zur Verdeutlichung der beidseitigen Aufnahme eines Tieres, samt
Spiegelung eines Videostreams,
Fig. 7 beispielhafte Ergebnisse in Bezug auf ein Fesselgelenk eines Pferdes (Beispiel,
Auszug),
Fig. 8 beispielhafte Winkelverläufe der Hinterläufe eines Pferdes im Schritt,
Fig. 9 und 10 beispielhafte Kuchen-/Torten-/Kreisdiagramme zur graphischen
Winkelanalyse, welche insbesondere bei der qualitativen und quantitativen Analyse von
Asymmetrien dem Betrachter schnell die relevanten Einsichten geben, und so ein detaillierteres Studium der besonders relevanten Gelenke und Bewegungsverläufe ermöglichen,
Fig. 11 eine beispielhafte Bewegung (Vertikalbewegung der rechten Hüfte) im Detail, einzelne Durchläufe sowie statistisch gemittelt, aus Sicht „Rechter Hand“.
In allen Figuren sind gleiche bzw. funktionsgleiche Elemente und Vorrichtungen - sofern nichts anderes angegeben ist - mit denselben Bezugszeichen versehen worden.
Beschreibung der Zeichnungen
Die Figur 1 zeigt eine schematische Darstellung eines Pferdes R10. Dargestellt ist ferner eine mögliche Ausführungsform eines Bewegungsanatomiemodells. Schwarze Punkte verdeutlichen Gelenkpunkte und/oder andere Ankerpunkte. Für entsprechende Definitionen der dargestellten Punkte sei zudem auf die Figur 3 verwiesen. Es sind ferner einige exemplarische Winkel dargestellt.
Beim Pferd in der Figur 2 wird ein Modell mit 14 Gelenk- und/oder Ankerpunkten verwendet.
Mittels einer Ausführungsform der vorliegenden Erfindung werden beispielsweise aus einem
Videostrom, bei dem das Pferd in der Figur 2 läuft, die Punkte mittels eines Maschinen-Lern-
Verfahrens/-Modells/KI erkannt. Auch die Winkelbestimmung kann mittels der KI erfolgen (erhöhte Präzision), alternativ kann diese mit herkömmlichen mathematischen Methoden aus den bestimmten Punkten erfolgen.
In den Figuren 3 sind einige der Punkte benannt und definiert. („P“ steht dabei nur für Punkt.
P3 entspricht also dem Punkt 3.) Analog sind in der Figur 4 einige entsprechende Winkel benannt und definiert.
Die Figur 5 zeigt ein schematisches Flussdiagramm für eine bevorzugte Ausführungsform der vorliegenden Erfindung. Ein Pferd wird gefilmt, wenn es beispielsweise von links nach rechts läuft; oder zusätzlich danach von rechts nach links; oder es werden zwei solche
Videoströme durch entsprechend beidseitig aufgestellte Kameras (z.B. simultan) aufgenommen. Die Kameras können auch mehr als 2 sein, und winkelversetzt aufgestellt werden. (Dies ist insbesondere für eine alternative Ausführungsform mit 3D-
Anatomiemodellen sinnvoll.)
Mit den beiden Videoströmen (oder alternativ Bildströmen) von beiden Seiten des Pferdes kann beispielweise eine Eingabe in ein Maschinen-Lern-Verfahren/Modell, z.B. künstliches neuronales Netz, erfolgen. Es können auch zwei Verfahren/Modelle, z.B. eins für jede
Richtung zum Einsatz, kommen (höhere Präzision, ausreichendes Training der Netze vorausgesetzt). Bevorzugterweise wird jedoch ein Modell verwendet, wobei einer der beiden
Bildströme (direkt oder indirekt) (an einer vertikalen Achse) gespiegelt wird. So „läuft“ in den
Videoströmen das Pferd in die gleiche Richtung (obwohl diese Videoaufnahmen freilich den beiden verschiedenen Seiten des Pferdes entsprechen). Die Präzision ist besser als in den anderen genannten Fällen, und es werden „Ausreißer“ (Gelenkpunkte die plötzlich unvorhergesehen „springen“, d.h. diskontinuierlich ihren Ort verändern) erfolgreich verhindert. Eine solche Spiegelung ist beispielhaft dargestellt in Figur 6: Ein Pferd läuft von rechts nach links (oben) und wird gefilmt. Es läuft (danach/gleichzeitig) von links nach rechts: Es läuft dabei in die Gegenrichtung oder es wird (bevorzugt) simultan aus der
Gegenrichtung gefilmt. Einer der beiden Video-/Bild-Datenströme wird sodann vertikal — gespiegelt (technisch direkt oder indirekt), hier in der Figur 6 dargestellt der Strom des unteren Pferdes (ebenso möglich: umgekehrt). Die beiden Datenströme, wo die Tiere nun in die „gleiche Richtung zu laufen scheinen“, werden bevorzugterweise an ein gemeinsames/einheitliches ML-Modell übergeben (zwecks Analyse der Videodatenströme, analoges gilt aber auch für Trainingsdaten für ein effektives Training der KI).
Die Videos können bereits im Recording-Tool (oberer Teil der Figur 5) mit Zeitstempeln versehen werden, insbesondere sind dies universelle Zeitstempel, z.B. Unix-Zeitstempel.
Hierdurch kann das Material (selbst lückenhaftes Videomaterial) später mit höchster
Präzision zeitlich korreliert und daher mittels des Verfahrens der Erfindung ausgewertet werden. Die Synchronisation kann beispielsweise in einem Synchronisationsmodul R30 erfolgen. Ein Speichermodul/Speichermedium R40 kann die Videoströme samt Timecodes speichern und verwalten. Es kann eine (Kl-gestützte) automatische Klassifizierung des
Lebewesens/Tiers vorgesehen sein. Beispielsweise wird so ein Pferd oder ein Kamel erkannt. Es kann, optional, auch erkannt werden, ob das Tier beritten ist oder nicht. Auf
Basis der Erkenntnisse kann ein passendes Bewegungsanatomiemodell ausgewählt werden. Beispielsweise wird, bei erkanntem Reiter, ein „Modell mit Reiter“ ausgewählt. Oder es wird ein zum Reiter passendes Reitermodell ausgewählt, und mit einem hierzu eingerichteten Bewegungsanatomiemodell des Tiers, welches vom Reiter beritten wird, kombiniert.
Das Analyse-Modul kann, ohne beschränkend für die Erfindung zu sein, als das „Herzstück“ der vorliegenden Ausführungsform der Erfindung betrachtet werden. Hier werden die Punkte und Winkel bestimmt, ggf. gar in 3D, auf Basis des gewählten/bestimmten
Bewegungsanatomiemodells und der Videostrôme (ggf. inkl. Laufrichtungs-
Nertikalspiegelung eines Stroms). Hierdurch werden die umfangreichen Auswertungen, welche mittels des Ausgabemoduls A90 bereitgestellt werden, möglich.
Zuvor kann ein Korrelations-Plausibilitätsmodul A20 die Analyse auf Plausibilität überprüfen.
Im Falle negativer Plausibilität kann das Material verworfen und die Analyse wiederholt werden. Insbesondere kann jedoch im Falle negativer Plausibilität das Material zum „Unlearning“ an das Ki-gestützte Train-Modul A40 geleitet werden.
Es hat sich gezeigt, dass ein solches ,Entlernen“ ungewünschter Ergebnisse besonders geeignet ist, und (bereits schnell) bessere Ergebnisse und Training des KI-Netzwerkes erzielt als nur positives Reinforcement. Der Fachmann kennt entsprechende geeignete
Techniken auf dem Gebiete des Machine Learning und der Künstlichen Intelligenz.
Bei der geometrischen Korrektur A50 werden die Punkte, bspw. P1 bis P14, geometrisch abgeglichen und die Bewegungsdaten entsprechend modifiziert. Insbesondere, wenn ein
Tier bspw. einmal von links nach rechts und einmal von rechts nach links läuft, ist nicht automatisch gewährleistet, dass in beiden Läufen derselbe Kameraabstand eingehalten wird, d.h. zwischen Kamera und Objekt besteht. Eine einfache Variante der geometrischen
Korrektur kann, um diesen Unterschied zu korrigieren, Methoden auf Basis des
Strahlensatzes umfassen.
Die abgeglichenen Daten werden in der dargestellten Ausführungsform an ein
Statikstikmodul A70 sowie das Aufgabemodul A90 übergeben. Das Statistikmodul vergleicht insbesondere mit anderen Lebewesen/Tieren/Objekten der gleichen Klasse (z.B. Kamel oder Tapir) und prüft hier auf Auffälligkeiten. Auch hier kann die Performance des Analyse-
Tools A10 abermals verbessert werden, wenn ein Reporting von Auffälligkeiten des Statistik-
Moduls A70 an das Train-Modul A40 erfolgt (welche in einem sukzessiven „Unlearning“ der
Analyse-KI genutzt werden können).
Das Ausgabemodul kann beispielsweise Berichte, Videos, Bilder, Plots, Diagramme etc. verfügbar machen. Videos und Bilder können dabei u.a. solche aus dem Eingangs-
Videostrom, in welchem zusätzlich das gefittete Bewegungsanatomiemodell in anschaulicher Weise dargestellt wird, umfassen. Es sind zahlreiche Plots möglich, welche den Zeitverlauf bestimmter Quantitäten darstellen. Es ist ein Asymmetrie-Ranking möglich.
Hierbei werden, hierarchisch geordnet, durch Asymmetrie auffällige Verhaltensweisen, übersichtlich für einen Nutzer dargestellt. Es wird also mit den „größten“ bzw. (in Relation) „auffälligsten“ Verhaltensweisen begonnen, ohne dass der Nutzer hierzu erst Unmengen an
Material sichten/aufmerksam durchforschen muss.
Durch Durchschnittswertbildung über mehrere Zyklen (Schritt-/Laufzyklen des Tieres) und entsprechende Fehleranalyse können (selbst kleinste) Abweichungen statistisch signifikant bestimmt werden.
Eine besonders anschauliche und für den Nutzer zügig auszuwertende Darstellung der
Informationen kann in Form von Kuchen-/Kreis-/Tortendiagrammen für Winkelbereiche erfolgen. Die durchlaufenen Winkelbereiche können farblich hervorgehoben werden. In der linken und rechten Hälfte wird der Winkelbereich für die jeweilige Seite (linke Seite, rechte
Seite) des Tiers dargestellt. So sind Asymmetrien, ggf. durch Mittelwertbildung bereits auf statistische Signifikanz geprüft, besonders schnell erkennbar. Es können weitere graphische
Indikatoren für Asymmetrien an den Kreisdiagrammen vorgesehen sein, beispielsweise farbliche Darstellungen bei Asymmetrien, welche einen bestimmten Schwellenwert überschreiten.
Die Figuren 9 und 10 zeigen beispielhafte Kuchen-/Kreis-/Tortendiagramme. Die Darstellung ist, wie oben geschildert, höchst übersichtlich und in Sekundenschnelle optisch interpretierbar. Zudem werden exakte numerische Werte ebenfalls direkt angegeben. Der
Nutzer kann auch beispielsweise ein Kuchendiagramm auswählen (insbesondere ein auffällig asymmetrisches) und sich die einzelnen Daten/Plots im Detail genauer anschauen (für beispielhafte Ausschnitte siehe Figuren 7 und 8 und Figur 11).
Die Figur 11 zeigt beispielhaft eine Vertikalbewegung einer rechten Hüfte (aus Sicht „Rechter Hand“, d.h. das Pferd läuft „von links nach rechts“ mit seiner rechten Körperseite dem Betrachter zugewandt). (Das Pferd läuft im Uhrzeigersinn in einer — fiktiven -
Arena/Manege, in deren Mitte sich der Beobachter/die Kamera befindet.)
Es sind die einzelnen Schrittdurchläufe dargestellt, als auch statistische Mittel. Die einzelnen
Schrittphasen (linke Hinterhand / rechte Hinterhand) sind erkennbar.
Bezugszeichenliste
R10 Tier/Pferd
R20 Kameras
R30 Synchronisationsmodul
R40 Speichermedium
R50 Stammdaten, veränderliche Daten
A10 Analyse-Modul (Kl-gestützt)
A20 Korrelations-Plausibilitätsmodul
A40 Trainings-Modul (KI-gestützt)
A50 Modul für geometrische Korrektur
A70 Statistikmodul
A90 Ausgabemodul
P1 — Pxx Gelenkpunkte und/oder Ankerpunkte

Claims (35)

Patentansprüche
1. Ein computergestütztes Verfahren zur Erfassung von Gelenkpositionen und/oder Winkelbewegungen von Gelenken, insbesondere zur Analyse der Gangmechanik, von Lebewesen, insbesondere von Vierbeinern, insbesondere von Pferden, Ponys, Kamels und/oder Hunden, umfassend: Bereitstellen mindestens eines Bildes, Bildstroms und/oder Videostroms, welcher/s ein Lebewesen, insbesondere einen Vierbeiner, zeigt, insbesondere aus einer seitlichen Perspektive, insbesondere laufend aus einer Perspektive seitlich zu einer Laufrichtung des Lebewesens, Bestimmen mindestens eines Gelenkpunktes und/oder Ankerpunktes an dem Lebewesen in dem Bild, Bildstrom und/oder Videostrom mittels eines Maschinen- Lern-Modells, insbesondere unter Zuhilfenahme eines Bewegungsanatomiemodells des Lebewesens, insbesondere eines art- und/oder gattungsspezifischen Bewegungsanatomiemodells.
2. Das Verfahren nach Anspruch 1, ferner umfassend: Bestimmen eines Gelenkwinkels auf Basis der bestimmten Gelenkpunkte und/oder mittels des Maschinen-Lern-Modells.
3. Das Verfahren nach Anspruch 1 oder 2, wobei das Bild, der Bildstrom und/oder der Videostrom umfasst:
ein Bild, einen Bildstrom und/oder Videostrom für eine erste Seite des Lebewesens, insbesondere wobei das Lebewesen von links nach rechts läuft, genannt erstes Bild, erster Bildstrom und/oder erster Videostrom, ein Bild, einen Bildstrom und/oder Videostrom für eine zweite, von der ersten Seite verschiedenen, Seite des Lebewesens, insbesondere wobei das Lebewesen von rechts nach links läuft, genannt zweites Bild, zweiter Bildstrom und/oder zweiter Videostrom.
4. Das Verfahren nach Anspruch 3, wobei beim Bestimmen des mindestens einen Gelenkpunktes und/oder Ankerpunktes für das erste Bild, den ersten Bildstrom und/oder ersten Videostrom ein erstes Maschinen-Lern-Modell zum Einsatz kommt, und für das zweite Bild, den zweiten Bildstrom und/oder zweiten Videostrom ein zweites Maschinen-Lern-Modell zum Einsatz kommt.
5. Das Verfahren nach Anspruch 3, ferner umfassend Spiegeln des ersten oder zweiten Bildes, Bildstroms und/oder Videostroms an einer vertikalen Achse.
6. Das Verfahren nach Anspruch 5, wobei beim Bestimmen des mindestens einen Gelenkpunktes und/oder Ankerpunktes das gespiegelte sowie das jeweilige nicht gespiegelte Bild, Bildstrom und/oder Videostrom mittels des Maschinen-Lern-Modells verarbeitet werden.
7. Das Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Darstellen mindestens einer Gelenkpositionen und/oder Gelenkwinkels in einem Ausgangbild, Ausgangsbildstrom und/oder Ausgangsvideostrom, insbesondere auf Basis des Bildes, Bildstromes und/oder Videostromes und/oder des Bewegungsanatomiemodells.
8. Das Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Graphisches Darstellen eines Maximalwinkels und/oder eines Minimalwinkels eines Gelenkpunktes, insbesondere unter Darstellung einer Gelenkbewegungsamplitude.
9. Das Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Graphisches Darstellen mindestens eines Maximalwinkels und/oder eines Minimalwinkels eines Gelenkpunktes in Form eines Kreis- und/oder Kuchendiagrammes.
10. Das Verfahren nach Anspruch 9, wobei in einer rechten Hälfte des Kreis- und/oder Kuchendiagrammes ein rechtsseitiger Maximalwinkel und/oder Minimalwinkel, insbesondere durch Maximalwinkel und Minimalwinkel gebildete Winkelbereiche, eines Gelenkpunktes des Lebewesens dargestellt werden, und in einer linken Hälfte des Kreis- und/oder Kuchendiagrammes ein linksseitiger Maximalwinkel und/oder Minimalwinkel, insbesondere durch Maximalwinkel und
Minimalwinkel gebildete Winkelbereiche, eines Gelenkpunktes des Lebewesens dargestellt werden.
11. Das Verfahren nach einem der vorhergehenden Ansprüche, wobei mindestens ein universeller Zeitstempel in einem oder mehreren Bildern, Bildstrômen und/oder Videoströmen vermerkt ist, wodurch eine sinnvolle Kombination verschiedener Bilder, Bildströme und/oder Videoströme ermöglicht wird.
12. Das Verfahren nach einem der vorhergehenden Ansprüche, wobei, insbesondere auf Basis von Bildern, Bildströmen und/oder Videoströmen aus winkelversetzten Perspektiven, mindestens ein Gelenkpunkt und/oder Ankerpunkt in Form von dreidimensionalen Punktkoordinaten bestimmt wird.
13. Das Verfahren nach Anspruch 12, wobei auf Basis der Gelenk- und/oder Ankerpunkte und/oder mittels des Maschinen-Lern-Modells dreidimensionale Winkelkoordinaten von Gelenken und/oder dreidimensionale Winkelbeschleunigungen berechnet werden.
14. Das Verfahren nach einem der vorhergehenden Ansprüche, welches mindestens zweimal durchlaufen wird, wobei ein erster Durchlauf auf Basis eines Bildes, Bildstromes und/oder Videostromes eines vordefinierten Qualität, insbesondere High Definition, ausgeführt wird,
wobei ein zweiter, dem ersten Durchlauf nachgeordneter Durchlauf auf Basis eines Bildes, Bildstromes und/oder Videostromes einer höheren Qualität, insbesondere 4K, ausgeführt wird.
15. Das Verfahren nach Anspruch 14, wobei die Ergebnisse des ersten und zweiten Durchlaufs miteinander verglichen werden, insbesondere zur Qualitätssicherung und/oder Fehlerabschätzung.
16. Das Verfahren nach einem der vorhergehenden Ansprüche, wobei im Bild, Bildstrom und/oder Videostrom ein Referenz-Quader und/oder Referenz-Rechteck vorhanden sind, insbesondere aufgenommen gemeinsam mit dem Lebewesen, insbesondere wobei das Referenz-Quader und/oder Referenz-Rechteck durch das Maschinen- Lern-Modell verarbeitet und berücksichtigt wird.
17. Das Verfahren nach Anspruch 17, wobei zusätzliche Punkte mit vordefiniertem Durchmesser und/oder vordefinierten Abständen zueinander eingesetzt werden, insbesondere am und/oder im Referenz-Quader und/oder Referenz-Rechteck.
18. Das Verfahren nach einem der vorhergehenden Ansprüche, wobei die Gelenk- und/oder Ankerpunkte und/oder das Bewegungsanatomiemodell ferner einen Reiter umfassen, welcher das Lebewesen reitet.
19. Das Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend:
Bestimmen von Längen, zurückgelegten Wegen, Geschwindigkeiten, und/oder Beschleunigungsdaten.
20. Das Verfahren nach einem der vorhergehenden Ansprüche, Bestimmung einer Linear- und/oder Winkelbeschleunigung an mindestens einem Gelenk- und/oder Ankerpunkte.
21. Das Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Graphisches Darstellen mindestens einer maximalen Winkelbeschleunigung und/oder einer minimalen Winkelbeschleunigung eines Gelenk- und/oder Ankerpunktes in Form eines Kreis- und/oder Kuchendiagrammes.
22. Das Verfahren nach Anspruch 21, wobei in einer rechten Hälfte des Kreis- und/oder Kuchendiagrammes eine rechtsseitige maximale Winkelbeschleunigung und/oder minimale Winkelbeschleunigung, insbesondere durch maximale Winkelbeschleunigung und minimale Winkelbeschleunigung gebildete Winkelbeschleunigungsbereiche, eines Gelenkpunktes des Lebewesens dargestellt werden, und in einer linken Hälfte des Kreis- und/oder Kuchendiagrammes eine linksseitige maximale Winkelbeschleunigung und/oder minimale Winkelbeschleunigung, insbesondere durch maximale Winkelbeschleunigung und minimale Winkelbeschleunigung gebildete Winkelbeschleunigungsbereiche, eines Gelenkpunktes des Lebewesens dargestellt werden.
23. Das Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Automatisches Klassifizieren einer Gattung, Art und/oder Rasse des Lebewesens mittels einer KI auf Basis des Bildes, Bildstromes und/oder Videostroms, insbesondere auch Erkennung und/oder Klassifizierung eines Reiters, welcher das Lebewesen reitet.
24. Das Verfahren nach Anspruch 23, ferner umfassend: Bereitstellen und/oder Wählen eines passenden Bewegungsanatomiemodells auf Basis der Klassifikation.
25. Das Verfahren nach einem der vorhergehenden Ansprüche, wobei ferner, insbesondere durch ein Korrelations-Plausibilitätsmodul, sichergestellt wird, dass die mit dem Verfahren bestimmten Gelenkpunkte, Ankerpunkte, Winkel und/oder hieraus berechnete abgeleitete Größen plausibel, insbesondere plausibel in Bezug auf eine Gattung, Art und/oder Rasse des Lebewesens.
26. Das Verfahren nach Anspruch 25, wobei nicht plausible Daten im Rahmen negativen Lernens dazu benutzt werden, das Maschinen-Lern-Verfahren weiter zu trainieren und hierdurch zu verfeinern.
27. Das Verfahren nach einem der vorhergehenden Ansprüche, wobei ferner, insbesondere durch ein Statistikmodul, statistische Auffälligkeiten und/oder Abweichungen erkannt werden, insbesondere Auffälligkeiten und/oder
Abweichungen jenseits eines vordefinierten Abweichungsmaßes in Bezug auf andere Daten zu anderen Lebewesen derselben Gattung, Art und/oder Rasse.
28. Das Verfahren nach Anspruch 27, wobei statistische Auffälligkeiten und/oder Abweichungen im Rahmen negativen Lernens dazu benutzt werden, das Maschinen- Lern-Verfahren weiter zu trainieren und hierdurch zu verfeinern.
29. Verfahren zum Training eines Maschinenlern-Modells zur Verwendung im Rahmen eines Verfahren nach einem der vorhergehenden Ansprüche, insbesondere umfassend Bereitstellen eines Bildes, eines Bildstromes und/oder Videostromes einer ersten Seite eines Lebewesens, insbesondere wobei das Lebewesen von links nach rechts läuft, genannt erstes Bild, erster Bildstrom und/oder erster Videostrom, als Trainingsdaten, Bereitstellen eines Bildes, eines Bildstromes und/oder Videostromes einer zweiten Seite eines Lebewesens, insbesondere wobei das Lebewesen von rechts nach links läuft, genannt zweites Bild, zweiter Bildstrom und/oder zweiter Videostrom, als Trainingsdaten, Spiegeln des ersten oder zweiten Bildes, Bildstroms und/oder Videostroms an einer vertikalen Achse.
30. Das Verfahren nach Anspruch 29, ferner umfassend Training des Maschinenlern-Modells durch negatives Lernen im Falle statistisch jenseits eines vorbestimmten Maßes abweichender und/oder als nicht plausibel erkannter Ausgaben des Maschinenlern-Modells, insbesondere in Bezug auf Daten anderer Lebewesen einer entsprechenden Gattung, Art und/oder Rasse.
31. Verwendung des Verfahrens zur Analyse der motorischen Eigenschaften eines Lebewesens, insbesondere von Abweichungen und/oder Asymmetrien, insbesondere Erkennen, Analysieren und/oder Quantifizieren von Lahmheiten, insbesondere bei Pferden.
32. Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach irgendeinem der Ansprüche 1 - 31 zu bewirken.
33. Computerlesbare Daten, umfassend Gelenkpunkte und/oder Ankerpunkte, welche mit dem Verfahren nach einem der Ansprüche 1 - 31 oder mit dem Computerprogramm nach Anspruch 32 erzeugt wurden, insbesondere auch Bild- und/oder Videodaten, in welchen die genannten Gelenkpunkte und/oder Ankerpunkte dargestellt werden.
34. Ein computerlesbarer Datenträger, umfassend das Computerprogramm nach Anspruch 32 und/oder die computerlesbaren Daten nach Anspruch 33.
35. Computer, Computersystem oder Computernetzwerk, welche dazu eingerichtet sind, lokal oder nicht-lokal das Verfahren nach einem der Ansprüche 1 — 31, die Ausführung des Computerprogrammes nach Anspruch 32 und/oder die Wiedergabe, Verarbeitung und/oder Darstellung von computerlesbaren Daten nach Anspruch 33 zu bewirken.
BE20230050A 2023-06-29 2023-06-29 KI-basierte Analyse eines Videostroms oder von Fotos zur Berechnung zeitlich veränderlicher Koordinaten und Bewegungswinkel der Gelenkpunkte von Vierbeinern BE1031749B1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
BE20230050A BE1031749B1 (de) 2023-06-29 2023-06-29 KI-basierte Analyse eines Videostroms oder von Fotos zur Berechnung zeitlich veränderlicher Koordinaten und Bewegungswinkel der Gelenkpunkte von Vierbeinern
PCT/EP2024/067865 WO2025003169A1 (de) 2023-06-29 2024-06-25 Kl-basierte analyse eines videostroms oder von fotos zur berechnung zeitlich veränderlicher koordinaten und bewegungswinkel der gelenkpunkte von vierbeinern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BE20230050A BE1031749B1 (de) 2023-06-29 2023-06-29 KI-basierte Analyse eines Videostroms oder von Fotos zur Berechnung zeitlich veränderlicher Koordinaten und Bewegungswinkel der Gelenkpunkte von Vierbeinern

Publications (2)

Publication Number Publication Date
BE1031749A1 BE1031749A1 (de) 2025-01-29
BE1031749B1 true BE1031749B1 (de) 2025-02-03

Family

ID=87514090

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20230050A BE1031749B1 (de) 2023-06-29 2023-06-29 KI-basierte Analyse eines Videostroms oder von Fotos zur Berechnung zeitlich veränderlicher Koordinaten und Bewegungswinkel der Gelenkpunkte von Vierbeinern

Country Status (2)

Country Link
BE (1) BE1031749B1 (de)
WO (1) WO2025003169A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160073614A1 (en) * 2013-09-13 2016-03-17 Kyle Douglas Lampe System and Method for Detection of Lameness in Sport Horses and other Quadrupeds
WO2022233943A1 (en) * 2021-05-05 2022-11-10 Sleip Ai Ab Synchronous display of quadruped motion metrics

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160073614A1 (en) * 2013-09-13 2016-03-17 Kyle Douglas Lampe System and Method for Detection of Lameness in Sport Horses and other Quadrupeds
WO2022233943A1 (en) * 2021-05-05 2022-11-10 Sleip Ai Ab Synchronous display of quadruped motion metrics

Also Published As

Publication number Publication date
BE1031749A1 (de) 2025-01-29
WO2025003169A1 (de) 2025-01-02

Similar Documents

Publication Publication Date Title
DE102019100575A1 (de) Verfahren und system zum erzeugen eines bereichsbildes unter verwendung von daten mit geringer tiefe
Fernández et al. Neural networks for animal science applications: Two case studies
EP3973457A1 (de) Kopplung von mehreren künstlich lernenden einheiten mit einer projektionsebene
EP3853778B1 (de) Verfahren und vorrichtung zum betreiben eines steuerungssystems
EP3557487B1 (de) Generieren von validierungsdaten mit generativen kontradiktorischen netzwerken
DE112005000569T5 (de) System und Verfahren zur Patientenidentifikation für klinische Untersuchungen unter Verwendung von inhaltsbasiertem Erlangen und Lernen
DE102021102748A1 (de) 3d-posenschätzung des menschlichen körpers unter verwendung eines modells, das ausgehend von ungelabelten multi-view-daten trainiert wurde
EP4248284B1 (de) Verfahren und system zum verarbeiten von eingabewerten
EP4007990B1 (de) Verfahren zur analyse von bild-informationen mit zugeordneten skalaren werten
BE1031749B1 (de) KI-basierte Analyse eines Videostroms oder von Fotos zur Berechnung zeitlich veränderlicher Koordinaten und Bewegungswinkel der Gelenkpunkte von Vierbeinern
WO2023057494A1 (de) Computer-implementiertes verfahren und system zur anomalie-erkennung in sensordaten
EP4000011B1 (de) Komponentenbasierte verarbeitung von eingangsgrössen
EP4205041A1 (de) System zur automatisierten harmonisierung strukturierter daten aus verschiedenen erfassungseinrichtungen
DE102020208828A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
DE102020213489A1 (de) Verfahren und systeme zur vorhersage eines stroms virtueller topogramme
EP3748574A1 (de) Adaptive bereinigung von messdaten um unterschiedliche arten von störungen
WO2021180663A1 (de) Mikroskopiesystem und verfahren zum verarbeiten von mikroskopbildern
DE102020132787A1 (de) Wartungsvorhersage für Baugruppen eines Mikroskops
DE102021207937A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems mit einer Mehrzahl von Ausgängen
DE102020208309A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
DE102020202392A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Vorhersagen einer geeigneten Konfiguration eines maschinellen Lernsystems für einen Trainingsdatensatz
EP3671569A1 (de) Metadatenbasierte nachvollziehbarkeit von ki-ausgaben
DE102025112668A1 (de) System und Verfahren zum Vorhersagen diverser zukünftiger Geometrien mit Diffusionsmodellen
DE102023209520A1 (de) Föderiert-kontrastives Training neuronaler Netzwerke mit hoher Skalierbarkeit auf große Mengen von Trainingsdaten
DE102023204389A1 (de) Training eines Neuronalnetzsystems zur Vorhersage des Verhaltens interagierender Agenten

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20250203