[go: up one dir, main page]

JP7676499B2 - Ultrasound Qualification System - Google Patents

Ultrasound Qualification System Download PDF

Info

Publication number
JP7676499B2
JP7676499B2 JP2023174765A JP2023174765A JP7676499B2 JP 7676499 B2 JP7676499 B2 JP 7676499B2 JP 2023174765 A JP2023174765 A JP 2023174765A JP 2023174765 A JP2023174765 A JP 2023174765A JP 7676499 B2 JP7676499 B2 JP 7676499B2
Authority
JP
Japan
Prior art keywords
ultrasound
data
computing device
candidate
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023174765A
Other languages
Japanese (ja)
Other versions
JP2024059584A (en
Inventor
ダット デイビン
ダンセット ポール
ダフィー トーマス
英俊 高山
知己 井上
剛 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2024059584A publication Critical patent/JP2024059584A/en
Priority to JP2025075432A priority Critical patent/JP2025105891A/en
Application granted granted Critical
Publication of JP7676499B2 publication Critical patent/JP7676499B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4272Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue
    • A61B8/429Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue characterised by determining or monitoring the contact between the transducer and the tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • A61B8/585Automatic set-up of the device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Acoustics & Sound (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本明細書に開示される実施形態は、超音波システムに関する。より具体的には、本明細書に開示される実施形態は、超音波資格認定システムに関する。 The embodiments disclosed herein relate to ultrasound systems. More specifically, the embodiments disclosed herein relate to ultrasound qualification systems.

一般に、超音波システムは、可聴スペクトルを超える周波数の音波を体内に送信し、音波が体内部分から反射することによって生じるエコー信号を受信し、エコー信号を画像生成のための電気信号に変換することによって超音波画像を生成する。それらの超音波システムは、非侵襲的であり、即時の撮像結果を提供することができるため、超音波システムは介護施設で広く使用されている。これらの介護施設のほとんどでは、資格認定された超音波オペレータの需要は、利用可能な資格認定された超音波オペレータの数をはるかに超えている。 Generally, ultrasound systems generate ultrasound images by transmitting sound waves at frequencies above the audible spectrum into the body, receiving echo signals resulting from the sound waves reflecting off parts of the body, and converting the echo signals into electrical signals for image generation. Because they are non-invasive and can provide immediate imaging results, ultrasound systems are widely used in nursing homes. In most of these nursing homes, the demand for certified ultrasound operators far exceeds the number of available certified ultrasound operators.

資格認定された超音波オペレータの需要と供給のこの相違は、一部には、超音波オペレータを資格認定するために介護施設によって使用される資格認定システムの広範な訓練及び審査プロセスに起因する。例えば、資格認定された超音波オペレータになるために訓練している候補者(例えば、学生)は、多くの場合、様々な医学的状態を伴う様々な患者に対して超音波検査を実施し、介護施設で審査者が手作業で審査及び承認するために、超音波データ(例えば、撮像結果)を提出する必要がある。この審査プロセスは、通常、審査者は、超音波検査中に各候補者の超音波データを審査することができないため、超音波検査中に候補者にリアルタイムなフィードバックを提供することができない。この問題は、例えば、介護施設内の異なる患者に基づいて、複数の候補者が審査のための超音波検査データを同時に生成している場合に悪化する。したがって、候補者は、数日又は数週間などの超音波検査のかなり後になるまで、審査者からフィードバックを受信できない場合がある。したがって、超音波検査は、候補者が審査者フィードバックを受信したときに候補者の記憶に残っていない可能性があり、その結果、候補者はフィードバックを十分に利用できず、候補者の資格認定プロセスが遅くなる可能性がある。 This discrepancy in the demand and supply of certified ultrasound operators is due, in part, to the extensive training and review process of the credentialing systems used by nursing homes to credential ultrasound operators. For example, candidates (e.g., students) training to become certified ultrasound operators often must perform ultrasound examinations on a variety of patients with various medical conditions and submit the ultrasound data (e.g., imaging results) for manual review and approval by reviewers at the nursing home. This review process typically does not allow reviewers to provide real-time feedback to candidates during the ultrasound examination because reviewers are not able to review each candidate's ultrasound data during the ultrasound examination. This problem is exacerbated when multiple candidates are simultaneously generating ultrasound examination data for review, for example, based on different patients within the nursing home. Thus, candidates may not receive feedback from the reviewer until much after the ultrasound examination, such as days or weeks. Thus, the ultrasound examination may not be fresh in the candidate's memory when the candidate receives the reviewer feedback, which may result in the candidate being unable to fully utilize the feedback and slowing down the candidate credentialing process.

従来の資格認定システムは、人間の判断に依存するため、必然的に主観的であり、多くの場合は不正確である。これは、審査者が、超音波データをそれが許容できない場合でも許容できると判断する可能性があり、逆もまた同様であるからである。更に、従来の資格認定システムは、一般に、(介護施設内及び/又は異なる介護施設にわたる)審査者間で標準化されていないため、1人の審査者は超音波データを許容できないと判断し、別の審査者は同じ超音波データを許容できると判断する可能性がある。また、審査者(例えば、1人又は複数の上級臨床医)への依存は、審査者が候補者による提出物を審査し、一般に資格認定プログラムを監督するための時間からみると、介護施設に多大なリソースを負担させることなる。 Because traditional credentialing systems rely on human judgment, they are necessarily subjective and often inaccurate. This is because a reviewer may determine ultrasound data is acceptable when it is not, and vice versa. Furthermore, traditional credentialing systems are generally not standardized across reviewers (within a care facility and/or across different care facilities), so one reviewer may determine ultrasound data is unacceptable while another reviewer may determine the same ultrasound data is acceptable. Additionally, the reliance on reviewers (e.g., one or more senior clinicians) places a significant resource burden on the care facility in terms of the time it takes for the reviewer to review candidate submissions and generally oversee the credentialing program.

更に、緊急の手当を必要とする超音波検査(例えば、患者における遊離流体の決定)の場合、候補者は、生きている患者の検査に基づいて審査するために超音波データを提出することができない可能性がある。これらの場合、資格認定システムは、訓練又はシミュレータシステムを介して模擬超音波画像を生成することができ、候補者は、資格認定システムの審査者に模擬超音波画像を提出することができる。しかしながら、審査者は、通常、擬似超音波画像が真の超音波画像ではないことを認識しているため、擬似超音波画像を等級付けするときに固有の偏りを有する。したがって、審査者は、擬似超音波画像が真の超音波画像ではなく擬似画像であるため、擬似超音波画像を許容可能として等級付けする可能性がある。 Furthermore, for ultrasound examinations that require immediate attention (e.g., determining free fluid in a patient), candidates may not be able to submit ultrasound data for review based on examination of a live patient. In these cases, the certification system may generate mock ultrasound images via training or a simulator system, and candidates may submit the mock ultrasound images to the certification system reviewer. However, reviewers have an inherent bias when grading the mock ultrasound images because they are typically aware that mock ultrasound images are not true ultrasound images. Thus, reviewers may grade the mock ultrasound images as acceptable because they are mock images rather than true ultrasound images.

したがって、従来の超音波資格認定システムは、資格認定プロセスに遅延をもたらし、介護施設に負担がかかり、訓練が不十分であるが、それにもかかわらず超音波オペレータが資格認定される可能性がある。したがって、超音波検査を必要とする患者は、利用可能な最良の介護より劣る介護を受ける可能性がある。 Thus, traditional ultrasound credentialing systems introduce delays into the credentialing process, burden care facilities, and can result in poorly trained but nonetheless credentialed ultrasound operators. Thus, patients needing ultrasound examinations may receive less than the best care available.

自動超音波資格認定のためのシステム及び方法が記載される。幾つかの実施形態において、超音波検査者資格認定を超音波検査候補者に発行するための資格認定システムは、コンピューティングデバイスと、コンピューティングデバイスに接続されて超音波データを生成するように構成される超音波プローブとを含む。コンピューティングデバイスは、超音波データに基づいて、自動審査の一部として、超音波検査スコアを生成するように構成される。コンピューティングデバイスは、超音波検査スコアに基づいて、超音波検査候補者を自動審査から審査者による手作業審査に転送するように構成される。 A system and method for automated ultrasound credentialing are described. In some embodiments, a credentialing system for issuing sonographer credentialing to ultrasound candidates includes a computing device and an ultrasound probe connected to the computing device and configured to generate ultrasound data. The computing device is configured to generate an ultrasound score as part of the automated review based on the ultrasound data. The computing device is configured to transfer the ultrasound candidate from the automated review to manual review by a reviewer based on the ultrasound score.

幾つかの実施形態において、超音波検査者資格認定を超音波検査候補者に発行するための資格認定システムは、超音波画像を生成するように構成される超音波システムを含む。資格認定システムは候補者資格認定アプリケーションを含み、候補者資格認定アプリケーションは、少なくとも部分的に資格認定システムのハードウェアに実装されるとともに、超音波画像の第1のサブセットに関して画質スコアを生成して、画質スコアに基づいて超音波画像の第2のサブセットを審査者コンピューティングデバイスに通信するように構成される。 In some embodiments, a credentialing system for issuing a sonographer credential to an ultrasound candidate includes an ultrasound system configured to generate ultrasound images. The credentialing system includes a candidate credentialing application that is implemented at least in part in hardware of the credentialing system and configured to generate an image quality score for a first subset of the ultrasound images and communicate a second subset of the ultrasound images to an examiner computing device based on the image quality score.

幾つかの実施形態において、超音波検査資格認定システムは、超音波データを生成するように構成される超音波プローブを含む。超音波検査資格認定システムは、超音波データに基づいて超音波画像を生成するように構成されるコンピューティングデバイスを含む。超音波検査資格認定システムは、超音波画像に基づいて画質スコアを生成するためにコンピューティングデバイスのハードウェアに少なくとも部分的に実装されるニューラルネットワークを含む。超音波検査資格認定システムは、画質スコアに基づいて超音波検査者資格認定を発行するように構成される資格認定デバイスを含む。 In some embodiments, the ultrasound examination credentialing system includes an ultrasound probe configured to generate ultrasound data. The ultrasound examination credentialing system includes a computing device configured to generate ultrasound images based on the ultrasound data. The ultrasound examination credentialing system includes a neural network implemented at least in part in hardware of the computing device to generate an image quality score based on the ultrasound images. The ultrasound examination credentialing system includes a credentialing device configured to issue a sonographer credential based on the image quality score.

幾つかの実施形態において、コンピューティングデバイスによって実施される方法は、コンピューティングデバイスに接続される超音波プローブから超音波データを受信することを含む。方法は、コンピューティングデバイスを用いて、超音波データに基づき画質スコアを生成することを含む。方法は、画質スコアに基づいて、超音波データをユーザ資格認定のために審査者コンピューティングデバイスに通信することを含む。 In some embodiments, a method implemented by a computing device includes receiving ultrasound data from an ultrasound probe connected to the computing device. The method includes generating, with the computing device, an image quality score based on the ultrasound data. The method includes communicating the ultrasound data to an examiner computing device for user qualification based on the image quality score.

幾つかの実施形態において、コンピューティングデバイスによって実施される方法は、コンピューティングデバイスに接続される超音波プローブから超音波データを受信することを含む。方法は、コンピューティングデバイスを用いて、超音波データに基づき画質スコアを生成することを含む。方法は、画質スコアに基づいて、ユーザ資格認定のために審査者コンピューティングデバイスへの超音波データの通信を停止すること含む。 In some embodiments, a method implemented by a computing device includes receiving ultrasound data from an ultrasound probe connected to the computing device. The method includes generating, with the computing device, an image quality score based on the ultrasound data. The method includes terminating communication of the ultrasound data to an assessor computing device for user qualification based on the image quality score.

幾つかの実施形態において、コンピューティングデバイスによって実施される方法は、コンピューティングデバイスに接続される超音波プローブから超音波データを受信することを含む。方法は、コンピューティングデバイスを用いて、超音波データに基づき画質スコアを生成することを含む。方法は、画質スコア及び超音波データをユーザ資格認定のために資格認定サーバに通信することを含む。 In some embodiments, a method implemented by a computing device includes receiving ultrasound data from an ultrasound probe connected to the computing device. The method includes generating, with the computing device, an image quality score based on the ultrasound data. The method includes communicating the image quality score and the ultrasound data to a credentialing server for user credentialing.

幾つかの実施形態において、コンピューティングデバイスによって実施される方法は、超音波画像を受信することを含む。方法は、超音波画像の第1のサブセットに関する画質スコアを生成することを含む。方法は、画質スコアに基づいて、超音波画像の第2のサブセットをユーザ資格認定のために審査者コンピューティングデバイスに通信することを含む。 In some embodiments, a method implemented by a computing device includes receiving ultrasound images. The method includes generating an image quality score for a first subset of the ultrasound images. The method includes communicating a second subset of the ultrasound images to an examiner computing device for user qualification based on the image quality score.

幾つかの実施形態において、コンピューティングデバイスによって実施される方法は、超音波画像を受信することを含む。方法は、コンピューティングデバイスのハードウェアに少なくとも部分的に実装されるニューラルネットワークを用いて、超音波画像に関する画質スコアを生成することを含む。方法は、画質スコアに基づいて、超音波検査資格認定を発行することを含む。 In some embodiments, a method implemented by a computing device includes receiving an ultrasound image. The method includes generating an image quality score for the ultrasound image using a neural network implemented at least in part in hardware of the computing device. The method includes issuing an ultrasound certification based on the image quality score.

超音波資格認定のための他のシステム、機械、及び方法も記載される。 Other systems, machines, and methods for ultrasound qualification are also described.

添付図面は、例を示しており、したがって、例示的な実施形態であり、範囲を限定するものとは見なされない。 The accompanying drawings depict examples and are therefore exemplary embodiments and are not to be considered as limiting the scope.

図1は幾つかの実施形態に係る資格認定システムを実施するための環境を示す図である。FIG. 1 illustrates an environment for implementing a credentialing system according to some embodiments. 図2は幾つかの実施形態に係るグリップの向きを決定するためのセンサ領域を有する超音波プローブを示す図である。FIG. 2 illustrates an ultrasonic probe having a sensor region for determining grip orientation in accordance with some embodiments. 図3は幾つかの実施形態に係る1又は複数の超音波画像及び1又は複数の二次入力に基づいて候補者の評価に関連するデータを生成するシステムを示す図である。FIG. 3 illustrates a system for generating data related to candidate evaluation based on one or more ultrasound images and one or more secondary inputs in accordance with some embodiments. 図4は幾つかの実施形態に係る超音波検査者資格認定を超音波検査候補者に発行するために資格認定システムによって実施されるプロセスのデータフロー図である。FIG. 4 is a data flow diagram of a process performed by a credentialing system to issue sonographer certification to sonography candidates in accordance with some embodiments. 図5は幾つかの実施形態に係る超音波検査者資格認定を超音波検査候補者に発行するために資格認定システムによって実施されるプロセスのデータフロー図である。FIG. 5 is a data flow diagram of a process performed by a certification system to issue sonographer certification to sonography candidates in accordance with some embodiments. 図6は幾つかの実施形態に係る超音波検査資格認定システムによって実施されるプロセスのデータフロー図である。FIG. 6 is a data flow diagram of a process performed by an ultrasound examination qualification system according to some embodiments. 図7は幾つかの実施形態に係るコンピューティングデバイスによって実施される方法のデータフロー図である。FIG. 7 is a data flow diagram of a method implemented by a computing device according to some embodiments. 図8は幾つかの実施形態に係るコンピューティングデバイスによって実施される方法のデータフロー図である。FIG. 8 is a data flow diagram of a method implemented by a computing device according to some embodiments. 図9は幾つかの実施形態に係るコンピューティングデバイスによって実施される方法のデータフロー図である。FIG. 9 is a data flow diagram of a method implemented by a computing device according to some embodiments. 図10は幾つかの実施形態に係るコンピューティングデバイスによって実施される方法のデータフロー図である。FIG. 10 is a data flow diagram of a method implemented by a computing device according to some embodiments. 図11は幾つかの実施形態に係るコンピューティングデバイスによって実施される方法のデータフロー図である。FIG. 11 is a data flow diagram of a method implemented by a computing device according to some embodiments. 図12は幾つかの実施形態に係る、本明細書に記載の動作のうちの1又は複数を実行することができるコンピューティングデバイスの一例のブロック図である。FIG. 12 is a block diagram of an example computing device capable of performing one or more of the operations described herein, according to some embodiments.

自動超音波資格認定のためのシステム及び方法が記載される。幾つかの実施形態において、超音波検査者資格認定を超音波検査候補者に発行するための資格認定システムは、コンピューティングデバイスと、コンピューティングデバイスに接続されて超音波データを生成するように構成される超音波プローブとを含む。コンピューティングデバイスは、超音波データに基づいて、自動審査の一部として、超音波検査スコアを生成するように構成される。コンピューティングデバイスは、超音波検査スコアに基づいて、超音波検査候補者を自動審査から審査者による手作業審査に転送するように構成される。 A system and method for automated ultrasound credentialing are described. In some embodiments, a credentialing system for issuing sonographer credentialing to ultrasound candidates includes a computing device and an ultrasound probe connected to the computing device and configured to generate ultrasound data. The computing device is configured to generate an ultrasound score as part of the automated review based on the ultrasound data. The computing device is configured to transfer the ultrasound candidate from the automated review to manual review by a reviewer based on the ultrasound score.

従来の超音波資格認定システムは、資格認定プロセスに遅延が生じる可能性があり、介護施設のリソースに負担がかかり、訓練が不十分でないにもかかわらず超音波オペレータが資格認定される可能性があり、その結果、超音波検査を必要とする患者は、利用可能な最良の介護よりも劣る介護しか受けられない可能性がある。 Traditional ultrasound credentialing systems can result in delays in the credentialing process, strain care home resources, and lead to ultrasound operators being credentialed when they are not adequately trained, resulting in patients needing ultrasound examinations receiving less than the best care available.

本明細書で開示される超音波資格認定のためのシステム、デバイス、及び方法の実施形態は、従来の資格認定システムを超える多くの利点を構成する。本明細書に開示される実施形態は、偏りをなくして、従来の超音波資格認定システムと比較して資格認定の速度を改善する。本明細書に開示される実施形態は、超音波検査中の候補者へのリアルタイムなフィードバックを容易にし、検査が候補者の記憶に残っている間に、候補者が遅延のないフィードバックを直ちに超音波検査に組み込むことができるようにする。この即時性は、手作業の審査者からのフィードバックに依存する従来の資格認定システムでは不可能である。本明細書に開示される超音波資格認定の実施形態は、資格認定の候補者によって提出された超音波データの検討及び等級付けにおいて客観的であり、偏りがない。これに対し、従来の資格認定システムは、専ら手作業による審査に依存し得るため、必然的に主観的であり、偏っている。本明細書に開示される実施形態は、介護施設内で、及び異なる介護施設間で標準化することができる資格認定プロセスを容易にする。これに対し、従来の資格認定システムは、通常、その場その場であり、介護施設全体で標準化されていない。本明細書に開示される実施形態は、従来の資格認定システムと比較して、審査者(例えば、訓練を受けた臨床医)の時間要求などの介護施設内のリソースの負担を軽減する。 The embodiments of the systems, devices, and methods for ultrasound credentialing disclosed herein constitute many advantages over conventional credentialing systems. The embodiments disclosed herein eliminate bias and improve the speed of credentialing compared to conventional ultrasound credentialing systems. The embodiments disclosed herein facilitate real-time feedback to the candidate during the ultrasound examination, allowing the candidate to immediately incorporate undelayed feedback into the ultrasound examination while the examination is fresh in the candidate's mind. This immediacy is not possible with conventional credentialing systems that rely on feedback from manual reviewers. The ultrasound credentialing embodiments disclosed herein are objective and unbiased in reviewing and grading ultrasound data submitted by candidates for credentialing. In contrast, conventional credentialing systems may rely exclusively on manual review and are therefore necessarily subjective and biased. The embodiments disclosed herein facilitate a credentialing process that can be standardized within and across different nursing facilities. In contrast, conventional credentialing systems are typically ad-hoc and not standardized across nursing facilities. The embodiments disclosed herein reduce the burden on resources within a care facility, such as the time demands of reviewers (e.g., trained clinicians), as compared to traditional credentialing systems.

本明細書における「1つの実施形態」、「一実施形態」、「1つの例」、又は「一例」への言及は、実施形態に関連して説明される特定の特徴、構造、又は特性が少なくとも1つの実施形態に含まれ得ることを意味する。本明細書の様々な箇所における「1つの実施形態では」又は「一実施形態では」という語句の出現は、必ずしも全てが同じ実施形態を指すとは限らない。以下の図に示すプロセスは、ハードウェア(例えば、回路、専用ロジックなど)、ソフトウェア、又は両方の組み合わせを備える処理ロジックによって実行される。プロセスは、幾つかの順次の動作に関して以下に説明されるが、説明される動作の幾つかは、異なる順序で実行されてもよいことを理解すべきである。更に、幾つかの動作は、順次ではなく並列に実行されてもよい。 References herein to "one embodiment," "one embodiment," "one example," or "one example" mean that a particular feature, structure, or characteristic described in connection with an embodiment may be included in at least one embodiment. The appearances of the phrases "in one embodiment" or "in an embodiment" in various places in this specification do not necessarily all refer to the same embodiment. The processes illustrated in the following figures are performed by processing logic comprising hardware (e.g., circuitry, dedicated logic, etc.), software, or a combination of both. Although the processes are described below with respect to some sequential operations, it should be understood that some of the described operations may be performed in different orders. Additionally, some operations may be performed in parallel rather than sequentially.

本明細書において、「及び/又は」という用語は、存在し得るオブジェクト間の3つの関係を表す。例えば、A及び/又はBは、Aのみが存在する場合、AとBの両方が存在する場合、及びBのみが存在する場合を表すことができ、A及びBは単数であっても複数であってもよい。 As used herein, the term "and/or" refers to three relationships between objects that may be present. For example, A and/or B can refer to the presence of only A, the presence of both A and B, and the presence of only B, where A and B may be singular or plural.

図1は、幾つかの実施形態に係る資格認定システム101を実施するための環境を示す図100である。資格認定システムは、候補者105(例えば、資格認定された超音波オペレータになるように訓練している生徒)によって操作され得る超音波システムを含む。超音波システム101は、プローブ103と、通信リンクを介してプローブに接続されるコンピューティングデバイス102とを含む。プローブとコンピューティングデバイスとの間の通信リンクは、有線、無線、又はそれらの組み合わせとすることができる。コンピューティングデバイス102は、タブレット、スマートフォン、ヘッドアップディスプレイ、ゴーグル、眼鏡、超音波機、又はそれらの組み合わせなどの任意の適切なコンピューティングデバイスを含むことができる。図1に示されるように、コンピューティングデバイス102は、コンピューティングデバイスのハードウェアに少なくとも部分的に実装され得る1又は複数のニューラルネットワーク(NN)106を含むことができる。コンピューティングデバイス102は、コンピューティングデバイスのプロセッサ(図1には示されていない)によって実装され得る候補者資格認定アプリケーション107も含む。例えば、コンピューティングデバイスのメモリは、プロセッサによって実行されるときにコンピューティングデバイスに候補者資格認定アプリケーションを実施させる命令を記憶することができる。図1に示されるように、候補者資格認定アプリケーション107はシミュレータシステム108に接続される。幾つかの実施形態では、シミュレータシステム108がダミー患者を含み、超音波プローブは、以下で更に詳細に説明するように、ダミー患者に超音波を送信し、ダミー患者からの超音波の反射に基づいて超音波データを生成する。 FIG. 1 is a diagram 100 illustrating an environment for implementing a certification system 101 according to some embodiments. The certification system includes an ultrasound system that can be operated by a candidate 105 (e.g., a student training to become a certified ultrasound operator). The ultrasound system 101 includes a probe 103 and a computing device 102 that is connected to the probe via a communication link. The communication link between the probe and the computing device can be wired, wireless, or a combination thereof. The computing device 102 can include any suitable computing device, such as a tablet, a smartphone, a heads-up display, goggles, glasses, an ultrasound machine, or a combination thereof. As shown in FIG. 1, the computing device 102 can include one or more neural networks (NNs) 106 that can be implemented at least in part in the hardware of the computing device. The computing device 102 also includes a candidate certification application 107 that can be implemented by a processor (not shown in FIG. 1) of the computing device. For example, the memory of the computing device can store instructions that, when executed by the processor, cause the computing device to implement the candidate certification application. As shown in FIG. 1, the candidate qualification application 107 is connected to a simulator system 108. In some embodiments, the simulator system 108 includes a dummy patient, and the ultrasound probe transmits ultrasound waves to the dummy patient and generates ultrasound data based on reflections of the ultrasound waves from the dummy patient, as described in more detail below.

図1に示されるように、超音波システム101はネットワーク109(例えば、コンピューティングネットワーク)に接続される。幾つかの実施形態において、プローブ103及びコンピューティングデバイス102のうちの1又は複数は、超音波システムをネットワークに接続するためにネットワーク109に接続される。一例において、ネットワークは、介護施設(例えば、病院)によって運営される安全なWi-Fiネットワークなどの介護施設ネットワークを含む。資格認定システムは、ネットワーク109に接続されるサーバシステム111を含むことができ、それにより、サーバシステムは、候補者によって操作されるコンピューティングデバイス102と通信する。サーバシステム111は、検査結果、審査者フィードバック、超音波データ、超音波データに関するメタデータなどの、候補者の資格認定に関するデータをアーカイブするための資格認定データベースを含むことができる。一例では、サーバシステムがニューラルネットワークのデータベースを含み、候補者によって操作されるコンピューティングデバイス102は、サーバシステムによって供給される1又は複数のニューラルネットワークを含むことができる。例えば、ニューラルネットワーク106は、サーバシステム111から受信された1又は複数のニューラルネットワークを含むことができる。幾つかの実施形態において、資格認定アプリケーション107は、候補者によって実行されている検査タイプを決定し、サーバシステムは、検査タイプに適したニューラルネットワークを検索して、候補者のコンピューティングデバイス上で実施するためにニューラルネットワークを資格認定アプリケーションに提供する。幾つかの実施形態では、候補者のコンピューティングデバイスが複数のコンピューティングデバイスを含む。幾つかの実施形態において、候補者のコンピューティングデバイスは、サーバシステムと、サーバによって「クラウド内」に実装されるニューラルネットワークとを含む。或いは、サーバシステムは、介護施設によって維持されるサーバシステムなどの、候補者のコンピューティングデバイスから分離することができる。 As shown in FIG. 1, the ultrasound system 101 is connected to a network 109 (e.g., a computing network). In some embodiments, one or more of the probe 103 and the computing device 102 are connected to the network 109 to connect the ultrasound system to the network. In one example, the network includes a nursing home network, such as a secure Wi-Fi network operated by a nursing home (e.g., a hospital). The credentialing system can include a server system 111 connected to the network 109, whereby the server system communicates with the computing device 102 operated by the candidate. The server system 111 can include a credentialing database for archiving data related to the candidate's credentialing, such as test results, examiner feedback, ultrasound data, and metadata related to the ultrasound data. In one example, the server system includes a database of neural networks, and the computing device 102 operated by the candidate can include one or more neural networks provided by the server system. For example, the neural network 106 can include one or more neural networks received from the server system 111. In some embodiments, the credentialing application 107 determines the test type being performed by the candidate, and the server system searches for a neural network appropriate for the test type and provides the neural network to the credentialing application for implementation on the candidate's computing device. In some embodiments, the candidate's computing device includes multiple computing devices. In some embodiments, the candidate's computing device includes a server system and a neural network implemented "in the cloud" by the server. Alternatively, the server system can be separate from the candidate's computing device, such as a server system maintained by a care facility.

また、資格認定システムは、例えば、候補者のための資格認定プロセスの一部として、候補者105によって提出された超音波データを手作業で審査及び等級付けするために、訓練され資格認定された超音波検査者などの審査者112によって操作される審査者コンピューティングデバイス113を含むこともできる。審査者コンピューティングデバイス113は、審査者コンピューティングデバイスのプロセッサ(図1には示されていない)によって実施され得る審査者資格認定アプリケーション114を含むことができる。例えば、審査者コンピューティングデバイスのメモリは、プロセッサによって実行されるときに審査者コンピューティングデバイスに審査者資格認定アプリケーションを実施させる命令を記憶することができる。審査者は、審査者資格認定アプリケーションのユーザインタフェースを介して、候補者によって供給された超音波データを審査するなど、資格認定審査の一部として任意の適切な機能を果たし、フィードバック(例えば、コメント、等級付けなど)を候補者に戻して、サーバシステム上でデータをアーカイブすることができる。 The credentialing system may also include an examiner computing device 113 operated by an examiner 112, such as a trained and certified sonographer, to manually review and grade ultrasound data submitted by a candidate 105, for example, as part of a credentialing process for the candidate. The examiner computing device 113 may include an examiner credentialing application 114, which may be executed by a processor (not shown in FIG. 1) of the examiner computing device. For example, the memory of the examiner computing device may store instructions that, when executed by the processor, cause the examiner computing device to execute the examiner credentialing application. The examiner may perform any suitable function as part of the credentialing review, such as reviewing the ultrasound data provided by the candidate, providing feedback (e.g., comments, grading, etc.) back to the candidate, and archiving the data on the server system, via a user interface of the examiner credentialing application.

患者104の超音波検査中、超音波検査候補者105は、超音波システム101(例えば、プローブ103及びコンピューティングデバイス102)を使用して、資格認定システムによる資格認定のための超音波データを生成することができる。一例では、従来の資格認定システムとは異なり、資格認定システムは、必ずしも手作業審査のために超音波データを審査者に送信するのではなく、代わりに、候補者のコンピューティングデバイス102上などの、1又は複数のニューラルネットワーク106を実装して、超音波データの特性を自動的に決定し、超音波検査中にリアルタイムで特性に基づくフィードバックを候補者105に提供する。ニューラルネットワークによって生成されたフィードバックは、資格認定の一部としてアーカイブするために、コンピューティングデバイス102によってサーバシステム111に通信することもできる。 During an ultrasound examination of a patient 104, an ultrasound examination candidate 105 can use an ultrasound system 101 (e.g., a probe 103 and a computing device 102) to generate ultrasound data for certification by the credentialing system. In one example, unlike conventional credentialing systems, the credentialing system does not necessarily transmit the ultrasound data to a reviewer for manual review, but instead implements one or more neural networks 106, such as on the candidate's computing device 102, to automatically determine characteristics of the ultrasound data and provide feedback based on the characteristics to the candidate 105 in real time during the ultrasound examination. Feedback generated by the neural network can also be communicated by the computing device 102 to a server system 111 for archiving as part of the credentialing.

ニューラルネットワーク106は、超音波データに基づいて任意の適切な出力を生成することができる。幾つかの実施形態において、資格認定システムは、ニューラルネットワークを実装して、0~1の数などの超音波画像の品質指標を生成し、この場合、0は低品質を示し、1は優れた品質を示す、又は「合格」又は「不合格」などのバイナリラベルである。幾つかの実施形態において、バイナリラベルは、超音波画像が許容可能なビューを含む確率など、ニューラルネットワークによって生成された指標の確率に閾値を適用することによって生成される。幾つかの実施形態において、閾値は、画質閾値、又は他の指標閾値である。幾つかの実施形態において、画像品質指標は、画像が所定の動作を実行するのに十分な品質を有することを示す。幾つかの実施形態において、ニューラルネットワークは、ニューラルネットワークを訓練するために使用される損失関数の適切な選択によって、バイナリラベルを直接生成するように訓練される(例えば、最初に確率を生成し、それに閾値を適用することなく)。候補者資格認定アプリケーション107は、コンピューティングデバイス102のユーザインタフェースを介して、候補者に品質指標を表示することができる。これに加えて又は代えて、候補者資格認定アプリケーション107は、ニューラルネットワーク106によって生成された品質指標に基づいて文字等級A、B、C、D、又はFを割り当てることなどによって、超音波画像の品質に基づいて等級を生成することができる。等級は、超音波データから生成された超音波画像が気胸状態を決定するのに「十分良好」であるかどうかなど、超音波データの有用性の表示とすることができる。 The neural network 106 may generate any suitable output based on the ultrasound data. In some embodiments, the qualification system implements the neural network to generate a quality indicator for the ultrasound image, such as a number between 0 and 1, where 0 indicates poor quality and 1 indicates excellent quality, or a binary label, such as "pass" or "fail". In some embodiments, the binary label is generated by applying a threshold to the probability of the indicator generated by the neural network, such as the probability that the ultrasound image contains an acceptable view. In some embodiments, the threshold is an image quality threshold, or other indicator threshold. In some embodiments, the image quality indicator indicates that the image has sufficient quality to perform a predetermined operation. In some embodiments, the neural network is trained to generate the binary label directly (e.g., without first generating probabilities and applying a threshold thereto) by appropriate selection of the loss function used to train the neural network. The candidate qualification application 107 may display the quality indicator to the candidate via a user interface of the computing device 102. Additionally or alternatively, the candidate qualification application 107 may generate a grade based on the quality of the ultrasound image, such as by assigning a letter grade A, B, C, D, or F based on the quality index generated by the neural network 106. The grade may be an indication of the usefulness of the ultrasound data, such as whether an ultrasound image generated from the ultrasound data is "good enough" to determine a pneumothorax condition.

ニューラルネットワーク106は、任意の適切な入力を受信して、候補者の品質指標及び/又は等級を生成することができる。前述したように、ニューラルネットワークは、候補者105による超音波検査中に生成された1又は複数の超音波画像を受信することができる。更に、ニューラルネットワークは、図3に関して更に詳細に説明するように、候補者の品質指標及び/又は等級を生成するための1又は複数の二次(例えば、追加)入力を含むことができる。 The neural network 106 may receive any suitable input to generate a quality index and/or grade for the candidate. As previously described, the neural network may receive one or more ultrasound images generated during an ultrasound examination by the candidate 105. Additionally, the neural network may include one or more secondary (e.g., additional) inputs for generating a quality index and/or grade for the candidate, as described in further detail with respect to FIG. 3.

幾つかの実施形態において、超音波プローブ103は、力、加速度、角速度、及び磁場のうちの1又は複数を測定することができる慣性測定ユニット(IMU)を含む。IMUは、加速度計、ジャイロスコープ、及び磁力計の組み合わせを含むことができ、座標系におけるヨー角、ピッチ角、及びロール角などの6つの自由度を表すデータを含む位置及び/又は方向データを生成することができる。これに加えて又は代えて、超音波システムは、超音波プローブの位置及び/又は方向データを決定するためのカメラを含むことができる。位置及び/又は方向データは、プローブの移動を示すことができる。ニューラルネットワークは、位置及び/又は方向データを、超音波画像に加えて二次入力として処理することができる。 In some embodiments, the ultrasound probe 103 includes an inertial measurement unit (IMU) capable of measuring one or more of force, acceleration, angular velocity, and magnetic field. The IMU may include a combination of accelerometers, gyroscopes, and magnetometers and may generate position and/or orientation data including data representative of six degrees of freedom, such as yaw, pitch, and roll angles in a coordinate system. Additionally or alternatively, the ultrasound system may include a camera for determining position and/or orientation data of the ultrasound probe. The position and/or orientation data may be indicative of movement of the probe. The neural network may process the position and/or orientation data as a secondary input in addition to the ultrasound image.

幾つかの実施形態において、ニューラルネットワークは、検査中の候補者の挙動の表示も二次入力として受信する。例えば、熟練していない又は訓練されていない超音波オペレータは、超音波検査中に熟練した又は訓練されたオペレータよりもプローブを移動させる場合があり、これは患者に不快感を引き起こす可能性がある。したがって、候補者の挙動を示す二次入力の一例は、候補者の動きデータを含む。例えば、候補者は、検査中の候補者の動きデータ(例えば、候補者の腕の動きの程度)を決定する動きセンサを彼らの衣服に装着することができる。別の例では、プローブは、候補者の動きデータを収集するための1又は複数の動きセンサ(例えば、IMU、ジャイロ、位置/方向センサ、移動センサ、又は他の動きセンサ)を含む。これに加えて又は代えて、検査室内のカメラが動きデータを生成することができる。一例において、ニューラルネットワークへの二次入力は、候補者がプローブ/超音波システムを使用して超音波画像の取得を開始するときから始まって、候補者が審査のために超音波画像を生成及び保存するのにかかる時間などの時間量を含む。例えば、「熟練していない」オペレータは、適切な超音波画像が得られる適切な場所にプローブを移動させるのに多くの時間を要する場合があり、この過剰な時間は、患者に悪影響を及ぼす可能性がある。 In some embodiments, the neural network also receives as a secondary input an indication of the candidate's behavior during the test. For example, an unskilled or untrained ultrasound operator may move the probe more than a skilled or trained operator during an ultrasound test, which may cause discomfort to the patient. Thus, one example of a secondary input indicative of the candidate's behavior includes the candidate's motion data. For example, the candidate may wear a motion sensor on their clothing that determines the candidate's motion data during the test (e.g., the extent of the candidate's arm movement). In another example, the probe includes one or more motion sensors (e.g., an IMU, gyro, position/orientation sensor, movement sensor, or other motion sensor) to collect the candidate's motion data. Additionally or alternatively, a camera in the examination room may generate the motion data. In one example, a secondary input to the neural network includes an amount of time, such as the time it takes the candidate to generate and save the ultrasound image for review, starting from when the candidate begins to acquire an ultrasound image using the probe/ultrasound system. For example, an "unskilled" operator may take a lot of time to move the probe to the appropriate location to obtain a proper ultrasound image, and this excessive time may have an adverse effect on the patient.

これに加えて又は代えて、候補者の挙動を示す二次入力は、候補者、患者、及び/又は検査を見ている別の人によって話された音声コンテンツを含めて、音声コンテンツを含むことができる。例えば、音声コンテンツは、候補者と患者との間の会話を含むことができ、それにより、ニューラルネットワークは、検査中に次に何を期待すべきかを患者に伝えることなどによって、患者と肯定的なコミュニケーションが行われているときに候補者についてより良いスコアを生成するように訓練され得る。一例では、患者が「あなたは私を傷付けています」と言うか、又は部屋の中の誰かが候補者にプローブを特定の方法で動かすように告げる(例えば、候補者が、適切な視界にするために助けを得る)。図2は、幾つかの実施形態に係るグリップの向きを決定するためのセンサ領域205を有する超音波プローブ201を示す図200である。幾つかの実施形態において、超音波プローブ201は、超音波プローブ103、又は別の超音波プローブに相当する。幾つかの実施形態において、超音波プローブ201は、その全体が参照により本明細書に組み込まれる、2022年10月11日に出願された「CONFIGURING ULTRASOUND SYSTEMS BASED ON SCANNER GRIP」と題する代理人整理番号105767P025の米国特許出願第18/045,477号に記載されているように、グリップの向きを決定するためのセンサ領域を有する超音波プローブに相当する。図2に示されるように、超音波プローブ201は、グリップの向きを検出するためのセンサ領域205と、レンズ203に接続されたトランスデューサとを含む。図2では、センサ領域205が楕円体として示されている。しかしながら、センサ領域205は、任意の適切な形状とすることができる。幾つかの実施形態において、センサ領域205は、超音波プローブ201の表面を実質的に覆い、例えば、センサ領域は、レンズ203を含む又は除く超音波プローブ201を実質的に全て覆うことができる。幾つかの実施形態において、センサ領域205は、ユーザが通常把持する領域(例えば、プローブのトランスデューサヘッド部よりも狭いプローブの握り部)をカバーする。 Additionally or alternatively, the secondary input indicative of the candidate's behavior can include audio content, including audio content spoken by the candidate, the patient, and/or another person viewing the test. For example, the audio content can include a conversation between the candidate and the patient, such that the neural network can be trained to generate a better score for the candidate when there is positive communication with the patient, such as by telling the patient what to expect next during the test. In one example, the patient says "You're hurting me" or someone in the room tells the candidate to move the probe in a particular way (e.g., the candidate gets help to get a proper view). FIG. 2 is a diagram 200 illustrating an ultrasound probe 201 having a sensor region 205 for determining grip orientation according to some embodiments. In some embodiments, the ultrasound probe 201 corresponds to the ultrasound probe 103 or another ultrasound probe. In some embodiments, the ultrasonic probe 201 corresponds to an ultrasonic probe having a sensor area for determining grip orientation, as described in U.S. Patent Application Serial No. 18/045,477, entitled "CONFIGURING ULTRASOUND SYSTEMS BASED ON SCANNER GRIP," filed October 11, 2022, attorney docket number 105767P025, which is incorporated herein by reference in its entirety. As shown in FIG. 2, the ultrasonic probe 201 includes a sensor area 205 for detecting grip orientation and a transducer connected to a lens 203. In FIG. 2, the sensor area 205 is shown as an ellipsoid. However, the sensor area 205 can be any suitable shape. In some embodiments, the sensor area 205 substantially covers the surface of the ultrasonic probe 201, for example, the sensor area can cover substantially all of the ultrasonic probe 201, including or excluding the lens 203. In some embodiments, the sensor area 205 covers the area that is typically gripped by a user (e.g., the grip of the probe, which is narrower than the transducer head of the probe).

幾つかの実施形態において、超音波プローブ201のトランスデューサは、超音波トランスデューサアレイと、超音波トランスデューサアレイに接続された電子機器とを含み、患者の解剖学的構造に超音波信号を送信して、患者の解剖学的構造から反射された超音波信号を受信する。超音波プローブ201は、センサ領域205の中、上、又は下に、グリップの向きを決定するための任意の適切なタイプのセンサを含むことができる。幾つかの実施形態において、超音波プローブ201は、タッチスクリーン技術で一般的であるように、ユーザのタッチ又はタッチの近接によって引き起こされる静電容量又は静電容量の変化を測定することができる静電容量センサを含む。これに加えて又は代えて、超音波プローブ201は、ユーザがプローブを握ることによって引き起こされる圧力の大きさを決定するように構成された圧力センサを含むことができる。 In some embodiments, the transducer of the ultrasonic probe 201 includes an ultrasonic transducer array and electronics coupled to the ultrasonic transducer array to transmit ultrasonic signals to the patient's anatomy and receive ultrasonic signals reflected from the patient's anatomy. The ultrasonic probe 201 can include any suitable type of sensor in, on, or under the sensor area 205 to determine grip orientation. In some embodiments, the ultrasonic probe 201 includes a capacitance sensor that can measure capacitance or a change in capacitance caused by a user's touch or proximity of a touch, as is common in touch screen technology. Additionally or alternatively, the ultrasonic probe 201 can include a pressure sensor configured to determine the amount of pressure caused by a user gripping the probe.

幾つかの実施形態において、超音波システムは、センサ領域205のセンサからセンサデータを受信し、センサデータを表すグリップマップ207を生成する。図2に示されるように、グリップマップ207は、二次元(2D)グリッド(例えば、行列)状のセンサデータを含む。グリッドのノードは、センサ領域205のセンサに対応することができ、センサからのセンサデータを含むことができる。一例として、図2のセンサ領域205に示されるクロスハッチングの各交点は、グリップの向きを決定するためのセンサ、したがって2Dグリッド内のノードに対応することができる。センサデータは、0~5の整数スケールなどで、センサ上の圧力の大きさを示すマルチレベルインジケータを含むことができる。例えば、「0」は、ユーザの手からの圧力がセンサで検出されないことを示すことができ、「1」は、ユーザの手からの少量の圧力がセンサで検出されることを示すことができる。「2」は、「1」よりも大きいユーザの手からの圧力量がセンサで検出されたことを示すことができ、「5」は、ユーザの手からの最大圧力量がセンサで検出されたことを示すことができる。ニューラルネットワーク(例えば、図1のNN106)は、候補者の品質指標及び/又は等級を生成するために超音波画像に加えて、グリップマップ207などのグリップの向きを二次入力として受信することができる。二次入力の他の例は、圧力データ(例えば、プローブから患者にどれだけの圧力が加えられるか)、時間データ(例えば、候補者が超音波検査を実行するために超音波システムを動作させるのにかかる時間)などを含む。 In some embodiments, the ultrasound system receives sensor data from sensors in the sensor region 205 and generates a grip map 207 that represents the sensor data. As shown in FIG. 2, the grip map 207 includes a two-dimensional (2D) grid (e.g., a matrix) of sensor data. The nodes of the grid can correspond to sensors in the sensor region 205 and can include sensor data from the sensors. As an example, each intersection of the cross-hatching shown in the sensor region 205 in FIG. 2 can correspond to a sensor for determining a grip orientation and thus a node in the 2D grid. The sensor data can include a multi-level indicator that indicates the amount of pressure on the sensor, such as on an integer scale of 0 to 5. For example, a "0" can indicate that no pressure from the user's hand is detected by the sensor, and a "1" can indicate that a small amount of pressure from the user's hand is detected by the sensor. A "2" can indicate that an amount of pressure from the user's hand greater than a "1" is detected by the sensor, and a "5" can indicate that a maximum amount of pressure from the user's hand is detected by the sensor. A neural network (e.g., NN 106 in FIG. 1) can receive grip orientation, such as grip map 207, as a secondary input in addition to the ultrasound image to generate a quality index and/or grade for the candidate. Other examples of secondary inputs include pressure data (e.g., how much pressure is applied from the probe to the patient), time data (e.g., how long it takes the candidate to operate the ultrasound system to perform an ultrasound exam), etc.

図3は、幾つかの実施形態に係る1又は複数の超音波画像及び1又は複数の二次入力に基づいて候補者の評価に関連するデータを生成するシステムを示す図300である。図3に示されるように、ニューラルネットワーク303は、出力309を生成するために、前述したように、一次入力としての超音波画像301と、1又は複数の二次入力305とを受信する。ニューラルネットワーク303は、図1のニューラルネットワーク106の一例である。幾つかの実施形態において、出力309は、候補者の評価に関連するデータ、例えば、超音波検査中の候補者の品質指標、等級、及び/又はスコアを含む。ニューラルネットワーク303は、任意の適切な方法で超音波画像301を1又は複数の二次入力305と組み合わせることができる。幾つかの実施形態では、ニューラルネットワークは、二次入力と超音波画像とを連結し、ニューラルネットワークの上位(第1)層で連結されたデータを処理する。幾つかの実施形態において、ニューラルネットワークは、ニューラルネットワークの1又は複数の層で超音波画像を処理し、結果(例えば、超音波画像に基づく特徴マップ)をニューラルネットワークの後続の層のための二次入力と連結する。 3 is a diagram 300 illustrating a system for generating data related to a candidate's evaluation based on one or more ultrasound images and one or more secondary inputs, according to some embodiments. As shown in FIG. 3, a neural network 303 receives an ultrasound image 301 as a primary input and one or more secondary inputs 305, as previously described, to generate an output 309. The neural network 303 is an example of the neural network 106 of FIG. 1. In some embodiments, the output 309 includes data related to the candidate's evaluation, such as the candidate's quality indicators, grades, and/or scores during the ultrasound examination. The neural network 303 can combine the ultrasound image 301 with one or more secondary inputs 305 in any suitable manner. In some embodiments, the neural network concatenates the secondary inputs and the ultrasound image and processes the concatenated data at a top (first) layer of the neural network. In some embodiments, the neural network processes the ultrasound image at one or more layers of the neural network and concatenates the results (e.g., feature maps based on the ultrasound image) with secondary inputs for subsequent layers of the neural network.

幾つかの実施形態において、ニューラルネットワーク303は、複数のネットワーク及び/又はセクションを含む。各セクションは、1又は複数のニューラルネットワークを含むことができる。幾つかの実施形態において、ニューラルネットワークは、2つのセクションを使用して超音波画像を処理し、第2のセクションは二次入力を受信する。ニューラルネットワーク303は、第1及び第2のセクションから出力された結果のうちの1又は複数を、超音波画像及び二次入力のうちの1又は複数と組み合わせることができる。幾つかの実施形態では、1又は複数の超音波画像301が第1のニューラルネットワークに入力され、第1のニューラルネットワークの出力(例えば、特徴マップ、又は他の出力)が1又は複数の二次入力305と組み合わされて第2のニューラルネットワークに入力され、出力309を生成する。幾つかの実施形態では、1又は複数の二次入力305が第1のニューラルネットワークに入力され、第1のニューラルネットワークの出力が1又は複数の超音波画像301と組み合わされて第2のニューラルネットワークに入力され、出力309を生成する。 In some embodiments, the neural network 303 includes multiple networks and/or sections. Each section may include one or more neural networks. In some embodiments, the neural network processes the ultrasound images using two sections, with the second section receiving a secondary input. The neural network 303 may combine one or more of the results output from the first and second sections with the ultrasound images and one or more of the secondary inputs. In some embodiments, one or more ultrasound images 301 are input to a first neural network, and the output of the first neural network (e.g., feature maps, or other outputs) is combined with one or more secondary inputs 305 and input to a second neural network to generate an output 309. In some embodiments, one or more secondary inputs 305 are input to a first neural network, and the output of the first neural network is combined with one or more ultrasound images 301 and input to a second neural network to generate an output 309.

幾つかの実施形態において、ニューラルネットワーク303は、二次入力305に相対的な重みを割り当てる重みベクトルを受ける。例えば、重みベクトルは、例えば、プローブ方向データを音声データよりも重く重み付けすることによって、二次入力に多かれ少なかれ重点を置くために、0~1のユーザ割り当て値を含むことができる。重みがユーザによって割り当てられた重みを含むことを可能にすることによって、資格認定システムは、時間がたつにつれて超音波検査における現在の傾向と一致するように調整することができる。例えば、現在は、最新技術では、時間的データ(例えば、候補者が超音波検査を実行するのにかかる時間)にかなりの重点を置くようにしてもよい。将来は、現在の技術水準は変化し、圧力データにより重点を置くようにしてもよい。資格認定システムは、重みベクトルを介してこれらの変化に容易に対応することができる。幾つかの実施形態において、資格認定システムは、ニューラルネットワーク303による自動化された審査と、審査者(例えば、図1の審査者112)によって実行される手作業による審査との組み合わせに基づいて候補者を資格認定する。例えば、資格認定システムは、能力の閾値が満たされるまで、候補者資格認定アプリケーション及び上記のニューラルネットワークを使用した超音波データの自動審査に超音波データの審査を制限することができる。能力の閾値が満たされると、資格認定システムは、手作業審査の一部として審査するために、候補者から審査者に超音波データを提供することができる。 In some embodiments, the neural network 303 receives a weight vector that assigns relative weights to the secondary inputs 305. For example, the weight vector can include user-assigned values between 0 and 1 to place more or less emphasis on the secondary inputs, for example, by weighting probe orientation data more heavily than audio data. By allowing the weights to include user-assigned weights, the qualification system can adjust to match current trends in ultrasound testing over time. For example, currently, the state of the art may place a significant emphasis on temporal data (e.g., the time it takes a candidate to perform an ultrasound test). In the future, the current state of the art may change and place more emphasis on pressure data. The qualification system can easily accommodate these changes via the weight vector. In some embodiments, the qualification system qualifies candidates based on a combination of automated review by the neural network 303 and manual review performed by a reviewer (e.g., reviewer 112 of FIG. 1). For example, the credentialing system can limit review of ultrasound data to the candidate credentialing application and automated review of ultrasound data using the neural network described above until a competency threshold is met. Once the competency threshold is met, the credentialing system can provide ultrasound data from the candidate to a reviewer for review as part of a manual review.

能力の閾値の一例として、候補者が、直近の5つの検査など、規定の検査回数の合格スコア(例えば、バイナリ「合格」ラベル又はA若しくはBの文字等級)を受け取ることが挙げられる。これに加えて又は代えて、能力の閾値は、膀胱スキャン又は超音波プロトコルによるスキャンなどのために、ある種の検査に合格する(例えば、許容可能な文字等級を受け取る)ことを必要とし得る。超音波プロトコルの一例は、外傷患者の腹水、心膜液、気胸、及び/又は血胸を検出するように設計される、外傷における超音波検査による拡張集中評価(eFAST)である。一例では、深部静脈血栓症(DVT)の有無を診断するための下肢の血管エコー検査のために、資格認定システムは、幾つかの基準断面が中心側から末梢側に連続して観察されるかどうかを評価することができる。別の例では、腹部の検査について、病院ごとに複数の代表部位を観察する順序が予め定められている場合、資格認定システムは、予め定められた順序に従って検査が行われたか否かを評価することができる。したがって、資格認定システムは、候補者によって実行された試験の履歴に基づいて自動審査から手作業審査に候補者を転送することができる。 An example of a competency threshold is a candidate receiving a passing score (e.g., a binary "pass" label or a letter grade of A or B) for a specified number of tests, such as the last five tests. Additionally or alternatively, a competency threshold may require a candidate to pass certain tests (e.g., receive an acceptable letter grade), such as for a bladder scan or a scan with an ultrasound protocol. An example of an ultrasound protocol is the Extended Focused Assessment with Ultrasound in Trauma (eFAST), which is designed to detect ascites, pericardial effusion, pneumothorax, and/or hemothorax in trauma patients. In one example, for a vascular ultrasound examination of the lower extremities to diagnose the presence or absence of deep vein thrombosis (DVT), the qualification system may evaluate whether several reference sections are observed consecutively from the central side to the peripheral side. In another example, for abdominal examinations, if the order of observing multiple representative sites is predetermined for each hospital, the qualification system may evaluate whether the examinations were performed according to the predetermined order. Thus, the qualification system may transfer a candidate from an automated review to a manual review based on the history of tests performed by the candidate.

幾つかの実施形態では、候補者を資格認定するために、資格認定システムは、幾つかの審査の反復を課し、各反復には、最初にニューラルネットワークによる自動審査を含み、その後、自動審査の成功完了時に審査者による手作業審査が続く。幾つかの実施形態において、資格認定システムは、例えば困難さ、内容、患者の対応可能性、及び他の特性などによって、1又は複数の特性に基づいて審査プロセスの反復をグループ化する。例えば、第1の反復は膀胱の超音波検査を含むことができ、第2の反復は超音波プロトコルによる超音波検査を含むことができ、第3の反復は心臓の解剖学的構造の超音波検査を含むことができ、第4の反復はシミュレータシステム(例えば、シミュレータシステム108)を使用した超音波検査を含むことができる(より詳細に後述する)などである。 In some embodiments, to qualify a candidate, the qualification system subjects the candidate to several screening iterations, each iteration including an initial automated review by a neural network followed by a manual review by a human reviewer upon successful completion of the automated review. In some embodiments, the qualification system groups the iterations of the screening process based on one or more characteristics, such as by difficulty, content, patient availability, and other characteristics. For example, a first iteration may include an ultrasound examination of the bladder, a second iteration may include an ultrasound examination with an ultrasound protocol, a third iteration may include an ultrasound examination of the cardiac anatomy, a fourth iteration may include an ultrasound examination using a simulator system (e.g., simulator system 108) (described in more detail below), etc.

幾つかの実施形態において、資格認定システムは、超音波検査候補者の検査結果及び検査データを記憶する資格認定データベースを含む。例えば、資格認定データベースは、ニューラルネットワークへの入力として使用されるデータ、及び図3に示すようにニューラルネットワークによって生成されたデータ、例えば超音波画像、センサデータ、動きデータ、方向データ、候補者及び/又は患者によって話された音声、グリップマップ、検査スコア、画質スコアなどを記憶することができる。図1のサーバシステム111は、資格認定データベースを含むことができる。資格認定データベースに記憶されたデータは、ニューラルネットワークへの入力として提供することができる。したがって、ニューラルネットワークは、候補者によって行われた現在の検査から得たデータだけでなく、候補者によって行われた過去の検査から得たデータに基づいて、超音波検査候補者の検査スコアを生成することができる。資格認定システムは、例えば、現在の検査に対してより困難な閾値(より高いスコア閾値など)及び以前の検査に対してより容易な閾値を使用することなど、以前の検査を現在の検査とは異なるように重み付けするように構成され得る。一例では、資格認定データベースからのデータは、超音波検査候補者のデータの履歴に基づいて検査スコアを決定論的に生成する決定木に提供される。これに加えて又は代えて、資格認定データベースからのデータは、超音波検査候補者のデータの履歴から検査スコアを生成するように訓練されたニューラルネットワークに提供され得る。 In some embodiments, the credentialing system includes a credentialing database that stores the test results and test data of ultrasound candidates. For example, the credentialing database can store data used as input to the neural network and data generated by the neural network as shown in FIG. 3, such as ultrasound images, sensor data, motion data, orientation data, voice spoken by the candidate and/or patient, grip map, test score, image quality score, etc. The server system 111 of FIG. 1 can include a credentialing database. The data stored in the credentialing database can be provided as input to the neural network. Thus, the neural network can generate a test score for an ultrasound candidate based on data from past tests performed by the candidate as well as data from the current test performed by the candidate. The credentialing system can be configured to weight previous tests differently from the current test, such as, for example, using a more difficult threshold (e.g., a higher score threshold) for the current test and easier thresholds for previous tests. In one example, data from the credentialing database is provided to a decision tree that deterministically generates a test score based on the history of the ultrasound candidate's data. Additionally or alternatively, data from the credentialing database can be provided to a neural network trained to generate exam scores from the ultrasound exam candidate's historical data.

図4は、幾つかの実施形態における、超音波検査者資格認定を超音波検査候補者に発行するための資格認定システムによって実施されるプロセス400のデータフロー図である。図1及び図4を参照すると、資格認定システムは、コンピューティングデバイス102に接続されたプローブ103を含む超音波システムを含む。幾つかの実施形態において、コンピューティングデバイスは、プロセス400を実行するために、1又は複数のプロセッサと、プロセッサに接続されたメモリとを含む。幾つかの実施形態において、プロセス400は、処理ロジックを使用して実行される。処理ロジックは、ハードウェア(回路、専用ロジックなど)、ソフトウェア(汎用コンピュータシステム又は専用マシン上で実行されるものなど)、ファームウェア、又はそれらの組み合わせを含むことができる。ブロック401では、超音波プローブを使用して超音波データが生成される。ブロック402では、超音波データに基づいて、自動審査の一部として、超音波検査スコアが生成される。幾つかの実施形態において、コンピューティングデバイスは、自動審査の一部として超音波データに基づいて画質スコアを生成するために、1又は複数のニューラルネットワーク106を実装するように構成され、超音波検査スコアは画質スコアに基づく。幾つかの実施形態において、コンピューティングデバイスは、超音波データに基づいて解剖学的構造を判定するように実装される。次いで、コンピューティングデバイスは、複数のニューラルネットワークの中から解剖学的構造に基づいてニューラルネットワークを選択することができる。 FIG. 4 is a data flow diagram of a process 400 implemented by a credentialing system for issuing a sonographer credential to a sonography candidate in some embodiments. With reference to FIGS. 1 and 4, the credentialing system includes an ultrasound system including a probe 103 connected to a computing device 102. In some embodiments, the computing device includes one or more processors and memory connected to the processor to execute the process 400. In some embodiments, the process 400 is executed using processing logic. The processing logic may include hardware (circuitry, dedicated logic, etc.), software (such as running on a general-purpose computer system or a dedicated machine), firmware, or a combination thereof. In block 401, ultrasound data is generated using an ultrasound probe. In block 402, a sonography score is generated as part of an automated review based on the ultrasound data. In some embodiments, the computing device is configured to implement one or more neural networks 106 to generate an image quality score based on the ultrasound data as part of the automated review, and the sonography score is based on the image quality score. In some embodiments, the computing device is implemented to determine an anatomical structure based on the ultrasound data. The computing device can then select a neural network from among the multiple neural networks based on the anatomical structure.

幾つかの実施形態では、超音波プローブがタッチ感知面を含み、プロセッサはタッチ感知面上にグリップの向きを生成するように実装される。プロセッサは、前述したように、グリップの向きをグリップマップとして表すことができる。コンピューティングデバイスは、グリップの向きに基づいて超音波検査スコアを生成するように実装される。幾つかの実施形態において、超音波プローブは、患者に対する超音波プローブの圧力の大きさを示す圧力データを生成するように実装された圧力センサを含み、コンピューティングデバイスは、圧力データに基づいて超音波検査スコアを生成するように実装される。幾つかの実施形態において、資格認定システムは、音声コンテンツを記録するように実装された音声プロセッサを含み、コンピューティングデバイスは、音声コンテンツに基づいて超音波検査スコアを生成するように実装される。 In some embodiments, the ultrasound probe includes a touch-sensitive surface, and the processor is implemented to generate a grip orientation on the touch-sensitive surface. The processor may represent the grip orientation as a grip map, as described above. The computing device is implemented to generate an ultrasound examination score based on the grip orientation. In some embodiments, the ultrasound probe includes a pressure sensor implemented to generate pressure data indicative of a magnitude of pressure of the ultrasound probe on the patient, and the computing device is implemented to generate an ultrasound examination score based on the pressure data. In some embodiments, the qualification system includes an audio processor implemented to record audio content, and the computing device is implemented to generate an ultrasound examination score based on the audio content.

幾つかの実施形態では、超音波プローブは、超音波プローブの動きデータを生成するように実装された慣性測定ユニットを含み、コンピューティングデバイスは、動きデータに基づいて超音波検査スコアを生成するように実装される。幾つかの実施形態において、資格認定システムは、超音波検査候補者の動きデータ(例えば、検査中に超音波検査候補者がどのように移動するかを示すデータ)を生成するように実装されたセンサシステムを含み、コンピューティングデバイスは、動きデータに基づいて超音波検査スコアを生成するように実装される。幾つかの実施形態において、センサシステムは、超音波検査候補者によって装着されるように構成されたウェアラブルセンサを含む。動きデータは、ウェアラブルセンサによって検知されたデータに基づいて生成することができる。幾つかの実施形態では、資格認定システムがシミュレータシステム(例えば、図1のシミュレータシステム108)を含む。シミュレータシステムはダミー患者を含むことができ、超音波プローブは、ダミー患者に超音波を送信し、ダミー患者からの超音波の反射に基づいて超音波データを生成するように実装することができる。図4に示されるように、コンピューティングデバイスは、ブロック403において、超音波検査スコアに基づいて、超音波検査候補者に関連するデータを自動審査から審査者による手作業審査に転送する。ニューラルネットワークに基づく自動審査から審査者に基づく手作業審査に超音波検査候補者を転送することによって、コンピューティングデバイスは、資格認定プロセスを通じて、超音波検査証明書を発行する目標に近づけるように、超音波検査候補者を向上させる。幾つかの実施形態では、資格認定システムは、候補者が自動審査から手作業審査に転送されるときに候補者のデータを匿名化し、その結果、審査者は候補者を識別することができない。この匿名化は、審査者による固有のバイアスを除去することができる。 In some embodiments, the ultrasound probe includes an inertial measurement unit implemented to generate motion data of the ultrasound probe, and the computing device is implemented to generate an ultrasound examination score based on the motion data. In some embodiments, the qualification system includes a sensor system implemented to generate motion data of the ultrasound examination candidate (e.g., data indicative of how the ultrasound examination candidate moves during the examination), and the computing device is implemented to generate an ultrasound examination score based on the motion data. In some embodiments, the sensor system includes a wearable sensor configured to be worn by the ultrasound examination candidate. The motion data can be generated based on data sensed by the wearable sensor. In some embodiments, the qualification system includes a simulator system (e.g., simulator system 108 of FIG. 1). The simulator system can include a dummy patient, and the ultrasound probe can be implemented to transmit ultrasound to the dummy patient and generate ultrasound data based on reflection of the ultrasound from the dummy patient. As shown in FIG. 4, the computing device transfers data related to the ultrasound examination candidate from the automated review to a manual review by a reviewer based on the ultrasound examination score in block 403. By transferring ultrasound candidates from neural network-based automated review to reviewer-based manual review, the computing device improves ultrasound candidates through the credentialing process to move them closer to the goal of issuing a ultrasound certification. In some embodiments, the credentialing system anonymizes the candidate's data as they are transferred from automated to manual review, so that reviewers cannot identify the candidate. This anonymization can remove any inherent bias from reviewers.

幾つかの実施形態において、資格認定システムは、前述したように、超音波検査候補者の検査結果を記憶する資格認定データベースを含む。コンピューティングデバイスは、超音波検査候補者とは異なる超音波検査候補者の少なくとも幾つかについての資格認定データベースからの検査結果に基づいて、超音波検査候補者を自動審査から手作業審査に転送することができる。幾つかの実施形態において、資格認定システムは、手作業審査を通過した超音波検査候補者、及び自動審査でどのタイプの検査を通過したかなど、それらが互いに共通して有するものを見るように訓練される。次いで、資格認定システムは、現在の超音波検査候補者が、他の超音波検査候補者が合格した自動審査における検査にも合格した場合にのみ、現在の超音波検査候補者に関連するデータを自動審査から手作業審査に転送することができる。このようにして、資格認定システムは、現在の超音波検査候補者の能力の予測因子として他の超音波検査候補者のデータを使用することができる。資格認定データベースからのデータは、現在の超音波検査候補者の能力を予測するように訓練されたニューラルネットワークに提供することができる。ニューラルネットワークは、図1に示すようなニューラルネットワークであってもよく、追加のニューラルネットワークであってもよい。 In some embodiments, the credentialing system includes a credentialing database that stores the test results of the ultrasound candidates, as described above. The computing device can transfer the ultrasound candidates from the automated screening to the manual screening based on the test results from the credentialing database for at least some of the ultrasound candidates that are different from the ultrasound candidates. In some embodiments, the credentialing system is trained to look at the ultrasound candidates that passed the manual screening and what they have in common with each other, such as what type of tests they passed in the automated screening. The credentialing system can then transfer data related to the current ultrasound candidate from the automated screening to the manual screening only if the current ultrasound candidate also passed the tests in the automated screening that the other ultrasound candidate passed. In this way, the credentialing system can use the data of the other ultrasound candidates as a predictor of the performance of the current ultrasound candidate. The data from the credentialing database can be provided to a neural network trained to predict the performance of the current ultrasound candidate. The neural network can be a neural network as shown in FIG. 1 or can be an additional neural network.

幾つかの実施形態において、資格認定システムは、複数の超音波検査候補者のデータ(例えば、資格認定データベースからのデータ)を使用して、現在の候補者の等級などの検査スコアを決定する。例えば、資格認定システムは、複数の候補者の複数の試験スコアを見て、それらの試験スコアに従って、候補者の上位半分に合格等級を割り当て、候補者の下位半分に不合格等級を割り当てることなどによって、又は候補者の上位30%に合格等級を割り当て、候補者の下位70%に不合格等級を割り当てることによって、「曲線上」に等級付けすることができる。 In some embodiments, the credentialing system uses data for multiple ultrasound candidates (e.g., data from a credentialing database) to determine a test score, such as a grade for the current candidate. For example, the credentialing system can look at multiple test scores for multiple candidates and grade them "on a curve" according to their test scores, such as by assigning a passing grade to the top half of the candidates and a failing grade to the bottom half of the candidates, or by assigning a passing grade to the top 30% of the candidates and a failing grade to the bottom 70% of the candidates.

図5は、幾つかの実施形態における、超音波検査者資格認定を超音波検査候補者に発行するための資格認定システムによって実施されるプロセス500のデータフロー図である。図1及び図5を参照すると、資格認定システムは、超音波画像を生成するように構成された超音波システム101を含む(ブロック501)。資格認定システムは、少なくとも部分的に資格認定システムのハードウェアに実装され、超音波画像の第1のサブセットの画質スコアを生成し(ブロック502)、画質スコアに基づいて超音波画像の第2のサブセットを審査者コンピューティングデバイスに通信する(ブロック503)ように構成された候補者資格認定アプリケーション107を含む。例えば、画像の第1のサブセットは、撮像されている第1の解剖学的構造(例えば、膀胱)、第1の超音波プロトコル(例えば、eFAST)、第1の検査プリセット(例えば、ブラダプリセット)などに対応することができ、画像の第2のサブセットは、撮像されている第2の解剖学的構造(例えば、肺)、第2のプロトコル(例えば、eFAST以外のプロトコル)、第2の検査タイプ(例えば、心臓プリセット)などに対応することができる。 5 is a data flow diagram of a process 500 implemented by a credentialing system for issuing a sonographer credential to an ultrasound candidate in some embodiments. With reference to FIGS. 1 and 5, the credentialing system includes an ultrasound system 101 configured to generate ultrasound images (block 501). The credentialing system includes a candidate credentialing application 107 implemented at least in part in the credentialing system hardware and configured to generate an image quality score for a first subset of the ultrasound images (block 502) and communicate a second subset of the ultrasound images to an examiner computing device based on the image quality score (block 503). For example, the first subset of images can correspond to a first anatomical structure being imaged (e.g., bladder), a first ultrasound protocol (e.g., eFAST), a first exam preset (e.g., bladder preset), etc., and the second subset of images can correspond to a second anatomical structure being imaged (e.g., lungs), a second protocol (e.g., a protocol other than eFAST), a second exam type (e.g., cardiac preset), etc.

幾つかの実施形態では、超音波画像の第1のサブセット及び超音波画像の第2のサブセットは、互いに相違する(disjoint)。幾つかの実施形態では、資格認定システムは、コンピューティングデバイス102に接続された審査者コンピューティングデバイス113を含む。幾つかの実施形態において、候補者資格認定アプリケーションは、画質スコアのうちの少なくとも1つが閾値スコアを下回ることに基づいて、画質スコアのうちの少なくとも1つを改善するための超音波検査候補者のガイダンスを決定する。資格認定システムは、ガイダンスを視覚的表現で表示する表示装置を含むことができる。幾つかの実施形態において、視覚的表現は、訓練ビデオ、超音波プローブのアイコン、超音波プローブを移動させる方向を示す矢印、及び超音波プローブを保持するためのグリップの向きのアイコンのうちの少なくとも1つを含む。 In some embodiments, the first subset of ultrasound images and the second subset of ultrasound images are disjoint. In some embodiments, the qualification system includes an examiner computing device 113 connected to the computing device 102. In some embodiments, the candidate qualification application determines guidance for the ultrasound candidate to improve at least one of the image quality scores based on at least one of the image quality scores being below a threshold score. The qualification system can include a display device that displays the guidance in a visual representation. In some embodiments, the visual representation includes at least one of a training video, an icon of an ultrasound probe, an arrow indicating a direction to move the ultrasound probe, and an icon of a grip orientation for holding the ultrasound probe.

幾つかの実施形態において、候補者資格認定アプリケーションは、画質スコアの割合の少なくとも1つが閾値スコアを上回ることに基づいて、超音波画像の第2のサブセットを審査者コンピューティングデバイスに通信する。例えば、候補者資格認定アプリケーションは、画質スコアの割合が閾値スコアよりも大きい場合、超音波画像の第2のサブセットを通信する。幾つかの実施形態では、第1のサブセットは、特定の解剖学的構造の少なくとも1つの超音波画像を含む。幾つかの実施形態では、第1のサブセットは、指定された撮像モードで超音波システムを用いて生成された少なくとも1つの超音波画像を含む。幾つかの実施形態では、第1のサブセットは、指定された検査プロトコルに従って生成された少なくとも1つの超音波画像を含む。 In some embodiments, the candidate qualification application communicates the second subset of ultrasound images to the examiner computing device based on at least one of the percentages of image quality scores being above a threshold score. For example, the candidate qualification application communicates the second subset of ultrasound images if the percentage of image quality scores is greater than the threshold score. In some embodiments, the first subset includes at least one ultrasound image of a particular anatomical structure. In some embodiments, the first subset includes at least one ultrasound image generated using the ultrasound system in a specified imaging mode. In some embodiments, the first subset includes at least one ultrasound image generated according to a specified examination protocol.

幾つかの実施形態において、候補者資格認定アプリケーションは、画質スコアを生成するニューラルネットワークを含む。幾つかの実施形態において、ニューラルネットワークは、超音波システムの超音波プローブのグリップの向き(例えば、図2に関して前述したようなグリップマップ)、超音波プローブの移動量、超音波検査候補者の移動量、音声コンテンツ、超音波プローブによって患者に加えられる圧力の大きさ、及び超音波システムを動作させて超音波画像を生成するために超音波検査候補者によって取られた時間の量のうちの少なくとも1つに基づいて画質スコアを生成する。 In some embodiments, the candidate qualification application includes a neural network that generates an image quality score. In some embodiments, the neural network generates an image quality score based on at least one of a grip orientation of an ultrasound probe of an ultrasound system (e.g., a grip map as described above with respect to FIG. 2), an amount of movement of the ultrasound probe, an amount of movement of the ultrasound candidate, audio content, an amount of pressure applied to the patient by the ultrasound probe, and an amount of time taken by the ultrasound candidate to operate the ultrasound system to generate an ultrasound image.

図6は、幾つかの実施形態に係る超音波検査資格認定システムによって実施されるプロセス600のデータフロー図である。図1及び図6を参照すると、超音波検査資格認定システムは、超音波データを生成するように構成された超音波プローブ103を含む(ブロック601)。超音波検査資格認定システムは、超音波データに基づいて超音波画像を生成するように構成されたコンピューティングデバイス102を含む(ブロック602)。超音波検査資格認定システムは、超音波画像に基づいて画質スコアを生成するためにコンピューティングデバイスのハードウェアに少なくとも部分的に実装されたニューラルネットワーク106を含む(ブロック603)。超音波検査資格認定システムは、画質スコアに基づいて超音波検査者資格認定を発行するように構成された資格認定デバイス(例えば、コンピューティングデバイスのプロセッサによって少なくとも部分的に実装される)を含む(ブロック604)。 6 is a data flow diagram of a process 600 implemented by a ultrasound examination qualification system according to some embodiments. With reference to FIGS. 1 and 6, the ultrasound examination qualification system includes an ultrasound probe 103 configured to generate ultrasound data (block 601). The ultrasound examination qualification system includes a computing device 102 configured to generate ultrasound images based on the ultrasound data (block 602). The ultrasound examination qualification system includes a neural network 106 implemented at least in part in the hardware of the computing device to generate an image quality score based on the ultrasound images (block 603). The ultrasound examination qualification system includes a qualification device (e.g., implemented at least in part by a processor of the computing device) configured to issue a sonographer qualification based on the image quality score (block 604).

幾つかの実施形態において、超音波検査資格認定システムは、候補者のスコアの履歴に基づいて証明書を発行する。幾つかの実施形態では、超音波検査資格認定システムは、候補者のスコアが他の候補者の2/3のスコアよりも大きい場合に証明書を発行する。幾つかの実施形態において、超音波検査資格認定システムは、候補者が全ての候補者の上位3分の1又は他の基準にあるときに証明書を発行する。 In some embodiments, the ultrasound certification system issues a certificate based on the candidate's score history. In some embodiments, the ultrasound certification system issues a certificate when the candidate's score is greater than 2/3 of the other candidates' scores. In some embodiments, the ultrasound certification system issues a certificate when the candidate is in the top third of all candidates or other criteria.

幾つかの実施形態において、資格認定システムは、超音波検査中に候補者にガイダンスを提供する。例えば、ガイダンスは、コンピューティングデバイスのユーザインタフェース上の候補者資格認定アプリケーションによって表示されるヒントを含むことができる。資格認定システムは、ニューラルネットワークのうちの1又は複数を使用してガイダンスを決定することができる。例えば、ニューラルネットワークは、超音波データ(例えば、超音波画像)に基づいて、超音波画像の品質を改善するために撮像パラメータを調整する必要があると決定することができる。撮像パラメータの例には、ゲイン、深度、及び検査タイプが含まれる。ニューラルネットワークは、撮像パラメータの調整を生成することができ、候補者資格認定アプリケーションは、ニューラルネットワークからの推奨された調整に従って撮像パラメータを調整するためのメッセージをユーザインタフェース上に表示することができる。 In some embodiments, the qualification system provides guidance to the candidate during the ultrasound examination. For example, the guidance may include hints displayed by the candidate qualification application on a user interface of the computing device. The qualification system may determine the guidance using one or more of the neural networks. For example, the neural network may determine, based on the ultrasound data (e.g., ultrasound images), that imaging parameters need to be adjusted to improve the quality of the ultrasound images. Examples of imaging parameters include gain, depth, and exam type. The neural network may generate adjustments to the imaging parameters, and the candidate qualification application may display a message on the user interface to adjust the imaging parameters according to the recommended adjustments from the neural network.

幾つかの実施形態において、ガイダンスは、プローブの移動の表示を含む。資格認定システムは、例えば、方向矢印を表示すること、「プローブを患者の中心に向かって移動させる」という音声推奨をブロードキャストすること、プローブの触覚フィードバック、それらの組み合わせなどによって、ユーザインタフェースを介してガイダンスを伝達する。幾つかの実施形態では、ガイダンスは、候補者への特定の訓練の推奨を含む。例えば、資格認定システムは、ニューラルネットワーク出力、実行されている超音波検査のタイプ、撮像されている解剖学的構造、撮像パラメータ、及び超音波データのうちの1又は複数に基づいて、訓練材料のデータベースから訓練材料を決定して、候補者の超音波検査技術を向上させることができる。サーバシステムは、訓練資料のデータベースを維持し、候補者コンピューティングデバイスからの要求に応じて推薦訓練資料を候補者資格認定アプリケーションに提供することができる。 In some embodiments, the guidance includes an indication of probe movement. The qualification system communicates the guidance via a user interface, for example, by displaying directional arrows, broadcasting a voice recommendation to "move the probe toward the center of the patient," haptic feedback on the probe, a combination thereof, etc. In some embodiments, the guidance includes a recommendation of a particular training to the candidate. For example, the qualification system can determine training material from a database of training materials based on one or more of the neural network output, the type of ultrasound exam being performed, the anatomy being imaged, the imaging parameters, and the ultrasound data to improve the candidate's ultrasound examination skills. A server system can maintain the database of training materials and provide recommended training materials to the candidate qualification application upon request from the candidate computing device.

幾つかの実施形態では、資格認定システムは、資格認定システムに候補者によって提供される要求(例えば、候補者要求)に基づいてガイダンスを生成し、候補者コンピューティングシステムに伝達する。候補者要求は、話され、タイプされ、ジェスチャされるなどとすることができる。例えば、候補者は、「助けて、プローブをどのように保持するのか?」と話したり、ヘルプが必要であることを示すために、空中で「X」をスワイプするなど、指定された方法でプローブを用いてジェスチャしたりすることができる。幾つかの実施形態では、資格認定システムは、候補者からの明示的な要求なしに候補者のためのガイダンスを生成することができる。例えば、資格認定システムは、コンピューティングデバイス内のニューラルネットワークの出力から、候補者が超音波検査に合格していないと判定することができる(例えば、ニューラルネットワークは、不合格スコアに対応する品質メトリックを生成している)。したがって、資格認定システムは、候補者に超音波システムの適切な使用を指示するガイダンスを候補者に通信することができる。幾つかの実施形態では、資格認定システムが現在の超音波データの候補者にガイダンスを通信する場合、資格認定システムは、候補者を資格認定するために現在の超音波データを受け入れない。むしろ、資格認定システムは、候補者が新しい超音波データに対して提供されるガイダンスなしに新しい超音波データを生成し、資格認定に向けて検討するためにこの新しい超音波データを提出することが要求される。 In some embodiments, the credentialing system generates and communicates guidance to the candidate computing system based on a request (e.g., a candidate request) provided by the candidate to the credentialing system. The candidate request can be spoken, typed, gestured, etc. For example, the candidate can speak, "Help, how do I hold the probe?" or gesture with the probe in a specified manner, such as swiping an "X" in the air, to indicate that help is needed. In some embodiments, the credentialing system can generate guidance for a candidate without an explicit request from the candidate. For example, the credentialing system can determine from the output of a neural network in a computing device that the candidate has not passed an ultrasound examination (e.g., the neural network has generated a quality metric corresponding to a fail score). Thus, the credentialing system can communicate guidance to the candidate instructing the candidate on proper use of the ultrasound system. In some embodiments, if the credentialing system communicates guidance to the candidate of the current ultrasound data, the credentialing system does not accept the current ultrasound data to credential the candidate. Rather, the credentialing system would require candidates to generate new ultrasound data without guidance being provided for new ultrasound data and to submit this new ultrasound data for consideration toward credentialing.

図1に戻って参照すると、資格認定システムは、候補者105によって操作されるコンピューティングデバイスに接続されたシミュレータシステム108を含む。シミュレータシステム108は、生きている患者が利用できない場合に、生きている患者の超音波検査をエミュレートするためのハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせを含む。例えば、遊離流体の検出などの緊急の手当を必要とする一部の種類の超音波検査及び患者の状態では、そのような状態が生命を脅かす可能性があるため、候補者がその状態で生きている患者に近づいて、資格認定の目的で訓練中の超音波検査を実行することは実現的には不可能であり得る。したがって、資格認定システムは、画像データを生成することができるシミュレータシステムを含む。例えば、資格認定システムは、超音波プローブによって撮像することができるダミー患者(例えば、胴体及び頭部、全身ダミーなど)を含むことができる。ダミー患者は、人工の解剖学的構造を含むことができ、超音波プローブ及びコンピューティングデバイスは、人工の解剖学的構造の超音波画像を生成することができる。 Referring back to FIG. 1, the qualification system includes a simulator system 108 connected to a computing device operated by the candidate 105. The simulator system 108 includes hardware, software, firmware, or a combination thereof for emulating an ultrasound examination on a live patient when a live patient is not available. For example, for some types of ultrasound examinations and patient conditions that require immediate attention, such as detection of free fluid, it may not be feasible for a candidate to approach a live patient in that condition to perform the ultrasound examination in training for the purpose of qualification, since such conditions may be life-threatening. Thus, the qualification system includes a simulator system capable of generating image data. For example, the qualification system may include a dummy patient (e.g., torso and head, full body dummy, etc.) that can be imaged by an ultrasound probe. The dummy patient may include an artificial anatomical structure, and the ultrasound probe and computing device may generate an ultrasound image of the artificial anatomical structure.

幾つかの実施形態では、シミュレータシステムは、超音波画像を模倣するが、超音波システムによって送信された超音波信号から直接導出されない画像データを生成する。例えば、画像データは、ダミー患者上の接触点又は接触面積などのプローブの位置及び方向データ、並びにプローブの6自由度に対応するデータに基づいて、シミュレータシステムによって生成され得る。幾つかの実施形態において、シミュレータシステムは、候補者によって設定された撮像パラメータに基づいて画像データを生成する。位置データ、方向データ、及び撮像パラメータは、例えばベクトルに集約され、ニューラルネットワーク106に入力として供給することができる。ニューラルネットワークは、超音波画像のように見える画像を生成するように訓練することができ、この画像は、候補者を認証するために資格認定システムによって使用することができる。 In some embodiments, the simulator system generates image data that mimics ultrasound images but is not derived directly from ultrasound signals transmitted by the ultrasound system. For example, the image data may be generated by the simulator system based on position and orientation data of the probe, such as the contact points or contact areas on a dummy patient, and data corresponding to the six degrees of freedom of the probe. In some embodiments, the simulator system generates image data based on imaging parameters set by the candidate. The position data, orientation data, and imaging parameters may be aggregated, for example, into a vector and provided as input to the neural network 106. The neural network may be trained to generate images that look like ultrasound images, which may be used by the credentialing system to authenticate the candidate.

幾つかの実施形態において、シミュレータシステム108によって生成された画像は、自動審査の一部として前述したように、候補者のコンピューティングデバイス102の1又は複数のニューラルネットワークによって審査される。例えば、ニューラルネットワークは、画像の品質メトリック、又は画像の等級を生成することができる。幾つかの実施形態では、資格認定システムは、グラウンドトゥルース画像に基づいて画像の品質メトリック又は等級を決定する。例えば、資格認定システムは、様々な解剖学的構造及び検査タイプについて訓練された専門家によって収集されたグラウンドトゥルース画像のデータベースを含むことができる。資格認定システムは、シミュレータシステムによって生成された画像を、平均二乗誤差(例えば、画像から抽出された画素又は特徴)などのグラウンドトゥルース画像と比較して、画像の品質メトリック又は等級を決定することができる。幾つかの実施形態では、ニューラルネットワークは、シミュレータシステムによって生成された画像の品質メトリック又は等級を生成するために、シミュレータシステムによって生成された画像に加えて、第2の(又は条件付き)入力として正解画像を受信する。 In some embodiments, the images generated by the simulator system 108 are reviewed by one or more neural networks of the candidate's computing device 102, as described above as part of the automated review. For example, the neural network can generate a quality metric for the image, or a grade for the image. In some embodiments, the qualification system determines the quality metric or grade for the image based on ground truth images. For example, the qualification system can include a database of ground truth images collected by trained experts for various anatomical structures and exam types. The qualification system can compare the images generated by the simulator system to the ground truth images, such as mean squared error (e.g., pixels or features extracted from the image), to determine the quality metric or grade for the image. In some embodiments, the neural network receives ground truth images as a second (or conditional) input in addition to the images generated by the simulator system to generate a quality metric or grade for the images generated by the simulator system.

図7は、図1のコンピューティングデバイス102などの、幾つかの実施形態に係るコンピューティングデバイスによって実施される方法700のデータフロー図である。方法700は、ブロック701において、コンピューティングデバイスに接続された超音波プローブから超音波データを受信することを含む。幾つかの実施形態において、超音波プローブは、ダミー患者に超音波信号を送信し、超音波信号に基づいて超音波データを決定するようにコンピューティングデバイスによって命令される。ブロック702において、超音波データに基づいてコンピューティングデバイスによって画質スコアが生成される。幾つかの実施形態において、画質スコアは、コンピューティングデバイスのハードウェアに少なくとも部分的に実装されたニューラルネットワークを用いて生成される。幾つかの実施形態では、超音波データに基づいて解剖学的構造が判定され、ニューラルネットワークは、複数のニューラルネットワークの中から解剖学的構造に基づいて選択される。ブロック703において、超音波データは、画質スコアに基づいて、ユーザの資格認定のために審査者コンピューティングデバイスに通信される。 7 is a data flow diagram of a method 700 implemented by a computing device according to some embodiments, such as the computing device 102 of FIG. 1. The method 700 includes receiving ultrasound data from an ultrasound probe connected to the computing device at block 701. In some embodiments, the ultrasound probe is instructed by the computing device to transmit ultrasound signals to a dummy patient and determine ultrasound data based on the ultrasound signals. At block 702, an image quality score is generated by the computing device based on the ultrasound data. In some embodiments, the image quality score is generated using a neural network implemented at least in part in the hardware of the computing device. In some embodiments, an anatomical structure is determined based on the ultrasound data, and a neural network is selected from among a plurality of neural networks based on the anatomical structure. At block 703, the ultrasound data is communicated to an examiner computing device for user qualification based on the image quality score.

幾つかの実施形態では、超音波プローブから追加の超音波データが受信され、追加の超音波データに基づいて、コンピューティングデバイスによって追加の画質スコアが生成される。幾つかの実施形態では、コンピューティングデバイスは、追加の画質スコアに基づいて、ユーザの資格認定のために追加の超音波データを審査者コンピューティングデバイスに通信しないことを決定する。幾つかの実施形態では、追加の画質スコアを改善するためのガイダンスがコンピューティングデバイスのユーザインタフェースに表示される。幾つかの実施形態では、ガイダンスには、プローブを移動させる命令、撮像パラメータの調整、及び検査タイプのうちの少なくとも1つを含む。幾つかの実施形態では、追加の画質スコア及び追加の超音波データに基づいて、訓練材料が選択される。幾つかの実施形態では、トレーニング材料は、ユーザが利用するためにコンピューティングデバイス上に公開される。 In some embodiments, additional ultrasound data is received from the ultrasound probe, and an additional image quality score is generated by the computing device based on the additional ultrasound data. In some embodiments, the computing device determines not to communicate the additional ultrasound data to the examiner computing device for user qualification based on the additional image quality score. In some embodiments, guidance for improving the additional image quality score is displayed on a user interface of the computing device. In some embodiments, the guidance includes at least one of instructions to move the probe, adjustment of imaging parameters, and exam type. In some embodiments, training material is selected based on the additional image quality score and the additional ultrasound data. In some embodiments, the training material is published on the computing device for utilization by the user.

図8は、図1のコンピューティングデバイス102など、幾つかの実施形態に係るコンピューティングデバイスによって実施される方法800のデータフロー図である。方法800は、ブロック801において、コンピューティングデバイスに接続された超音波プローブから超音波データを受信することを含む。ブロック802において、超音波データに基づいてコンピューティングデバイスによって画質スコアが生成される。ブロック803において、画質スコアに基づいて、ユーザ資格認定のための審査者コンピューティングデバイスへの超音波データの通信が停止される。画質スコアが閾値品質スコアを下回っているので、コンピューティングデバイスは超音波データの通信を停止することができる。したがって、資格認定システムは、超音波データが「十分に良好」ではないと判定すると、審査者は、手作業審査の一部として超音波データの評価に時間を費やす。したがって、資格認定システムは、手作業による審査のみに依存し、審査者の時間を浪費し得る従来の資格認定システムよりも効率的である。 8 is a data flow diagram of a method 800 implemented by a computing device according to some embodiments, such as the computing device 102 of FIG. 1. The method 800 includes receiving ultrasound data from an ultrasound probe connected to the computing device at block 801. At block 802, an image quality score is generated by the computing device based on the ultrasound data. At block 803, based on the image quality score, communication of the ultrasound data to the reviewer computing device for user qualification is stopped. Because the image quality score is below a threshold quality score, the computing device may stop communication of the ultrasound data. Thus, when the qualification system determines that the ultrasound data is not "good enough," the reviewer spends time evaluating the ultrasound data as part of a manual review. Thus, the qualification system is more efficient than conventional qualification systems that rely solely on manual review and may waste reviewer time.

図9は、図1のコンピューティングデバイス102などの、幾つかの実施形態に係るコンピューティングデバイスによって実施される方法900のデータフロー図である。方法900は、ブロック901において、コンピューティングデバイスに接続された超音波プローブから超音波データを受信することを含む。ブロック902において、超音波データに基づいてコンピューティングデバイスによって画質スコアが生成される。ブロック903において、画質スコア及び超音波データは、ユーザ資格認定のために資格認定サーバに通信される。 FIG. 9 is a data flow diagram of a method 900 implemented by a computing device according to some embodiments, such as computing device 102 of FIG. 1. Method 900 includes, at block 901, receiving ultrasound data from an ultrasound probe connected to the computing device. At block 902, an image quality score is generated by the computing device based on the ultrasound data. At block 903, the image quality score and the ultrasound data are communicated to a certification server for user certification.

図10は、図1のコンピューティングデバイス102などの、幾つかの実施形態に係るコンピューティングデバイスによって実施される方法1000のデータフロー図である。方法1000は、ブロック1001において超音波画像を受信することを含む。ブロック1002において、超音波画像の第1のサブセットに関する画質スコアが生成される。ブロック1003において、超音波画像の第2のサブセットは、画質スコアに基づいて、ユーザ資格認定のために審査者コンピューティングデバイスに通信される。幾つかの実施形態では、超音波画像の第1のサブセット及び超音波画像の第2のサブセットは、互いに相違する。例えば、画像の第1のサブセットは、撮像されている第1の解剖学的構造(例えば、膀胱)、第1の超音波プロトコル(例えば、eFAST)、第1の検査プリセット(例えば、ブラダプリセット)などに対応することができ、画像の第2のサブセットは、撮像されている第2の解剖学的構造(例えば、肺)、第2のプロトコル(例えば、eFAST以外のプロトコル)、第2の検査タイプ(例えば、心臓プリセット)などに対応することができる。 FIG. 10 is a data flow diagram of a method 1000 implemented by a computing device according to some embodiments, such as the computing device 102 of FIG. 1. The method 1000 includes receiving ultrasound images at block 1001. At block 1002, an image quality score is generated for a first subset of the ultrasound images. At block 1003, the second subset of the ultrasound images is communicated to an examiner computing device for user qualification based on the image quality score. In some embodiments, the first subset of ultrasound images and the second subset of ultrasound images are distinct from one another. For example, the first subset of images can correspond to a first anatomical structure being imaged (e.g., bladder), a first ultrasound protocol (e.g., eFAST), a first exam preset (e.g., bladder preset), etc., and the second subset of images can correspond to a second anatomical structure being imaged (e.g., lungs), a second protocol (e.g., a protocol other than eFAST), a second exam type (e.g., cardiac preset), etc.

幾つかの実施形態において、方法1000は、超音波画像の第1のサブセット及び画質スコアをユーザの資格認定のために資格認定サーバに通信することを含む。幾つかの実施形態では、方法1000は、超音波画像を生成した候補者コンピューティングデバイスにコメントを通信することを含む。幾つかの実施形態では、コメントは、第2のサブセットを審査者コンピューティングデバイスに伝達することを示す。幾つかの実施形態では、コメントは、第1のサブセットの画質スコアのうちの少なくとも1つを含む。幾つかの実施形態では、コメントは、第1のサブセットの少なくとも1つの超音波画像が不合格等級に対応する画質スコアを有することを示す。幾つかの実施形態では、方法1000は、画像閾値の数を取得することを含む。幾つかの実施形態では、コメントは、少なくとも第1のサブセットの超音波画像の画像閾値の数が合格等級に対応する画質スコアを有することを示す。 In some embodiments, the method 1000 includes communicating the first subset of ultrasound images and the image quality scores to a credentialing server for user credentialing. In some embodiments, the method 1000 includes communicating a comment to a candidate computing device that generated the ultrasound images. In some embodiments, the comment indicates communicating the second subset to an examiner computing device. In some embodiments, the comment includes at least one of the image quality scores of the first subset. In some embodiments, the comment indicates that at least one ultrasound image of the first subset has an image quality score corresponding to a failing grade. In some embodiments, the method 1000 includes obtaining a number of image thresholds. In some embodiments, the comment indicates that at least a number of image thresholds of the ultrasound images of the first subset have an image quality score corresponding to a passing grade.

図11は、図1のコンピューティングデバイス102及び/又は審査者コンピューティングデバイス113などの幾つかの実施形態に係るコンピューティングデバイスによって実施される方法1100のデータフロー図である。方法1100は、ブロック1101において超音波画像を受信することを含む。ブロック1102において、超音波画像における画質スコアは、コンピューティングデバイスのハードウェアに少なくとも部分的に実装されたニューラルネットワークを使用して生成される。ブロック1103において、画質スコアに基づいて超音波検査資格認定が発行される。 FIG. 11 is a data flow diagram of a method 1100 implemented by a computing device according to some embodiments, such as computing device 102 and/or examiner computing device 113 of FIG. 1. Method 1100 includes receiving an ultrasound image at block 1101. At block 1102, an image quality score for the ultrasound image is generated using a neural network implemented at least in part in the hardware of the computing device. At block 1103, an ultrasound certification is issued based on the image quality score.

図12は、幾つかの実施形態に係る本明細書に記載の動作のうちの1又は複数を実行することができる例示的なコンピューティングデバイス1200のブロック図である。コンピューティングデバイス1200は、LAN、イントラネット、エクストラネット、及び/又はインターネット内の他のコンピューティング装置に接続されてもよい。コンピューティングデバイスは、クライアントサーバネットワーク環境におけるサーバマシンの能力において、又はピアツーピアネットワーク環境におけるクライアントの能力において動作することができる。コンピューティングデバイスは、パーソナルコンピュータ(PC)、サーバコンピューティング、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、又はそのマシンによって取られるべき動作を指定する命令セット(シーケンシャル又はその他)を実行することができる任意のマシンによって提供されてもよい。更に、単一のコンピューティングデバイスのみが示されているが、「コンピューティングデバイス」という用語はまた、本明細書で説明される方法を実行するために命令のセット(又は複数のセット)を個別に又は一緒に実行するコンピューティングデバイスの任意の集合を含むと解釈されるべきである。幾つかの実施形態では、コンピューティングデバイス1200は、アクセスポイント及びパケット転送構成要素のうちの1又は複数とすることができる。 FIG. 12 is a block diagram of an exemplary computing device 1200 capable of performing one or more of the operations described herein, according to some embodiments. The computing device 1200 may be connected to other computing devices in a LAN, an intranet, an extranet, and/or the Internet. The computing device may operate in the capacity of a server machine in a client-server network environment, or in the capacity of a client in a peer-to-peer network environment. The computing device may be provided by a personal computer (PC), a server computer, a desktop computer, a laptop computer, a tablet computer, a smartphone, or any machine capable of executing a set of instructions (sequential or otherwise) that specify actions to be taken by the machine. Furthermore, although only a single computing device is shown, the term "computing device" should also be construed to include any collection of computing devices that individually or together execute a set (or sets) of instructions to perform the methods described herein. In some embodiments, the computing device 1200 may be one or more of an access point and a packet forwarding component.

例示的なコンピューティングデバイス1200は、処理デバイス(例えば、汎用プロセッサ、PLDなど)1202、メインメモリ1204(例えば、同期ダイナミックランダムアクセスメモリ(DRAM)、読み出し専用メモリ(ROM))と、スタティックメモリ1206(例えば、フラッシュメモリ及びデータ記憶デバイス1218)とを含むことができ、これらはバス1230を介して互いに通信することができる。処理デバイス1202は、マイクロプロセッサ、中央処理デバイスなどのような1又は複数の汎用処理デバイスによって提供されてもよい。例示的な例では、処理デバイス1202は、複合命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セットコンピューティング(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、又は他の命令セットを実装するプロセッサ若しくは命令セットの組み合わせを実装するプロセッサを備えてもよい。処理デバイス1202はまた、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、ネットワークプロセッサなどのような、1又は複数の専用処理デバイスを備えてもよい。処理デバイス1202は、本明細書で説明した動作及び工程を実行するために、本開示の1又は複数の態様に従って、本明細書で説明した動作を実行するように構成することができる。 The exemplary computing device 1200 may include a processing device (e.g., a general-purpose processor, PLD, etc.) 1202, a main memory 1204 (e.g., synchronous dynamic random access memory (DRAM), read-only memory (ROM)), and a static memory 1206 (e.g., flash memory and data storage device 1218), which may communicate with each other via a bus 1230. The processing device 1202 may be provided by one or more general-purpose processing devices, such as a microprocessor, a central processing device, etc. In an exemplary example, the processing device 1202 may comprise a complex instruction set computing (CISC) microprocessor, a reduced instruction set computing (RISC) microprocessor, a very long instruction word (VLIW) microprocessor, or a processor implementing other instruction sets or a processor implementing a combination of instruction sets. The processing device 1202 may also comprise one or more special-purpose processing devices, such as an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), a digital signal processor (DSP), a network processor, etc. The processing device 1202 may be configured to perform the operations and steps described herein in accordance with one or more aspects of the present disclosure.

コンピューティングデバイス1200は、ネットワーク1220と通信することができるネットワークインタフェースデバイス1208を更に含むことができる。コンピューティングデバイス1200はまた、ビデオ表示ユニット1210(例えば、液晶ディスプレイ(LCD)又は陰極線管(CRT))、英数字入力デバイス1212(例えば、キーボード)、カーソル制御デバイス1214(例えば、マウス)、及び音響信号生成デバイス1216(例えば、スピーカ、及び/又はマイクロフォン)を含むことができる。一実施形態では、ビデオ表示ユニット1210、英数字入力デバイス1212、及びカーソル制御デバイス1214は、単一の構成要素又はデバイス(例えば、LCDタッチスクリーン)に組み合わされてもよい。 The computing device 1200 may further include a network interface device 1208 capable of communicating with a network 1220. The computing device 1200 may also include a video display unit 1210 (e.g., a liquid crystal display (LCD) or a cathode ray tube (CRT)), an alphanumeric input device 1212 (e.g., a keyboard), a cursor control device 1214 (e.g., a mouse), and an audio signal generating device 1216 (e.g., a speaker and/or a microphone). In one embodiment, the video display unit 1210, the alphanumeric input device 1212, and the cursor control device 1214 may be combined into a single component or device (e.g., an LCD touch screen).

データ記憶デバイス1218は、コンピュータ可読記憶媒体1228を含むことができ、コンピュータ可読記憶媒体には、本開示の1又は複数の態様に係る、例えば、本明細書に記載の動作を実行するための命令などの命令1226の1又は複数のセットを記憶することができる。また、命令1226は、コンピュータ可読媒体も構成するコンピューティングデバイス1200、メインメモリ1204、及び処理デバイス1202による実行中に、メインメモリ1204内及び/又は処理デバイス1202内に完全に又は少なくとも部分的に存在してもよい。更に、命令は、ネットワークインタフェースデバイス1208を介してネットワーク1220を介して送信又は受信することができる。 The data storage device 1218 may include a computer-readable storage medium 1228 that may store one or more sets of instructions 1226, such as instructions for performing operations described herein, according to one or more aspects of the present disclosure. Additionally, the instructions 1226 may reside completely or at least partially within the main memory 1204 and/or the processing device 1202 during execution by the computing device 1200, the main memory 1204, and the processing device 1202, which also constitute computer-readable media. Additionally, the instructions may be transmitted or received over the network 1220 via the network interface device 1208.

コンピュータ可読記憶媒体1228は、例示的な例では単一の媒体であるように示されているが、「コンピュータ可読記憶媒体」という用語は、1又は複数の命令セットを格納する単一の媒体又は複数の媒体(例えば、集中又は分散データベース及び/又は関連するキャッシュ及びサーバ)を含むと解釈されるべきである。「コンピュータ可読記憶媒体」という用語はまた、機械による実行のための命令のセットを記憶、符号化、又は搬送することができ、機械に本明細書に記載の方法を実行させる任意の媒体を含むと解釈されるべきである。したがって、「コンピュータ可読記憶媒体」という用語は、ソリッドステートメモリ、光学媒体、及び磁気媒体を含むが、これらに限定されないと解釈されるべきである。 Although computer-readable storage medium 1228 is shown in the illustrative example as being a single medium, the term "computer-readable storage medium" should be interpreted to include a single medium or multiple media (e.g., a centralized or distributed database and/or associated caches and servers) that store one or more sets of instructions. The term "computer-readable storage medium" should also be interpreted to include any medium that can store, encode, or carry a set of instructions for execution by a machine and cause the machine to perform the methods described herein. Thus, the term "computer-readable storage medium" should be interpreted to include, but is not limited to, solid-state memory, optical media, and magnetic media.

特に明記しない限り、「送信する」、「決定(判定)する」、「受信する」、「生成する」などの用語は、コンピューティングデバイスのレジスタ及びメモリ内の物理(電子)量として表されるデータを操作して、コンピューティングデバイスのメモリ又はレジスタ又は他のそのような情報記憶装置、送信装置又は表示装置内の物理量として同様に表される他のデータに変換するコンピューティングデバイスによって実行又は実施される動作及びプロセスを指す。また、本明細書で使用される「第1」、「第2」、「第3」、「第4」などの用語は、異なる要素間を区別するためのラベルを意味し、それらの数値指定に従って必ずしも順序を意味しなくてもよい。 Unless otherwise specified, terms such as "transmit," "determine," "receive," and "generate" refer to operations and processes performed or implemented by a computing device that manipulates data represented as physical (electronic) quantities in the registers and memory of the computing device to convert it into other data similarly represented as physical quantities in the memory or registers of the computing device or other such information storage, transmission, or display device. Also, terms such as "first," "second," "third," and "fourth," as used herein, are intended as labels to distinguish between different elements and do not necessarily imply an order according to their numerical designation.

また、本明細書に記載の例は、本明細書に記載の動作を実行するための装置に関する。この装置は、必要な目的のために特別に構成されてもよく、又はコンピューティングデバイスに記憶されたコンピュータプログラムによって選択的にプログラムされた汎用コンピューティングデバイスを備えてもよい。そのようなコンピュータプログラムは、コンピュータ可読非一時的記憶媒体に記憶されてもよい。 The examples described herein also relate to apparatus for performing the operations described herein. This apparatus may be specially constructed for the required purposes, or may comprise a general-purpose computing device selectively programmed by a computer program stored on the computing device. Such a computer program may be stored on a computer-readable non-transitory storage medium.

本明細書に記載の方法及び例示的な例は、いかなる特定のコンピュータ又は他の装置にも本質的に関連しない。本明細書に記載の教示に従って様々な汎用システムを使用することができ、又は必要な方法工程を実行するためのより特殊化された装置を構築することが便利であることが分かり得る。様々なこれらのシステムに必要な構造は、上記の説明に記載されているように現れる。 The methods and illustrative examples described herein are not inherently related to any particular computer or other apparatus. Various general-purpose systems can be used in accordance with the teachings described herein, or it may prove convenient to construct more specialized apparatus to perform the required method steps. The required structure for a variety of these systems appears as set forth in the description above.

上記の説明は、例示的なものであり、限定的なものではない。本開示は、特定の例示的な実施例を参照して説明されたが、本開示は、説明された実施例に限定されないことが認識される。本開示の範囲は、特許請求の範囲が権利を与えられる均等物の全範囲と共に、以下の特許請求の範囲を参照して決定されるべきである。 The above description is illustrative and not limiting. Although the present disclosure has been described with reference to certain illustrative embodiments, it will be recognized that the present disclosure is not limited to the described embodiments. The scope of the present disclosure should be determined with reference to the following claims, along with the full scope of equivalents to which such claims are entitled.

本明細書で使用される場合、単数形「1つ」、「1つ」及び「その」は、文脈が別段明確に示唆しなければ、複数形も含むことが意図される。「備える」、「備えている」、「含む」、及び/又は「含んでいる」という用語は、本明細書で使用される場合、記載された特徴、整数、工程、動作、要素、及び/又は構成要素の存在を指定するが、1又は複数の他の特徴、整数、工程、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を排除するものではないことが更に理解される。したがって、本明細書で使用される用語は、特定の実施形態を説明することのみを目的としており、限定することを意図するものではない。 As used herein, the singular forms "a", "an" and "the" are intended to include the plural unless the context clearly indicates otherwise. It is further understood that the terms "comprise", "comprising", "including" and/or "comprising" as used herein specify the presence of stated features, integers, steps, operations, elements, and/or components, but do not exclude the presence or addition of one or more other features, integers, steps, operations, elements, components, and/or groups thereof. Thus, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting.

幾つかの代替の実装形態では、記載された機能/動作は、図に記載された順序から外れて行われてもよいことにも留意すべきである。例えば、連続して示される2つの図は、実際には、関与する機能/動作に応じて、実質的に同時に実行されてもよく、又は時には逆の順序で実行されてもよい。 It should also be noted that in some alternative implementations, the functions/acts noted may occur out of the order noted in the figures. For example, two figures shown in succession may in fact be executed substantially concurrently or may sometimes be executed in the reverse order, depending on the functions/acts involved.

方法動作が特定の順序で説明されたが、記載された動作の間に他の動作が実行されてもよく、記載された動作は、それらがわずかに異なる時間に発生するように調整されてもよく、又は記載された動作は、処理に関連する様々な間隔で処理動作の発生を可能にするシステムに分散されてもよいことを理解すべきである。 Although the method operations have been described in a particular order, it should be understood that other operations may be performed between the operations described, the operations described may be coordinated so that they occur at slightly different times, or the operations described may be distributed across a system that allows for the occurrence of processing operations at various intervals relative to the process.

様々なユニット、回路、又は他の構成要素は、1又は複数のタスクを実行する「ように構成される」又は「ように構成可能である」として説明され又は特許請求の範囲に記載され得る。そのような文脈では、「ように構成される」又は「ように構成可能である」という語句は、ユニット/回路/構成要素が動作中に1又は複数のタスクを実行する構造(例えば、回路)を含むことを示すことによって構造を暗示するために使用される。したがって、ユニット/回路/構成要素は、指定されたユニット/回路/構成要素が現在動作していない(例えば、オンではない)場合でも、タスクを実行するように構成されている、又はタスクを実行するように構成可能であると言うことができる。「ように構成される」又は「ように構成可能である」という言語と共に使用されるユニット/回路/構成要素は、ハードウェア、例えば、回路、動作を実施するために実行可能なプログラム命令を格納するメモリなどを含む。ユニット/回路/構成要素が、1又は複数のタスクを実行する「ように構成される」、又は1又は複数のタスクを実行する「ように構成可能である」ことを明記することは、そのユニット/回路/構成要素について35U.S.C.112第6段落を呼び出さないことを明確に意図している。更に、「ように構成される」又は「ように構成可能である」は、問題のタスクを実行することができる態様で動作するようにソフトウェア及び/又はファームウェア(例えば、ソフトウェアを実行するFPGA又は汎用プロセッサ)によって操作される一般的な構造(例えば、汎用回路)を含むことができる。「ように構成される」は、製造プロセス(例えば、半導体製造設備)を、1又は複数のタスクを実施又は実行するように適合されたデバイス(例えば、集積回路)を製造するように適合させることを含むこともできる。「ように構成可能である」は、開示された機能を実行するように構成されるようにプログラムされていない装置に能力を与えるプログラムされた媒体を伴わない限り、ブランク媒体、プログラムされていないプロセッサ若しくはプログラムされていない汎用コンピュータ、又はプログラムされていないプログラマブル論理デバイス、プログラマブルゲートアレイ、若しくは他のプログラムされていない装置に適用されないことが明確に意図される。 Various units, circuits, or other components may be described or claimed as being "configured to" or "configurable to" perform one or more tasks. In such contexts, the phrase "configured to" or "configurable to" is used to imply structure by indicating that the unit/circuit/component includes structure (e.g., circuitry) that performs one or more tasks during operation. Thus, a unit/circuit/component may be said to be configured to perform a task or to be configurable to perform a task even if the specified unit/circuit/component is not currently operating (e.g., not on). A unit/circuit/component used with the language "configured to" or "configurable to" includes hardware, e.g., circuits, memory that stores executable program instructions to perform an operation, etc. It is expressly intended that specifying that a unit/circuit/component is "configured to" perform one or more tasks or is "configurable to" perform one or more tasks does not invoke 35 U.S.C. 112, paragraph 6, for that unit/circuit/component. Additionally, "configured to" or "configurable to" can include a general structure (e.g., a general purpose circuit) that is manipulated by software and/or firmware (e.g., an FPGA or a general purpose processor executing software) to operate in a manner that can perform the task in question. "Configured to" can also include adapting a manufacturing process (e.g., a semiconductor manufacturing facility) to manufacture devices (e.g., integrated circuits) adapted to perform or execute one or more tasks. It is expressly intended that "configurable to" does not apply to blank media, unprogrammed processors or unprogrammed general purpose computers, or unprogrammed programmable logic devices, programmable gate arrays, or other unprogrammed devices, unless accompanied by a programmed medium that provides the capability to the unprogrammed device to be configured to perform the disclosed functions.

上記の説明は、説明を目的として、特定の実施形態を参照して説明されている。しかしながら、上記の例示的な説明は、網羅的であること、又は本発明を開示された正確な形態に限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。実施形態は、実施形態の原理及びその実際の用途を最もよく説明し、それによって、他の当業者が、企図される特定の用途に適し得る実施形態及び様々な修正を最もよく利用できるようにするために選択及び説明された。したがって、本実施形態は、例示的であり、限定的ではないと考えられるべきであり、本発明は、本明細書に与えられた詳細に限定されるべきではなく、添付の特許請求の範囲及び均等物の範囲内で修正され得る。
The above description has been described with reference to specific embodiments for purposes of illustration. However, the above illustrative description is not intended to be exhaustive or to limit the invention to the precise form disclosed. Many modifications and variations are possible in light of the above teachings. The embodiments have been chosen and described to best explain the principles of the embodiments and their practical application, and thereby enable others skilled in the art to best utilize the embodiments and various modifications that may be adapted to the particular applications contemplated. Thus, the present embodiments should be considered as illustrative and not restrictive, and the invention should not be limited to the details given herein, but may be modified within the scope of the appended claims and their equivalents.

Claims (18)

超音波検査候補者に超音波検査者資格認定を発行するための資格認定システムにおいて、
コンピューティングデバイスに接続され、超音波データを生成する、グリップ部分を備えた超音波プローブであって、前記グリップ部分は、前記超音波検査候補者が前記グリップ部分を握ることによって生じる圧力の大きさを示すグリップデータを生成するための複数の第1圧力センサを含み、前記グリップデータは、前記超音波検査候補者により前記グリップ部分上の複数の位置に加えられた圧力の大きさを示すグリップマップであり、前記グリップ部分は、患者の上に置かれた前記超音波プローブの圧力の大きさを示す圧力データを生成するように構成された第2圧力センサを備える、超音波プローブと、
前記コンピューティングデバイスにネットワークを介して接続された、審査者が手動審査を行うための審査者コンピューティングデバイスとを備え、
前記コンピューティングデバイスは、
前記超音波データに基づいて、超音波画像を生成し、
前記超音波画像、前記グリップマップ、及び前記圧力データに基づいて、自動審査の一部として、超音波検査スコアを生成し、
前記超音波検査スコアに基づいて、前記超音波検査候補者の前記超音波データを前記自動審査から前記審査者コンピューティングデバイスに転送す
格認定システム。
A certification system for issuing ultrasound technician certification to ultrasound technician candidates, comprising:
an ultrasound probe connected to a computing device and configured to generate ultrasound data, the grip portion including a plurality of first pressure sensors for generating grip data indicative of a magnitude of pressure caused by the ultrasound examination candidate gripping the grip portion, the grip data being a grip map indicative of a magnitude of pressure applied by the ultrasound examination candidate to a plurality of locations on the grip portion, the grip portion including a second pressure sensor configured to generate pressure data indicative of a magnitude of pressure of the ultrasound probe placed on a patient;
an examiner computing device connected to the computing device via a network for an examiner to perform manual examination;
The computing device comprises:
generating an ultrasound image based on the ultrasound data;
generating an ultrasound score as part of the automated review based on the ultrasound image, the grip map, and the pressure data;
Transferring the ultrasound data of the ultrasound examination candidate from the automated screening to the reviewer computing device based on the ultrasound examination score.
Certification system.
前記コンピューティングデバイスは、ニューラルネットワークを実装し、
前記ニューラルネットワークは、
前記超音波画像を一次入力として受信し、
前記自動審査の一部として前記超音波画像に基づいて画質スコアを生成し、前記超音波検査スコアは前記画質スコアに基づくものである請求項1に記載の資格認定システム。
the computing device implementing a neural network;
The neural network comprises:
receiving the ultrasound image as a primary input;
2. The qualification system of claim 1, further comprising: generating an image quality score based on the ultrasound images as part of the automated screening; and wherein the ultrasound examination score is based on the image quality score.
前記コンピューティングデバイスは、
前記超音波データに基づいて、解剖学的構造を判定し、
複数のニューラルネットワークの中から、前記解剖学的構造に基づいて、前記ニューラルネットワークを選択する、請求項2に記載の資格認定システム。
The computing device comprises:
determining an anatomical structure based on the ultrasound data;
The qualification system of claim 2 , further comprising selecting the neural network from among a plurality of neural networks based on the anatomical structure.
前記グリップ部分は、タッチ感知面を含み、前記超音波プローブは、前記タッチ感知面上に前記グリップマップとしてグリップの向きを生成するプロセッサを更に備え、前記コンピューティングデバイスは、二次入力として前記ニューラルネットワークに提供される前記グリップの向きに基づいて前記超音波検査スコアを生成する、請求項に記載の資格認定システム。 3. The qualification system of claim 2, wherein the grip portion includes a touch-sensitive surface, the ultrasound probe further comprising a processor that generates grip orientations as the grip map on the touch-sensitive surface, and the computing device generates the ultrasound examination score based on the grip orientations provided to the neural network as a secondary input . 音声コンテンツを記録する音声プロセッサを更に備え、前記コンピューティングデバイスは、二次入力として前記ニューラルネットワークに提供される前記音声コンテンツに基づいて前記超音波検査スコアを生成する、請求項に記載の資格認定システム。 3. The qualification system of claim 2 , further comprising an audio processor for recording audio content, the computing device generating the ultrasound examination score based on the audio content provided to the neural network as a secondary input . 前記超音波プローブは、前記超音波プローブにおける動きデータを生成する慣性測定ユニットを含み、前記コンピューティングデバイスは、二次入力として前記ニューラルネットワークに提供される前記動きデータに基づいて前記超音波検査スコアを生成する、請求項に記載の資格認定システム。 3. The qualification system of claim 2, wherein the ultrasound probe includes an inertial measurement unit that generates motion data on the ultrasound probe, and the computing device generates the ultrasound examination score based on the motion data provided to the neural network as a secondary input . 前記超音波検査候補者における動きデータを生成するセンサシステムを更に備え、前記コンピューティングデバイスは、前記動きデータに基づいて前記超音波検査スコアを生成する、請求項に記載の資格認定システム。 The qualification system of claim 2 , further comprising a sensor system that generates motion data on the ultrasound examination candidate, the computing device generating the ultrasound examination score based on the motion data. 前記センサシステムは、前記超音波検査候補者によって着用されるウェアラブルセンサを含む、請求項に記載の資格認定システム。 The qualification system of claim 7 , wherein the sensor system includes a wearable sensor worn by the ultrasound examination candidate. ダミー患者を含むシミュレータシステムを更に備え、前記超音波プローブは、前記ダミー患者に超音波を送信して、前記ダミー患者からの前記超音波の反射に基づいて前記超音波データを生成する、請求項1に記載の資格認定システム。 The qualification system of claim 1 further comprises a simulator system including a dummy patient, and the ultrasound probe transmits ultrasound to the dummy patient and generates the ultrasound data based on the reflection of the ultrasound from the dummy patient. 超音波検査候補者の検査結果を記憶する資格認定データベースを更に備え、前記コンピューティングデバイスは、前記超音波検査候補者とは異なる超音波検査候補者の少なくとも一部に関する前記資格認定データベースの前記検査結果の前記超音波検査スコアに基づいて、前記超音波検査候補者の前記超音波データを前記審査者コンピューティングデバイスに転送する、請求項1に記載の資格認定システム。 The qualification system of claim 1, further comprising a qualification database storing test results of ultrasound examination candidates, the computing device transferring the ultrasound data of the ultrasound examination candidate to the examiner computing device based on the ultrasound examination scores of the test results in the qualification database for at least a portion of ultrasound examination candidates different from the ultrasound examination candidate. 前記コンピューティングデバイスが、1つ以上の超音波画像を受信する第1の入力部と、前記グリップデータを含む追加データを受信する1つ以上の第2の入力部と、前記第1の入力部および前記第2の入力部に接続され、前記超音波検査スコアを生成する出力部を含むニューラルネットワークを実装するように構成されている請求項1に記載の資格認定システム。2. The qualification system of claim 1, wherein the computing device is configured to implement a neural network including a first input for receiving one or more ultrasound images, one or more second inputs for receiving additional data including the grip data, and an output connected to the first input and the second input for generating the ultrasound examination score. 前記追加データが、候補者の動作データ、音声データ、プローブの方向データ、圧力データ、または時間データの1つ以上を含む請求項11に記載の資格認定システム。The certification system of claim 11 , wherein the additional data includes one or more of candidate motion data, voice data, probe direction data, pressure data, or time data. 前記ニューラルネットワークが複数のニューラルネットワークを含む請求項11に記載の資格認定システム。The qualification system of claim 11 , wherein the neural network comprises a plurality of neural networks. 前記コンピューティングデバイスに接続され、前記超音波プローブの位置を決定するカメラを備える請求項1に記載の資格認定システム。The qualification system of claim 1 , further comprising a camera connected to the computing device to determine a position of the ultrasound probe. コンピュータにより実行される方法であって、1. A computer-implemented method comprising:
前記方法は、The method comprises:
グリップ部分を備えた超音波プローブによって超音波データを生成し、前記超音波プローブは、患者に対する前記超音波プローブの圧力の大きさを示す圧力データを生成するための圧力センサを備え、generating ultrasound data with an ultrasound probe having a grip portion, the ultrasound probe including a pressure sensor for generating pressure data indicative of a magnitude of pressure of the ultrasound probe against a patient;
前記超音波プローブの前記グリップ部分に対する超音波検査候補者のグリップによる圧力の大きさを示すグリップデータをプロセッサによって生成し、前記グリップデータは、前記超音波検査候補者が前記グリップ部分の複数の位置に加えた圧力の大きさを示すグリップマップであり、generating grip data by a processor indicative of a magnitude of pressure exerted by a grip of a candidate for ultrasound examination on the grip portion of the ultrasound probe, the grip data being a grip map indicative of a magnitude of pressure exerted by the candidate for ultrasound examination at a plurality of locations on the grip portion;
前記超音波データに基づいて超音波画像を前記プロセッサによって生成し、generating an ultrasound image by the processor based on the ultrasound data;
前記超音波画像、前記グリップマップ、および前記圧力データに基づいて、前記プロセッサにより、自動審査の一部として超音波検査スコアを生成し、generating, by the processor, an ultrasound score based on the ultrasound image, the grip map, and the pressure data as part of an automated review;
審査者が手動審査を行うために、前記超音波検査スコアに基づいて、前記超音波検査候補者の前記超音波データを審査者コンピューティングデバイスに転送すること、を含む方法。and transferring the ultrasound data of the ultrasound examination candidate to an examiner computing device for manual review by an examiner based on the ultrasound examination score.
前記超音波検査スコアが、ニューラルネットワークを用いて自動審査の一部として生成され、前記ニューラルネットワークが、1つ以上の超音波画像を受信する第1の入力部と、前記グリップデータを含む追加データを受信する1つ以上の第2の入力部と、前記第1の入力部および前記第2の入力部に接続され、前記超音波検査スコアを生成する出力部を含み、前記ニューラルネットワークが、前記自動審査の一部として、前記超音波データ及び前記グリップデータに基づいて画質スコアを生成し、前記超音波検査スコアが前記画質スコアに基づいている請求項15に記載の方法 16. The method of claim 15, wherein the ultrasound inspection score is generated as part of an automated review using a neural network, the neural network including a first input for receiving one or more ultrasound images, one or more second inputs for receiving additional data including the grip data, and an output connected to the first and second inputs for generating the ultrasound inspection score, the neural network generating an image quality score based on the ultrasound data and the grip data as part of the automated review, and the ultrasound inspection score being based on the image quality score . 前記超音波データに基づいて解剖学的構造を決定し、determining an anatomical structure based on the ultrasound data;
前記解剖学的構造に基づいて複数のニューラルネットワークから前記ニューラルネットワークを選択するSelecting a neural network from a plurality of neural networks based on the anatomical structure
ことをさらに含む請求項16に記載の方法。20. The method of claim 16, further comprising:
前記追加データが、候補者の動作データ、音声データ、プローブの方向データ、圧力データ、または時間データの1つ以上を含む請求項16に記載の方法。The method of claim 16 , wherein the additional data includes one or more of candidate motion data, voice data, probe orientation data, pressure data, or time data.
JP2023174765A 2022-10-18 2023-10-06 Ultrasound Qualification System Active JP7676499B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2025075432A JP2025105891A (en) 2022-10-18 2025-04-30 Ultrasound Qualification System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US18/047,346 US12016731B2 (en) 2022-10-18 2022-10-18 Ultrasound credentialing system
US18/047,346 2022-10-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2025075432A Division JP2025105891A (en) 2022-10-18 2025-04-30 Ultrasound Qualification System

Publications (2)

Publication Number Publication Date
JP2024059584A JP2024059584A (en) 2024-05-01
JP7676499B2 true JP7676499B2 (en) 2025-05-14

Family

ID=90627583

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2023174765A Active JP7676499B2 (en) 2022-10-18 2023-10-06 Ultrasound Qualification System
JP2025075432A Pending JP2025105891A (en) 2022-10-18 2025-04-30 Ultrasound Qualification System

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2025075432A Pending JP2025105891A (en) 2022-10-18 2025-04-30 Ultrasound Qualification System

Country Status (2)

Country Link
US (2) US12016731B2 (en)
JP (2) JP7676499B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12262110B2 (en) * 2022-11-30 2025-03-25 Karl Storz Imaging, Inc. Medical imaging scope with capacitive sensor units

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013240374A (en) 2012-05-18 2013-12-05 Sony Corp Image processing apparatus and image processing method
WO2022096471A1 (en) 2020-11-09 2022-05-12 Koninklijke Philips N.V. Methods and systems for analyzing ultrasound images

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10424225B2 (en) * 2013-09-23 2019-09-24 SonoSim, Inc. Method for ultrasound training with a pressure sensing array
US20150327841A1 (en) * 2014-05-13 2015-11-19 Kabushiki Kaisha Toshiba Tracking in ultrasound for imaging and user interface
EP3344148B1 (en) * 2015-09-03 2021-02-17 Siemens Healthcare GmbH Multi-view, multi-source registration of moving anatomies and devices
DE102016204368B4 (en) * 2016-03-16 2024-10-02 Siemens Healthineers Ag Ultrasound device and method for supporting an ultrasound examination
WO2017189756A1 (en) * 2016-04-26 2017-11-02 EchoNous, Inc. Ultrasound adaptive power management systems and methods
US11291427B2 (en) * 2018-06-04 2022-04-05 Think Surgical, Inc. Acoustic analyzation of bone quality during orthopedic surgery
US20210366106A1 (en) * 2018-11-21 2021-11-25 Enlitic, Inc. System with confidence-based retroactive discrepancy flagging and methods for use therewith
US12133764B2 (en) * 2020-09-24 2024-11-05 GE Precision Healthcare LLC Systems and methods for an adaptive interface for an ultrasound imaging system
AU2021405106A1 (en) * 2020-12-22 2023-07-06 Ropca Aps Robotic system for performing an ultrasound scan
CN114680925A (en) * 2020-12-31 2022-07-01 通用电气精准医疗有限责任公司 Ultrasonic scanning control device and method, ultrasonic imaging system, storage medium
US12239484B2 (en) * 2021-12-27 2025-03-04 GE Precision Healthcare LLC Medical imaging method
US12396707B2 (en) * 2022-08-10 2025-08-26 EchoNous, Inc. Systems and methods for automated ultrasound image recording based on quality scores

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013240374A (en) 2012-05-18 2013-12-05 Sony Corp Image processing apparatus and image processing method
WO2022096471A1 (en) 2020-11-09 2022-05-12 Koninklijke Philips N.V. Methods and systems for analyzing ultrasound images

Also Published As

Publication number Publication date
JP2024059584A (en) 2024-05-01
JP2025105891A (en) 2025-07-10
US20240293106A1 (en) 2024-09-05
US20240122579A1 (en) 2024-04-18
US12016731B2 (en) 2024-06-25

Similar Documents

Publication Publication Date Title
Konstantinova et al. Palpation force modulation strategies to identify hard regions in soft tissue organs
Karmore et al. IoT-based humanoid software for identification and diagnosis of COVID-19 suspects
US11532084B2 (en) Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification
CN112331049B (en) An ultrasonic simulation training method, device, storage medium and ultrasonic equipment
US20200214679A1 (en) Methods and apparatuses for receiving feedback from users regarding automatic calculations performed on ultrasound data
US11559279B2 (en) Methods and apparatuses for guiding collection of ultrasound data using motion and/or orientation data
CN113194837B (en) System and method for frame indexing and image review
JP2020512069A (en) Vascular occlusion diagnosis method, device and system
US20210312833A1 (en) Virtual reality platform for training medical personnel to diagnose patients
JP7471895B2 (en) Ultrasound diagnostic device and ultrasound diagnostic system
JPWO2021181520A5 (en) Image processing system, image processing device, endoscope system, interface, image processing method and program
JP2025105891A (en) Ultrasound Qualification System
JP2023525741A (en) Automated evaluation of ultrasound protocol trees
CN112447276A (en) Method and system for prompting data donations for artificial intelligence tool development
JP6238755B2 (en) Information processing apparatus, information processing method, and program
US20240324925A1 (en) Apparatus and method for analyzing efficiency of virtual task performance of user interacting with extended reality
Jiang et al. Towards expert-level autonomous carotid ultrasonography with large-scale learning-based robotic system
US20200138406A1 (en) System and Method for Identifying and Navigating Anatomical Objects Using Deep Learning Networks
US12144682B2 (en) Automation-assisted venous congestion assessment in point of care ultrasound
CN107578662A (en) A virtual obstetric ultrasound training method and system
Laufer et al. Modeling touch and palpation using autoregressive models
CN116153172A (en) Scanning effect evaluation method and ultrasonic imaging equipment of standard ultrasound section
US20250176935A1 (en) Guidance assistance device for acquiring an ultrasound image and associated method
JP7651234B1 (en) ULTRASONIC DIAGNOSTIC SYSTEM, ULTRASONIC DIAGNOSTIC APPARATUS, ULTRASONIC DIAGNOSTIC METHOD, AND PROGRAM
CN112397196A (en) Method and device for generating image inspection recommendation model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250430

R150 Certificate of patent or registration of utility model

Ref document number: 7676499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150