JP6432910B2 - Medical image processing apparatus, ultrasonic diagnostic apparatus, and medical image processing method - Google Patents

Medical image processing apparatus, ultrasonic diagnostic apparatus, and medical image processing method Download PDF

Info

Publication number
JP6432910B2
JP6432910B2 JP2015538922A JP2015538922A JP6432910B2 JP 6432910 B2 JP6432910 B2 JP 6432910B2 JP 2015538922 A JP2015538922 A JP 2015538922A JP 2015538922 A JP2015538922 A JP 2015538922A JP 6432910 B2 JP6432910 B2 JP 6432910B2
Authority
JP
Japan
Prior art keywords
cell
cells
luminance level
region
uniformity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015538922A
Other languages
Japanese (ja)
Other versions
JPWO2015045424A1 (en
Inventor
博雄 今津
博雄 今津
智弘 加藤
智弘 加藤
高橋 真幸
真幸 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INSPEEDIA INC.
Jikei University School of Medicine
Original Assignee
INSPEEDIA INC.
Jikei University School of Medicine
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INSPEEDIA INC., Jikei University School of Medicine filed Critical INSPEEDIA INC.
Publication of JPWO2015045424A1 publication Critical patent/JPWO2015045424A1/en
Application granted granted Critical
Publication of JP6432910B2 publication Critical patent/JP6432910B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physiology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Hematology (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、超音波造影剤が投与された被検体を撮影することで得られた超音波画像に対して画像処理を行なう、医用画像処理装置、超音波診断装置、および医用画像処理方法に関する。   The present invention relates to a medical image processing apparatus, an ultrasonic diagnostic apparatus, and a medical image processing method for performing image processing on an ultrasonic image obtained by imaging a subject to which an ultrasonic contrast agent is administered.

従来、膵癌の診断を行なう手段として、腹部超音波、コンピュータ断層撮影法(CT:Computed Tomography)、核磁気共鳴画像法(MRI:Magnetic Resonanse Imaging)、陽電子放射断層撮影(PET:Positron Emission Tomography)、内視鏡的逆行性胆膵管造影(ERCP:Endoscopic Retrograde Cholangiopancreatography)、超音波内視鏡検査(EUS:endoscopic ultrasonography)、などを用いた様々な検査主技が用いられている。
この中で、EUSでは、体内操作で高周波数の超音波トランスデューサーを膵の近くに持っていくことができるため、その高い分解能により、膵実質、膵管、膵近傍臓器の詳細な観察が可能である。
Conventionally, as means for diagnosing pancreatic cancer, abdominal ultrasound, computed tomography (CT), nuclear magnetic resonance imaging (MRI), positron emission tomography (PET), Various examination techniques using endoscopic retrograde cholangiopancreatography (ERCP), endoscopic ultrasonography (EUS), and the like are used.
Among them, EUS can bring a high-frequency ultrasonic transducer close to the pancreas by in-vivo operation, and its high resolution enables detailed observation of the pancreatic parenchyma, pancreatic duct, and organs near the pancreas. is there.

また、電子式のトランスデューサーやドップラー機能の開発によりEUS下で膵病変を、穿刺針を用いて穿刺し、吸引細胞診を行なう手技(EUS−FNA(fine needle aspiration))も発達し、CTやMRIを凌駕する診断精度の向上が報告され、EUSは膵癌の診断において不可欠な検査手技となっている。
ところで、膵癌の20〜35%に慢性膵炎が合併することが報告されており、慢性膵炎は膵癌の危険因子の一つであるとされている。膵癌の診断に最も感度が高いとされるEUSやEUS−FNAの問題点として、慢性膵炎合併膵癌の診断精度が、非合併例に比べて低いことが指摘されている。これは、膵炎による炎症性良性腫瘤も膵癌と同様にEUS像では、EUS画面で黒っぽく見える低エコーを呈し、EUS−FNAで細胞を採取しても、強い炎症による細胞変化と癌細胞との鑑別が困難な場合があるからである。2005年にVaradarajuluらは、慢性膵炎非合併膵癌を検出するEUSやEUS−FNAの感度は91.3%であったのに対し、慢性膵炎合併膵癌を検出するEUSやEUS−FNAの感度は73.9%にすぎなかったと報告している。
In addition, the development of electronic transducers and Doppler functions has developed a technique (EUS-FNA (fine needle aspiration)) in which pancreatic lesions are punctured with a puncture needle under EUS, and aspiration cytology is developed. Improvement of diagnostic accuracy surpassing MRI has been reported, and EUS has become an indispensable examination technique in the diagnosis of pancreatic cancer.
By the way, it has been reported that 20 to 35% of pancreatic cancers are accompanied by chronic pancreatitis, and chronic pancreatitis is considered to be one of the risk factors of pancreatic cancer. As a problem of EUS and EUS-FNA, which are considered to have the highest sensitivity for diagnosis of pancreatic cancer, it has been pointed out that the diagnostic accuracy of pancreatic cancer with chronic pancreatitis is lower than that of non-complicated cases. This is because the inflammatory benign mass due to pancreatitis also shows low echoes that appear dark on the EUS screen in the EUS image as in the case of pancreatic cancer, and even if the cells are collected with EUS-FNA, cell changes due to strong inflammation are distinguished from cancer cells. This is because it may be difficult. In 2005, Varadarajulu et al. Reported that the sensitivity of EUS and EUS-FNA for detecting pancreatic cancer without chronic pancreatitis was 91.3%, whereas the sensitivity of EUS and EUS-FNA for detecting pancreatic cancer with chronic pancreatitis was 73. Reported only 0.9%.

近年、第2世代超音波造影剤が開発され、マイクロバブル等の超音波造影剤を検出する観測装置の開発により造影EUSが可能となった。造影CTや造影MRIと、造影EUSとの大きな違いは、リアルタイムで病変の造影所見、つまり病変の血管構築と、血流動態などを観察することができることである。
このような造影剤を用いた検査において、TIC(Time Intensity Curve)を用いた検査が行なわれることがある。TICとは、超音波画像上に設定された関心領域(ROI:Region of Interest)内の平均輝度の時間変化を示す時間輝度曲線であり、このTICを表示させることで、造影剤濃度の変化を観察することができ、造影剤の体内の循環の様子を定量的に把握し、被検体内の疾患の有無或いは程度を診断することができる(例えば、特許文献1参照)。
また、TICを用いて診断を行なう場合、ROI内に、TICの観測対象部位である組織の他に、TICの非観測対象部位が含まれている場合でも、TICの観測対象部位のみについての時間輝度曲線を作成するようにしたもの(例えば、特許文献2参照)なども提案されている。
In recent years, second-generation ultrasound contrast agents have been developed, and contrast EUS has become possible due to the development of observation devices that detect ultrasound contrast agents such as microbubbles. A major difference between contrast-enhanced CT or contrast-enhanced MRI and contrast-enhanced EUS is that a lesion contrast observation, that is, a blood vessel structure of the lesion and blood flow dynamics can be observed in real time.
In such an inspection using a contrast agent, an inspection using a TIC (Time Intensity Curve) may be performed. The TIC is a time luminance curve showing the time change of the average luminance in the region of interest (ROI) set on the ultrasonic image. By displaying this TIC, the change in the contrast agent concentration is shown. It can be observed, the state of the circulation of the contrast medium in the body can be quantitatively grasped, and the presence or absence of the disease in the subject can be diagnosed (see, for example, Patent Document 1).
Further, when a diagnosis is performed using TIC, even if a non-observation target site of TIC is included in the ROI in addition to the tissue that is the observation target site of TIC, the time for only the observation target site of TIC A device that creates a luminance curve (see, for example, Patent Document 2) has also been proposed.

特開2005−95376号公報JP 2005-95376 A 特開2010−75586号公報JP 2010-75586 A

ところで、2010年にFusaroliらは、不均一な弱い造影所見が膵癌の特徴であり、造影により、EUSの慢性膵炎合併膵癌の診断精度が向上すると報告した。造影EUSに関する報告は未だ少なく、様々な面からの検証が必要であるが、造影EUSはこれまでのEUSやEUS−FNAの問題点を克服しうる可能性を秘めている。なお、造影EUSにおける“弱い”造影効果とは、病変内に造影剤があまり入ってこないこと、つまり、血管、血流が乏しく、経時的にみても病変全体が黒っぽく見えることを意味する。逆に、“強い”造影効果とは、造影剤がたくさん病変内に入り、つまり血管、血流が豊富であって、病変全体が白く見えることを意味する。また、“不均一性”とは病変内に白く見えるところと黒く見えるところが混在することを意味し、“均一性”とは病変内が均一に白く見えるか、均一に黒く見えることを意味する。   By the way, Fusaroli et al. Reported in 2010 that heterogeneous weak contrast findings are characteristic of pancreatic cancer, and that imaging improves the diagnostic accuracy of pancreatic cancer with chronic pancreatitis in EUS. There are few reports on contrast-enhanced EUS, and verification from various aspects is necessary. However, contrast-enhanced EUS has the potential to overcome the problems of conventional EUS and EUS-FNA. The “weak” contrast effect in contrast-enhanced EUS means that the contrast agent does not enter the lesion so much, that is, the blood vessel and blood flow are scarce and the entire lesion looks dark even over time. Conversely, a “strong” contrast effect means that a lot of contrast agent enters the lesion, that is, the blood vessels and blood flow are abundant and the entire lesion looks white. Further, “non-uniformity” means that a white portion and a black-looking portion are mixed in the lesion, and “uniformity” means that the lesion appears uniformly white or uniformly black.

不均一な造影所見、弱い造影所見の診断はあくまでも施行医の経験や印象に左右され、日常臨床では、均一な強い造影所見に近い造影パターンを呈する膵癌も経験する。
そのため、造影EUS所見における、“均一”、“不均一”、“強い”、“弱い”といった所見により客観性も持たせ、どんな経験の医師でも正確に同じ診断ができる、また正常パターンに近い造影所見を示す膵癌も拾い上げるための手法が望まれている。
造影剤、つまり個々のバブルはEUS画像で、白いスポットとして捉えられるため、前述のように、病変内に関心領域(ROI)を設定し、ROI内の経時的な輝度の変化をグラフ化(数値化)して、臨床で使用されている。しかし、このソフトウェアはあくまでも輝度を数値化しているもので“強い”、“弱い”といった所見に客観性を持たせるものでしかなく、よりよい方法が望まれていた。
そこで、この発明は、上記従来の未解決の問題に着目してなされたものであり、経験や印象に左右されることなく、造影所見の診断を適切に行なうための一助となる情報を提供する医用画像処理装置、超音波診断装置、および医用画像処理方法を提供することを目的としている。
Diagnosis of non-uniform and weak contrast findings depends solely on the experience and impression of the practitioner, and in daily clinical practice, pancreatic cancer that exhibits a contrast pattern close to uniform strong contrast findings is also experienced.
Therefore, the contrast EUS findings, such as “uniform”, “non-uniform”, “strong”, “weak”, provide objectivity so that doctors of any experience can make the same diagnosis accurately, and contrast is close to normal patterns. A technique for picking up pancreatic cancer showing findings is desired.
Since contrast media, that is, individual bubbles, are captured as white spots in the EUS image, as described above, a region of interest (ROI) is set in the lesion, and changes in luminance over time in the ROI are graphed (numerical values). And used in clinical practice. However, this software is only a numerical value of brightness, and it only gives objectivity to the findings such as “strong” and “weak”, and a better method has been desired.
Therefore, the present invention has been made by paying attention to the above-mentioned conventional unsolved problems, and provides information that helps to appropriately diagnose an imaging finding without being influenced by experience or impression. It is an object of the present invention to provide a medical image processing apparatus, an ultrasonic diagnostic apparatus, and a medical image processing method.

本発明の一態様によれば、超音波造影剤を用いた時系列の超音波画像を表す超音波画像データをもとに超音波画像を表示装置に表示する表示処理部と、表示装置に表示された超音波画像に対して関心領域を設定する入力操作部と、入力操作部で設定された関心領域を複数のセルに区分する区分処理部と、超音波画像データに基づき1フレーム毎にセルの輝度レベルを演算する輝度レベル演算部と、セルのうちの1つを対象セルとし、セルのうち対象セルの周囲のセルの輝度レベルと対象セルの輝度レベルとの差をもとに不均一性を判断する処理を、対象セルを切り替えて繰り返し行なって、1フレーム毎に不均一性の度合を演算する不均一性度合演算部と、不均一性度合演算部で演算した1フレーム毎の不均一性の度合を時系列に出力する演算結果出力部と、を備える医用画像処理装置が提供される。   According to one embodiment of the present invention, a display processing unit that displays an ultrasound image on a display device based on ultrasound image data representing a time-series ultrasound image using an ultrasound contrast agent, and a display on the display device An input operation unit that sets a region of interest for the ultrasonic image that has been set, a classification processing unit that divides the region of interest set by the input operation unit into a plurality of cells, and a cell for each frame based on the ultrasonic image data A luminance level calculation unit that calculates the luminance level of a cell and one of the cells as a target cell, and non-uniformity based on the difference between the luminance level of the surrounding cells of the target cell and the luminance level of the target cell The process of determining the sex is repeated by switching the target cell, and the non-uniformity degree calculation unit that calculates the degree of non-uniformity for each frame, and the non-uniformity for each frame calculated by the non-uniformity degree calculation unit. Performance that outputs the degree of uniformity in time series A result output unit, the medical image processing apparatus comprising a provided.

本発明の他の態様によれば、上記態様に記載の医用画像処理装置を備える超音波診断装置が提供される。
また、本発明の他の態様によれば、超音波造影剤を用いた時系列の超音波画像を表す超音波画像データをもとに超音波画像を表示装置に表示するステップと、表示装置に表示された超音波画像に対して入力操作部により設定された関心領域を複数のセルに区分するステップと、超音波画像データに基づき1フレーム毎にセルの輝度レベルを演算するステップと、セルのうちの1つを対象セルとし、セルのうち対象セルの周囲のセルの輝度レベルと対象セルの輝度レベルとの差をもとに不均一性を判断する処理を、対象セルを切り替えて繰り返し行なって、1フレーム毎に不均一性の度合を演算するステップと、1フレーム毎の不均一性の度合を時系列に出力するステップと、を備える医用画像処理方法が提供される。
According to another aspect of the present invention, there is provided an ultrasonic diagnostic apparatus including the medical image processing apparatus according to the above aspect.
According to another aspect of the present invention, a step of displaying an ultrasound image on a display device based on ultrasound image data representing a time-series ultrasound image using an ultrasound contrast agent; Dividing the region of interest set by the input operation unit for the displayed ultrasonic image into a plurality of cells, calculating a luminance level of the cell for each frame based on the ultrasonic image data, One of the cells is the target cell, and the process of determining non-uniformity based on the difference between the luminance level of the surrounding cells of the target cell and the luminance level of the target cell is repeated by switching the target cell. Thus, there is provided a medical image processing method comprising a step of calculating the degree of non-uniformity for each frame and a step of outputting the degree of non-uniformity for each frame in time series.

本発明の一態様によれば、関心領域内の超音波画像について、輝度の不均一性の度合をフレーム毎に演算し、この不均一性の度合を、時系列に出力するようにしたため、膵癌と慢性膵炎など、超音波画像において不均一性の度合に差が生じる場合などに、関心領域内の超音波画像から得られた不均一性の度合を参照することによって鑑別の一助とすることができる。   According to one aspect of the present invention, the degree of brightness non-uniformity is calculated for each frame of the ultrasound image in the region of interest, and the degree of non-uniformity is output in time series. When there is a difference in the degree of inhomogeneity in the ultrasound image, such as in pancreatitis and chronic pancreatitis, etc., it may be helpful for differentiation by referring to the degree of inhomogeneity obtained from the ultrasound image in the region of interest it can.

本発明における医用画像処理装置の一例を示す概略構成図である。It is a schematic block diagram which shows an example of the medical image processing apparatus in this invention. 解析装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of an analyzer. 関心領域を設定した超音波画像の一例である。It is an example of the ultrasonic image which set the region of interest. 関心領域を含むようにグリッドを設定した超音波画像の一例である。It is an example of the ultrasonic image which set the grid so that a region of interest may be included. セルの位置を説明するための説明図である。It is explanatory drawing for demonstrating the position of a cell. マダラ指数演算処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of a madara index | exponent process. マダラ指数の演算方法を説明するための説明図である。It is explanatory drawing for demonstrating the calculation method of a madara index | exponent. 超音波造影剤を注射する前およびその後の変化を表す、膵癌症例の超音波画像の一例である。It is an example of the ultrasonic image of a pancreatic cancer case showing the change before and after injecting an ultrasonic contrast agent. 超音波画像を表す表示画面の一例である。It is an example of the display screen showing an ultrasonic image. 超音波画像およびセルの輝度レベルを表す表示画面の一例である。It is an example of the display screen showing the luminance level of an ultrasonic image and a cell. マダラ指数の経時的変化の一例を示すグラフおよび平均マダラ指数の表示画面の一例である。It is an example of the graph which shows an example of a time-dependent change of a Madara index, and the display screen of an average Madara index. 超音波造影剤を注射する前およびその後の変化を表す、慢性膵炎の超音波画像の一例である。It is an example of the ultrasonic image of a chronic pancreatitis showing the change before and after injecting an ultrasound contrast agent. 超音波造影剤を注射する前およびその後の変化を表す、膵癌症例の超音波画像の一例である。It is an example of the ultrasonic image of a pancreatic cancer case showing the change before and after injecting an ultrasonic contrast agent.

以下の詳細な説明では、本発明の実施形態の完全な理解を提供するように多くの特定の細部について記載される。しかしながら、かかる特定の細部がなくても1つ以上の実施態様が実施できることは明らかであろう。他にも、図面を簡潔にするために、周知の構造及び装置が略図で示されている。
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明における医用画像処理装置10の概略構成の一例を示す構成図である。
本発明における医用画像処理装置10は、超音波造影剤として例えばマイクロバブルを用い、これにより得た超音波画像データを処理対象としている。
In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of embodiments of the present invention. However, it will be apparent that one or more embodiments may be practiced without such specific details. In other instances, well-known structures and devices are schematically shown in order to simplify the drawing.
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram showing an example of a schematic configuration of a medical image processing apparatus 10 according to the present invention.
The medical image processing apparatus 10 according to the present invention uses, for example, microbubbles as an ultrasonic contrast agent, and uses ultrasonic image data obtained thereby as a processing target.

図1に示すように、医用画像処理装置10は、例えばパーソナルコンピュータなどで構成され、例えば超音波画像取得装置20で取得した超音波画像データを記憶する超音波画像データ記憶装置1と、超音波画像データ記憶装置1に格納された超音波画像データに対して処理を行なう解析装置2と、解析装置2での解析に必要な各種設定を行なうためのマウスあるいはキーボードなどの入力装置3と、超音波画像データや、解析装置2での解析結果などを表示する表示装置4と、を備える。
超音波画像取得装置20は、例えば、超音波診断装置などであって、超音波プローブを備え、被検体に超音波を送信し、被検体からの反射波を受信してその反射波に基づいて超音波画像データを生成する。
As illustrated in FIG. 1, the medical image processing apparatus 10 includes, for example, a personal computer, and includes, for example, an ultrasonic image data storage apparatus 1 that stores ultrasonic image data acquired by the ultrasonic image acquisition apparatus 20 and an ultrasonic wave. An analysis device 2 that performs processing on ultrasonic image data stored in the image data storage device 1, an input device 3 such as a mouse or a keyboard for performing various settings necessary for analysis in the analysis device 2, And a display device 4 for displaying the sonic image data, the analysis result of the analysis device 2, and the like.
The ultrasonic image acquisition apparatus 20 is, for example, an ultrasonic diagnostic apparatus, and includes an ultrasonic probe, transmits ultrasonic waves to the subject, receives reflected waves from the subject, and based on the reflected waves. Generate ultrasound image data.

図2は、解析装置2の処理手順の一例を示すフローチャートの一例である。
解析装置2は、まず、超音波画像データを入力しこれを超音波画像データ記憶装置1に格納する。また、入力した超音波画像データを表示装置4に表示する(ステップS1)。例えば、1フレーム目の超音波画像を表示する。
超音波画像データは、超音波画像取得装置20から直接取得してもよく、あるいは、超音波画像取得装置20からの超音波画像データが格納されたUSB(Universal Serial Bus)メモリなどの可搬型記憶媒体から取得してもよい。
FIG. 2 is an example of a flowchart illustrating an example of a processing procedure of the analysis apparatus 2.
The analysis device 2 first inputs ultrasonic image data and stores it in the ultrasonic image data storage device 1. The input ultrasonic image data is displayed on the display device 4 (step S1). For example, an ultrasonic image of the first frame is displayed.
The ultrasonic image data may be acquired directly from the ultrasonic image acquisition device 20, or a portable storage such as a USB (Universal Serial Bus) memory in which the ultrasonic image data from the ultrasonic image acquisition device 20 is stored. You may acquire from a medium.

ユーザが入力装置3を操作することにより、ユーザによって関心領域の設定操作が行なわれると(ステップS2)と、解析装置2は、設定された関心領域に応じて関心領域設定処理を行なう(ステップS3)。
ユーザによる関心領域の設定操作は、例えば図3に示すように、表示装置4に表示された超音波画像において、ユーザが解析対象とする部位を囲むように、複数点をマウスなどの表示装置4で選択することにより、選択された複数点を結ぶ線分で囲まれた領域を設定する。解析装置2では、表示装置4での複数点の選択操作に応じて選択された点どうしを順に線分で結んで表示し、選択された複数点を結ぶ閉じた領域を関心領域と認識する。関心領域の設定方法はこれに限るものではなく、例えば、円、楕円、矩形などを、解析対象とする部位を囲むように大きさを調整して表示することにより、関心領域として設定するようにしてもよく、解析対象とする部位を囲むように関心領域を設定することができれば、どのような方法であってもよい。
When the user operates the input device 3 to perform a region of interest setting operation (step S2), the analysis device 2 performs a region of interest setting process according to the set region of interest (step S3). ).
For example, as illustrated in FIG. 3, the user performs a region-of-interest setting operation by displaying a plurality of points on a display device 4 such as a mouse so as to surround a region to be analyzed by the user in an ultrasonic image displayed on the display device 4. By selecting with, an area surrounded by line segments connecting the selected points is set. In the analysis device 2, the points selected in response to the selection operation of the plurality of points on the display device 4 are sequentially connected by line segments and displayed, and the closed region connecting the selected points is recognized as the region of interest. The method of setting the region of interest is not limited to this. For example, a region such as a circle, ellipse, or rectangle may be set as the region of interest by adjusting the size so as to surround the region to be analyzed. Any method may be used as long as the region of interest can be set so as to surround the region to be analyzed.

なお、解析装置2では、表示装置4に表示された超音波画像を、拡大あるいは縮小表示する操作、また超音波画像の表示範囲を移動する操作指示などが行なわれた場合には、指示に応じた処理を行なう。
解析装置2では、関心領域の設定操作が終了したならば、ステップS4に移行し、例えば図4に示すようにグリッドを表示する。例えば、予め設定された本数の基本のグリッドを表示する。このとき、例えば、基準の縮尺におけるグリッドの間隔を予め定めておき、表示されている超音波画像の縮尺に応じて間隔を調整して表示する。また、ユーザにより設定された関心領域を含むように、グリッドを表示する。
In the analysis apparatus 2, when an operation for enlarging or reducing the ultrasonic image displayed on the display apparatus 4 or an operation instruction for moving the display range of the ultrasonic image is performed, the analysis apparatus 2 responds to the instruction. Process.
When the setting operation of the region of interest is completed, the analysis apparatus 2 proceeds to step S4 and displays a grid, for example, as shown in FIG. For example, a preset number of basic grids are displayed. At this time, for example, the grid interval at the reference scale is determined in advance, and the interval is adjusted according to the scale of the displayed ultrasonic image. In addition, the grid is displayed so as to include the region of interest set by the user.

そして、ユーザの入力装置3の操作により、グリッドの間隔あるいは本数、表示位置などの調整操作が行なわれた場合には(ステップS5)、行なわれた調整操作に応じて更新してグリッドを表示する(ステップS6)。
例えば、グリッド線の数として、縦横それぞれについて表示本数が指定されたならば、指定された本数のグリッドを表示する。またグリッド間隔として、縦横それぞれについて間隔が指定されたならば、指定された間隔でグリッドを表示する。例えば、基本のグリッドを表示した後に、グリッド線の縦横それぞれの表示本数や、間隔を、表示位置などを問い合わせる表示を行い、入力装置3での入力操作に応じてグリッドの調整を行なえばよい。
Then, when an adjustment operation such as the interval or number of grids or the display position is performed by the user's operation of the input device 3 (step S5), the grid is updated according to the performed adjustment operation and displayed. (Step S6).
For example, if the number of grid lines is designated for the vertical and horizontal directions, the designated number of grids are displayed. If the grid interval is specified for each of the vertical and horizontal directions, the grid is displayed at the specified interval. For example, after the basic grid is displayed, display for inquiring about the display number and interval of the grid lines in the vertical and horizontal directions, the display position, and the like may be performed, and the grid may be adjusted according to the input operation on the input device 3.

なお、ここでは、基本のグリッドをまず表示し、その後グリッドを調整する場合について説明したが、基本のグリッドは表示せずに、グリッド線の縦横それぞれの表示本数や、間隔、またグリッドの表示位置を問い合わせる表示を行い、入力された値、あるいは入力された表示位置に応じてグリッドを表示するようにしてもよい。
また、基本のグリッドは、関心領域の大きさやその縮尺と、適切なグリッド線の本数とを予め対応付けて記憶しておき、これに基づき、設定された関心領域の大きさやその縮尺に応じて適切なグリッド線の本数を自動的に特定し、特定したグリッド線を基本のグリッドの本数として表示するようにしてもよい。
In this example, the basic grid is displayed first, and then the grid is adjusted. However, without displaying the basic grid, the number of grid lines displayed in the vertical and horizontal directions, the interval, and the display position of the grid The grid may be displayed according to the input value or the input display position.
The basic grid stores the size and scale of the region of interest in association with the appropriate number of grid lines in advance, and based on this, the size of the region of interest and the scale thereof are set. An appropriate number of grid lines may be automatically specified, and the specified grid lines may be displayed as the number of basic grids.

例えば、関心領域が小さい場合には、グリッドを多数設定するとセルが細かくなり、関心領域内のセルの不均一性がわかりにくくなる可能性があるが、超音波画像を拡大表示すると適度なグリッド本数となる可能性もある。逆に、グリッドの設定本数が少ないと、関心領域に含まれるセルの数が少なくなり過ぎ、セル間の輝度の不均一性がわかりにくくなる可能性がある。したがって、関心領域の大きさやその縮尺などに応じて適度な本数のグリッド線を設定することにより、関心領域に含まれるセルの不均一性をわかりやすくすることができる。
解析装置2では、グリッドの調整が終了すると、ステップS7に移行し、超音波画像データのフレームを識別する変数FをF=1とする。
For example, if the region of interest is small, setting many grids may make the cells finer, making it difficult to understand the non-uniformity of the cells in the region of interest. There is also a possibility of becoming. On the other hand, when the number of grids set is small, the number of cells included in the region of interest becomes too small, and it may be difficult to understand luminance non-uniformity between cells. Therefore, by setting an appropriate number of grid lines in accordance with the size of the region of interest, its scale, etc., it is possible to easily understand the non-uniformity of the cells included in the region of interest.
In the analysis apparatus 2, when the adjustment of the grid is completed, the process proceeds to step S7, and the variable F for identifying the frame of the ultrasonic image data is set to F = 1.

そして、ステップS8に移行し、変数Fで特定されるフレームについて、グリッドで区切られたセル毎に輝度の演算を行なう。すなわち、超音波画像データ記憶装置1から1フレーム分の超音波画像データを読み出し、この超音波画像データで表される超音波画像において、ステップS4で設定されたグリッドで特定されるセル毎に、輝度の演算を行なう。すなわち、グリッドで区切られるセルの行をm、列をnとすると、m×n個のセル全てについて輝度の演算を行なう。
なお、各フレームでは、グリッド設定時における超音波画像に対するグリッドの位置関係を満足するようにグリッドを設定し、このグリッドで特定されるセル毎に、輝度の演算を行なう。すなわち、各フレームにおいて、同一位置のセルが表す画像は、同一部位の画像を表すことになる。
Then, the process proceeds to step S8, and the luminance is calculated for each cell delimited by the grid for the frame specified by the variable F. That is, the ultrasonic image data for one frame is read from the ultrasonic image data storage device 1, and in the ultrasonic image represented by the ultrasonic image data, for each cell specified by the grid set in step S4, Calculate brightness. That is, if m is a row of cells separated by a grid and n is a column, the luminance is calculated for all m × n cells.
In each frame, the grid is set so as to satisfy the positional relationship of the grid with respect to the ultrasonic image at the time of grid setting, and the luminance is calculated for each cell specified by the grid. That is, in each frame, images represented by cells at the same position represent images of the same part.

セルの輝度の演算は次の手順で行なう。
なお、輝度の演算は、関心領域内のセルについてのみ行なう。関心領域外のセルについては、輝度の設定は行なわずそのセルは無効とする。また、セルに含まれる画素全てが、関心領域内に含まれるときにのみ有効とし、輝度の設定を行なう。例えば、1つのセル内に関心領域の境界が存在するときには、このセルは無効とする。
そして、有効と判断されたセルに含まれる全ての画素の輝度データをもとに、その代表値を求める。例えば、全画素の輝度の合計値を代表値としてもよく、全画素の輝度の平均値、あるいは最頻値、最大値、最小値、中間値などを代表値としてもよい。
そして、求めた代表値をもとに、輝度のレベルに応じて3階調に分類する。例えば、黒、白、それ以外に分類し、例えば輝度が0〜255の256階調で表されているときには、代表値が、輝度0以上50以下のときには輝度レベルは0、輝度51以上200以下のときには輝度レベルは1、輝度201以上255以下のときには輝度レベルは2と分類する。
The calculation of the cell brightness is performed according to the following procedure.
Note that the luminance calculation is performed only for cells in the region of interest. For cells outside the region of interest, the brightness is not set and the cell is invalidated. The brightness is set only when all the pixels included in the cell are included in the region of interest. For example, when a region of interest boundary exists in one cell, this cell is invalid.
Then, based on the luminance data of all the pixels included in the cell determined to be valid, the representative value is obtained. For example, the total value of the luminance values of all the pixels may be used as the representative value, and the average value of the luminance values of all the pixels, or the mode value, the maximum value, the minimum value, and the intermediate value may be used as the representative value.
Then, based on the obtained representative value, it is classified into three gradations according to the luminance level. For example, when the brightness is classified into black, white, and others, and the brightness is expressed by 256 gradations of 0 to 255, for example, the brightness level is 0 when the brightness is 0 or more and 50 or less, and the brightness is 51 or more and 200 or less. The luminance level is classified as 1, and the luminance level is classified as 2 when the luminance is between 201 and 255.

なお、ここでは、セルに含まれる画素全てが関心領域内に含まれるときにのみ有効としているが、セルに含まれるいずれかの画素が関心領域内に含まれるときには有効とし、全ての画素が関心領域内に含まれないときにのみ無効としてもよい。あるいは、セルに含まれる画素のうち半分以上、あるいは1/3以上など、セルの何割かが関心領域内に含まれるときにのみ有効とみなすようにしてもよい。
なお、セルに含まれるいずれかの画素が関心領域内に含まれるときには有効とするようにした場合には、代表値を演算する際には、セルに含まれる画素のうち関心領域内に含まれる画素のデータのみについて代表値を求めるようにしてもよい。あるいは、セル内の関心領域に含まれる画素のデータをもとに、セルのうち関心領域に含まれない画素のデータを補間し、これに基づき代表値を求めるようにしてもよく、あるいは、関心領域に含まれない画素のデータも含めて、有効とみなしたセルに含まれる画素全てのデータをもとに代表値を求めるようにしてもよい。
Note that here, it is effective only when all the pixels included in the cell are included in the region of interest, but it is effective when any pixel included in the cell is included in the region of interest, and all the pixels are interested. It may be invalid only when it is not included in the area. Alternatively, it may be considered effective only when a certain percentage of the cell is included in the region of interest, such as more than half of the pixels included in the cell, or more than 1/3.
If any pixel included in the cell is valid when included in the region of interest, the representative value is included in the region of interest among the pixels included in the cell when calculating the representative value. A representative value may be obtained only for pixel data. Alternatively, based on pixel data included in the region of interest in the cell, pixel data that is not included in the region of interest in the cell may be interpolated, and a representative value may be obtained based on this interpolation. The representative value may be obtained based on the data of all the pixels included in the cell regarded as valid, including the data of the pixels not included in the region.

また、3階調の輝度レベルに分類しているが、これに限るものではなく、3階調以上であれば任意数の輝度レベルに分類してもよい。3階調以上の輝度レベルに分類する場合には、上記と同様に、まだらと判断するためのしきい値dthを「2」と設定し、2階調以上輝度レベルに差があるときにまだらと判断するようにしてもよい。あるいは4階調以上の輝度レベルに分類した場合には2階調以上をまだらと判断してもよく、3階調以上をまだらと判断してもよい。しきい値dthは、輝度レベルの階調の数に応じて任意の値に設定することができる。例えば、5階調の輝度レベルに分類し、しきい値dth=2としたときには、輝度レベル0と輝度レベル3以上、輝度レベル1と輝度レベル4以上、輝度レベル2と輝度レベル5のときに、まだらと判断することになる。
このようにして、セルごとに輝度レベルを設定したならば、セルの位置と輝度レベルとを対応付けて所定の記憶領域に格納する。
In addition, the brightness levels are classified into three gradation levels, but the present invention is not limited to this, and may be classified into an arbitrary number of brightness levels as long as the gradation levels are three or more. In the case of classification into luminance levels of three or more gradations, the threshold value dth for determining mottle is set to “2” in the same manner as described above, and when there is a difference in the luminance levels of two or more gradations, the mottle is determined. You may make it judge. Alternatively, when the luminance level is classified into four or more gradation levels, two or more gradations may be determined to be mottle, and three or more gradations may be determined to be mottle. The threshold value dth can be set to an arbitrary value according to the number of gradations of the luminance level. For example, when the brightness level is classified into five gradation levels and the threshold value dth = 2, the brightness level is 0 and the brightness level is 3 or more, the brightness level is 1 and the brightness level is 4 or more, and the brightness level is 2 and the brightness level is 5. It will be judged mottled.
If the luminance level is set for each cell in this way, the cell position and the luminance level are associated with each other and stored in a predetermined storage area.

セルの位置は、例えば、次のように設定する。
例えば、図5に示すように、グリッド線が縦横5本ずつ設定され、5行×5行のセルに区分されているものとすると、5行×5行のセルにおいて、左上のセルを1、右下のセルを25とする。つまり、グリッドで区分されるm行×n列のセルを、左上のセルを1とし、右下のセルを最後として、左上から順にナンバリングする。
なお、セル内に関心領域の境界を含むセルを有効とするか無効とするか、あるいは、代表値をどのように演算するか、あるいは、輝度レベルを何階調に分類するか、などの条件により、セルの代表値すなわち輝度が決定され、これに基づき後述の不均一性の判断が行なわれる。そのため、これらセルの輝度を決定する前述の各種条件については、グリッド間隔あるいは縮尺、関心領域内の輝度のばらつきなどを考慮して、関心領域内の輝度のばらつきが、セルの輝度レベルに反映されるように設定すればよい。例えば、輝度レベルの演算を開始する前あるいは演算した後に、セル内に関心領域の境界を含むセルを有効とするか無効とするか、あるいは、代表値をどのように演算するか、あるいは、輝度レベルを何階調に分類するか、などを問い合わせる表示を、表示装置4に表示し、ユーザによる入力装置3での指示操作に応じた条件で動作するように構成する。そして、後述の図10に示すように、例えば演算した1フレーム内の各セルの輝度レベルを、実際の超音波画像と並べて表示装置4に表示することにより、関心領域内のセルの輝度レベルのばらつきを確認した後、再度、条件を変更してセルごとの輝度レベルを導くように構成してもよい。
The cell position is set as follows, for example.
For example, as shown in FIG. 5, assuming that 5 grid lines are set vertically and horizontally and are divided into cells of 5 rows × 5 rows, the upper left cell is 1 in 5 rows × 5 rows of cells. Let the lower right cell be 25. That is, m rows × n columns of cells divided by the grid are numbered in order from the upper left, with the upper left cell as 1, the lower right cell as the last.
Conditions such as whether to enable or disable a cell that includes the boundary of the region of interest in the cell, how to calculate the representative value, or how many gradations the luminance level is classified into Thus, the representative value of the cell, that is, the luminance is determined, and non-uniformity determination described later is performed based on this. Therefore, regarding the above-mentioned various conditions for determining the luminance of these cells, the luminance variation in the region of interest is reflected in the luminance level of the cell in consideration of the grid interval or scale, the luminance variation in the region of interest, etc. It may be set so that. For example, before or after the calculation of the luminance level, after the calculation, whether the cell including the boundary of the region of interest in the cell is enabled or disabled, how the representative value is calculated, or the luminance A display for inquiring about the level of gradation to be classified is displayed on the display device 4 and is configured to operate under conditions according to an instruction operation by the user on the input device 3. Then, as shown in FIG. 10 to be described later, for example, by displaying the calculated luminance level of each cell in one frame along with the actual ultrasonic image on the display device 4, the luminance level of the cell in the region of interest is displayed. After confirming the variation, the conditions may be changed again to derive the luminance level for each cell.

なお、セルごとの輝度レベルは、全てのフレームについて同一条件で導く。
このようにして、変数Fで特定されるフレームについて、セル毎の輝度レベルを演算する。
変数Fで特定されるフレームについてセル毎の輝度レベルを演算したならば、ステップS9に移行し、次に、変数Fで特定される1フレーム内のセルの輝度の不均一性の度合を表すマダラ指数を演算する。
このマダラ指数の演算は、図6に示すマダラ指数演算処理の処理手順にしたがって行なう。
Note that the luminance level for each cell is derived under the same conditions for all frames.
In this way, the luminance level for each cell is calculated for the frame specified by the variable F.
If the luminance level for each cell is calculated for the frame specified by the variable F, the process proceeds to step S9, and then a madara representing the degree of nonuniformity of the luminance of the cells in one frame specified by the variable F. Calculate the exponent.
The calculation of the madara index is performed according to the processing procedure of the madara index calculation process shown in FIG.

まず、グリッドで区分される各セルを特定する変数i、すなわち、図6に示すように番号で特定されるセルを特定するための、変数をi=1とする(ステップS21)。
次いで、ステップS22に移行し、変数iで特定されるセルの輝度レベルd(i)を所定の記憶領域から読み出し、この輝度レベルd(i)は有効であるかを判断する。そして、輝度レベルd(i)が有効であるとき、すなわち、セルが無効と設定されておらず、輝度レベルとして0、1、2のいずれかが設定されている場合には、ステップS23に移行する。
First, a variable i for specifying each cell divided by the grid, that is, a variable for specifying a cell specified by a number as shown in FIG. 6 is set to i = 1 (step S21).
Next, the process proceeds to step S22, where the luminance level d (i) of the cell specified by the variable i is read from a predetermined storage area, and it is determined whether this luminance level d (i) is valid. When the brightness level d (i) is valid, that is, when the cell is not set to be invalid and any one of 0, 1, and 2 is set as the brightness level, the process proceeds to step S23. To do.

このステップS23では、「i−Icol>0かつd(i−Icol)が有効であるか」を判断する。ここで、Icolは、グリッドで区分されるセルの行数である。例えば図5の場合には、5行×5列に区分されるため、Icolは5となる。
そして、i−Icol>0かつd(i−Icol)が有効であるときには、ステップS24に移行し、「abs〔d(i)−d(i−Icol)〕>dth」であるかを判断する。そして、「abs〔d(i)−d(i−Icol)〕>dth」を満足するとき、ステップS25に移行し、マダラ指数Smを1だけカウントアップしてステップS26に進み、満足しないときにはそのままステップS26に進む。
In step S23, it is determined whether “i-Icol> 0 and d (i-Icol) is valid”. Here, Icol is the number of rows of cells divided by the grid. For example, in the case of FIG. 5, since it is divided into 5 rows × 5 columns, Icol is 5.
When i-Icol> 0 and d (i-Icol) are valid, the process proceeds to step S24 to determine whether “abs [d (i) -d (i-Icol)]> dth”. . When “abs [d (i) −d (i−Icol)]> dth” is satisfied, the process proceeds to step S25, the madara index Sm is incremented by 1, and the process proceeds to step S26. Proceed to step S26.

なお、ステップS24において、abs〔X〕は、Xの絶対値である。dthは、セルの輝度レベルの差を表すしきい値であって、ここでは、セルの輝度レベルを「0、1、2」の3階調に分類しているため、しきい値dthは「2」とし、輝度レベルに2階調以上の差があるか否かを判断している。
図5に示すセルの区分において、i−Icol>0となるのは、2行目からであるため、ステップS23、ステップS24では、i=αとしたとき、セルαの上の行にセルαと隣接する関心領域内のセルがあるときに、セルαの輝度レベルと、セルαの上の行のセルαと隣接するセル(i(α)−Icol)の輝度レベルとを比較し、その差がしきい値dthより大きいとき、不均一すなわちまだらと判定している。
In step S24, abs [X] is the absolute value of X. dth is a threshold value that represents the difference between the luminance levels of the cells. Here, since the luminance level of the cell is classified into three gradations of “0, 1, 2”, the threshold value dth is “ 2 ”, it is determined whether or not there is a difference of two or more gradations in the luminance level.
In the cell division shown in FIG. 5, since i-Icol> 0 is from the second row, in step S23 and step S24, when i = α, cell α is placed in the row above cell α. And the brightness level of the cell α is compared with the brightness level of the cell (i (α) −Icol) adjacent to the cell α in the row above the cell α. When the difference is larger than the threshold value dth, it is determined that the difference is uneven.

そして、まだらと判定されるときステップS25に移行し、マダラ指数Smを1だけカウントアップする。
ステップS26では、「i+Icol<Iall+1、かつd(i+Icol)は有効であるか」を判断する。ここで、Iallは、グリッドで区分されるセルの総数である。例えば図5の場合には、5行×5列に区分されるため、Iallは「25」となる。
そして、i+Icol<Iall+1、かつd(i+Icol)が有効であるときにはステップS27に移行し、「abs〔d(i)−d(i+Icol)〕>dth」であるかを判断する。そして、「abs〔d(i)−d(i+Icol)〕>dth」を満足するときステップS28に移行し、マダラ指数Smを1だけカウントアップしてステップS29に進み、満足しないときにはそのままステップS29に進む。
When it is determined that the spot is mottled, the process proceeds to step S25, and the madara index Sm is incremented by one.
In step S26, it is determined whether “i + Icol <Iall + 1 and d (i + Icol) is valid”. Here, Iall is the total number of cells partitioned by the grid. For example, in the case of FIG. 5, since it is divided into 5 rows × 5 columns, Iall is “25”.
If i + Icol <Iall + 1 and d (i + Icol) is valid, the process proceeds to step S27 to determine whether or not “abs [d (i) −d (i + Icol)]> dth”. When “abs [d (i) −d (i + Icol)]> dth” is satisfied, the process proceeds to step S28, and the madara index Sm is incremented by 1, and the process proceeds to step S29. move on.

つまり、図5に示すセルの区分において、i+Icol<Iall+1となるのは、最下行であるため、ステップS26、ステップS27では、i=αとしたとき、セルαの下の行にセルαと隣接する関心領域内のセルがあるときに、セルαの輝度レベルとセルαの下の行のセルαと隣接するセル(i(α)+Icol)の輝度レベルとを比較し、その差がしきい値dthより大きいとき、まだらと判定している。
ステップS29では、「(i−1) mod Icol≠0かつd(i−1)は有効であるか」を判断する。ここで、「XmodY」は、XをYで割り算した余りを表す。
That is, in the cell division shown in FIG. 5, since i + Icol <Iall + 1 is the lowest row, in step S26 and step S27, when i = α, the row below cell α is adjacent to cell α. When there is a cell in the region of interest to be compared, the luminance level of the cell α is compared with the luminance level of the cell α in the row below the cell α and the luminance level of the adjacent cell (i (α) + Icol). When the value is larger than the value dth, it is determined to be mottled.
In step S29, it is determined whether “(i−1) mod Icol ≠ 0 and d (i−1) is valid”. Here, “XmodY” represents a remainder obtained by dividing X by Y.

そして、(i−1) mod Icol≠0かつd(i−1)が有効であるときにはステップS30に移行し、「abs〔d(i)−d(i−1)〕>dth」であるかを判断する。そして、「abs〔d(i)−d(i−1)〕>dth」を満足するときステップS31に移行し、マダラ指数Smを1だけカウントアップしてステップS32に進み、満足しないときにはそのままステップS32に進む。
つまり、図5に示すセルの区分において、(i−1) mod Icol≠0となるのは最左列を除く列であるため、ステップS29、ステップS30では、i=αとしたとき、セルαの左の列にセルαと隣接する関心領域内のセルがあるときに、セルαの輝度レベルとセルαの左の列のセルαと隣接するセル(i(α)−1)の輝度レベルとを比較し、その差がしきい値dthより大きいとき、まだらと判定している。
When (i-1) mod Icol ≠ 0 and d (i-1) is valid, the process proceeds to step S30, and is "abs [d (i) -d (i-1)]>dth"? Judging. Then, when “abs [d (i) −d (i−1)]> dth” is satisfied, the process proceeds to step S31, the madara index Sm is incremented by 1, and the process proceeds to step S32. Proceed to S32.
That is, in the cell division shown in FIG. 5, since (i−1) mod Icol ≠ 0 is a column excluding the leftmost column, in step S29 and step S30, when i = α, cell α When there is a cell in the region of interest adjacent to the cell α in the left column, the luminance level of the cell α and the luminance level of the cell (i (α) −1) adjacent to the cell α in the left column of the cell α When the difference is larger than the threshold value dth, it is determined that the spot is mottled.

ステップS32では、「i mod Icol≠0かつd(i+1)は有効であるか」を判断する。
i mod Icol≠0かつd(i+1)が有効であるときにはステップS33に移行し、「abs〔d(i)−d(i+1)〕>dth」であるかを判断する。そして、「abs〔d(i)−d(i+1)〕>dth」を満足するとき、ステップS34に移行し、マダラ指数Smを1だけカウントアップしてステップS35に進み、満足しないときにはそのままステップS35に進む。
In step S32, it is determined whether “i mod Icol ≠ 0 and d (i + 1) is valid”.
When i mod Icol ≠ 0 and d (i + 1) is valid, the process proceeds to step S33, and it is determined whether “abs [d (i) −d (i + 1)]> dth”. When “abs [d (i) −d (i + 1)]> dth” is satisfied, the process proceeds to step S34, the madara index Sm is incremented by 1, and the process proceeds to step S35. Proceed to

つまり、図5に示すセルの区分において、i mod Icol≠0となるのは、最右列を除く列であるため、ステップS32、ステップS33では、i=αとしたとき、セルαの右の列にセルαと隣接しかつ関心領域内のセルがあるときに、セルαの輝度レベルとセルαの右の列のセルαと隣接するセル(i(α)+1)の輝度レベルとを比較し、その差がしきい値dthより大きいとき、まだらと判定している。
ステップS35では、変数iをi+1に更新し、変数iがIall+1であるとき、つまり、全てのセルについてマダラ判定が終了したとき(ステップS36)、ステップS37に移行し、マダラ指数Smを、フレームを識別する変数Fと対応付けて、所定の記憶領域に格納する。
これにより、フレームFに対するマダラ指数演算処理が終了する。
That is, in the cell division shown in FIG. 5, since i mod Icol ≠ 0 is a column except the rightmost column, in step S32 and step S33, when i = α, When there is a cell in the region that is adjacent to the cell α in the column, the luminance level of the cell α is compared with the luminance level of the cell α in the right column of the cell α and the adjacent cell (i (α) +1). When the difference is larger than the threshold value dth, the mottle is determined.
In step S35, the variable i is updated to i + 1, and when the variable i is Iall + 1, that is, when the madara determination is completed for all the cells (step S36), the process proceeds to step S37, and the madara index Sm is changed to the frame. The variable F is identified and stored in a predetermined storage area.
Thus, the madara index calculation process for the frame F is completed.

そして、図2に戻って、フレームFに対するマダラ指数演算処理(ステップS9)が終了したことからステップS10に移行し、フレーム変数FをF=F+1に更新する。
そして、全フレームについてマダラ指数の演算が終了していなければ、ステップS8に戻り、次のフレームについて、セルの輝度レベルを演算し(ステップS8)、マダラ指数演算処理を行なう(ステップS9)。
つまり、本実施形態では、超音波造影剤を用いて超音波画像を取得している。超音波造影剤は被検体に注射した後に体内に伝達されやがて消滅するため、得られる超音波画像は、超音波造影剤を被検体に注射した後、時間の経過と共に時々刻々と変化する。そのため、超音波造影剤を被検体に注射した後、観察対象部位の状況に応じた超音波画像を得ることができる有効期間(例えば1分間程度)内の超音波画像を解析対象として、その間の各フレームについてマダラ指数を演算する。なお、有効期間は、膵癌および膵炎の鑑別を行なう場合には例えば、超音波造影剤を注射した後1分間程度としているが、超音波画像取得装置20の性能や症例によっても異なるため、1分間に限るものではなく、任意に設定することができる。
Then, returning to FIG. 2, since the madara index calculation process (step S9) for the frame F is completed, the process proceeds to step S10, and the frame variable F is updated to F = F + 1.
If the calculation of the Madara index is not completed for all frames, the process returns to Step S8, the luminance level of the cell is calculated for the next frame (Step S8), and the Madara index calculation process is performed (Step S9).
That is, in this embodiment, an ultrasound image is acquired using an ultrasound contrast agent. Since the ultrasonic contrast agent is injected into the subject and then transmitted to the body and disappears, the obtained ultrasonic image changes every moment after the injection of the ultrasonic contrast agent into the subject. Therefore, after injecting an ultrasound contrast agent into a subject, an ultrasound image within an effective period (for example, about 1 minute) that can obtain an ultrasound image according to the condition of the observation target region is used as an analysis target. The madara index is calculated for each frame. The effective period is, for example, about 1 minute after the injection of an ultrasound contrast agent when differentiating between pancreatic cancer and pancreatitis, but it varies depending on the performance and the case of the ultrasound image acquisition device 20 and is 1 minute. It is not limited to this, and can be set arbitrarily.

そして、全てのフレームについてマダラ指数の演算を行なったならば、ステップS11からステップS12に移行し、全てのフレームのマダラ指数に基づきその平均値を演算しこれを平均マダラ指数とする。そして、各フレームにおけるマダラ指数を、例えば横軸を時間、縦軸をマダラ指数としてグラフ表示するとともに、平均マダラ指数を表示する(ステップS12)。以上により処理が終了する。
なお、ここでは、有効期間の平均マダラ指数を演算するようにしているが、平均マダラ指数を演算する期間をユーザが設定するようにしてもよい。例えば、有効期間におけるマダラ指数を時系列にグラフ表示した後、表示装置4に平均マダラ指数を演算する期間を問い合わせる表示を行う。そして、例えば、ユーザがマダラ指数の時系列のグラフを参照し、良好なマダラ指数が得られている区間を、入力装置3を操作することにより入力したとき、この入力装置3により設定された区間のマダラ指数について、平均マダラ指数を演算するようにしてもよい。同様に、マダラ指数を時系列に表したグラフについても、ユーザが入力装置3を設定することにより設定された区間についてのみ、マダラ指数を時系列にグラフ表示するようにしてもよい。
また、平均マダラ指数は必ずしも演算しなくてもよい。つまり、マダラ指数を時系列に表示させた段階で、マダラ指数が、どの範囲で推移しているかを大まかに視覚的に把握することができる。したがって、必ずしも平均マダラ指数を演算しなくてもよい。
When the Madara index is calculated for all the frames, the process proceeds from Step S11 to Step S12, and the average value is calculated based on the Madara index for all the frames to obtain the average Madara index. The madara index in each frame is displayed as a graph, for example, with the horizontal axis representing time and the vertical axis representing the madara index, and the average madara index is displayed (step S12). The process ends as described above.
Here, the average madara index for the effective period is calculated, but the user may set the period for calculating the average madara index. For example, after displaying the madara index in the effective period in a time-series graph, the display device 4 is inquired about the period for calculating the average madara index. For example, when the user refers to a time-series graph of the madara index and inputs a section where a good madara index is obtained by operating the input device 3, the section set by the input device 3 For the madara index, an average madara index may be calculated. Similarly, for the graph showing the madara index in time series, the madara index may be displayed in time series only for the section set by the user setting the input device 3.
Further, the average madara index is not necessarily calculated. In other words, at the stage where the madara index is displayed in time series, it is possible to roughly grasp in which range the madara index is changing. Therefore, it is not always necessary to calculate the average madara index.

図7は、関心領域内のセルの輝度レベルの一例を示したものである。ここでは簡単のために、グリッドで区分されるセルからなるグリッド領域と関心領域とが一致しており、関心領域内のセルが5行×5列に区分されている場合について説明する。なお、図7において、白のセルは輝度レベルが「0」であることを表し、荒いハッチングが付されたセルは輝度レベルが「1」であることを表し、細かいハッチングが付されたセルは輝度レベルが「2」であることを表す。
グリッド領域は、図5に示すように左上から順にナンバリングされるため、図7に示すセルは、1から25までナンバリングされる。
FIG. 7 shows an example of the luminance level of the cell in the region of interest. Here, for the sake of simplicity, a case will be described in which a grid region composed of cells partitioned by a grid matches a region of interest, and cells in the region of interest are partitioned into 5 rows × 5 columns. In FIG. 7, white cells indicate that the luminance level is “0”, cells that are roughly hatched indicate that the luminance level is “1”, and cells that are finely hatched are The luminance level is “2”.
Since the grid areas are numbered in order from the upper left as shown in FIG. 5, the cells shown in FIG. 7 are numbered from 1 to 25.

図7(a)に示すように、時点「Time x1」のフレームにおいて、3行3列目のセル13のみが輝度レベル「2」であり、他のセルが「0」である場合、2行3列目のセル8が対象セルである場合、セル8は、i(=8)+Icol(=5)<Iall(=25)+1を満足しかつ、d(i(=8)+Icol(=5))は有効であり、abs〔d(i=8)−d(i(=8)+Icol(=5))〕>dth(=2)を満足する。そのため、セル8とセル13との関係はまだらと判断され、マダラ指数はSm=1となる。
3行2列目のセル12が対象セルである場合、セル12は、i(=12)+Icol(=5)<Iall(=25)+1かつ、d(i(=12)+Icol(=5))を満足し、abs〔d(i=12)−d(i(=12)+Icol(=5))〕>dth(=2)を満足する。そのため、セル12とセル13との関係はまだらと判断され、マダラ指数はSm=2となる。
As shown in FIG. 7A, in the frame at the time “Time x1”, when only the cell 13 in the third row and third column has the luminance level “2” and the other cells are “0”, two rows When the cell 8 in the third column is the target cell, the cell 8 satisfies i (= 8) + Icol (= 5) <Iall (= 25) +1 and d (i (= 8) + Icol (= 5) )) Is effective and satisfies abs [d (i = 8) −d (i (= 8) + Icol (= 5))]> dth (= 2). Therefore, the relationship between the cell 8 and the cell 13 is determined to be mottled, and the Madara index is Sm = 1.
When the cell 12 in the third row and the second column is the target cell, the cell 12 has i (= 12) + Icol (= 5) <Iall (= 25) +1 and d (i (= 12) + Icol (= 5). ) And abs [d (i = 12) −d (i (= 12) + Icol (= 5))]> dth (= 2). Therefore, the relationship between the cell 12 and the cell 13 is determined to be mottled, and the Madara index is Sm = 2.

同様の手順で、3行3列目のセル13が対象セルであるときには、セル13は、上下左右のセル8、18、12、14と、それぞれステップS23、24、26、27、29、30、32、33の関係を満足するため、マダラ指数Smは6となる。
さらに、3行4列目のセル14が対象セルであるときには、セル14は、セル13と、ステップS29、30の関係を満足するため、マダラ指数Smは7となる。4行3列目のセル18が対象セルであるときには、セル18は、セル13と、ステップS22、23の関係を満足するため、マダラ指数Smは8となる。その結果、時点「Time x1」のフレームにおけるマダラ指数はSm=8となる。
In the same procedure, when the cell 13 in the third row and the third column is the target cell, the cell 13 is divided into the upper, lower, left, and right cells 8, 18, 12, and 14, respectively, in steps S23, 24, 26, 27, 29, and 30. , 32, 33, the Madara index Sm is 6.
Further, when the cell 14 in the third row and the fourth column is the target cell, the cell 14 satisfies the relationship between the cell 13 and steps S29 and S30, and therefore, the Madara index Sm is 7. When the cell 18 in the fourth row and the third column is the target cell, the cell 18 satisfies the relationship between the cell 13 and steps S22 and S23, and therefore, the Madara index Sm is 8. As a result, the Madara index in the frame of the time “Time x1” is Sm = 8.

同様に、図7(b)に示すように、時点「Time x2」のフレームにおいて、2行2列目のセル7および2行3列目のセル8が輝度レベル「2」、3行3列目のセル13および3行4列目のセル14が輝度レベル「1」であり、他のセルが「0」である場合には、セル2とその下のセル7との間、セル3とその下のセル8との間、セル6とその右のセル7との間がまだらと判断される。また、セル7とその上(セル2)、その左(セル6)、その下(セル12)のそれぞれのセルとの間、セル8とその上(セル3)、その右(セル9)のそれぞれのセルとの間、セル9とその左のセル8との間、セル12とその上のセル7との間、がそれぞれまだらと判断される。その結果、時点「Time x2」のフレームにおけるマダラ指数はSm=10となる。   Similarly, as shown in FIG. 7B, in the frame at the time “Time x2”, the cell 7 in the second row and the second column and the cell 8 in the second row and the third column have the luminance level “2”, the third row and the third column. When the cell 13 in the third row and the cell 14 in the third row and the fourth column have the luminance level “1” and the other cells are “0”, the cell 3 and the cell 7 below the cell 3 Between the cell 8 below and between the cell 6 and the cell 7 on the right is determined to be mottled. Also, between cell 7 and its upper (cell 2), its left (cell 6) and its lower (cell 12), cell 8 and its upper (cell 3), and its right (cell 9) Between each cell, between the cell 9 and the left cell 8 and between the cell 12 and the cell 7 above it is determined to be mottled. As a result, the madara index in the frame at the time “Time x2” is Sm = 10.

同様に、図7(c)に示すように、時点「Time x3」のフレームにおいて、1行2列目のセル2、2行2列目のセル7、および4行3列目のセル18が輝度レベル「2」、2行3列目のセル8および2行4列目のセル9が輝度レベル「1」であり、他のセルが「0」である場合には、セル1とその右のセル2との間、セル2とその左(セル1)および右(セル3)のそれぞれのセルとの間、セル3とその左のセル2との間、セル6とその右のセル7との間、セル7とその左(セル6)およびその下(セル12)のそれぞれのセルとの間、セル12とその上のセル7との間、セル13とその下のセル18との間、セル17とその右のセル18との間、セル18とその上(セル13)、左(セル17)、右(セル19)、下(セル23)のそれぞれのセルとの間、セル19とその左のセル18との間、セル23とその上のセル18との間、がそれぞれまだらと判断される。その結果、時点「Time x3」のフレームにおけるマダラ指数はSm=16となる。   Similarly, as shown in FIG. 7C, in the frame of time “Time x3”, the cell 2 in the first row and the second column, the cell 7 in the second row and the second column, and the cell 18 in the fourth row and the third column are When the luminance level “2”, the cell 8 in the second row and the third column, and the cell 9 in the second row and the fourth column are the luminance level “1” and the other cells are “0”, the cell 1 and its right Cell 2, cell 2 and its left (cell 1) and right (cell 3) cells, cell 3 and its left cell 2, cell 6 and its right cell 7 Between cell 7 and each cell on the left (cell 6) and below (cell 12), between cell 12 and cell 7 above, cell 13 and cell 18 below Between cell 17 and cell 18 on the right, cell 18 and above (cell 13), left (cell 17), right (cell 19), below (cell 23) Between the cells respectively, between the cell 19 and the cell 18 of the left, between the cell 23 and cell 18 thereon, but is determined to plaques respectively. As a result, the Madara index in the frame at the time “Time x3” is Sm = 16.

同様に、図7(d)に示すように、時点「Time x4」のフレームにおいて、1行4列目のセル4、3行2列目のセル12、5行2列目のセル22および5行24列目のセル24が輝度レベル「2」、2行1列目のセル6、2行2列目のセル7、3行1列目のセル11、3行4列目のセル14および3行5列目のセル15が輝度レベル「1」であり、他のセルが「0」である場合には、セル3とその右のセル4、セル4とその左(セル3)、その右(セル5)および下(セル9)のそれぞれのセルとの間、セル5とその左のセル4との間、セル9とその上のセル4との間、セル12とその右(セル13)および下(セル17)のセルとの間、セル13とその左のセル12との間、セル17とその上(セル12)および下(セル22)との間、セル19とその下のセル24との間、セル21とその右のセル22との間、セル22とその上(セル17)、左(セル21)、右(セル23)のそれぞれのセルとの間、セル23とその左のセル22および右のセル24との間、セル24とその上(セル19)、その左(セル22)および右(セル25)のそれぞれのセルとの間、セル25とその左のセル24との間が、まだらと判断される。その結果、時点「Time x4」のフレームにおけるマダラ指数はSm=22となる。   Similarly, as shown in FIG. 7D, in the frame of time “Time x4”, the cell 4 in the first row and the fourth column, the cell 12 in the third row and the second column 12, the cells 22 and 5 in the fifth row and the second column. Cell 24 in row 24 column has luminance level “2”, cell 6 in row 2 and column 1, cell 7 in row 2 and column 2, cell 11 in row 3 and column 1, cell 14 in row 3 and column 4, and When the cell 15 in the third row and the fifth column has the luminance level “1” and the other cells are “0”, the cell 3 and the right cell 4, the cell 4 and the left (cell 3), Between each cell on the right (cell 5) and below (cell 9), between cell 5 and left cell 4, between cell 9 and cell 4 above, cell 12 and its right (cell 13) and below (cell 17), between cell 13 and left cell 12, and between cell 17 and above (cell 12) and below (cell 22) , Between cell 19 and cell 24 below, between cell 21 and cell 22 on the right, cell 22 and above (cell 17), left (cell 21), and right (cell 23) Between cell 23 and its left cell 22 and right cell 24, between cell 24 and its upper cell (cell 19), its left (cell 22) and right cell (cell 25). , The gap between the cell 25 and the left cell 24 is determined to be mottled. As a result, the madara index in the frame at the time “Time x4” is Sm = 22.

次に、上記実施形態の動作を説明する。
図8は、超音波造影剤としてマイクロバブルを用いて得た時系列の超音波画像の一例であって、典型的な膵癌症例の超音波画像である。膵内に低エコー腫瘤が認められる。一般に膵癌は、正常膵よりも低エコー(黒く)に見える。
超音波造影剤を被検体に注射すると造影剤は、白い点状のバブルとして腫瘍内に流入する。
図8の膵癌症例は、造影剤を投入する前(図8(a))、投入から15秒後(図8(b))、30秒後(図8(c))、45秒後(図8(d))を表している。一見してわかるように腫瘍内にバブルが均一に流入せず、バブルが流入するところと、しないところとでムラができている。
Next, the operation of the above embodiment will be described.
FIG. 8 is an example of a time-series ultrasound image obtained using microbubbles as an ultrasound contrast agent, and is an ultrasound image of a typical pancreatic cancer case. A hypoechoic mass is found in the pancreas. In general, pancreatic cancer appears to be lower echo (black) than normal pancreas.
When an ultrasound contrast agent is injected into a subject, the contrast agent flows into the tumor as white dotted bubbles.
In the case of pancreatic cancer in FIG. 8, before the contrast agent was added (FIG. 8 (a)), 15 seconds after the injection (FIG. 8 (b)), 30 seconds (FIG. 8 (c)), and 45 seconds later (FIG. 8). 8 (d)). As can be seen at first glance, the bubbles do not flow uniformly into the tumor, and there is unevenness between where the bubbles flow and where they do not.

症例によってはバブルがほとんど入らない膵癌症例もあるが、典型的な膵癌症例では、図8のようなパターンでムラができる。
このような超音波画像を表す超音波画像データを解析装置2に読み込むと(ステップS1)、例えば図9に示すように表示装置4に超音波画像が表示される。
そして、ユーザの関心領域の操作に応じて関心領域を設定し(ステップS2、S3),さらにユーザのグリッド調整に応じてグリッドを設定すると、例えば図10の左側に示すように超音波画像上にグリッドが表示される(ステップS4〜S6)。
Although there are pancreatic cancer cases in which bubbles hardly enter depending on the case, the typical pancreatic cancer case has unevenness in a pattern as shown in FIG.
When ultrasound image data representing such an ultrasound image is read into the analysis device 2 (step S1), for example, the ultrasound image is displayed on the display device 4 as shown in FIG.
Then, when the region of interest is set according to the user's operation of the region of interest (steps S2 and S3) and further the grid is set according to the user's grid adjustment, for example, as shown on the left side of FIG. A grid is displayed (steps S4 to S6).

さらに、設定されたグリッドにしたがって、セルの輝度演算処理が行なわれると、例えば、図10の中央に示すようなセルごとの輝度レベルの演算結果が得られる(ステップS8)。
そして、セルごとの輝度レベルの演算結果に基づき、マダラ指数演算処理を行い(ステップS9)、この処理をフレームごとに行なうことによって、フレームごとのマダラ指数が得られる。
得られたフレームごとのマダラ指数は、図11に示すように時系列に表示装置4に表示され、さらにその平均マダラ指数が図11の右下に示すように、表示装置4に表示される(ステップS12)。
Further, when the cell brightness calculation process is performed according to the set grid, for example, a calculation result of the brightness level for each cell as shown in the center of FIG. 10 is obtained (step S8).
Then, based on the calculation result of the luminance level for each cell, a madara index calculation process is performed (step S9). By performing this process for each frame, a madara index for each frame is obtained.
The obtained Madara index for each frame is displayed on the display device 4 in time series as shown in FIG. 11, and the average Madara index is further displayed on the display device 4 as shown in the lower right of FIG. 11 ( Step S12).

例えば、図11の場合には、平均マダラ指数は約20.67として演算される。
なお、図11は、造影剤注射後、1分間におけるマダラ指数を表したものである。
一方、図12は、典型的な慢性膵炎症例の超音波画像を示したものである。この場合も造影剤注射前(図12(a))、造影剤注射後15秒後(図12(b))、30秒後(図12(c))、45秒後(図12(d))の超音波画像を示している。
図12(a)に示すように、炎症も通常の超音波では低エコーとして抽出される。造影前には、膵内に低エコー腫瘤が認められる。しかしながら、これだけでは、腫瘍(癌)なのか炎症なのかの鑑別は困難である。
For example, in the case of FIG. 11, the average madara index is calculated as about 20.67.
In addition, FIG. 11 represents the madara index for 1 minute after contrast medium injection.
On the other hand, FIG. 12 shows an ultrasound image of a typical chronic pancreatic inflammation example. Also in this case, before contrast agent injection (FIG. 12 (a)), 15 seconds after contrast agent injection (FIG. 12 (b)), 30 seconds (FIG. 12 (c)), and 45 seconds later (FIG. 12 (d)). ) Shows an ultrasonic image.
As shown in FIG. 12A, inflammation is also extracted as a low echo in normal ultrasound. Prior to imaging, a hypoechoic mass is observed in the pancreas. However, this alone makes it difficult to distinguish between tumor (cancer) and inflammation.

造影を行なうと、図12(b)〜図12(d)に示すように、白い点状に見えるバブルは低エコー腫瘤内に均一に流入し、ムラはほとんどできない。
図8の膵癌症例の場合と同様の手順で、造影開始後1分間における平均マダラ指数を演算したところ、「6」であり、図8に示す膵癌症例の場合(約20.67)とは異なり、非常に低い値を示した。
図13は、膵癌症例の超音波画像を示したものである。膵内に低エコー腫瘤が認められるが、造影では見た目は図8の症例ほど造影剤の流入のムラが発生していない。
When contrast is performed, as shown in FIGS. 12B to 12D, bubbles appearing as white dots uniformly flow into the hypoechoic mass, and unevenness is hardly caused.
The average madara index for one minute after the start of contrast is calculated in the same procedure as in the case of the pancreatic cancer case of FIG. 8, and is “6”, which is different from the case of the pancreatic cancer case shown in FIG. 8 (about 20.67). Showed very low values.
FIG. 13 shows an ultrasound image of a pancreatic cancer case. Although a hypoechoic mass is observed in the pancreas, the contrast does not appear as uneven as in the case of FIG.

慣れた専門医がこの造影所見を見ると、正確に診断できるかもしれないが、この症例のように目に飛び込んでくる印象だけでは慢性膵炎と鑑別が難しい症例もある。この図13の膵癌症例について平均マダラ指数を演算すると、「29」となり、実際に数値化すると、慢性膵炎とは異なることがわかり、膵癌である可能性が高いと容易に診断することができる。
したがって、例えば、膵癌と膵炎との過去の症例を解析することなどによって、マダラ指数の演算に必要な各種条件について、膵癌と膵炎との鑑別に適した値を予め検出し、解析装置2の各種条件の初期値として設定しておく。
If a specialized specialist sees this contrast finding, it may be able to make an accurate diagnosis, but there are cases where it is difficult to differentiate from chronic pancreatitis just by the impression that jumps into the eye, as in this case. When the average madara index is calculated for the pancreatic cancer case of FIG. 13, it is “29”, and when it is actually quantified, it can be seen that it is different from chronic pancreatitis, and it can be easily diagnosed that there is a high possibility of pancreatic cancer.
Therefore, for example, by analyzing past cases of pancreatic cancer and pancreatitis, values suitable for differentiating between pancreatic cancer and pancreatitis are detected in advance for various conditions necessary for the calculation of the Madara index. Set as the initial value of the condition.

そして、このように各種条件が設定された解析装置2を用いて、膵癌あるいは膵炎症例の超音波画像を解析すれば、マダラ指数の推移および平均マダラ指数を得ることができる。そして、上述のように、膵癌の平均マダラ指数は、膵炎の平均マダラ指数に比較して大きな値となる傾向にあり、また、平均マダラ指数の取り得る値の範囲は、膵癌と膵炎とで比較的分かれる傾向にある。したがって、膵癌と膵炎との鑑別に比較的不慣れな施行医、あるいは、超音波画像だけでは膵癌と膵炎との鑑別が困難な症例の場合などでも、平均マダラ指数やマダラ指数の推移を参照することによって、膵癌と膵炎との鑑別の一助とすることができる。   Then, by using the analysis apparatus 2 in which various conditions are set as described above, if an ultrasonic image of a pancreatic cancer or pancreatic inflammation example is analyzed, the transition of the Madara index and the average Madara index can be obtained. As described above, the average madara index of pancreatic cancer tends to be larger than the average madara index of pancreatitis, and the range of values that the average madara index can take is compared between pancreatic cancer and pancreatitis. It tends to be divided. Therefore, refer to changes in mean madara index and madara index even in the case of a practitioner who is relatively unfamiliar with differentiating between pancreatic cancer and pancreatitis, or in cases where it is difficult to differentiate between pancreatic cancer and pancreatitis using only ultrasound images. Can help to differentiate between pancreatic cancer and pancreatitis.

なお、症例によっては、膵癌であっても、膵癌の部位に超音波造影剤が入らず超音波画像が黒っぽい画像となり不均一性が得られない場合もある。このような場合には、平均マダラ指数は比較的低い値となり、一般的な膵癌や膵炎の平均マダラ指数から鑑別を行なうと、適切な鑑別を行なうことができない可能性がある。そのため、さらに、従来のTICも同時に求め、その結果も、表示装置4に表示するように構成してもよい。このように、同一の超音波画像に対する、異なる解析手法による解析結果を表示することによって、一般的な膵癌や膵炎ではない症例であり、平均マダラ指数による鑑別では膵癌ではないと判断される場合であっても、TICの結果からは膵癌と判断されることになり、両者の結果を用いることによって、より適切な鑑別を図ることができる。   In some cases, even in the case of pancreatic cancer, the ultrasound contrast agent does not enter the site of the pancreatic cancer and the ultrasound image becomes a blackish image and nonuniformity may not be obtained. In such a case, the average madara index becomes a relatively low value, and if differentiation is performed from the average madara index of general pancreatic cancer or pancreatitis, there is a possibility that appropriate differentiation cannot be performed. Therefore, the conventional TIC may be obtained at the same time, and the result may be displayed on the display device 4. In this way, by displaying the analysis results by different analysis methods for the same ultrasound image, it is a case that is not a general pancreatic cancer or pancreatitis, and it is judged that it is not pancreatic cancer by discrimination by the mean madara index Even if it exists, it will be judged as pancreatic cancer from the result of TIC, and more appropriate discrimination can be aimed at by using both results.

また、上記実施形態においては、関心領域を含むようにグリッドを設定し、関心領域を矩形状のセルに区分する場合について説明したがこれに限るものではない。例えば、三角形、六角形など、セルどうしが重なることなく関心領域を同一形状の複数のセルで分割することができればどのような形状であってもよい。また、セルを千鳥配置にしてもよい。
また、1つのセルに対して上下左右のセルとその輝度レベルを比較し、輝度レベルの差がしきい値dth以上であるときにまだらと判断しているが、これに限るものではない。例えば、1つのセルに対して斜めの関係にあるセルとその輝度レベルを比較するようにしてもよく、また、上下左右および斜めの関係にあるセル全てについて輝度レベルを比較するようにしてもよい。
In the above embodiment, a case has been described in which a grid is set so as to include a region of interest, and the region of interest is divided into rectangular cells. However, the present invention is not limited to this. For example, any shape may be used as long as the region of interest can be divided by a plurality of cells having the same shape, such as a triangle and a hexagon, without overlapping each other. The cells may be arranged in a staggered manner.
In addition, the luminance level of one cell is compared with that of the upper, lower, left, and right cells, and when the difference in luminance level is equal to or greater than the threshold value dth, the mottle is determined, but this is not restrictive. For example, the luminance level may be compared with a cell having an oblique relationship with respect to one cell, or the luminance levels may be compared for all cells having an oblique relationship with each other. .

また、1つのセルに対して上下左右のセルとその輝度レベルを比較する場合に限るものではなく、例えば、隣接する同階調のセルは1つのセルとみなし、この隣接する同階調のセルからなる1つのセル群とその上下左右のセルとを比較するようにしてもよい。その場合、セル群に含まれる各セルと上下左右の関係にあるセルと、1つのセル群とを比較するようにしてもよい。例えばP個の同一階調の隣接するセルを1つのセル群としたとき、このセル群に含まれるP個の各セルについて、その上下の関係にあるP×2個のセルそれぞれの輝度レベルと、1つのセル群の輝度レベルとを比較する。さらに、セル群に含まれるP個のセルのうち最左端のセルとその左側のセルとを比較し、同様に、セル群に含まれるP個のセルのうち最右端のセルとその右側のセルとを比較し、これらの差がしきい値dth以上である個数を、このセル群に対するまだらの数として判断するようにしてもよい。あるいは1つのセル群と上下左右の関係にあるセルのうち、黒を除く同一階調のセルが連続し、かつセル群に含まれるセルの数と同数のセルが連続する複数のセルのみを比較対象とし、この連続する複数のセルを一つのセルとみなし、複数のセルと1つのセル群とについて輝度レベルを比較するようにしてもよい。例えばP個の黒を除く同一階調の隣接するセルを1つのセル群としたとき、このセル群の上下および左右のセルのうち、P個のセルが連続して同一階調であるときこのP個のセルを比較対象とし、比較対象とみなすことのできるP個のセルを一つのセルとして、P個のセルと1つのセル群とを比較し、これらの差がしきい値dth以上である個数を、このセル群に対するまだらの数として判断するようにしてもよい。   In addition, the present invention is not limited to the case where the luminance level is compared with one cell up, down, left, and right. For example, an adjacent cell of the same gradation is regarded as one cell, and the adjacent cell of the same gradation is used. It is also possible to compare one cell group consisting of and the upper, lower, left and right cells. In this case, each cell included in the cell group may be compared with one cell group in a vertical and horizontal relationship. For example, when P adjacent cells of the same gradation are made into one cell group, the luminance level of each of the P × 2 cells in the upper and lower relations of the P cells included in the cell group The brightness level of one cell group is compared. Further, the leftmost cell of the P cells included in the cell group and the leftmost cell thereof are compared. Similarly, the rightmost cell and the rightmost cell of the P cells included in the cell group are compared. And the number of which the difference is greater than or equal to the threshold value dth may be determined as the mottled number for this cell group. Or, among cells that have a vertical and horizontal relationship with a single cell group, compare only cells that have the same gray level cell except black and have the same number of cells in the cell group. As a target, the plurality of continuous cells may be regarded as one cell, and the luminance level may be compared between the plurality of cells and one cell group. For example, when adjacent cells of the same gradation excluding P pieces of black are set as one cell group, when P cells are continuously at the same gradation among the upper, lower, left and right cells of this cell group, P cells are compared and P cells that can be regarded as comparison objects are defined as one cell, P cells are compared with one cell group, and the difference between them is equal to or greater than a threshold value dth. A certain number may be determined as a mottled number for this cell group.

また、Pの数は、必ずしも黒を除く同一階調の連続するセルの数に限るものではなく、例えば2個あるいは3個など任意に設定することができ、まだらの判断対象のセルを1つとするのか、黒を除く同一階調の連続する複数のセルを1つのセルとみなして比較を行なうのか、いくつのセルを1つのセルとみなすのかといった条件や、あるいは、比較対象のセルを1つとするのか、同一階調の連続する複数のセルを1つのセルとみなして比較対象の1つのセルとするのか、などといった条件も、任意に設定することができる。
また、例えば、このように、まだらの判断対象のセルを1つとするか、あるいは黒を除く同一階調の連続する複数のセルを1つのセルとみなして比較を行なうか、いくつのセルを1つのセルとみなすか、あるいは、比較対象のセルを1つとするか、あるいは同一階調の連続する複数のセルを1つのセルとみなすか、また、判断対象のセルに対して比較対象とするセルとして、上下左右のセルとするか、斜めの関係にあるセルとするか、あるいはこれら両方のセルとするかなどといった条件を問い合わせる文章を表示装置4に表示し、入力装置3などをユーザが操作することにより、これら条件が設定されたならば、設定された条件にしたがってセルを比較するようにしてもよい。
Further, the number of P is not necessarily limited to the number of continuous cells of the same gradation excluding black, and can be arbitrarily set, for example, two or three, and the mottled determination target cell is one. Whether to compare a plurality of consecutive cells of the same gradation excluding black as one cell, how many cells are considered as one cell, or one cell to be compared It is also possible to arbitrarily set conditions such as whether or not a plurality of consecutive cells of the same gradation are regarded as one cell and set as one cell for comparison.
In addition, for example, as described above, the mottled determination target cell is assumed to be one, or a plurality of cells having the same gradation except black are regarded as one cell for comparison, or how many cells are equal to one. Whether to consider a single cell, or to compare a single cell, or to consider a plurality of consecutive cells of the same gradation as a single cell, or to be compared with a cell to be judged The display device 4 displays a sentence for inquiring about a condition such as whether the cell is an up / down / left / right cell, a cell having an oblique relationship, or both of the cells, and the user operates the input device 3 or the like. Thus, if these conditions are set, the cells may be compared according to the set conditions.

つまり、どのセルとどのセルとを比較するかによって得られるマダラ指数の数が変化し、また、関心領域を矩形で区切っているため、超音波画像で表される像の形状によってはまだらと判断されにくい可能性もある。したがって、前述のグリッド線の本数や、輝度レベルをいくつの階調に分類するかなども考慮して、セルの比較方法を設定することによって、輝度の不均一性をより的確に判断することができる。
また、上記実施形態においては、医用画像処理装置10において、入力される超音波画像データに対して処理を行なう場合について説明したがこれに限るものではない。例えば、超音波画像データ自体を取得する、超音波診断装置などの超音波画像取得装置20側に図2に示す処理を組み込み、超音波画像取得装置20側で、超音波画像データを取得するとともに、平均マダラ指数の演算および表示も行なうようにしてもよい。
In other words, the number of madara indices obtained depends on which cell is compared with which cell, and because the region of interest is divided by a rectangle, it is determined to be mottle depending on the shape of the image represented by the ultrasound image. It may be difficult to do. Therefore, it is possible to more accurately determine the luminance non-uniformity by setting the cell comparison method in consideration of the number of grid lines and the number of gradation levels of the luminance level. it can.
In the above embodiment, the case where the medical image processing apparatus 10 performs processing on input ultrasonic image data has been described. However, the present invention is not limited to this. For example, the processing shown in FIG. 2 is incorporated in the ultrasonic image acquisition apparatus 20 side such as an ultrasonic diagnostic apparatus for acquiring the ultrasonic image data itself, and the ultrasonic image data is acquired on the ultrasonic image acquisition apparatus 20 side. The average madara index may be calculated and displayed.

また、上記実施形態においては、膵臓の超音波画像に対して処理を行なう場合について説明したがこれに限るものではない。例えば、肝臓、乳腺、前立腺、腎臓、など、超音波造影剤を用いて超音波画像を取得し、この超音波画像を用いて悪性か良性かなどを鑑別するような検査対象部位であれば適用することができ、超音波造影剤を用いて取得した超音波画像データであれば、適用することができる。
その場合には、不均一性の度合や、輝度のばらつきなどが、検査対象部位の種類あるいは超音波画像の測定方法などによって異なる可能性がある。そのときには、前述のマダラ指数の算出に影響を与える各種条件を、検査対象部位に応じて設定すればよい。
In the above embodiment, the case where processing is performed on an ultrasound image of the pancreas has been described, but the present invention is not limited to this. For example, if it is an examination target site such as liver, breast, prostate, kidney, etc., an ultrasound image is acquired using an ultrasound contrast agent, and this ultrasound image is used to distinguish malignant or benign. Any ultrasonic image data acquired using an ultrasonic contrast agent can be applied.
In that case, there is a possibility that the degree of non-uniformity, variation in luminance, and the like vary depending on the type of the region to be inspected or the measurement method of the ultrasonic image. At that time, various conditions that affect the calculation of the above-described madara index may be set in accordance with the region to be examined.

なお、上記実施形態において、入力装置3が入力操作部に対応し、図2のステップS1の処理が表示処理部に対応し、ステップS2〜ステップS6の処理が区分処理部に対応し、ステップS8の処理が輝度レベル演算部に対応し、ステップS9の処理が不均一性度合演算部に対応し、ステップS13の処理が演算結果出力部に対応している。
また、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらす全ての実施形態をも含む。
さらに、本発明の範囲は、請求項により画される発明の特徴の組み合わせに限定されるものではなく、全ての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画され得る。
In the above embodiment, the input device 3 corresponds to the input operation unit, the processing in step S1 in FIG. 2 corresponds to the display processing unit, the processing in steps S2 to S6 corresponds to the classification processing unit, and step S8. The process in step S9 corresponds to the luminance level calculation unit, the process in step S9 corresponds to the non-uniformity degree calculation unit, and the process in step S13 corresponds to the calculation result output unit.
In addition, the scope of the present invention is not limited to the illustrated and described exemplary embodiments, and includes all embodiments that provide the same effects as those intended by the present invention.
Furthermore, the scope of the invention is not limited to the combinations of features of the invention defined by the claims, but may be defined by any desired combination of particular features among all the disclosed features.

医用画像処理装置10を用いて鑑別を行なった。
膵癌と膵炎とによる炎症性腫瘤の鑑別が問題となるのは、経験的に、2〜3cmの大きさ(領域)のものである。そこで、鑑別対象の症例として、鑑別上問題となりやすい約2cm大の腫瘍(領域)を用いた。具体的には、最少10mm、最大36mmの大きさ(領域)であり、平均径は22.4mm、中央値は23mmの腫瘍を用いた。
また、このような約2cm大の腫瘤(領域)に対して、10×10のセル数、セルの輝度レベルを5段階に設定し、しきい値dthを「2」として輝度レベルに2階調以上の差があるときに、まだらと判断するように設定した。
その結果、得られたマダラ指数Smの時系列的な変化、また、平均マダラ指数から、膵癌と慢性膵炎とを高い診断精度で鑑別することができることが、確認できた。
Identification was performed using the medical image processing apparatus 10.
The identification of inflammatory masses due to pancreatic cancer and pancreatitis becomes a problem empirically having a size (region) of 2 to 3 cm. Therefore, a tumor (region) having a size of about 2 cm, which tends to cause a problem in differentiation, was used as a case to be differentiated. Specifically, a tumor having a size (region) of at least 10 mm and a maximum of 36 mm, an average diameter of 22.4 mm, and a median of 23 mm was used.
In addition, for such a tumor (region) about 2 cm in size, the number of cells of 10 × 10 and the luminance level of the cells are set to 5 levels, the threshold value dth is set to “2”, and the luminance level is 2 gradations When there was the above difference, it was set so that it was judged mottled.
As a result, it was confirmed that pancreatic cancer and chronic pancreatitis can be distinguished with high diagnostic accuracy from the chronological change of the obtained spotted index Sm and the average spotted index.

1 超音波画像データ記憶装置
2 解析装置
3 入力装置
4 表示装置
10 医用画像処理装置
20 超音波画像取得装置
DESCRIPTION OF SYMBOLS 1 Ultrasonic image data storage device 2 Analysis device 3 Input device 4 Display device 10 Medical image processing device 20 Ultrasonic image acquisition device

Claims (8)

超音波造影剤を用いた時系列の超音波画像を表す超音波画像データをもとに超音波画像を表示装置に表示する表示処理部と、
前記表示装置に表示された超音波画像に対して関心領域を設定する入力操作部と、
当該入力操作部で設定された関心領域を複数のセルに区分する区分処理部と、
前記超音波画像データに基づき1フレーム毎に前記セルの輝度レベルを演算する輝度レベル演算部と、
前記セルのうちの1つを対象セルとし、前記セルのうち前記対象セルの周囲のセルの輝度レベルと前記対象セルの輝度レベルとの差をもとに不均一性を判断する処理を、前記対象セルを切り替えて繰り返し行なって、1フレーム毎に不均一性の度合を演算する不均一性度合演算部と、
不均一性度合演算部で演算した1フレーム毎の不均一性の度合を時系列に出力する演算結果出力部と、を備えることを特徴とする医用画像処理装置。
A display processing unit for displaying an ultrasound image on a display device based on ultrasound image data representing a time-series ultrasound image using an ultrasound contrast agent;
An input operation unit for setting a region of interest for the ultrasound image displayed on the display device;
A classification processing unit that divides the region of interest set in the input operation unit into a plurality of cells;
A luminance level calculation unit that calculates the luminance level of the cell for each frame based on the ultrasonic image data;
One of the cells is a target cell, and the process of determining non-uniformity based on a difference between a luminance level of a cell around the target cell and the luminance level of the target cell among the cells, A non-uniformity degree calculation unit that calculates the degree of non-uniformity for each frame by repeatedly switching the target cell,
A medical image processing apparatus comprising: a calculation result output unit that outputs the degree of non-uniformity for each frame calculated by the non-uniformity degree calculation unit in time series.
前記不均一性度合演算部は、前記関心領域に含まれるセルのうち前記対象セルに隣接するセルそれぞれと前記対象セルとの間で前記輝度レベルを比較し、前記対象セルに対して前記輝度レベルの差がしきい値以上となるセルを不均一であるとしてカウントし、
1フレーム毎の、前記関心領域に含まれるセルそれぞれのカウント結果の総和を、不均一性の度合を表す指数として演算することを特徴とする請求項1記載の医用画像処理装置。
The non-uniformity degree calculation unit compares the luminance level between each cell adjacent to the target cell and the target cell among cells included in the region of interest, and the luminance level for the target cell. Count cells that are more than a threshold as non-uniform,
The medical image processing apparatus according to claim 1, wherein the sum of the count results of each cell included in the region of interest for each frame is calculated as an index representing the degree of non-uniformity.
前記演算結果出力部は、フレーム毎の前記指数を、時系列にグラフ表示することを特徴とする請求項2記載の医用画像処理装置。   The medical image processing apparatus according to claim 2, wherein the calculation result output unit displays the index for each frame in a time series graph. 前記演算結果出力部は、前記フレーム毎の前記指数の平均値を演算し、当該平均値を出力することを特徴とする請求項3記載の医用画像処理装置。   The medical image processing apparatus according to claim 3, wherein the calculation result output unit calculates an average value of the indices for each frame and outputs the average value. 記区分処理部は、前記関心領域を含むようにグリッド線を設定し、当該グリッド線で区分される領域を前記セルとし、
入力される前記グリッド線の間隔に応じて、前記グリッド線を設定することを特徴とする請求項1から請求項4のいずれか1項に記載の医用画像処理装置。
Before Symbol Classification processing unit sets a grid line to include the region of interest, the regions divided in the grid lines and the cell,
The medical image processing apparatus according to any one of claims 1 to 4, wherein the grid lines are set in accordance with an interval between the input grid lines.
膵癌の鑑別に用いられることを特徴とする請求項1から請求項5のいずれか1項に記載の医用画像処理装置。   6. The medical image processing apparatus according to claim 1, wherein the medical image processing apparatus is used for differentiation of pancreatic cancer. 請求項1から請求項6のいずれか1項に記載の医用画像処理装置を備えることを特徴とする超音波診断装置。   An ultrasonic diagnostic apparatus comprising the medical image processing apparatus according to any one of claims 1 to 6. 超音波造影剤を用いた時系列の超音波画像を表す超音波画像データの処理方法であって、
前記超音波画像データをもとに超音波画像を表示装置に表示するステップと、
前記表示装置に表示された超音波画像に対して入力操作部により設定された関心領域を複数のセルに区分するステップと、
前記超音波画像データに基づき1フレーム毎に前記セルの輝度レベルを演算するステップと、
前記セルのうちの1つを対象セルとし、前記セルのうち前記対象セルの周囲のセルの輝度レベルと前記対象セルの輝度レベルとの差をもとに不均一性を判断する処理を、前記対象セルを切り替えて繰り返し行なって、1フレーム毎に不均一性の度合を演算するステップと、
1フレーム毎の不均一性の度合を時系列に出力するステップと、を備えることを特徴とする医用画像処理方法。
A method of processing ultrasound image data representing a time-series ultrasound image using an ultrasound contrast agent,
Displaying an ultrasound image on a display device based on the ultrasound image data;
Dividing the region of interest set by the input operation unit for the ultrasonic image displayed on the display device into a plurality of cells;
Calculating a luminance level of the cell for each frame based on the ultrasonic image data;
One of the cells is a target cell, and the process of determining non-uniformity based on a difference between a luminance level of a cell around the target cell and the luminance level of the target cell among the cells, Calculating the degree of non-uniformity for each frame by switching the target cell repeatedly,
And a step of outputting the degree of non-uniformity for each frame in time series.
JP2015538922A 2013-09-30 2014-09-30 Medical image processing apparatus, ultrasonic diagnostic apparatus, and medical image processing method Active JP6432910B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013205201 2013-09-30
JP2013205201 2013-09-30
PCT/JP2014/004999 WO2015045424A1 (en) 2013-09-30 2014-09-30 Medical image processing device, ultrasonic diagnostic device, and medical image processing method

Publications (2)

Publication Number Publication Date
JPWO2015045424A1 JPWO2015045424A1 (en) 2017-03-09
JP6432910B2 true JP6432910B2 (en) 2018-12-05

Family

ID=52742592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015538922A Active JP6432910B2 (en) 2013-09-30 2014-09-30 Medical image processing apparatus, ultrasonic diagnostic apparatus, and medical image processing method

Country Status (3)

Country Link
JP (1) JP6432910B2 (en)
DE (1) DE112014004488T5 (en)
WO (1) WO2015045424A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2539963A (en) * 2015-07-03 2017-01-04 Williams Justin Thermographic imaging system
KR102607013B1 (en) * 2016-01-12 2023-11-29 삼성메디슨 주식회사 Ultrasound imaging apparatus and control method for the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4467673B2 (en) * 1999-08-19 2010-05-26 株式会社東芝 Ultrasonic diagnostic equipment
US6508768B1 (en) * 2000-11-22 2003-01-21 University Of Kansas Medical Center Ultrasonic elasticity imaging

Also Published As

Publication number Publication date
DE112014004488T5 (en) 2016-07-21
JPWO2015045424A1 (en) 2017-03-09
WO2015045424A1 (en) 2015-04-02

Similar Documents

Publication Publication Date Title
JP5562598B2 (en) Image display apparatus, image display method, and magnetic resonance imaging apparatus
US9801614B2 (en) Ultrasound diagnostic apparatus, ultrasound image processing method, and non-transitory computer readable recording medium
US6553327B2 (en) Apparatus for monitoring a system with time in space and method therefor
RU2494674C2 (en) Synchronised with respiratory movements assessment of efficiency of treatment with application of ultrasound contrast substances
US9959622B2 (en) Method and apparatus for supporting diagnosis of region of interest by providing comparison image
US20190105013A1 (en) Ultrasound system and method for detecting lung sliding
TWI473598B (en) Breast ultrasound image scanning and diagnostic assistance system
US20120253190A1 (en) Contrast-enhanced ultrasound assessment of liver blood flow for monitoring liver therapy
JP2004174254A (en) Method and system for measuring disease related tissue change
KR20150069830A (en) Method for providing blood vessel analysis information using medical image and apparatus providing blood vessel analysis information using medical image
JP4467673B2 (en) Ultrasonic diagnostic equipment
JP6648587B2 (en) Ultrasound diagnostic equipment
JP2007190386A (en) Method for examining tract of patient
Baek et al. Disease-specific imaging utilizing support vector machine classification of H-scan parameters: assessment of steatosis in a rat model
TWI788629B (en) Image processing method, device and system, electronic apparatus, and computer readable storage medium
EP2613167B1 (en) Diagnostic imaging apparatus and method of operating the same
CN110785123B (en) Voxel internal incoherent motion MRI three-dimensional quantitative detection of tissue anomalies using improved data processing techniques
JP6432910B2 (en) Medical image processing apparatus, ultrasonic diagnostic apparatus, and medical image processing method
US20120078101A1 (en) Ultrasound system for displaying slice of object and method thereof
CN111062979B (en) Visualization method and visualization system for acquiring physical characteristic parameters of thrombus based on medical image
CN108463174B (en) Device and method for characterizing tissue of a subject
EP2496144A1 (en) Quantification results in multiplane imaging
KR101059824B1 (en) Method measuring the ratio of intima to media thickness in carotid artery using ultrasound image
Chen et al. Ultrasound tissue scatterer distribution imaging: An adjunctive diagnostic tool for shear wave elastography in characterizing focal liver lesions
JP7429437B2 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R150 Certificate of patent or registration of utility model

Ref document number: 6432910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250