KR20240135413A - Device, system and method for generating an output ultrasound image by synthesizing signals of each received ultrasound frequency - Google Patents

Device, system and method for generating an output ultrasound image by synthesizing signals of each received ultrasound frequency Download PDF

Info

Publication number
KR20240135413A
KR20240135413A KR1020247028958A KR20247028958A KR20240135413A KR 20240135413 A KR20240135413 A KR 20240135413A KR 1020247028958 A KR1020247028958 A KR 1020247028958A KR 20247028958 A KR20247028958 A KR 20247028958A KR 20240135413 A KR20240135413 A KR 20240135413A
Authority
KR
South Korea
Prior art keywords
pixel
image
region
frequency
irradiance
Prior art date
Application number
KR1020247028958A
Other languages
Korean (ko)
Inventor
세샤드리 스리니바산
루이잉 장
Original Assignee
엑소 이미징, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑소 이미징, 인크. filed Critical 엑소 이미징, 인크.
Publication of KR20240135413A publication Critical patent/KR20240135413A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/895Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques characterised by the transmitted frequency spectrum
    • G01S15/8952Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques characterised by the transmitted frequency spectrum using discrete, multiple frequencies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8977Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using special techniques for image reconstruction, e.g. FFT, geometrical transformations, spatial deconvolution, time deconvolution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52025Details of receivers for pulse systems
    • G01S7/52026Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • G01S7/52038Details of receivers using analysis of echo signal for target characterisation involving non-linear properties of the propagation medium or of the reflective target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52046Techniques for image enhancement involving transmitter or receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52079Constructional features
    • G01S7/5208Constructional features with integration of processing functions inside probe or scanhead

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nonlinear Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

장치, 방법 및 컴퓨터로 구현된 매체이다. 장치는 전송된 초음파 파형의 결과로서 타겟 대상으로부터 반사된 반사 초음파 파형의 각각의 반사 주파수들에 기반한 전기 신호들을 동시에 수신하고; 전기 신호들로부터의 정보를 합성하여 합성된 전기 신호들을 생성하고; 합성된 전기 신호들에 기반하여 디스플레이 상에 출력 이미지를 생성하게 한다.A device, a method and a computer-implemented medium. The device simultaneously receives electrical signals based on respective reflection frequencies of reflected ultrasonic waves reflected from a target object as a result of a transmitted ultrasonic wave; generates synthesized electrical signals by synthesizing information from the electrical signals; and generates an output image on a display based on the synthesized electrical signals.

Description

각각의 수신된 초음파 주파수들의 신호들을 합성하여 출력 초음파 이미지를 생성하기 위한 장치, 시스템 및 방법Device, system and method for generating an output ultrasound image by synthesizing signals of each received ultrasound frequency

실시예들은 일반적으로 이미징 디바이스들에 대한 신호 처리 분야, 및 마이크로기계화된 초음파 트랜스듀서들(micromachined ultrasound transducers)(MUT들)을 포함하는 것들과 같은 초음파 이미징 디바이스들(ultrasound imaging devices) 또는 프로브들에 대한 신호 처리 분야에 관한 것이다.The embodiments relate generally to the field of signal processing for imaging devices, and signal processing for ultrasound imaging devices or probes, such as those including micromachined ultrasound transducers (MUTs).

초음파 이미징은 의학 및 비파괴적 테스트 분야에서 널리 이용된다.Ultrasound imaging is widely used in medicine and non-destructive testing.

초음파 이미징 프로브 또는 초음파 이미징 디바이스는 통상적으로, 이미징될 타겟에 대한 음향 에너지를 방출 및 수신하는데 이용되는 많은 개별 초음파 트랜스듀서들(픽셀들)의 어레이를 포함한다. 반사 파형은 트랜스듀서(예를 들어, 마이크로기계화된 초음파 트랜스듀서)에 의해 수신되고, 전기 신호로 변환되고, 추가 신호 처리에 의해, 이미지가 생성된다. 유체 속도 및 (예를 들어, 혈류에 대한) 유체 흐름의 방향이 또한 초음파에 의해 측정 또는 검출되고 초음파 이미징 디바이스 조작자에게 시각적으로 제시될 수 있다. 해부학적 구조들 및 움직임의 이러한 정량화 및 시각화는 다양한 의료 진단 응용들 및 다른 의료 수술들의 지원에 이용될 수 있다.An ultrasound imaging probe or ultrasound imaging device typically comprises an array of many individual ultrasound transducers (pixels) that are used to emit and receive acoustic energy toward a target to be imaged. The reflected waveform is received by the transducer (e.g., a micromachined ultrasound transducer), converted into an electrical signal, and further signal processed to produce an image. The fluid velocity and direction of fluid flow (e.g., relative to blood flow) may also be measured or detected by ultrasound and presented visually to an ultrasound imaging device operator. Such quantification and visualization of anatomical structures and movements may be used in a variety of medical diagnostic applications and in support of other medical procedures.

초음파 이미징 디바이스의 이용을 통해 획득된 이미지들에 대한 이미지 품질은 때때로 충분한 확실성으로 해부학적 특징들을 구별하는 것을 어렵게 할 수 있다. 초음파 이미징 디바이스들에 의해 획득된 이미지 품질을 개선하기 위한 메커니즘들이 필요하다.The image quality of images acquired using ultrasound imaging devices can sometimes make it difficult to distinguish anatomical features with sufficient certainty. Mechanisms are needed to improve the image quality acquired by ultrasound imaging devices.

일부 실시예들의 초음파 이미징 디바이스는, 그 품질이 종래 기술의 것들보다 더 신뢰성 있는 초음파 이미지들을 획득하는 것을 보조하기 위해, 집합적으로 또는 개별적으로 알고리즘들을 이용하여 하나 이상의 명령어 세트에 따라 동작할 수 있다.The ultrasound imaging device of some embodiments may operate in accordance with one or more sets of instructions, collectively or individually, utilizing algorithms to assist in obtaining ultrasound images whose quality is more reliable than those of the prior art.

본 발명의 새로운 특징들은 첨부된 청구항들에서 구체적으로 제시된다. 일부 실시예들의 특징들 및 이점들의 더 나은 이해는 본 발명의 원리들이 이용되는 예시적인 실시예들을 제시하는 다음의 상세한 설명, 및 첨부 도면들(또한 본 명세서에서의 "도면" 및 "도")을 참조하여 획득될 것이다.
도 1은 개시된 실시예들에 따른, 선택적으로 변경가능한 특성들을 갖는 이미징 디바이스의 블록도이다.
도 2는 개시된 실시예들에 따른, 선택적으로 변경가능한 특성들을 갖는 이미징 시스템의 도면이다.
도 3은 개시된 실시예들에 따른, 선택적으로 변경가능한 특성들을 갖는 이미징 디바이스의 개략도이다.
도 4는 본 명세서에 설명된 원리들의 예에 따른 수신 채널을 도시한다.
도 5는 이미징 타겟의 상이한 주파수들 및 상이한 침투 깊이들에서의 수신된 초음파 파형에 대한 데시벨(DB) 단위의 전력 대 메가헤르츠(MHz) 단위의 주파수를 플로팅하는 일련의 그래프들이다.
도 6은 타겟 대상의 4개의 각각의 초음파 이미지의 세트를 도시하며, 출력 이미지(D)는 이미지들(A-C)의 픽셀 방사조도들(pixel irradiances)의 단순 평균화를 통해 획득되고, 이미지들(A-C) 각각은 상이한 반사 주파수에 대응한다.
도 7은 타겟 대상의 4개의 각각의 초음파 이미지의 세트를 도시하며, 출력 이미지(D)는 3개의 각각의 반사 주파수에 대응하는 이미지들(A-C)의 픽셀 방사조도들의 깊이 적응적 합성(depth adaptive compounding)(DAC)을 이용한 알파 블렌딩(alpha blending)을 통해 획득된다.
도 8은 DAC를 이용한 알파 블렌딩에 대한 α 값 대 깊이의 플롯의 예이다.
도 9a는 펄스들 1.75 MHz, 3.5 MHz 및 5.1 MHz로 전송하기 위해 기본 주파수들을 이용하는 다중 모드 펄스에 대한 초 단위의 시간에 대한 전압의 플롯을 도시한다.
도 9b는, DB 단위의 전력 대 Hz 단위의 주파수를 플로팅한, 도 9a의 전송된 초음파 파형에 대한 주파수 분포의 플롯을 도시한다.
도 10은 도 6의 것들과 유사하지만, 도 9a 및 도 9b의 펄스를 이용하여 이미지들(A-C)을 생성하고, 또한 단순 합성을 이용하여 합성 이미지(D)를 생성하는 이미지들의 세트이다.
도 11은 도 6의 것들과 유사하지만, 도 9a 및 도 9b에 도시된 것과 같은 다중 모드 펄스의 DAC를 이용한 알파 블렌딩을 이용하는 이미지들의 세트이다.
도 12는 2개의 출력 이미지 D1 및 D2를 도시하며, 이미지 D1은 도 6의 것들과 유사한 3개의 수신 주파수 상에서 DAC를 이용한 알파 블렌딩을 이용하여 획득된 것을 나타내고, D2는 동일한 3개의 수신 주파수 상에서 DR 보상을 이용하여 획득된 것을 나타낸다.
도 13은 3개의 출력 이미지 D1, D2 및 D3의 세트를 도시하며, 이미지 D1은 도 6의 것들과 유사한 3개의 수신 주파수 상에서 단순 합성을 이용하여 획득된 것을 나타내고, D2는 동일한 3개의 수신 주파수 상에서 DAC를 이용한 알파 블렌딩을 이용하여 획득된 것을 나타내고, D3은 적응적 합성을 이용하여 획득된 것을 나타낸다.
도 14는 일부 실시예에 따른 프로세스의 흐름도를 도시한다.
The novel features of the present invention are set forth with particularity in the appended claims. A better understanding of the features and advantages of some embodiments will be obtained by reference to the following detailed description, which sets forth illustrative embodiments in which the principles of the present invention are utilized, and the accompanying drawings (also referred to as “drawings” and “drawings” herein).
FIG. 1 is a block diagram of an imaging device having optionally changeable characteristics according to disclosed embodiments.
FIG. 2 is a diagram of an imaging system having optionally changeable characteristics according to disclosed embodiments.
FIG. 3 is a schematic diagram of an imaging device having optionally changeable characteristics according to disclosed embodiments.
Figure 4 illustrates a receiving channel according to an example of the principles described herein.
Figure 5 is a series of graphs plotting power in decibels (DB) versus frequency in megahertz (MHz) for received ultrasound waveforms at different frequencies and different penetration depths of the imaging target.
Figure 6 illustrates a set of four individual ultrasound images of a target object, where the output image (D) is obtained by simple averaging of the pixel irradiances of the images (AC), each of which corresponds to a different reflection frequency.
Figure 7 illustrates a set of four individual ultrasound images of the target object, where the output image (D) is obtained through alpha blending using depth adaptive compounding (DAC) of the pixel irradiances of the images (AC) corresponding to the three individual reflection frequencies.
Figure 8 is an example of a plot of α value versus depth for alpha blending using a DAC.
Figure 9a shows a plot of voltage versus time in seconds for multimode pulses using fundamental frequencies to transmit pulses of 1.75 MHz, 3.5 MHz, and 5.1 MHz.
Figure 9b shows a plot of the frequency distribution for the transmitted ultrasonic waveform of Figure 9a, plotting power in DB units versus frequency in Hz.
Figure 10 is a set of images similar to those of Figure 6, but using the pulses of Figures 9a and 9b to generate images (AC), and also using simple compositing to generate a composite image (D).
Figure 11 is a set of images similar to those in Figure 6, but utilizing alpha blending using a DAC of multi-mode pulses as shown in Figures 9a and 9b.
Figure 12 shows two output images D1 and D2, where image D1 is obtained using alpha blending with a DAC on three receive frequencies similar to those in Figure 6, and D2 is obtained using DR compensation on the same three receive frequencies.
Figure 13 shows a set of three output images D1, D2 and D3, where image D1 is obtained using simple synthesis on three receive frequencies similar to those in Figure 6, D2 is obtained using alpha blending with a DAC on the same three receive frequencies and D3 is obtained using adaptive synthesis.
Figure 14 illustrates a flow chart of a process according to some embodiments.

일부 실시예들은 컴퓨팅 디바이스의 장치, 컴퓨터 판독가능한 저장 매체, 방법 및 시스템에 관한 것이다. 컴퓨팅 디바이스의 장치는 전송된 초음파 파형을 겪은 타겟 대상으로부터 반사된 반사 초음파 파형에 대응하는 각각의 주파수들에 기반하는 각각의 전기 신호들을 동시에 수신하고; 각각의 전기 신호들로부터의 정보를 합성하여 합성된 전기 신호들을 생성하고; 합성된 전기 신호들에 기반하여 디스플레이 상에 이미지를 생성하게 한다.Some embodiments relate to a computing device, a computer-readable storage medium, a method and a system. The computing device simultaneously receives respective electrical signals based on respective frequencies corresponding to reflected ultrasonic waves reflected from a target object that has experienced a transmitted ultrasonic wave; synthesizes information from the respective electrical signals to generate synthesized electrical signals; and generates an image on a display based on the synthesized electrical signals.

일부 실시예들에서, 각각의 주파수는 기본 주파수의 각각의 고조파이고, 고조파는 반사 초음파 파형에 대응하며, 전송된 초음파 파형은 기본 주파수에 있다. 이러한 실시예들에서는, 단일 전송 주파수, 기본 주파수, 예를 들어, 1.75 MHz가 있다.In some embodiments, each frequency is a harmonic of the fundamental frequency, the harmonic corresponding to the reflected ultrasonic waveform, and the transmitted ultrasonic waveform is at the fundamental frequency. In such embodiments, there is a single transmitting frequency, the fundamental frequency, for example, 1.75 MHz.

일부 실시예들에서, 각각의 주파수는 반사 초음파 파형의 각각의 주파수이고, 전송된 초음파 파형은 반사 초음파 파형의 각각의 주파수에 대응하는 기본 주파수를 갖는 다중 모드 파형이다. 이 실시예에서, 초음파 이미징 디바이스의 트랜스듀서 어레이의 트랜스듀서 요소들은, 이하에서 더 상세히 설명되는 바와 같이, 다중 모드일 수 있다. 따라서, 트랜스듀서 요소들은, 예를 들어, 1.75 MHz 기본, 3.5 MHz 기본, 및 5.0 MHz 기본 등의, 다수의 상이한 기본 주파수에 기반하는 전송된 초음파 파형을 생성한다.In some embodiments, each frequency is a respective frequency of the reflected ultrasound waveform, and the transmitted ultrasound waveform is a multi-mode waveform having a fundamental frequency corresponding to each frequency of the reflected ultrasound waveform. In this embodiment, the transducer elements of the transducer array of the ultrasound imaging device can be multi-mode, as described in more detail below. Thus, the transducer elements generate the transmitted ultrasound waveform based on a plurality of different fundamental frequencies, such as, for example, 1.75 MHz fundamental, 3.5 MHz fundamental, and 5.0 MHz fundamental.

일부 실시예들에서, 장치는 타겟 대상의 제1 영역에 대응하는 전기 신호들로부터의 정보를 이용하여 제1 영역과 상이한 타겟 대상의 제2 영역에 대한 예측 전기 신호들을 생성하고; 합성된 전기 신호들과 예측 전기 신호들의 결합인 결합된 전기 신호들에 기반하여 디스플레이 상에 이미지를 생성하게 하는 예측 알고리즘을 추가로 구현한다.In some embodiments, the device further implements a prediction algorithm that generates predictive electrical signals for a second region of the target object, the second region being different from the first region, using information from the electrical signals corresponding to the first region of the target object; and generates an image on the display based on combined electrical signals that are a combination of the synthesized electrical signals and the predictive electrical signals.

일부 실시예들에 따른 합성은, 그 임의의 조합을 포함하여, 단순 평균화, 가중 평균화, 깊이 적응적 합성을 이용한 알파 블렌딩, 이득-보상된 합성, 적응적 합성, 예측 합성, 측방향 주파수 합성 및 도플러 합성 중 하나 이상을 포함할 수 있다. 이러한 합성 방법들은 아래에 더 상세히 설명될 것이다.The synthesis according to some embodiments may include one or more of simple averaging, weighted averaging, alpha blending using depth adaptive synthesis, gain-compensated synthesis, adaptive synthesis, predictive synthesis, lateral frequency synthesis and Doppler synthesis, including any combination thereof. These synthesis methods are described in more detail below.

유리하게도, 일부 실시예들은, 반사 초음파 파형의 더 낮은 주파수와 연관된 더 깊은 타겟 대상 위치에서의 더 나은 이미지 해상도의 혜택과 반사 초음파 파형의 더 높은 주파수와 연관된 더 얕은 침투에서의 더 나은 해상도의 혜택을 블렌딩하는 것을 허용하는 초음파 이미지의 생성을 가능하게 하는 알고리즘을 제공한다. 후자는 타겟 대상의 다양한 깊이들에서의 개선된 이미지 해상도를 나타내는 이미지들의 생성을 가능하게 한다.Advantageously, some embodiments provide an algorithm that allows for the generation of ultrasound images that blend the benefit of better image resolution at deeper target object locations associated with lower frequencies of the reflected ultrasound waveforms with the benefit of better resolution at shallower penetrations associated with higher frequencies of the reflected ultrasound waveforms. The latter allows for the generation of images exhibiting improved image resolution at various depths of the target object.

일부 기존의 해결책들은 조직 고조파 이미징(TiHI)을 이용한다. TiHI에서, 트랜스듀서는 단일의 기본 주파수(1.5 MHz)에서 전송된 초음파 파형을 생성하고, 디바이스는 전송된 초음파 파형(전송된 초음파 파형)의 기본 주파수의 1 고조파에서, 전형적으로는 기본 주파수의 2배(3.0 MHz)에 기반한 고조파에서 반사 초음파 파형을 처리한다.Some existing solutions utilize tissue harmonic imaging (TiHI). In TiHI, a transducer generates a transmitted ultrasound waveform at a single fundamental frequency (1.5 MHz), and the device processes a reflected ultrasound waveform at one harmonic of the fundamental frequency of the transmitted ultrasound waveform, typically at twice the fundamental frequency (3.0 MHz).

일부 기존의 해결책들은 합성 고조파 이미징(CHI)을 이용한다.Some existing solutions use synthetic harmonic imaging (CHI).

CHI에서, 트랜스듀서는, 별개의 시간들에서, 주어진 기본 주파수(3.0 MHz 및 3.5 MHz)에서 각각 별개의 전송된 초음파 파형을 생성하고, 디바이스는 기본 주파수들 각각의 제2 고조파에서 2개의 대응하는 반사 초음파 파형을 처리한다. 처리는 2개의 수신된 신호를 합성하는 것을 포함하고, 소정 형태의 알파 블렌딩을 포함할 수 있지만, 전송은 상이한 시간들에서의 다수의 전송을 포함하므로, 합성은 단일 전송에 기반하는 반사 초음파 파형에 기반하지 않는다.In CHI, the transducer generates separate transmitted ultrasonic waveforms, each at a given fundamental frequency (3.0 MHz and 3.5 MHz), at separate times, and the device processes two corresponding reflected ultrasonic waveforms at the second harmonic of each of the fundamental frequencies. The processing includes synthesizing the two received signals, and may include some form of alpha blending, but since the transmissions include multiple transmissions at different times, the synthesis is not based on a single reflected ultrasonic waveform.

이제, 본 명세서에 설명되는 바와 같은 일부 실시예들을 구현하는데 이용될 수 있는 디바이스들 및 회로들을 도시하는 도 1 내지 도 4를 참조한다. 실시예들의 특정 논의는 이후 도 5 내지 도 14의 맥락에서 이하에 추가로 제공된다.Reference is now made to FIGS. 1-4 which illustrate devices and circuits that may be utilized to implement some embodiments as described herein. A specific discussion of the embodiments is further provided below in the context of FIGS. 5-14.

일부 실시예들은 이미징 디바이스들에 관한 것으로, 더 구체적으로는 전자적으로 구성가능한 초음파 이미징 디바이스들에 관한 것이다. 초음파 이미징 디바이스들은 인간 또는 동물 신체들의 내부 조직, 뼈들, 혈류, 또는 장기들을 비침습적 방식으로 이미징하는데 이용될 수 있다. 이어서, 이미지들이 디스플레이될 수 있다. 초음파 이미징을 수행하기 위해, 초음파 이미징 디바이스는 초음파 신호를 신체 내로 전송하고 이미징 중인 신체 부분으로부터 반사된 신호를 수신한다. 이러한 초음파 이미징 디바이스는 트랜시버 또는 이미저라고 지칭될 수 있고 광-음향 또는 초음파 효과에 기반할 수 있는 트랜스듀서 및 연관된 전자 장치를 포함한다. 이러한 트랜스듀서들은 이미징에 이용될 수 있고, 다른 응용들에서도 이용될 수 있다. 예를 들어, 트랜스듀서는 의료 이미징; 파이프, 스피커, 및 마이크로폰 어레이에서의 흐름 측정; 쇄석술; 치료를 위한 국소화된 조직 가열; 및 고집중 포커싱된 초음파(HIFU) 수술에서 이용될 수 있다.Some embodiments relate to imaging devices, and more particularly to electronically configurable ultrasound imaging devices. Ultrasonic imaging devices can be used to noninvasively image internal tissues, bones, blood flow, or organs of human or animal bodies. The images can then be displayed. To perform ultrasound imaging, an ultrasound imaging device transmits an ultrasound signal into the body and receives a reflected signal from the body part being imaged. Such an ultrasound imaging device may include a transducer and associated electronics, which may be referred to as a transceiver or an imager and may be based on the opto-acoustic or ultrasonic effect. Such transducers may be used for imaging, and may also be used in other applications. For example, the transducers may be used in medical imaging; flow measurement in pipes, speakers, and microphone arrays; lithotripsy; localized tissue heating for treatment; and high-intensity focused ultrasound (HIFU) surgery.

일부 실시예들의 추가적인 양태들 및 이점들은 예시적인 실시예들만이 도시되고 설명되는 본 상세한 설명으로부터 본 기술분야의 통상의 기술자에게 쉽게 명백해질 것이다. 인지될 바와 같이, 일부 실시예들은 다른 상이한 목표들을 달성할 수 있고, 이들의 몇몇 상세들은 모두 본 개시내용으로부터 벗어나지 않고 다양하고 명백한 측면들에서 수정할 수 있다. 따라서, 도면들 및 설명은 제한적인 것이 아니라 사실상 예시적인 것으로 간주되어야 한다.Additional aspects and advantages of some embodiments will become readily apparent to those skilled in the art from the present detailed description, wherein only exemplary embodiments are shown and described. As will be appreciated, some embodiments may achieve other and different ends, and their several details may be modified in various obvious respects, all without departing from the teachings of the present disclosure. Accordingly, the drawings and description are to be regarded in an illustrative rather than a restrictive sense.

전통적으로, 의료 이미징에서 이용되는 초음파 이미저들과 같은 이미징 디바이스들은 압전(PZT) 재료들 또는 다른 압전 세라믹 및 폴리머 합성물들을 이용한다. 이러한 이미징 디바이스들은 PZT 재료로 트랜스듀서들을 하우징하기 위한 하우징은 물론, 이미지를 형성하고 이를 디스플레이 유닛 상에 디스플레이하는 다른 전자 장치들을 포함할 수 있다. 벌크 PZT 요소들 또는 트랜스듀서들을 제조하기 위해, 두꺼운 압전 재료 슬래브는 큰 직사각형 형상의 PZT 요소들로 절단될 수 있다. 이들 직사각형 형상의 PZT 요소들은 제작하기에 고가일 수 있는데, 왜냐하면 제조 프로세스가 직사각형 형상의 두꺼운 PZT 또는 세라믹 재료를 일반적으로 정밀하게 절단하고 그것을 정밀한 간격으로 기판들 상에 탑재하는 것을 수반하기 때문이다. 또한, 트랜스듀서들의 임피던스는 트랜스듀서들에 대한 전송/수신 전자 장치들의 임피던스보다 훨씬 높으며, 이는 성능에 영향을 미칠 수 있다.Traditionally, imaging devices, such as ultrasound imagers used in medical imaging, utilize piezoelectric (PZT) materials or other piezoelectric ceramic and polymer composites. These imaging devices may include a housing for housing the transducers from the PZT material, as well as other electronics for forming the image and displaying it on a display unit. To manufacture bulk PZT elements or transducers, a thick slab of piezoelectric material may be cut into large rectangular PZT elements. These rectangular PZT elements can be expensive to manufacture because the manufacturing process typically involves precisely cutting rectangular thick PZT or ceramic pieces and mounting them on substrates at precise spacings. Additionally, the impedance of the transducers is much higher than the impedance of the transmit/receive electronics for the transducers, which can affect performance.

또한 추가로, 이러한 두꺼운 벌크 PZT 요소들은 전송 신호들을 생성하기 위해 매우 높은 전압 펄스들, 예를 들어, 100볼트(V) 이상을 요구할 수 있다. 이러한 높은 구동 전압은 높은 전력 소모를 유발하는데, 이는 트랜스듀서들에서의 전력 소모가 구동 전압의 제곱에 비례하기 때문이다. 이러한 고전력 소모는 이미징 디바이스 내에 열을 발생시키며, 따라서 냉각 배열들이 필요하다. 이러한 냉각 시스템들은 이미징 디바이스들의 제조 비용 및 중량을 증가시키며, 이는 이미징 디바이스들을 동작시키기에 더 부담스럽게 한다.Additionally, these thick bulk PZT elements may require very high voltage pulses, for example, more than 100 volts (V), to generate the transmitted signals. These high drive voltages result in high power consumption, since power consumption in the transducers is proportional to the square of the drive voltage. This high power consumption generates heat within the imaging device, thus requiring cooling arrangements. These cooling systems increase the manufacturing cost and weight of the imaging devices, making them more burdensome to operate.

더구나, 트랜스듀서들에 대한 전송/수신 전자 장치들은 트랜스듀서들 자체로부터 멀리 위치할 수 있으며, 따라서 트랜스듀서들과 전송/수신 전자 장치들 사이에 마이크로-동축 케이블들을 필요로 한다. 일반적으로, 케이블은 지연 및 임피던스 매칭을 위한 정밀한 길이를 가지며, 상당히 종종, 케이블을 통한 전자 장치로의 트랜스듀서의 효율적인 접속을 위해 추가의 임피던스 매칭 네트워크가 이용된다.Moreover, the transmit/receive electronics for the transducers may be located remotely from the transducers themselves, thus requiring micro-coaxial cables between the transducers and the transmit/receive electronics. Typically, the cables are of precise length for delay and impedance matching, and quite often, additional impedance matching networks are utilized for efficient connection of the transducers to the electronics via the cables.

일부 실시예들은 본 명세서에 더 상세히 설명되는 바와 같이, 압전 마이크로기계화된 초음파 트랜스듀서(pMUT) 또는 용량성 마이크로기계화된 초음파 트랜스듀서(cMUT) 기술들을 이용하는 이미징 디바이스들의 맥락에서 이용될 수 있다.Some embodiments may be utilized in the context of imaging devices utilizing piezoelectric micromachined ultrasound transducer (pMUT) or capacitive micromachined ultrasound transducer (cMUT) technologies, as described in more detail herein.

일반적으로, cMUT 및 pMUT 둘 다와 같은 MUT들은 다이어프램(그 에지들에, 또는 프로브의 내부의 소정의 포인트에 부착된 얇은 멤브레인)을 포함하는 반면, "전통적인" 벌크 PZT 요소는 재료의 고체 조각으로 통상적으로 구성된다.Typically, MUTs, such as both cMUTs and pMUTs, contain a diaphragm (a thin membrane attached to its edges or at some point inside the probe), whereas a “traditional” bulk PZT element is typically constructed as a solid piece of material.

압전 마이크로기계화된 초음파 트랜스듀서들(pMUT들)은 다양한 반도체 웨이퍼 제조 동작들을 활용하여 기판 상에 효율적으로 형성될 수 있다. 반도체 웨이퍼는 현재 6인치, 8인치, 및 12인치 크기일 수 있고, 수백 개의 트랜스듀서 어레이를 하우징할 수 있다. 이러한 반도체 웨이퍼들은 다양한 처리 동작들이 수행되는 실리콘 기판으로서 시작한다. 이러한 동작의 예는 절연 산화물들로도 알려진 SiO2 층들의 형성이다. 상호접속부들 및 본드 패드들의 역할을 하는 금속층들의 추가와 같은 다양한 다른 동작들은 다른 전자 장치들에의 접속을 허용하도록 수행된다. 기계 동작의 또 다른 예는 캐비티들의 에칭이다. 부피가 큰 압전 재료를 갖는 종래의 트랜스듀서들에 비해, 반도체 기판들 상에 구축된 pMUT 요소들은 부피가 작고, 제조하기에 더 저렴하며, 전자 장치와 트랜스듀서들 사이의 더 간단하고 더 높은 성능의 상호접속을 갖는다. 따라서, 이들은 동일한 것을 이용하는 이미징 디바이스의 동작 주파수에서 더 큰 유연성 및 더 높은 품질의 이미지들을 생성할 가능성을 제공한다.Piezoelectric micromachined ultrasound transducers (pMUTs) can be efficiently formed on a substrate utilizing a variety of semiconductor wafer fabrication operations. Semiconductor wafers can currently be 6-inch, 8-inch, and 12-inch in size and can house arrays of hundreds of transducers. These semiconductor wafers begin as a silicon substrate on which various processing operations are performed. An example of such an operation is the formation of SiO2 layers, also known as insulating oxides. Various other operations, such as the addition of metal layers to act as interconnects and bond pads, are performed to allow connection to other electronic devices. Another example of a mechanical operation is the etching of cavities. Compared to conventional transducers having bulky piezoelectric materials, pMUT elements built on semiconductor substrates are smaller, less expensive to manufacture, and have simpler and higher performance interconnects between the electronics and the transducers. Thus, they offer greater flexibility in the operating frequency of the imaging device utilizing the same and the potential for producing higher quality images.

일부 실시예들에서, 이미징 디바이스는 전송 드라이버, 수신된 에코 신호를 위한 감지 회로, 및 다양한 동작을 제어하는 제어 회로를 포함하는 주문형 집적 회로(ASIC)에 결합된다. ASIC는 다른 반도체 웨이퍼 상에 형성될 수 있다. 이 ASIC는 기생 손실들을 감소시키기 위해 pMUT 또는 cMUT 요소들에 매우 근접하여 배치될 수 있다. 특정한 예로서, ASIC는 트랜스듀서 어레이로부터 50 마이크로미터(μm) 이하 떨어져 있을 수 있다. 보다 넓은 예에서, 2개의 웨이퍼 또는 2개의 다이 사이에 100 μm 미만의 분리가 있을 수 있고, 여기서 각각의 웨이퍼는 많은 다이를 포함하고, 다이는 트랜스듀서 웨이퍼 내의 트랜스듀서 및 ASIC 웨이퍼 내의 ASIC를 포함한다. 일부 실시예들에서, ASIC는 pMUT 또는 cMUT 어레이에 대해 매칭되는 치수들을 가지며, 디바이스들이 ASIC 웨이퍼 상의 웨이퍼 대 웨이퍼 상호접속 또는 트랜스듀서 다이 또는 트랜스듀서 다이 대 ASIC 다이 상호접속을 위해 적층되는 것을 허용한다. 대안적으로, 트랜스듀서는 또한, ASIC 처리와 호환되는 저온 압전 재료 스퍼터링 및 다른 저온 처리를 이용하여 ASIC 웨이퍼의 상단에 전개될 수 있다.In some embodiments, the imaging device is coupled to an application-specific integrated circuit (ASIC) that includes a transmit driver, a sensing circuit for the received echo signal, and control circuitry for controlling various operations. The ASIC may be formed on another semiconductor wafer. The ASIC may be placed in close proximity to the pMUT or cMUT elements to reduce parasitic losses. As a specific example, the ASIC may be less than 50 micrometers (μm) from the transducer array. In a broader example, there may be less than 100 μm of separation between two wafers or two dies, where each wafer includes a number of dies, the dies including transducers within the transducer wafer and ASICs within the ASIC wafer. In some embodiments, the ASIC has dimensions that match the pMUT or cMUT array, allowing the devices to be stacked for wafer-to-wafer interconnection or transducer die-to-ASIC die interconnection on the ASIC wafer. Alternatively, the transducer can also be developed on top of the ASIC wafer using low temperature piezoelectric material sputtering and other low temperature processes that are compatible with ASIC processing.

일 실시예에 따르면, ASIC 및 트랜스듀서 상호접속부 어디에서나, 이 둘은 유사한 풋프린트들을 가질 수 있다. 더 구체적으로, 후자의 실시예에 따르면, ASIC의 풋프린트는 MUT 풋프린트의 정수배 또는 제수일 수 있다.In one embodiment, anywhere in the ASIC and transducer interconnect, the two may have similar footprints. More specifically, in the latter embodiment, the footprint of the ASIC may be an integer multiple or divisor of the footprint of the MUT.

이미징 디바이스가 pMUT 또는 cMUT에 기반하는지에 관계없이, 일부 실시예들에 따른 이미징 디바이스는 다수의 전송 채널 및 다수의 수신 채널을 포함할 수 있다. 전송 채널들은 트랜스듀서 요소들이 응답하는 주파수에서 전압 펄스로 트랜스듀서 요소들을 구동한다. 이것은 초음파 파형이 요소들로부터 방출되게 하고, 이 파형은 신체 내의 장기 또는 다른 조직을 향하는 것과 같이, 이미징될 대상(타겟 대상)을 향할 것이다. 일부 예들에서, 트랜스듀서 요소들의 어레이를 갖는 이미징 디바이스는 이미징 디바이스와 신체 사이에 겔을 이용하여 신체와 기계적 접촉을 이룰 수 있다. 초음파 파형은 대상, 즉 장기를 향해 이동하고, 파형의 일부는 수신된/반사된 초음파 에너지의 형태로 트랜스듀서 요소들에 다시 반사되며, 수신된 초음파 에너지는 이미징 디바이스 내의 전기 에너지로 변환될 수 있다. 그 다음, 수신된 초음파 에너지는 수신된 초음파 에너지를 전기 신호들로 변환하기 위해 다수의 수신 채널들에 의해 추가로 처리될 수 있고, 전기 신호들은 전기 신호들에 기반하여 디스플레이를 위한 대상의 이미지를 전개하기 위해 다른 회로에 의해 처리될 수 있다.Regardless of whether the imaging device is based on a pMUT or a cMUT, the imaging device according to some embodiments may include multiple transmit channels and multiple receive channels. The transmit channels drive the transducer elements with voltage pulses at a frequency to which the transducer elements respond. This causes an ultrasound wave to be emitted from the elements, which wave will be directed toward a subject to be imaged (a target subject), such as an organ or other tissue within the body. In some examples, the imaging device having an array of transducer elements may be in mechanical contact with the body using a gel between the imaging device and the body. The ultrasound wave travels toward the subject, i.e., the organ, and a portion of the wave is reflected back to the transducer elements in the form of received/reflected ultrasound energy, which may be converted into electrical energy within the imaging device. The received ultrasound energy may then be further processed by the multiple receive channels to convert the received ultrasound energy into electrical signals, which may be processed by other circuitry to develop an image of the subject for display based on the electrical signals.

초음파 이미징 디바이스의 실시예는, 트랜스듀서 어레이, 및 예를 들어, 주문형 집적 회로(ASIC), 및 전송 및 수신 빔포밍 회로를 포함한 제어 회로, 및 선택적으로 추가의 제어 전자 장치를 포함한다.An embodiment of an ultrasound imaging device includes a transducer array, and control circuitry including, for example, an application specific integrated circuit (ASIC), transmit and receive beamforming circuitry, and optionally additional control electronics.

실시예들의 특징들을 포함하는 이미징 디바이스는 이롭게도 문제들을 줄이거나 해결할 수 있다.An imaging device incorporating the features of the embodiments may advantageously reduce or resolve the problems.

실시예에서, 이미징 디바이스는 트랜스듀서들 및 제어 회로 및 선택적으로 컴퓨팅 디바이스와 같은 연관된 전자 회로들이 하우징되는 핸드헬드 케이싱을 포함할 수 있다. 이미징 디바이스는 또한 전자 회로들에 전력을 공급하기 위한 배터리를 포함할 수 있다.In an embodiment, the imaging device may include a handheld casing housing the transducers and associated electronic circuits, such as control circuitry and optionally a computing device. The imaging device may also include a battery for powering the electronic circuits.

따라서, 일부 실시예들은 2D 어레이에서 pMUT 요소들 또는 cMUT 요소들을 이용하는 휴대용 이미징 디바이스에 관한 것이다. 일부 실시예들에서, 트랜스듀서 요소들의 이러한 어레이는 이미징 디바이스의 주문형 집적 회로(ASIC)에 결합된다.Accordingly, some embodiments relate to a portable imaging device utilizing pMUT elements or cMUT elements in a 2D array. In some embodiments, such an array of transducer elements is coupled to an application-specific integrated circuit (ASIC) of the imaging device.

이하의 설명에서, 설명의 목적상, 본 개시내용의 이해를 제공하기 위해 구체적인 상세들이 기재되어 있다. 그러나, 본 개시내용은 이러한 상세들 없이 실시될 수 있다는 점이 본 기술분야의 통상의 기술자에게 명백할 것이다. 더구나, 본 기술분야의 통상의 기술자는 후술하는 본 개시내용의 예들이 프로세스, 제어 회로의 하나 이상의 프로세서(처리 회로), 컴퓨팅 디바이스의 하나 이상의 프로세서(또는 처리 회로), 시스템, 디바이스 또는 유형의 컴퓨터 판독가능한 매체 상의 방법과 같은 다양한 방식으로 구현될 수 있다는 것을 인식할 것이다.In the following description, for purposes of explanation, specific details are set forth in order to provide an understanding of the present disclosure. However, it will be apparent to one skilled in the art that the present disclosure may be practiced without these details. Furthermore, one skilled in the art will recognize that the examples of the present disclosure described below can be implemented in a variety of ways, such as as a process, one or more processors (processing circuits) of a control circuit, one or more processors (or processing circuits) of a computing device, a system, a device, or a method on a tangible computer-readable medium.

본 기술분야의 통상의 기술자는 (1) 특정 제조 동작들이 선택적으로 수행될 수 있는 것; (2) 그 동작들이 본 명세서에 제시된 특정 순서로 제한되지 않을 수 있는 것; 및 (3) 특정 동작들이 동시에 수행되는 것을 포함하여 상이한 순서들로 수행될 수 있는 것을 인식할 것이다.One of ordinary skill in the art will recognize that (1) certain manufacturing operations may be selectively performed; (2) the operations may not be limited to the specific order presented herein; and (3) certain operations may be performed in different orders, including concurrently.

도면들에 도시된 요소들/구성요소들은 예시적인 실시예들을 예시하며, 본 개시내용을 모호하게 하는 것을 피하도록 의도된다. 본 명세서에서 "일 예", "바람직한 예", "예", "예들", "실시예", "일부 실시예들", 또는 "실시예들"에 대한 언급은 그 예와 관련하여 설명된 특정한 특징, 구조, 특성, 또는 기능이 본 개시내용의 적어도 하나의 예에 포함되고 하나보다 많은 예에 있을 수 있다는 것을 의미한다. 본 명세서의 여러 곳에서 나오는 "일 예에서", "예에서", "예들에서", "실시예에서", "일부 실시예들에서", 또는 "실시예들에서"라는 문구들의 출현들은 반드시 모두 동일한 예 또는 예들을 지칭하는 것은 아니다. 용어들 "포함하다(include)", "포함하는(including)", "포함하다(comprise)", 및 "포함하는(comprising)"은 개방형 용어들인 것으로 이해되어야 하고, 후속하는 임의의 리스트들은 예들이며, 열거된 항목들로 제한되는 것으로 의도되지 않는다. 본 명세서에서 사용되는 임의의 제목들은 단지 조직화 목적들을 위한 것이며, 설명 또는 청구항들의 범위를 제한하는데 사용되지 않아야 한다. 또한, 본 명세서의 다양한 곳에서의 특정 용어들의 사용은 예시를 위한 것이며, 제한하는 것으로 해석되어서는 안 된다.The elements/components depicted in the drawings illustrate exemplary embodiments and are intended to avoid obscuring the present disclosure. Reference herein to “one example,” “a preferred example,” “an example,” “examples,” “an embodiment,” “some embodiments,” or “embodiments” means that a particular feature, structure, characteristic, or function described in connection with the example is included in at least one example of the present disclosure and may be present in more than one example. The appearances of the phrases “in one example,” “in an example,” “in examples,” “in an embodiment,” “in some embodiments,” or “in embodiments” in various places throughout the specification are not necessarily all referring to the same example or examples. The terms “include,” “including,” “comprise,” and “comprising” are to be understood as open-ended terms, and that any list that follows is an example and is not intended to be limited to the recited items. Any headings used herein are for organizational purposes only and should not be used to limit the scope of the description or claims. Additionally, the use of specific terms in various places in this specification is for illustrative purposes only and should not be construed as limiting.

이제 도면들을 참조하면, 도 1은 본 명세서에 설명된 원리에 따라 선택적으로 변경가능한 채널(108, 110)을 제어하고 컴퓨팅 디바이스(112) 상에서 수행되는 이미징 계산을 갖는 제어기 또는 제어 회로(106)를 갖는 이미징 디바이스(100)의 블록도이다. 전술한 바와 같이, 이미징 디바이스(100)는 인간 또는 동물 신체들의 내부 조직, 뼈, 혈류 또는 장기들의 이미지를 생성하는데 이용될 수 있다. 따라서, 이미징 디바이스(100)는 신호를 신체 내로 전송하고, 이미징되는 신체 부분으로부터 반사된 신호를 수신할 수 있다. 이러한 이미징 디바이스들은 광-음향 또는 초음파 효과들에 기반할 수 있는, 트랜스듀서들 또는 이미저들이라고 지칭될 수 있는, pMUT 또는 cMUT를 포함할 수 있다. 이미징 디바이스(100)는 다른 대상들도 이미징하는데 이용될 수 있다. 예를 들어, 이미징 디바이스는, 의료 이미징; 파이프, 스피커, 및 마이크로폰 어레이에서의 흐름 측정; 쇄석술; 치료를 위한 국소적 조직 가열; 및 고집중 포커싱된 초음파(HIFU) 수술에서 이용될 수 있다.Referring now to the drawings, FIG. 1 is a block diagram of an imaging device (100) having a controller or control circuit (106) for controlling selectively changeable channels (108, 110) according to the principles described herein and having imaging computations performed on a computing device (112). As described above, the imaging device (100) may be used to generate images of internal tissues, bones, blood flow, or organs of human or animal bodies. Accordingly, the imaging device (100) may transmit signals into the body and receive reflected signals from the body part being imaged. Such imaging devices may include pMUTs or cMUTs, which may be referred to as transducers or imagers, which may be based on opto-acoustic or ultrasonic effects. The imaging device (100) may be used to image other objects as well. For example, the imaging device may be used for: medical imaging; flow measurement in pipes, speakers, and microphone arrays; lithotripsy; localized tissue heating for treatment; and can be used in high intensity focused ultrasound (HIFU) surgery.

인간 환자들에서의 이용에 더하여, 이미징 디바이스(100)는 동물의 내부 장기들의 이미지도 획득하는데 이용될 수 있다. 또한, 내부 장기를 이미징하는 것 외에도, 이미징 디바이스(100)는 또한, 도플러 모드 이미징에서와 같이 동맥 및 정맥에서의 혈류의 방향 및 속도를 결정하는데 이용될 수 있고, 또한 조직 강성을 측정하는데 이용될 수 있다.In addition to use in human patients, the imaging device (100) can also be used to obtain images of internal organs of animals. In addition to imaging internal organs, the imaging device (100) can also be used to determine the direction and velocity of blood flow in arteries and veins, such as in Doppler mode imaging, and can also be used to measure tissue stiffness.

이미징 디바이스(100)는 상이한 유형의 이미징을 수행하는데 이용될 수 있다. 예를 들어, 이미징 디바이스(100)는 A-스캔으로도 알려진 1차원 이미징, B 스캔으로도 알려진 2차원 이미징, C 스캔으로도 알려진 3차원 이미징 및 도플러 이미징(즉, 도플러 초음파를 이용하여 혈관 내의 유체 흐름과 같은 움직임을 결정하는 것)을 수행하는데 이용될 수 있다. 이미징 디바이스(100)는 선형 모드 및 섹터 모드를 포함하지만 이에 제한되지 않는 상이한 이미징 모드들로 스위칭되고, 프로그램 제어 하에 전자적으로 구성될 수 있다.The imaging device (100) can be used to perform different types of imaging. For example, the imaging device (100) can be used to perform one-dimensional imaging, also known as A-scan, two-dimensional imaging, also known as B-scan, three-dimensional imaging, also known as C-scan, and Doppler imaging (i.e., determining motion, such as fluid flow, within a blood vessel using Doppler ultrasound). The imaging device (100) can be switched between different imaging modes, including but not limited to linear mode and sector mode, and can be electronically configured under program control.

이러한 이미징을 용이하게 하기 위해, 이미징 디바이스(100)는 하나 이상의 초음파 트랜스듀서(102)를 포함하고, 각각의 트랜스듀서(102)는 초음파 트랜스듀서 요소들(104)의 어레이를 포함한다. 각각의 초음파 트랜스듀서 요소(104)는, pMUT 또는 cMUT 요소 등의, 임의의 적절한 트랜스듀서 요소로서 구현될 수 있다. 트랜스듀서 요소들(104)은 1) 신체 또는 다른 질량체를 통과할 초음파 압력파들을 생성하고 2) 이미징될, 신체 또는 다른 질량체 내의 대상에서 반사된 파들(수신된 초음파 에너지)을 수신하도록 동작한다. 일부 예들에서, 이미징 디바이스(100)는 초음파 파형들 또는 초음파 압력파들(줄여서 압력파들)을 동시에 전송 및 수신하도록 구성될 수 있다. 예를 들어, 제어 회로(106)는 특정 트랜스듀서 요소들(104)이 이미징되는 타겟 대상을 향해 압력파들을 전송하고, 동시에 다른 트랜스듀서 요소들(104)이 타겟 대상으로부터 반사된 압력파들/초음파 에너지를 수신하고, 수신된 파들/수신된 초음파 에너지/수신된 에너지에 응답하여 그에 기반하여 전하들을 생성하게 제어하도록 구성될 수 있다.To facilitate such imaging, the imaging device (100) includes one or more ultrasound transducers (102), each transducer (102) including an array of ultrasound transducer elements (104). Each ultrasound transducer element (104) may be implemented as any suitable transducer element, such as a pMUT or cMUT element. The transducer elements (104) are operative to 1) generate ultrasound pressure waves to pass through the body or other mass and 2) receive reflected waves (received ultrasound energy) from an object within the body or other mass to be imaged. In some examples, the imaging device (100) may be configured to simultaneously transmit and receive ultrasound waveforms or ultrasound pressure waves (pressure waves for short). For example, the control circuitry (106) may be configured to control certain transducer elements (104) to transmit pressure waves toward a target object being imaged, while simultaneously controlling other transducer elements (104) to receive pressure waves/ultrasonic energy reflected from the target object and generate charges based on the received waves/ultrasonic energy/received energy.

일부 예들에서, 각각의 트랜스듀서 요소(104)는, 중심 주파수와 연관된 특정의 주파수 및 대역폭에서 뿐만 아니라, 선택적으로, 추가의 중심 주파수 및 대역폭에서 신호를 전송 또는 수신하도록 구성될 수 있다. 이러한 다중 주파수 트랜스듀서 요소들(104)은 다중 모드 요소들(104)로 지칭될 수 있고 이미징 디바이스(100)의 대역폭을 확장할 수 있다. 트랜스듀서 요소(104)는, 약 0.1 내지 약 100 메가헤르츠 등의, 임의의 적절한 중심 주파수에서 신호를 방출 또는 수신할 수 있다. 트랜스듀서 요소(104)는 약 1.75 내지 약 5 메가헤르츠 범위의 하나 이상의 중심 주파수에서 신호를 방출 또는 수신하도록 구성될 수 있다.In some examples, each transducer element (104) may be configured to transmit or receive signals at a particular frequency and bandwidth associated with the center frequency, as well as, optionally, additional center frequencies and bandwidths. Such multi-frequency transducer elements (104) may be referred to as multi-mode elements (104) and may extend the bandwidth of the imaging device (100). The transducer elements (104) may emit or receive signals at any suitable center frequency, such as in the range of about 0.1 to about 100 megahertz. The transducer elements (104) may be configured to emit or receive signals at one or more center frequencies in the range of about 1.75 to about 5 megahertz.

압력파들을 생성하기 위해, 이미징 디바이스(100)는 다수의 전송(Tx) 채널(108) 및 다수의 수신(Rx) 채널(110)을 포함할 수 있다. 전송 채널들(108)은 트랜스듀서(102), 즉 트랜스듀서 요소들(104)의 어레이를 그들이 응답하는 주파수의 전압 펄스로 구동하는 다수의 구성요소를 포함할 수 있다. 이것은 초음파 파형이 트랜스듀서 요소들(104)로부터 이미징될 대상을 향해 방출되게 한다.To generate the pressure waves, the imaging device (100) may include a plurality of transmit (Tx) channels (108) and a plurality of receive (Rx) channels (110). The transmit channels (108) may include a plurality of components that drive an array of transducers (102), i.e., transducer elements (104), with voltage pulses at a frequency to which they respond. This causes an ultrasound waveform to be emitted from the transducer elements (104) toward the object to be imaged.

일부 실시예들에 따르면, 초음파 파형은 이미징 디바이스의 하나 이상의 대응하는 트랜스듀서 요소로부터 실질적으로 동시에 전송된 하나 이상의 초음파 압력파를 포함할 수 있다.According to some embodiments, the ultrasound waveform may include one or more ultrasound pressure waves transmitted substantially simultaneously from one or more corresponding transducer elements of the imaging device.

초음파 파형은 이미징될 대상을 향해 이동하고, 파형의 일부는 트랜스듀서(102)로 다시 반사되고, 트랜스듀서는 이를 압전 효과를 통해 전기 에너지로 변환된다. 수신 채널들(110)은 이와 같이 획득된 전기 에너지를 수집하고, 이를 처리하며, 이를, 예를 들어, 디스플레이될 수 있는 이미지를 전개하거나 생성하는 컴퓨팅 디바이스(112)로 전송한다.The ultrasound wave travels toward the object to be imaged, and a portion of the wave is reflected back to the transducer (102), which converts it into electrical energy via the piezoelectric effect. The receiving channels (110) collect the electrical energy thus obtained, process it, and transmit it to a computing device (112) that, for example, develops or generates an image that can be displayed.

일부 예들에서, 이미징 디바이스(100) 내의 전송 채널(108) 및 수신 채널(110)의 수는 일정하게 유지될 수 있는 반면, 이들이 결합되는 트랜스듀서 요소(104)의 수는 달라질 수 있다. 일 실시예에서, 트랜스듀서 요소들에 대한 전송 및 수신 채널들의 결합은 제어 회로(106)에 의해 제어될 수 있다. 일부 예들에서, 예를 들어 도 1에 도시된 바와 같이, 제어 회로는 전송 채널들(108) 및 수신 채널들(110)을 포함할 수 있다. 예를 들어, 트랜스듀서(102)의 트랜스듀서 요소들(104)은 N개의 열 및 M개의 행을 갖는 2차원 공간 어레이로 형성될 수 있다. 특정한 예에서, 트랜스듀서 요소들(104)의 2차원 어레이는 128개의 열과 32개의 행을 가질 수 있다. 이 예에서, 이미징 디바이스(100)는 최대 128개의 전송 채널(108) 및 최대 128개의 수신 채널(110)을 가질 수 있다. 이 예에서, 각각의 전송 채널(108) 및 수신 채널(110)은 다수의 또는 단일 픽셀(104)에 결합될 수 있다. 예를 들어, 이미징 모드(예를 들어, 다수의 트랜스듀서가 동일한 공간 방향으로 초음파를 전송하는 선형 모드인지, 또는 다수의 트랜스듀서가 상이한 공간 방향들로 초음파를 전송하는 섹터 모드인지)에 따라, 트랜스듀서 요소들(104)의 각각의 열은 단일 전송 채널(108) 및 단일 수신 채널(110)에 결합될 수 있다. 이 예에서, 전송 채널(108) 및 수신 채널(110)은 복합 신호들을 수신할 수 있고, 이 복합 신호들은 각각의 열 내의 각각의 트랜스듀서 요소(104)에서 수신된 신호들을 결합한다. 또 다른 예에서, 즉, 상이한 이미징 모드 동안에, 각각의 트랜스듀서 요소(104)는 그 전용 전송 채널(108) 및 그 전용 수신 채널(110)에 결합될 수 있다. 일부 실시예들에서, 트랜스듀서 요소(104)는 전송 채널(108) 및 수신 채널(110) 양쪽 모두에 결합될 수 있다. 예를 들어, 트랜스듀서 요소(104)는 초음파 펄스를 생성 및 전송한 다음 반사된 초음파 에너지를 전기 에너지로 변환하는 형태로 그 펄스의 에코를 검출하도록 적응될 수 있다.In some examples, the number of transmit channels (108) and receive channels (110) within the imaging device (100) may remain constant, while the number of transducer elements (104) to which they are coupled may vary. In one embodiment, the coupling of the transmit and receive channels to the transducer elements may be controlled by the control circuitry (106). In some examples, for example, as illustrated in FIG. 1 , the control circuitry may include the transmit channels (108) and receive channels (110). For example, the transducer elements (104) of the transducer (102) may be formed as a two-dimensional spatial array having N columns and M rows. In a particular example, the two-dimensional array of transducer elements (104) may have 128 columns and 32 rows. In this example, the imaging device (100) can have up to 128 transmit channels (108) and up to 128 receive channels (110). In this example, each transmit channel (108) and receive channel (110) can be coupled to multiple or a single pixel (104). For example, depending on the imaging mode (e.g., linear mode where multiple transducers transmit ultrasound in the same spatial direction, or sector mode where multiple transducers transmit ultrasound in different spatial directions), each row of transducer elements (104) can be coupled to a single transmit channel (108) and a single receive channel (110). In this example, the transmit channel (108) and receive channel (110) can receive composite signals that combine the signals received from each transducer element (104) within each row. In another example, i.e., during different imaging modes, each transducer element (104) may be coupled to its own dedicated transmit channel (108) and its own dedicated receive channel (110). In some embodiments, a transducer element (104) may be coupled to both the transmit channel (108) and the receive channel (110). For example, a transducer element (104) may be adapted to generate and transmit an ultrasound pulse and then detect an echo of that pulse in the form of converting the reflected ultrasound energy into electrical energy.

제어 회로(106)는 본 명세서에 설명된 기능들을 수행하도록 구성된 임의의 회로 또는 회로들로서 구현될 수 있다. 예를 들어, 제어 회로(106)는, 주문형 집적 회로(ASIC), 필드 프로그래머블 게이트 어레이(FPGA), 시스템-온-칩, 프로세서 및 메모리, 전압 소스, 현재 소스, 하나 이상의 증폭기, 하나 이상의 디지털-아날로그 변환기, 하나 이상의 아날로그-디지털 변환기 등으로서 구현되거나 기타의 방식으로 이들을 포함할 수 있다.The control circuit (106) may be implemented as any circuit or circuits configured to perform the functions described herein. For example, the control circuit (106) may be implemented as, or may include in any other manner, an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), a system-on-chip, a processor and memory, a voltage source, a current source, one or more amplifiers, one or more digital-to-analog converters, one or more analog-to-digital converters, and the like.

예시적인 컴퓨팅 디바이스(112)는 하나 이상의 프로세서, 메모리 회로, 통신 회로, 배터리, 디스플레이 등과 같은 임의의 적절한 구성요소들을 포함하는 임의의 적절한 컴퓨팅 디바이스로서 구현될 수 있다. 일 실시예에서, 컴퓨팅 디바이스(112)는, 예를 들어 도 1의 실시예에서 제안된 바와 같이, 제어 회로(106), 트랜스듀서들(102) 등과 함께 단일 패키지 또는 단일 칩, 또는 단일 시스템 온 칩(SoC)으로 통합될 수 있다. 다른 실시예들에서, 컴퓨팅 디바이스들의 일부 또는 전부는, 예를 들어, 이하에서 더 상세히 설명되는 바와 같이 도 2의 실시예에서 제안된 바와 같이, 제어 회로 및 트랜스듀서 등과는 별개의 패키지 내에 있을 수 있다.The exemplary computing device (112) may be implemented as any suitable computing device including any suitable components, such as one or more processors, memory circuits, communication circuits, a battery, a display, and the like. In one embodiment, the computing device (112) may be integrated into a single package or single chip, or a single system on a chip (SoC), along with the control circuitry (106), the transducers (102), and the like, for example, as suggested in the embodiment of FIG. 1. In other embodiments, some or all of the computing devices may be within a separate package from the control circuitry and the transducers, and the like, for example, as suggested in the embodiment of FIG. 2, as described in more detail below.

각각의 트랜스듀서 요소는 정사각형, 직사각형, 타원형, 또는 원형과 같은 임의의 적절한 형상을 가질 수 있다. 트랜스듀서 요소들은 본 명세서에 언급된 바와 같이 N개의 열 및 M개의 행과 같이 직교 방향들로 배열된 2차원 어레이로 배열될 수 있거나, 비대칭(또는 스태거형) 직선 어레이로 배열될 수 있다.Each transducer element may have any suitable shape, such as square, rectangular, oval, or circular. The transducer elements may be arranged in a two-dimensional array with orthogonal directions, such as N columns and M rows, as described herein, or may be arranged in an asymmetric (or staggered) rectilinear array.

트랜스듀서 요소들(104)은 연관된 전송 채널들의 연관된 전송 드라이버 회로들, 및 연관된 수신 채널들의 저잡음 증폭기들을 가질 수 있다. 따라서, 전송 채널은 전송 드라이버들을 포함할 수 있고, 수신 채널은 하나 이상의 저잡음 증폭기를 포함할 수 있다. 예를 들어, 명시적으로 도시되지는 않았지만, 전송 및 수신 채널들 각각은, 특정한 트랜스듀서 요소들 및 트랜스듀서 요소들의 세트들이 활성화, 비활성화 또는 저전력 모드에 놓일 수 있게 하는 멀티플렉싱 및 어드레스 제어 회로를 포함할 수 있다. 트랜스듀서들은 직교 행들 및 열들 외의 패턴들로, 예를 들어 원형 방식으로, 또는 그로부터 생성될 초음파 파형들의 범위들에 기반하는 다른 패턴들로 배열될 수 있다는 것을 이해한다.The transducer elements (104) may have associated transmit driver circuits for associated transmit channels, and low noise amplifiers for associated receive channels. Thus, a transmit channel may include transmit drivers, and a receive channel may include one or more low noise amplifiers. For example, although not explicitly shown, each of the transmit and receive channels may include multiplexing and address control circuitry that allows particular transducer elements or sets of transducer elements to be activated, deactivated, or placed into a low power mode. It is understood that the transducers may be arranged in patterns other than orthogonal rows and columns, such as in a circular fashion, or in other patterns based on the range of ultrasound waveforms to be generated therefrom.

도 2는 실시예에 따른, 선택적으로 구성가능한 특성들을 갖는 이미징 시스템을 포함하는 이미징 환경의 도면이다. 도 2의 이미징 시스템은 이미징 디바이스(202), 및 아래에 더 상세히 설명되는 바와 같이 컴퓨팅 디바이스(216) 및 컴퓨팅 디바이스에 결합된 디스플레이(220)를 포함하는 컴퓨팅 시스템(222)을 포함할 수 있다.FIG. 2 is a diagram of an imaging environment including an imaging system having optionally configurable features according to an embodiment. The imaging system of FIG. 2 may include an imaging device (202), and a computing system (222) including a computing device (216) and a display (220) coupled to the computing device, as described in more detail below.

도 2에 도시된 바와 같이, 컴퓨팅 디바이스(216)는, 일 실시예에 따르면, 그리고 도 1의 실시예와 달리, 이미징 디바이스(220)로부터 물리적으로 분리될 수 있다. 예를 들어, 컴퓨팅 디바이스(216) 및 디스플레이 디바이스(220)는 이미징 디바이스(202)의 구성요소들과 비교하여 개별 디바이스(이러한 맥락에서, 도시된 컴퓨팅 시스템(222)은 동작 동안 이미징 디바이스(202)로부터 물리적으로 분리됨) 내에 배치될 수 있다. 컴퓨팅 시스템(222)은 휴대폰 또는 태블릿과 같은 모바일 디바이스, 또는 사용자에게 이미지들을 디스플레이할 수 있는 고정 컴퓨팅 디바이스를 포함할 수 있다. 다른 예에서, 예를 들어 도 1에 도시된 바와 같이, 디스플레이 디바이스, 컴퓨팅 디바이스 및 연관된 디스플레이는 이미징 디바이스(202)의 일부일 수 있다(이제 도시된다). 즉, 이미징 디바이스(100), 컴퓨팅 디바이스(216) 및 디스플레이 디바이스(220)는 단일 하우징 내에 배치될 수 있다.As illustrated in FIG. 2, the computing device (216) may, according to one embodiment, and unlike the embodiment of FIG. 1, be physically separate from the imaging device (220). For example, the computing device (216) and the display device (220) may be disposed within a separate device (in this context, the computing system (222) depicted is physically separate from the imaging device (202) during operation) relative to the components of the imaging device (202). The computing system (222) may include a mobile device, such as a cell phone or tablet, or a stationary computing device capable of displaying images to a user. In another example, as illustrated in FIG. 1 , the display device, the computing device, and the associated display may be part of the imaging device (202) (now illustrated). That is, the imaging device (100), the computing device (216), and the display device (220) may be disposed within a single housing.

본 명세서에서 언급된 "컴퓨팅 디바이스"는, 일부 실시예들에서, 대상의 이미지가 디스플레이 상에 디스플레이되게 하는 것, 또는 이미지에 관한 정보가 사용자에게 통신되게 하는 것 중 적어도 하나를 행하기 위한 신호들을 생성하도록 구성될 수 있다.The "computing device" referred to herein may, in some embodiments, be configured to generate signals to cause at least one of: causing an image of a subject to be displayed on a display, or causing information about the image to be communicated to a user.

도시된 바와 같이, 이미징 시스템은 전송 모드/프로세스에서 전송 채널들(도 1, 108)을 통해 심장(214)과 같은 대상을 향해 압력파들(210)을 생성하고 전송하도록 구성되는 이미징 디바이스(202)를 포함한다. 내부 장기 또는 이미징될 다른 대상은 압력파들(210)의 일부를 이미징 디바이스(202)를 향해 반사할 수 있으며, 이미징 디바이스는 (도 1의 트랜스듀서(102)와 같은) 트랜스듀서, 수신 채널들(도 1, 110) 및 제어 회로(도 1, 106)를 통해 반사된 압력파들을 수신할 수 있다. 트랜스듀서는 수신 모드/프로세스에서 수신된 초음파 에너지에 기반하여 전기 신호를 생성할 수 있다. 전송 모드 또는 수신 모드는 전송 또는 수신 중 어느 하나를 하도록 구성될 수 있는 이미징 디바이스들의 맥락에서, 그러나 상이한 시간들에서 적용가능할 수 있다. 그러나, 이전에 언급된 바와 같이, 실시예들에 따른 일부 이미징 디바이스들은 동시에 전송 모드 및 수신 모드 모두에 있도록 적응될 수 있다. 시스템은 또한 도시된 무선 통신 채널(218)과 같은 통신 채널을 통해 이미징 디바이스(100)와 통신하는 컴퓨팅 디바이스(216)를 포함하지만, 실시예들은 또한 컴퓨팅 시스템과 이미징 디바이스 사이의 유선 통신을 그 범위 내에 포함한다. 이미징 디바이스(100)는 대상의 이미지의 형성을 완료하기 위해 수신된 신호들을 처리하는 하나 이상의 프로세서를 가질 수 있는 컴퓨팅 디바이스(216)에 신호들을 통신할 수 있다. 컴퓨팅 시스템(222)의 디스플레이 디바이스(220)는 이어서 컴퓨팅 디바이스로부터의 신호들을 이용하여 대상의 이미지들을 디스플레이할 수 있다. 컴퓨팅 시스템은 위에서 언급된 바와 같이 결함 픽셀에 관한 정보를 사용자에게 추가로 전달할 수 있다.As illustrated, the imaging system includes an imaging device (202) configured to generate and transmit pressure waves (210) toward a subject, such as a heart (214), via transmit channels (FIG. 1, 108) in a transmit mode/process. The internal organ or other subject to be imaged may reflect a portion of the pressure waves (210) toward the imaging device (202), and the imaging device may receive the reflected pressure waves via a transducer (such as the transducer (102) of FIG. 1), receive channels (FIG. 1, 110), and control circuitry (FIG. 1, 106). The transducer may generate an electrical signal based on the received ultrasound energy in the receive mode/process. The transmit mode or receive mode may be applicable in the context of imaging devices that may be configured to either transmit or receive, but at different times. However, as previously noted, some imaging devices according to embodiments may be adapted to be in both the transmit mode and the receive mode simultaneously. The system also includes a computing device (216) that communicates with the imaging device (100) via a communications channel, such as the illustrated wireless communications channel (218), although embodiments also encompass wired communications between the computing system and the imaging device. The imaging device (100) can communicate signals to the computing device (216), which can have one or more processors that process the received signals to complete the formation of an image of the subject. A display device (220) of the computing system (222) can then display the images of the subject using the signals from the computing device. The computing system can additionally convey information to the user regarding the defective pixel, as noted above.

일부 실시예들에 따른 이미징 디바이스는 휴대용 디바이스, 및/또는 통신 채널을 통해, (IEEE 802.11 또는 Wi-Fi 프로토콜, 블루투스 로우 에너지(Bluetooth Low Energy)를 포함하는 블루투스 프로토콜, mmWave 통신 프로토콜, 또는 통상의 기술자의 지식 내에 있는 임의의 다른 무선 통신 프로토콜과 같은 무선 통신 프로토콜을 이용하여) 무선으로, 또는 (USB2, USB 3, USB 3.1, 및 USB-C와 같은) 케이블과 같은 유선 접속 또는 마이크로전자 디바이스 상의 상호접속부들과 같은 유선 접속을 통해, 컴퓨팅 디바이스와 신호들을 통신하도록 적응되는 핸드헬드 디바이스를 포함할 수 있다. 테더드(tethered) 또는 유선 접속의 경우, 이미징 디바이스는 컴퓨팅 디바이스와 통신하는 케이블의 케이블 접속을 수용하기 위한 도 3과 관련하여 더 상세히 설명되는 바와 같은 포트를 포함할 수 있다. 무선 접속의 경우, 이미징 디바이스(100)는 컴퓨팅 디바이스(216)와 통신하기 위한 무선 트랜시버를 포함할 수 있다.An imaging device according to some embodiments may include a handheld device adapted to communicate signals with a computing device, either wirelessly (using a wireless communication protocol such as IEEE 802.11 or Wi-Fi protocols, Bluetooth protocols including Bluetooth Low Energy, mmWave communication protocols, or any other wireless communication protocol within the knowledge of one of ordinary skill in the art), or via a wired connection such as a cable (such as USB2, USB 3, USB 3.1, and USB-C) or interconnections on a microelectronic device. For a tethered or wired connection, the imaging device may include a port, as described in more detail with respect to FIG. 3 , for receiving a cable connection of a cable in communication with the computing device. For a wireless connection, the imaging device (100) may include a wireless transceiver for communicating with the computing device (216).

다양한 실시예들에서, 본 개시내용의 상이한 양태들은 상이한 구성요소들에서 수행될 수 있다는 것을 알아야 한다. 예를 들어, 일 실시예에서, 이미징 디바이스는 초음파 파형들이 그 트랜스듀서들을 통해 전송 및 수신되게 하는 회로(예컨대, 채널들)를 포함할 수 있는 반면, 컴퓨팅 디바이스는 전압 신호들을 이용하여 이미징 디바이스의 트랜스듀서 요소들에서 초음파 파형들을 생성하고, 또한 수신된 초음파 에너지의 처리를 위해 이러한 회로를 제어하도록 적응될 수 있다.It should be appreciated that in various embodiments, different aspects of the present disclosure may be performed in different components. For example, in one embodiment, the imaging device may include circuitry (e.g., channels) that cause ultrasound waveforms to be transmitted and received through its transducers, while the computing device may be adapted to generate ultrasound waveforms in the transducer elements of the imaging device using voltage signals, and further control such circuitry for processing the received ultrasound energy.

도 3은 아래에 더 상세히 설명되는 바와 같이 일부 실시예들에 따른 이미징 디바이스의 도면을 나타낸다.FIG. 3 illustrates a diagram of an imaging device according to some embodiments, as described in more detail below.

도 3에 도시된 바와 같이, 이미징 디바이스(300)는 트랜스듀서들(302) 및 연관된 전자 장치들이 하우징되는 핸드헬드 케이싱(331)을 포함할 수 있다. 이미징 디바이스는 또한, 전자 장치에 전력을 공급하는 배터리(338)를 포함할 수 있다. 따라서, 도 3은, 선택적으로 실리콘 웨이퍼 상에 구축된 2D 어레이의 pMUT를 이용한 2D 및 3D 이미징이 가능한 휴대용 이미징 디바이스의 실시예를 도시한다. 특정 파라미터들의 전자 구성을 갖는 주문형 집적 회로(ASIC)(106)에 결합된 이러한 어레이는 이전에 가능했던 것보다 낮은 비용으로 더 높은 품질의 이미지 처리를 가능하게 한다. 게다가, 특정 파라미터들, 예를 들어 이용되는 채널들의 수를 제어함으로써, 전력 소비가 변경될 수 있고, 온도가 변경될 수 있다.As illustrated in FIG. 3, the imaging device (300) may include a handheld casing (331) housing the transducers (302) and associated electronics. The imaging device may also include a battery (338) for powering the electronics. Thus, FIG. 3 illustrates an embodiment of a portable imaging device capable of 2D and 3D imaging using a 2D array of pMUTs, optionally built on a silicon wafer. Such an array coupled to an application-specific integrated circuit (ASIC) (106) having an electronic configuration of specific parameters enables higher quality image processing at a lower cost than previously possible. Furthermore, by controlling specific parameters, such as the number of channels utilized, power consumption can be varied and temperature can be varied.

일부 실시예들에 따른 이미징 디바이스(300)는 하나 이상의 결함 픽셀에 관한 정보(결함 픽셀 데이터)에 기반하여 실시간으로 시스템 구성가능성 및 적응가능성을 허용하도록 구성된다. 이것은 예를 들어 아래에 더 상세히 설명되는 바와 같이 이미징 디바이스의 트랜스듀서 어레이의 하나 이상의 픽셀의 현재 픽셀 성능 데이터 세트를 동일한 픽셀들의 베이스라인 픽셀 성능 데이터 세트와 비교함으로써 행해진다.The imaging device (300) according to some embodiments is configured to allow for real-time system configurability and adaptability based on information about one or more defective pixels (defective pixel data). This is done, for example, by comparing a current pixel performance data set of one or more pixels of a transducer array of the imaging device to a baseline pixel performance data set of the same pixels, as described in more detail below.

이제 도 3을 보다 상세히 살펴보면, 도 3은 일부 실시예들에 따른, 선택적으로 조정가능한 특징들을 갖는 이미징 디바이스(300)의 개략도이다. 이미징 디바이스(300)는 단지 예로서 도 1의 이미징 디바이스(100) 또는 도 2의 이미징 디바이스(202)와 유사할 수 있다. 전술한 바와 같이, 이미징 디바이스는 초음파 의료 프로브를 포함할 수 있다. 도 3은 이미징 디바이스(300)의 트랜스듀서(들)(302)를 도시한다. 전술한 바와 같이, 트랜스듀서(들)(302)는 압력파들(도 2, 210)을 전송 및 수신하도록 적응되는 트랜스듀서 요소들(도 1, 104)의 어레이들을 포함할 수 있다. 일부 예들에서, 이미징 디바이스(300)는 트랜스듀서들(302)과 인체 또는 압력파들(도 2, 210)이 전송되는 다른 질량체 또는 조직 사이의 임피던스 매칭 계면으로서 작용하는 코팅층(322)을 포함할 수 있다. 일부 경우들에서, 코팅층(322)은 원하는 초점 거리와 일치하는 곡률로 설계될 때 렌즈의 역할을 할 수 있다.Now looking at FIG. 3 in more detail, FIG. 3 is a schematic diagram of an imaging device (300) having optionally adjustable features, according to some embodiments. The imaging device (300) may be similar to the imaging device (100) of FIG. 1 or the imaging device (202) of FIG. 2, for example only. As described above, the imaging device may comprise an ultrasound medical probe. FIG. 3 illustrates transducer(s) (302) of the imaging device (300). As described above, the transducer(s) (302) may comprise arrays of transducer elements (FIG. 1, 104) adapted to transmit and receive pressure waves (FIG. 2, 210). In some examples, the imaging device (300) may include a coating layer (322) that acts as an impedance matching interface between the transducers (302) and the human body or other mass or tissue through which the pressure waves (FIG. 2, 210) are transmitted. In some cases, the coating layer (322) may act as a lens when designed with a curvature that matches a desired focal length.

이미징 디바이스(300)는 임의의 적절한 폼 팩터로 구현될 수 있다. 일부 실시예들에서, 트랜스듀서들(302)을 포함하는 이미징 디바이스(300)의 일부는 이미징 디바이스(100)의 나머지로부터 밖으로 연장할 수 있다. 이미징 디바이스(300)는, 볼록 어레이 프로브, 마이크로-볼록 어레이 프로브, 선형 어레이 프로브, 질내 프로브(endovaginal probe), 직장내 프로브(endorectal probe), 수술 프로브(surgical probe), 수술중 프로브(intraoperative probe) 등의, 임의의 적절한 초음파 의료 프로브로서 구현될 수 있다.The imaging device (300) may be implemented in any suitable form factor. In some embodiments, a portion of the imaging device (300), including the transducers (302), may extend outward from the remainder of the imaging device (100). The imaging device (300) may be implemented as any suitable ultrasound medical probe, such as a convex array probe, a micro-convex array probe, a linear array probe, an endovaginal probe, an endorectal probe, a surgical probe, an intraoperative probe, or the like.

일부 실시예들에서, 사용자는 코팅층(322)과 인체 사이의 계면에서의 임피던스 매칭이 개선될 수 있도록 코팅층(322)과의 직접 접촉 전에 생체의 피부 상에 겔을 적용할 수 있다. 임피던스 매칭은 계면에서의 압력파들(도 2, 210)의 손실 및 계면에서 이미징 디바이스(300)를 향해 이동하는 반사파의 손실을 줄인다.In some embodiments, a user can apply a gel on the skin of a living body prior to direct contact with the coating layer (322) so that impedance matching at the interface between the coating layer (322) and the body can be improved. Impedance matching reduces loss of pressure waves (FIG. 2, 210) at the interface and loss of reflected waves traveling toward the imaging device (300) at the interface.

일부 예들에서, 코팅층(322)은 트랜스듀서(들)(102)로부터 신체로의 그리고 그 반대로의 음향 신호들의 전송을 최대화하기 위해 평탄한 층일 수 있다. 코팅층(322)의 두께는 트랜스듀서(들)(102)에서 생성될 압력파(도 2, 210)의 1/4 파장일 수 있다.In some examples, the coating layer (322) may be a flat layer to maximize transmission of acoustic signals from the transducer(s) (102) to the body and vice versa. The thickness of the coating layer (322) may be 1/4 wavelength of the pressure wave (FIG. 2, 210) to be generated by the transducer(s) (102).

이미징 디바이스(300)는 또한 트랜스듀서들(102)을 제어하기 위한, 선택적으로 주문형 집적 회로(ASIC 칩 또는 ASIC) 형태의 하나 이상의 프로세서와 같은 제어 회로(106)를 포함한다. 제어 회로(106)는 예를 들어 범프들을 통해 트랜스듀서들(102)에 결합될 수 있다. 전술한 바와 같이, 전송 채널들(108) 및 수신 채널들(110)은 선택적으로 변경가능하거나 조정가능할 수 있는데, 이는 주어진 시간에 활성인 전송 채널들(108) 및 수신 채널들(110)의 수량이 변경될 수 있어서, 예를 들어, 결함이 있는 것으로 결정된 하나 이상의 픽셀이 이용되지 않는다는 것을 의미한다. 예를 들어, 제어 회로(106)는 결함들에 대해 테스트될 픽셀들에 기반하여, 그리고/또는 결함이 있는 것으로 결정된 픽셀들에 기반하여 전송 채널들(108) 및 수신 채널(110)을 선택적으로 조정하도록 적응될 수 있다.The imaging device (300) also includes control circuitry (106), optionally in the form of an application-specific integrated circuit (ASIC chip or ASIC), for controlling the transducers (102). The control circuitry (106) may be coupled to the transducers (102) via, for example, bumps. As described above, the transmit channels (108) and receive channels (110) may be optionally changeable or adjustable, meaning that the number of transmit channels (108) and receive channels (110) that are active at a given time may be varied, such that, for example, one or more pixels that are determined to be defective are not utilized. For example, the control circuitry (106) may be adapted to selectively adjust the transmit channels (108) and receive channels (110) based on which pixels are to be tested for defects and/or based on which pixels are determined to be defective.

일부 예들에서, 채널들을 변경하기 위한 기초는 동작 모드일 수 있고, 동작 모드는 결국 어느 픽셀들이 결함이 있는 것으로 결정되는지에 기반하여, 그리고 선택적으로 각각의 결함 픽셀의 결함의 유형에 기반하여 선택될 수 있다.In some examples, the basis for changing the channels may be the operating mode, and the operating mode may be selected based on which pixels are ultimately determined to be defective, and optionally based on the type of defect of each defective pixel.

이미징 디바이스는 또한 이미징 디바이스(100)의 구성요소들을 제어하기 위한 하나 이상의 프로세서(326)를 포함할 수 있다. 하나 이상의 프로세서(326)는, 제어 회로(106) 외에도, 트랜스듀서 요소들의 활성화를 제어하는 것, 트랜스듀서 요소들로부터의 반사 초음파 파형에 기반한 전기 신호를 처리하는 것, 또는 도 1의 컴퓨팅 디바이스(112) 또는 도 2의 컴퓨팅 디바이스(216) 등의 컴퓨팅 디바이스의 하나 이상의 프로세서에 의해 이미징되고 있는 대상의 이미지의 생성을 야기하는 신호를 생성하는 것 중 적어도 하나를 수행하도록 구성될 수 있다. 하나 이상의 프로세서(326)는 이미징 디바이스와 연관된 다른 처리 기능들을 수행하도록 추가로 적응될 수 있다. 하나 이상의 프로세서(326)는 임의의 유형의 프로세서들(326)로서 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(326)는 단일 또는 멀티-코어 프로세서(들), 단일 또는 멀티-소켓 프로세서, 디지털 신호 프로세서, 그래픽 프로세서, 신경망 계산 엔진, 이미지 프로세서, 마이크로제어기, 필드 프로그래머블 게이트 어레이(FPGA), 또는 다른 프로세서 또는 처리/제어 회로로서 구현될 수 있다. 이미징 디바이스(100)는 또한 신호들을 처리/조정하기 위한 AFE(Analog Front End)와 같은 회로(들)(328), 및 트랜스듀서들(102)에 의해 생성되어 회로들(328)을 향해 전파되는 파들을 흡수하기 위한 음향 흡수체층(330)을 포함할 수 있다. 즉, 트랜스듀서(들)(102)는 기판 상에 탑재될 수 있고 음향 흡수체층(330)에 부착될 수 있다. 이 층은 역방향으로(즉, 포트(334)를 향하는 방향으로 코팅층(322)으로부터 멀어지는 방향으로) 방출되는 임의의 초음파 신호들을 흡수하며, 이것은 그렇지 않으면 반사되어 이미지의 품질을 방해할 수 있다. 도 3이 음향 흡수체층(330)을 도시하지만, 이 구성요소는 다른 구성요소들이 역방향으로의 초음파의 재료 투과를 방지하는 경우들에서 생략될 수 있다.The imaging device may also include one or more processors (326) for controlling components of the imaging device (100). The one or more processors (326), in addition to the control circuitry (106), may be configured to perform at least one of: controlling activation of the transducer elements, processing electrical signals based on reflected ultrasonic waves from the transducer elements, or generating signals that cause generation of an image of an object being imaged by one or more processors of a computing device, such as the computing device (112) of FIG. 1 or the computing device (216) of FIG. 2. The one or more processors (326) may be further adapted to perform other processing functions associated with the imaging device. The one or more processors (326) may be implemented as any type of processors (326). For example, the one or more of the processors (326) may be implemented as a single or multi-core processor(s), a single or multi-socket processor, a digital signal processor, a graphics processor, a neural network computation engine, an image processor, a microcontroller, a field programmable gate array (FPGA), or other processor or processing/control circuitry. The imaging device (100) may also include circuit(s) (328), such as an Analog Front End (AFE) for processing/conditioning the signals, and an acoustic absorbent layer (330) for absorbing waves generated by the transducers (102) and propagating toward the circuits (328). That is, the transducer(s) (102) may be mounted on the substrate and attached to the acoustic absorbent layer (330). This layer absorbs any ultrasound signals that are emitted in the reverse direction (i.e., away from the coating layer (322) toward the port (334), which may otherwise be reflected and interfere with the quality of the image. Although FIG. 3 illustrates an acoustic absorbing layer (330), this component may be omitted in cases where other components prevent the material from transmitting ultrasound in the reverse direction.

아날로그 프론트 엔드(328)는 제어 회로(106) 및 프로세서(326)와 같은 이미징 디바이스의 다른 구성요소들과 인터페이싱하도록 구성되는 임의의 회로 또는 회로들로서 구현될 수 있다. 예를 들어, 아날로그 프론트 엔드(328)는 예를 들어 하나 이상의 디지털-아날로그 변환기, 하나 이상의 아날로그-디지털 변환기, 하나 이상의 증폭기 등을 포함할 수 있다.The analog front end (328) may be implemented as any circuit or circuits configured to interface with other components of the imaging device, such as the control circuit (106) and the processor (326). For example, the analog front end (328) may include one or more digital-to-analog converters, one or more analog-to-digital converters, one or more amplifiers, and the like.

이미징 디바이스는 예를 들어 포트(334) 또는 무선 트랜시버를 통해 컴퓨팅 디바이스(도 2, 216)와 같은 외부 디바이스와 제어 신호들을 포함하는 데이터를 통신하기 위한 통신 유닛(332)을 포함할 수 있다. 이미징 디바이스(100)는 데이터를 저장하기 위한 메모리(336)를 포함할 수 있다. 메모리(336)는 본 명세서에 설명된 기능들을 수행할 수 있는 임의의 유형의 휘발성 또는 비휘발성 메모리 또는 데이터 저장소로서 구현될 수 있다. 동작시, 메모리(336)는 운영 체제, 애플리케이션, 프로그램, 라이브러리 및 드라이버와 같은 이미징 디바이스(100)의 동작 동안 이용되는 다양한 데이터 및 소프트웨어를 저장할 수 있다.The imaging device may include a communication unit (332) for communicating data including control signals with an external device, such as a computing device (FIG. 2, 216), for example, via a port (334) or a wireless transceiver. The imaging device (100) may include a memory (336) for storing data. The memory (336) may be implemented as any type of volatile or nonvolatile memory or data storage capable of performing the functions described herein. In operation, the memory (336) may store various data and software utilized during the operation of the imaging device (100), such as an operating system, applications, programs, libraries, and drivers.

일부 예들에서, 이미징 디바이스(100)는 이미징 디바이스(100)의 구성요소들에 전력을 제공하기 위한 배터리(338)를 포함할 수 있다. 배터리(338)는 또한 무선 또는 유선 충전 회로들(도시되지 않음)일 수 있는 배터리 충전 회로들을 포함할 수 있다. 이미징 디바이스는 소비된 배터리 전하를 표시하고 개선된 배터리 수명을 위해 전력 관리를 최적화하도록 이미징 디바이스를 구성하는데 이용되는 게이지를 포함할 수 있다. 추가로 또는 대안적으로, 일부 실시예들에서, 이미징 디바이스는 외부 전원에 의해, 예컨대 이미징 디바이스를 벽 콘센트에 플러깅하는 것에 의해 전력공급될 수 있다.In some examples, the imaging device (100) may include a battery (338) to power components of the imaging device (100). The battery (338) may also include battery charging circuits, which may be wireless or wired charging circuits (not shown). The imaging device may include a gauge that is used to indicate consumed battery charge and to configure the imaging device to optimize power management for improved battery life. Additionally or alternatively, in some embodiments, the imaging device may be powered by an external power source, such as by plugging the imaging device into a wall outlet.

도 4는 본 명세서에 설명된 원리들의 예에 따른 수신 채널(110)을 도시한다. 수신 채널(110)은 반사된 압력파(도 2, 210)를 수신하도록 트랜스듀서 요소(도 1, 104)에 결합된다. 도 4는 또한 트랜스듀서 요소(도 1, 104)와 전송 채널(도 1, 110) 사이의 접속을 도시한다. 일 예에서, 전송 채널(도 1, 108)은 수신된 압력 및 전송된 펄스가 만나는 노드에서의 수신 동작 동안 높은 임피던스를 향해 간다. 구체적으로, 반사된 압력파는 트랜스듀서 요소(104)에서 전하로 변환되고, 이것은 저잡음 증폭기(LNA)(456)에 의해 전압으로 변환된다. LNA(456)는 전하 증폭기이며, 여기서 전하는 출력 전압으로 변환된다. 일부 예들에서, LNA(456)는 프로그래머블 이득을 가지며, 여기서 이득은 실시간으로 변경될 수 있다.FIG. 4 illustrates a receive channel (110) according to an example of the principles described herein. The receive channel (110) is coupled to a transducer element (FIG. 1, 104) to receive a reflected pressure wave (FIG. 2, 210). FIG. 4 also illustrates a connection between the transducer element (FIG. 1, 104) and the transmit channel (FIG. 1, 110). In one example, the transmit channel (FIG. 1, 108) faces a high impedance during the receive operation at a node where the received pressure and transmitted pulse meet. Specifically, the reflected pressure wave is converted to a charge at the transducer element (104), which is converted to a voltage by a low noise amplifier (LNA) (456). The LNA (456) is a charge amplifier, where the charge is converted to an output voltage. In some examples, the LNA (456) has a programmable gain, where the gain can be changed in real time.

LNA(456)는 트랜스듀서 내의 전하를 전압 출력으로 변환하고, 또한 수신된 에코 신호를 증폭한다. 스위치(전송/수신 스위치)는 수신 동작 모드에서 LNA(456)를 트랜스듀서 요소(104)에 접속시킨다.The LNA (456) converts the charge within the transducer into a voltage output and also amplifies the received echo signal. A switch (transmit/receive switch) connects the LNA (456) to the transducer element (104) in receive operation mode.

그 다음, 이 LNA(456)의 출력은 신호를 조정하도록 다른 구성요소들에 접속된다. 예를 들어, 프로그래머블 이득 증폭기(PGA)(458)는 전압의 크기를 조정하고 시간의 함수로서 이득을 변경하는 방법을 제공하며, 시간 이득 증폭기(TGA)로서 알려질 수 있다. 신호가 조직 내로 더 깊게 이동함에 따라, 신호는 감쇠된다.The output of this LNA (456) is then connected to other components to condition the signal. For example, a programmable gain amplifier (PGA) (458) provides a way to adjust the magnitude of the voltage and change the gain as a function of time and may be known as a time gain amplifier (TGA). As the signal travels deeper into the tissue, the signal is attenuated.

따라서, 보상을 위해 더 큰 이득이 이용되고, 이 더 큰 이득은 TGA에 의해 구현된다. 대역통과 필터(460)는 잡음 및 대역외 신호들을 필터링하도록 동작한다. 아날로그-디지털 변환기(ADC)(462)는 추가의 처리가 디지털적으로 행해질 수 있도록 신호를 디지털 도메인으로 변환하기 위해 아날로그 신호를 디지털화한다. ADC(462)로부터의 데이터는 그 후 복조 유닛(464)에서 디지털적으로 처리되고 FPGA(326)에 전달되어 스캔 라인을 생성한다. 일부 구현들에서, 복조 유닛(464)은 다른 곳에서, 예를 들어 FPGA에서 구현될 수 있다. 복조 유닛은 캐리어 신호를 직교의 2개의 성분(I 및 Q)을 갖는 기저대역으로 주파수-시프트하고, 일부 예들에서 추가의 디지털 처리를 위해, 아날로그-디지털 변환기(ADC)(462)는 ADC(462)의 레이턴시를 감소시키기 위해 연속적-근사-레지스터(SAP) 아키텍처를 구현할 수 있다. 즉, ADC(462)가 반복적으로 턴오프 및 턴온됨에 따라, 턴온 이후의 신호 처리를 지연시키지 않도록 레이턴시를 거의 내지 전혀 가질 필요가 없다.Therefore, a larger gain is utilized for compensation, which is implemented by the TGA. The bandpass filter (460) operates to filter out noise and out-of-band signals. An analog-to-digital converter (ADC) (462) digitizes the analog signal to convert the signal into the digital domain so that further processing can be done digitally. Data from the ADC (462) is then digitally processed in a demodulation unit (464) and passed to the FPGA (326) to generate scan lines. In some implementations, the demodulation unit (464) may be implemented elsewhere, for example in the FPGA. The demodulation unit frequency-shifts the carrier signal to baseband with two orthogonal components (I and Q) for further digital processing. In some examples, the analog-to-digital converter (ADC) (462) may implement a successive-approximation-register (SAP) architecture to reduce the latency of the ADC (462). That is, as the ADC (462) is repeatedly turned off and on, there is little or no need to have latency so as not to delay signal processing after turn-on.

일부 실시예들은 저주파수 펄스의 낮은 기본 주파수에서 전송된 초음파 파형을 효과적으로 생성하고, 단일의 기본 주파수의 고조파들에서 이미징함으로써, 위에서 설명된 것들과 같은 트랜스듀서 어레이의 트랜스듀서 요소들의 광대역을 활용하는 것을 목표로 한다. 3중 고조파 이미징(THI) 구현에서, 제1 내지 제3 고조파는 예를 들어 반사 초음파 파형을 나타내는 각각의 전기 신호들을 실질적으로 동시에 생성하는데 이용될 수 있다. 도 6, 도 7 및 도 10은 일부 실시예들에 따른 THI를 도시하는 대표적인 도면들이다. 이들 도면들은 이하에서 더 상세히 설명될 것이다.Some embodiments aim to exploit the wide bandwidth of the transducer elements of a transducer array such as those described above by effectively generating an ultrasonic waveform transmitted at a low fundamental frequency of a low frequency pulse and imaging at harmonics of a single fundamental frequency. In a triple harmonic imaging (THI) implementation, the first through third harmonics may be utilized to substantially simultaneously generate respective electrical signals representing, for example, the reflected ultrasonic waveform. FIGS. 6, 7 and 10 are representative drawings illustrating THI according to some embodiments. These drawings are described in more detail below.

일부 실시예들은 또한, 저주파수 및 고주파수 펄스를 포함한 다수의 기본 주파수 펄스에서 다중 모드 전송된 초음파 파형을 효과적으로 생성하고, 기본 주파수 펄스와 동일하거나 유사한 주파수 펄스에서 이미징함으로써, 전술한 것들과 같은, 트랜스듀서 어레이의 트랜스듀서 요소들의 광대역을 활용하는 것을 목표로 한다. 다중 모드 이미징(MI) 구현에서, 프로세스들인 반사 초음파 파형의 주파수들은 예를 들어 반사 초음파 파형을 나타내는 각각의 전기 신호들을 실질적으로 동시에 생성하는데 이용될 수 있다. 도 11은 일부 실시예들에 따른 THI를 도시하는 대표적인 도면이다. 이들 도면들은 이하에서 더 상세히 설명될 것이다.Some embodiments also aim to utilize the wide bandwidth of the transducer elements of the transducer array, such as those described above, by effectively generating a multi-mode transmitted ultrasound waveform in a plurality of fundamental frequency pulses, including low frequency and high frequency pulses, and imaging in frequency pulses that are the same or similar to the fundamental frequency pulse. In a multi-mode imaging (MI) implementation, the frequencies of the reflected ultrasound waveforms, which are processes, can be utilized to substantially simultaneously generate respective electrical signals representing the reflected ultrasound waveforms, for example. FIG. 11 is a representative diagram illustrating a THI according to some embodiments. These diagrams are described in more detail below.

도 5는, 이미징 타겟의 상이한 주파수와 상이한 침투 깊이에서의 수신된 초음파 파형에 대한 데시벨(DB) 단위의 전력 대 메가헤르츠(MHz) 단위의 주파수를 플로팅한 일련의 그래프를 도시하는 플롯(500)이다. 도 5에 도시된 바와 같이, 반사 초음파 파형은 더 낮은 주파수들(1.5 MHz)에서 더 높은 전력을 나타낼 수 있고, 따라서 더 나은 침투를 나타낼 수 있는 반면(심지어 140-160 mm의 깊이가 더 높은 DB들과 연관된다는 점에 유의함), 반사 초음파 파형은 주파수가 증가함에 따라 점점 더 낮은 전력을 나타낼 수 있다. 얕은 침투(예컨대, 20-40 mm)에서도, 더 낮은 주파수가 더 높은 전력을 나타낸다. 도 5는 앞서 살펴본 바와 같이 더 큰 침투에서의 해상도의 면에서 더 낮은 주파수의 이점을 보여준다. 도면은 더 얕은 침투들 또는 깊이들에 대해, 더 높은 주파수들이 더 나은 해상도로 이어질 수 있다는 것을 추가로 제안한다(예를 들어, 20-40 mm의 깊이에 대한 플롯 참조).FIG. 5 is a plot (500) illustrating a series of graphs plotting power in decibels (DB) versus frequency in megahertz (MHz) for received ultrasound waveforms at different frequencies and different penetration depths of an imaging target. As illustrated in FIG. 5 , the reflected ultrasound waveform may exhibit higher power at lower frequencies (1.5 MHz) and thus better penetration (note that even depths of 140-160 mm are associated with higher DBs), whereas the reflected ultrasound waveform may exhibit increasingly lower power as frequency increases. Even at shallower penetrations (e.g., 20-40 mm), lower frequencies exhibit higher power. FIG. 5 demonstrates the advantage of lower frequencies in terms of resolution at greater penetrations, as discussed above. The figure further suggests that for shallower penetrations or depths, higher frequencies may lead to better resolution (see, e.g., plot for depths of 20-40 mm).

일부 실시예들은 (THI가 이용될 때의) 더 높은 고조파들 또는 (MI가 이용될 때의) 더 높은 주파수들의 이점들을 활용하는 것을 허용하며, 이는 (더 낮은 고조파들/더 낮은 주파수들과 비교하여) 전체적으로 더 높은 공간 해상도 및 더 낮은 고조파들/더 낮은 주파수들의 이점들을 제공한다. 더 낮은 고조파들/더 낮은 주파수들은 (더 높은 고조파들/더 높은 주파수들과 비교하여) 더 나은 침투 해상도를 제공한다. 본 명세서에서 이용되는 바와 같은 "침투"는 타겟 대상의 이미징 깊이를 지칭한다.Some embodiments allow for leveraging the benefits of higher harmonics (when THI is utilized) or higher frequencies (when MI is utilized), which provides overall higher spatial resolution (compared to lower harmonics/lower frequencies) and the benefits of lower harmonics/lower frequencies. Lower harmonics/lower frequencies provide better penetration resolution (compared to higher harmonics/higher frequencies). As used herein, “penetration” refers to the imaging depth of a target object.

일부 실시예들은 유리하게도, 반사 초음파 파형으로부터 생성된 전기 신호로부터 모든 이미징 깊이에서 높은 정보 내용을 추출하기 위해 광대역의 트랜스듀서 요소를 이용하는 것을 허용한다. 일부 실시예들은 (1) 더 높은 주파수에서 반사 초음파 파형을 처리하여 이미지의 근거리장(더 낮은/더 얕은 침투에 대응하는 장)에 대응하고 더 빽빽한 측방향 이미지 각도(도 6의 맥락에서 더 상세히 설명되는 바와 같은, 각도 θ를 지칭하는 측방향 이미지 각도)에 대응하는 전기 신호를 획득하는 것; 및 (2) 더 낮은 주파수에서 반사 초음파 파형을 처리하여 이미지의 원거리장(더 높은/더 깊은 침투에 대응하는 장)에 대응하는 그리고/또는 더 넓은 측방향 이미지 각도에 대한 전기 신호를 획득하는 것에 의해 높은 정보 내용을 추출한다.Some embodiments advantageously allow for the use of wideband transducer elements to extract high information content at all imaging depths from the electrical signals generated from the reflected ultrasound waveforms. Some embodiments extract high information content by (1) processing the reflected ultrasound waveforms at higher frequencies to obtain electrical signals corresponding to the near field of the image (fields corresponding to lower/shallower penetration) and corresponding to tighter lateral image angles (lateral image angles, referred to as angles θ, as described in more detail in the context of FIG. 6 ); and (2) processing the reflected ultrasound waveforms at lower frequencies to obtain electrical signals corresponding to the far field of the image (fields corresponding to higher/deeper penetration) and/or for wider lateral image angles.

도 6, 도 7, 도 10, 도 11, 도 12 및 도 13은 초음파 프레임들에 대응하는 초음파 이미지들을 도시한다. 본 명세서에서 언급되는 "프레임" 또는 "이미지"는 대상을 통한 단면 평면의 이미지를 지칭하며, 개별 스캔 라인들로 구성될 수 있다. 스캔 라인은 이미지의 개별 층 또는 슬라이스로서 보여질 수 있다. 해상도에 따라, 특정 이미지는 100개 미만 내지 수백 개에 이르는 상이한 수들의 스캔 라인들을 포함할 수 있다.Figures 6, 7, 10, 11, 12 and 13 illustrate ultrasound images corresponding to ultrasound frames. The term "frame" or "image" as used herein refers to an image of a cross-sectional plane through an object, which may be composed of individual scan lines. The scan lines may be viewed as individual layers or slices of the image. Depending on the resolution, a particular image may include different numbers of scan lines, from less than 100 to several hundred.

이제, 타겟 대상의 4개의 각각의 초음파 이미지의 세트(600)를 나타내는 도 6을 참조하며, 깊이는 좌측 축(cm) 상에 플로팅되었으며, 출력 이미지(이미지 D)는 이미지들(A-C)의 픽셀 방사조도들의 단순 평균화를 통해 획득되고, 이미지들(A-C) 각각은 주어진 반사 주파수에 대응한다. 도 6에서, 이미지들 A, B, C 및 D는 각각 다음을 나타낸다: A. 반사 초음파 파형의 제1 주파수에 대응하는 전기 신호들로부터 생성된 이미지이며, 제1 주파수는 전송된 초음파 파형의 전송의 기본 주파수에 대응하고; B. 반사 초음파 파형의 제2 주파수에 대응하는 전기 신호들로부터 생성된 이미지이며, 제2 주파수는 기본 주파수의 제2 고조파에 대응하고; C. 반사 초음파 파형의 제3 주파수에 대응하는 전기 신호들로부터 생성된 이미지이며, 제3 주파수는 기본 주파수의 제3 고조파에 대응하고; D. 이미지들 A 내지 C의 각각의 이미지들의 전기 신호들의 단순 합성으로부터 생성된 이미지이다. 도 6의 라인 13 및 라인 9는 각각 13 cm 및 9 cm의 침투 깊이를 나타낸다.Now, referring to FIG. 6 which illustrates a set (600) of four respective ultrasound images of a target object, the depth being plotted on the left axis (cm), and the output image (image D) being obtained by simple averaging of the pixel irradiances of the images (A-C), each of the images (A-C) corresponding to a given reflection frequency. In FIG. 6, images A, B, C and D respectively represent: A. an image generated from electrical signals corresponding to a first frequency of a reflected ultrasound waveform, the first frequency corresponding to a fundamental frequency of transmission of the transmitted ultrasound waveform; B. an image generated from electrical signals corresponding to a second frequency of the reflected ultrasound waveform, the second frequency corresponding to a second harmonic of the fundamental frequency; C. an image generated from electrical signals corresponding to a third frequency of the reflected ultrasound waveform, the third frequency corresponding to a third harmonic of the fundamental frequency; and D. an image generated from simple synthesis of the electrical signals of the respective images of images A to C. Lines 13 and 9 in Fig. 6 represent penetration depths of 13 cm and 9 cm, respectively.

도 6은 단일의 수신 주파수(즉, 반사 초음파 파형이 디스플레이될 출력 이미지를 생성하기 위해 처리 또는 복조될 단일 주파수)에 기반하여 이미징하고 있는 경우에 발생할 수 있는 문제들을 나타낸다. 예를 들어, 이미지 A를 보면, 전체적으로 더 나은 침투 해상도, 및 더 넓은 이미지 각도들 θ(θ는 라인 CL의 양측의 각도를 나타냄)에서 더 나은 해상도를 갖는다. 그러나, ("스포트라이트" 영역들(SL)에 의해 이미지들(B 및 C)에 나타내진 바와 같은) 이미지들(B 및 C)에 대한 더 얕은 깊이들에서의 해상도와 비교할 때, 더 얕은 깊이들에서의 이미지(A)의 해상도가 개선될 수 있다. 따라서, 주어진 수신 주파수에 대한 어떠한 하나의 이미지도 원하는 깊이들 및/또는 이미지 각도들에서 충분한 해상도를 갖는 적절한 이미지를 제공하지 못할 수 있다. 또한, 더 균일한 이미지를 갖기 위해 SL 영역을 없애면서도 해상도를 유지하는 것이 바람직하다.Figure 6 illustrates problems that may arise when imaging based on a single receive frequency (i.e., a single frequency at which the reflected ultrasound waveform is processed or demodulated to produce an output image to be displayed). For example, looking at image A, it has better overall penetration resolution, and better resolution at wider image angles θ (where θ represents the angle on either side of line CL). However, the resolution of image A at shallower depths may be improved compared to the resolution at shallower depths for images B and C (as indicated in images B and C by the "spotlight" regions SL). Thus, no single image for a given receive frequency may provide an adequate image with sufficient resolution at the desired depths and/or image angles. Furthermore, it is desirable to maintain resolution while eliminating the SL region in order to have a more uniform image.

도 6은 이미지의 개선이 다수의 차원에서, 예를 들어 도시된 바와 같은 타겟 대상의 깊이를 따라 그리고 또한 각도 θ에 걸쳐 발생할 수 있다는 사실을 강조한다. 더 넓은 각도들 θ에 대해, 더 높은 주파수들은 더 낮은 주파수들과 비교하여 양호한 충실도 또는 신호 대 잡음비를 갖지 않을 것이다.Figure 6 highlights that image enhancement can occur in multiple dimensions, for example along the depth of the target object as shown and also over angles θ. For wider angles θ, higher frequencies will not have as good fidelity or signal-to-noise ratio as lower frequencies.

일부 실시예들은, 더 깊은 침투와 더 넓은 각도 양쪽 모두에 대해 반사 초음파 파형의 더 낮은 주파수 처리에 대응하는 전기 신호로부터 획득된 더 나은 해상도를 활용하는 것을 고려한다.Some embodiments contemplate utilizing better resolution obtained from the electrical signal corresponding to lower frequency processing of the reflected ultrasonic waveform for both deeper penetration and wider angles.

초음파 이미징에서 발생할 수 있는 문제들 중 일부를 나타내는 도면으로서 전술한 도 6은 θ가 측정될 수 있는 중심 라인(CL) 및 더 높은 주파수 처리에 대한 더 나은 해상도의 영역들에 대응하는 스포트라이트 영역(SL)을 나타낸다. 도 7 및 도 10 내지 도 12는 도 6의 이미지들과 비슷한 종류의 이미지들을 나타내며, 결과적으로 CL, SL 및 θ의 도시는 이러한 픽처들에서 생략되었지만, 도 6과 관련하여 논의된 바와 같은 CL, SL 및 θ의 개념들은 도 7 및 도 10 내지 도 12에 동일하게 적용될 수 있다는 것을 이해해야 하며, 이러한 도면들과 관련하여 이하에서 논의될 수 있다.As a drawing illustrating some of the problems that can occur in ultrasound imaging, FIG. 6, mentioned above, shows a center line (CL) from which θ can be measured and a spotlight area (SL) corresponding to areas of better resolution for higher frequency processing. FIGS. 7 and 10-12 illustrate similar types of images to those of FIG. 6, and consequently the illustration of CL, SL and θ has been omitted from these pictures, but it should be understood that the concepts of CL, SL and θ discussed in connection with FIG. 6 are equally applicable to FIGS. 7 and 10-12, and may be discussed hereinafter in connection with these drawings.

도 6, 도 7, 도 10 및 도 11은 THI의 예들을 도시하며, 여기서 단일 저주파수 전송 펄스(1.75 MHz)가 전송된 초음파 파형에 인가되고, 결과적인 반사 초음파 파형은 3개의 이미징 주파수 대역(1.75 MHz, 3.5 MHz, 5.25 MHz)에서 복조된다. THI의 경우, 3개의 이미징 고조파의 복조에 대응하는 전기 신호들에 대해 좁은 기저대역 필터가 적용될 수 있으며, 이어서 도 6, 도 7, 도 10 및 도 11 각각에 대해 3개의 이미지, 즉 이미지들 A, B 및 C에 대응하는 전기 신호들을 생성하기 위한 추가 처리가 이어질 수 있다. 그 후, 3개의 이미지(A-C)에 대응하는 전기 신호들은 콘트라스트 해상도, 공간 해상도 또는 침투 해상도를 개선하기 위해 아래에 열거되는 임의의 합성 프로세스에 따라 합성될 수 있다. 실시예들에 따른 일부 합성 방법들은 단순 평균화, 가중 평균화, 깊이 적응적 합성을 이용한 알파 블렌딩, 이득-보상된 합성, 최대 및 최소 적응적 합성, 예측 합성, 측방향 주파수 적응적 합성 및 도플러 합성을 포함할 수 있다. 이러한 합성 방법들은 아래에 더 상세히 설명될 것이다.FIGS. 6, 7, 10 and 11 illustrate examples of THI, where a single low frequency transmit pulse (1.75 MHz) is applied to the transmitted ultrasonic waveform, and the resulting reflected ultrasonic waveform is demodulated at three imaging frequency bands (1.75 MHz, 3.5 MHz and 5.25 MHz). For THI, a narrow baseband filter may be applied to the electrical signals corresponding to the demodulation of the three imaging harmonics, followed by further processing to generate electrical signals corresponding to three images, namely images A, B and C, for each of FIGS. 6, 7, 10 and 11. The electrical signals corresponding to the three images (A-C) may then be composited according to any of the composite processes listed below to improve contrast resolution, spatial resolution or penetration resolution. Some of the synthesis methods according to the embodiments may include simple averaging, weighted averaging, alpha blending with depth adaptive synthesis, gain-compensated synthesis, maximum and minimum adaptive synthesis, predictive synthesis, lateral frequency adaptive synthesis and Doppler synthesis. These synthesis methods are described in more detail below.

단순 평균화Simple averaging

위에서 이미 부분적으로 설명된 도 6을 다시 참조한다. 도 6의 예에 따르면, A, B 및 C에서의 3개의 수신 주파수(도 6의 경우에는 기본 및 2개의 고조파이지만, 다중 모드 이미징 실시예에서는 실시예들에 따른 단순 평균화가 또한 이용될 수 있음)의 이미지들에 대응하는 전기 신호들의 합성이 D에서의 이미지를 획득하기 위한 단순 평균화를 통해 달성될 수 있다. 도 6의 맥락에서의 단순 평균화는 깊이 및 이미지 각도에 의해 정의되는 각각의 주어진 픽셀 위치에 대해, 수신 주파수들의 각각의 주파수들에 대응하는 상기 주어진 픽셀 위치의 각각의 픽셀 방사조도들을 평균화하는 것을 포함할 수 있다.Referring again to FIG. 6 already partially described above. According to the example of FIG. 6 , a synthesis of electrical signals corresponding to images at three reception frequencies at A, B and C (in the case of FIG. 6 the fundamental and two harmonics, although in multi-mode imaging embodiments a simple averaging according to embodiments may also be used) can be achieved via simple averaging to obtain an image at D. Simple averaging in the context of FIG. 6 may comprise averaging, for each given pixel location defined by the depth and the image angle, the respective pixel irradiances at said given pixel location corresponding to the respective frequencies of the reception frequencies.

반사 초음파 파형의 주어진 주파수에 대해, 주어진 픽셀 위치에서의 "픽셀 방사조도" I는 주어진 수신 주파수에 대응하는 전기 신호들에 기반하여 생성될 주어진 픽셀 위치에서의 (방사 에너지의 흐름의 방향에 수직인) 단위 면적당 방사 에너지의 플럭스를 지칭한다.For a given frequency of a reflected ultrasonic waveform, the "pixel irradiance" I at a given pixel location refers to the flux of radiant energy per unit area (perpendicular to the direction of the flow of radiant energy) at the given pixel location that would be generated based on electrical signals corresponding to the given received frequency.

예를 들어, 8 cm의 깊이 및 5도의 이미지 각도에 있다고 하는 주어진 픽셀 위치에 대한 수신 주파수들 각각에서의 픽셀 방사조도들은 그 위치에서의 픽셀 방사조도의 단순 평균을 계산하는데 이용되고, 이미지 D에서의 픽셀 방사조도를 생성하는데 이용될 수 있다. 후자는 선형 평균일 것이다. 단순 평균화에 대해 아래의 수학식 1을 참조한다:For example, the pixel irradiances at each of the receive frequencies for a given pixel location, say at a depth of 8 cm and an image angle of 5 degrees, can be used to compute a simple average of the pixel irradiance at that location, which can be used to produce the pixel irradiance in image D. The latter would be a linear average. For simple averaging, see Equation 1 below:

여기서,Here,

는 출력 이미지(이미지 D)에 대한 주어진 픽셀 위치에서의 출력 픽셀 방사조도이고; is the output pixel irradiance at a given pixel location for the output image (image D);

는 높은 수신 주파수 이미지(이미지 C)에 대한 주어진 픽셀 위치에서의 픽셀 방사조도이고; is the pixel irradiance at a given pixel location for the high reception frequency image (image C);

는 중간 수신 주파수 이미지(이미지 B)에 대한 주어진 픽셀 위치에서의 픽셀 방사조도이고; is the pixel irradiance at a given pixel location for the intermediate reception frequency image (image B);

는 낮은 수신 주파수 이미지(이미지 A)에 대한 주어진 픽셀 위치에서의 픽셀 방사조도이다. is the pixel irradiance at a given pixel location for the low-frequency image (image A).

가중 평균화Weighted averaging

가중 평균화를 수반하는 합성에서, 주어진 픽셀 위치에서의 픽셀 방사조도는 아래의 수학식 2와 같은 수학식을 통해 획득될 수 있다:In synthesis involving weighted averaging, the pixel irradiance at a given pixel location can be obtained through a mathematical expression such as Equation 2 below:

여기서, , , 는 위의 수학식 1에 대해 정의된 바와 같고, α, β 및 γ는 언급된 픽셀 방사조도들 각각에 대해 이용될 가중치들이다. α, β 및 γ는 깊이 해상도가 필요한지와 같은 응용 요구들에 기반할 수 있다.Here, , , and is as defined for the above mathematical expression 1, and α, β and γ are weights to be used for each of the mentioned pixel irradiances. α, β and γ can be based on application requirements, such as whether depth resolution is required.

깊이 적응적 합성을 이용한 알파 블렌딩Alpha Blending with Depth-Adaptive Compositing

이제, 깊이 적응적 합성(DAC)을 이용한 알파 블렌딩을 수반하는 일 실시예에 따른 합성 방법의 맥락에서 도 7 및 도 8을 참조한다.Now, reference is made to FIGS. 7 and 8 in the context of a compositing method according to one embodiment involving alpha blending using depth-adaptive compositing (DAC).

도 7은 타겟 대상의 4개의 각각의 초음파 이미지의 세트(700)를 도시하며, 여기서 출력 이미지(이미지 D)는 이미지들(A-C)의 픽셀 방사조도들의 알파 블렌딩 DAC를 통해 획득된다. 도 6의 것들과 유사한 도 7의 이미지들(A-C)은 기본 주파수와 동일한 수신 주파수에서 획득된 이미지(A), 기본 주파수의 제2 고조파와 동일한 수신 주파수에서 획득된 이미지(B) 및 기본 주파수의 제3 고조파와 동일한 수신 주파수에서 획득된 이미지(C)에 대응한다. 라인 13은 13 cm에서의 침투 깊이를 나타내고, 라인 9는 9 cm에서의 침투 깊이를 나타낸다.Fig. 7 illustrates a set (700) of four respective ultrasound images of a target object, where the output image (image D) is acquired via an alpha blending DAC of the pixel irradiances of the images (A-C). The images (A-C) of Fig. 7, similar to those of Fig. 6, correspond to image (A) acquired at a receive frequency equal to the fundamental frequency, image (B) acquired at a receive frequency equal to the second harmonic of the fundamental frequency, and image (C) acquired at a receive frequency equal to the third harmonic of the fundamental frequency. Line 13 represents the penetration depth at 13 cm, and line 9 represents the penetration depth at 9 cm.

도 7의 맥락에서 DAC를 이용한 알파 블렌딩은, 깊이 및 이미지 각도에 의해 정의되는 각각의 주어진 픽셀 위치에 대해, 수신 주파수들의 각각의 주파수들에 대응하는 상기 주어진 픽셀 위치의 각각의 픽셀 방사조도들을 각각의 알파 승수(alpha multiplier)만큼 승산하는 것을 포함할 수 있다. 주어진 픽셀 위치에서의 픽셀 방사조도들 각각에 대한 승수들 각각은 하나 이상의 알파 값의 함수일 수 있고, 여기서 개별 알파 값들은 침투 깊이의 함수이다.Alpha blending using a DAC in the context of FIG. 7 may include, for each given pixel location defined by depth and image angle, multiplying each of the pixel irradiances at the given pixel location corresponding to each of the received frequencies by a respective alpha multiplier. Each of the multipliers for each of the pixel irradiances at the given pixel location may be a function of one or more alpha values, wherein the individual alpha values are a function of penetration depth.

DAC를 이용한 알파 블렌딩의 예에 대해서는 아래의 수학식 3을 참조한다:For an example of alpha blending using a DAC, see Equation 3 below:

여기서, , , 는 위의 수학식 1에 대해 정의된 바와 같고,Here, , , and is defined as in the mathematical expression 1 above,

는 높은 수신 주파수의 깊이 의존적 α 값에 대응하고; corresponds to depth-dependent α values at high reception frequencies;

는 중간 수신 주파수의 깊이 의존적 α 값에 대응한다. corresponds to the depth-dependent α value of the intermediate receiving frequency.

따라서, 위의 수학식 3으로부터의 픽셀 방사조도들 각각에 대한 승수는 다음과 같을 수 있다:Therefore, the multiplier for each of the pixel irradiances from Equation 3 above can be:

: 승수이고; : It's a multiplier;

: 승수이고; : It's a multiplier;

: 승수이다. : It's a multiplier.

도 8은 위의 수학식 4에서 이용되는 에 대한 α 값 대 깊이(mm)의 플롯(800)의 일 예이다. 플롯(800)으로부터, 에 대한 α 값은 주어진 깊이에서, 예컨대 플롯(800)의 예의 경우에 약 92 mm의 깊이에서 0으로 떨어질 수 있음이 명백하다. 대조적으로, 의 α 값은 보다 훨씬 더 점진적으로 0으로 떨어지고, 플롯(800)의 예의 경우에, 200 mm에서, 훨씬 더 깊은 침투에서 0으로 떨어진다. 따라서, DAC를 이용한 알파 블렌딩은, 낮은 해상도 및 충실도가 주어지면, 더 깊은 깊이들에서 픽셀 방사조도에 대한 더 높은 수신 주파수들의 기여를 최소화하는 것을 목표로 할 수 있다. 더 깊은 픽셀 위치들에 대해, 높은 및 중간 수신 주파수들에서의 픽셀 방사조도들의 기여는 0으로 갈 수 있으며, 이 경우 DAC를 이용한 알파 블렌딩은 더 낮은 수신 주파수의 픽셀 방사조도(도 8의 경우, 200 mm 초과)만을 이용할 것이다.Figure 8 is used in the mathematical expression 4 above. and An example of a plot (800) of α value versus depth (mm). From the plot (800), It is clear that the α value for can drop to zero at a given depth, for example at a depth of about 92 mm in the case of the example plot (800). In contrast, The α value of and falls to zero much more gradually, in the case of the example plot (800), at much deeper penetration, at 200 mm. Thus, alpha blending using the DAC may aim to minimize the contribution of higher receive frequencies to the pixel irradiance at deeper depths, given the lower resolution and fidelity. For deeper pixel locations, the contribution of pixel irradiances at high and intermediate receive frequencies may tend to zero, in which case alpha blending using the DAC will only utilize pixel irradiances of lower receive frequencies (in the case of Figure 8, beyond 200 mm).

따라서, 다양한 수신 주파수들에 대한 픽셀 방사조도들의 승수들은 픽셀 위치의 깊이에 기반할 수 있다.Therefore, multipliers of pixel irradiances for different receiving frequencies can be based on the depth of the pixel location.

다중 모드 전송된 초음파 파형들Multimode transmitted ultrasound waves

앞서 언급된 바와 같이, 실시예들, 및 이에 따른 본 명세서에 설명된 합성 방법들은, 전송된 초음파 파형이 전송 주파수로서 단일의 기본 주파수를 가질 것을 요구하지 않으며, 반사 초음파 파형의 수신 주파수들은 그 기본 주파수(THI)의 고조파를 포함한다. 일부 다른 실시예는, 전송 주파수로서 3개의 기본 주파수를 특징으로 하는 전송된 초음파 파형의 이용을 그 범위 내에 포함하고, 수신 주파수는 기본 주파수(MI)에 대응한다. 전술한 바와 같이, 일부 트랜스듀서 요소들은 다중 모드 능력을 가질 수 있으며, 따라서 다중 모드 요소들에 대응할 수 있고, 이는 다중 모드 이미징 양상을 가능하게 할 것이다. 실시예들은 THI 양상 및 MI 양상 둘 다에 기반하여 전기 신호들을 처리할 수 있는 컴퓨팅 디바이스를 그 범위 내에 포함한다.As previously mentioned, the embodiments, and the synthesis methods described herein, do not require that the transmitted ultrasound waveform have a single fundamental frequency as the transmit frequency, and the receive frequencies of the reflected ultrasound waveform include harmonics of that fundamental frequency (THI). Some other embodiments include within their scope the use of a transmitted ultrasound waveform characterized by three fundamental frequencies as the transmit frequency, and the receive frequencies corresponding to the fundamental frequency (MI). As previously mentioned, some transducer elements may have multi-mode capability, and thus may correspond to multi-mode elements, which would enable multi-mode imaging modalities. Embodiments include within their scope a computing device capable of processing electrical signals based on both the THI modality and the MI modality.

도 9a, 도 9b, 도 10 및 도 11은 더 나은 침투 해상도를 위해 MI를 이용하는 것에 관한 것이며, 본 명세서에 설명된 MI 실시예에서 이용될 수 있는 예시적인 다중 모드 펄스를 나타낸 것이다. 특히, 도 9a는 펄스들(1.75 MHz, 3.5 MHz 및 5.1 MHz)로 전송하기 위해 기본 주파수들을 이용하는 다중 모드 펄스에 대한 시간(초 단위)에 대해 플로팅된 전압을 보여주는 플롯(900A)을 도시한다. 도 9b는, DB 단위의 전력 대 Hz 단위의 주파수를 플로팅한, 도 9a의 전송된 초음파 파형에 대한 주파수 분포의 플롯(900B)을 도시한다.FIGS. 9A, 9B, 10, and 11 illustrate exemplary multi-mode pulses that may be utilized in the MI embodiments described herein for better penetration resolution. In particular, FIG. 9A illustrates a plot (900A) showing voltage plotted against time (in seconds) for multi-mode pulses utilizing fundamental frequencies to transmit the pulses (1.75 MHz, 3.5 MHz, and 5.1 MHz). FIG. 9B illustrates a plot (900B) of the frequency distribution for the transmitted ultrasound waveform of FIG. 9A, plotting power in DB versus frequency in Hz.

도 10은 도 6의 것들과 유사하지만, 이번에는 도 9a 및 도 9b의 펄스를 이용하여 이미지들(A-C)을 생성하고, 또한 전술한 바와 같은 단순 합성을 이용함으로써 이미지들(A-C)에 대응하는 전기 신호들을 합성하여 합성 이미지(D)를 생성하는 이미지들의 세트(1000)이다.FIG. 10 is a set (1000) of images similar to those of FIG. 6, but this time using the pulses of FIGS. 9A and 9B to generate images (A-C), and also using simple synthesis as described above to synthesize electrical signals corresponding to images (A-C) to generate a composite image (D).

도 11은 도 6의 것들과 유사하지만, 도 9a 및 도 9b에 도시된 것과 같은 다중 모드 펄스에 대해 전술한 바와 같은 DAC를 이용한 알파 블렌딩을 이용하는 이미지들의 세트(1000)이다.FIG. 11 is a set (1000) of images similar to those of FIG. 6, but utilizing alpha blending with a DAC as described above for multi-mode pulses such as those shown in FIGS. 9a and 9b.

도 11과 도 10의 비교로부터 알 수 있는 바와 같이, 도시된 예에서의 MI에서의 DAC를 이용한 알파 블렌딩은 MI에서의 단순 합성과 비교하여 전체적으로 더 나은 해상도를 갖는 출력 이미지(D)를 낳는다. 도 6과 도 10의 비교로부터 알 수 있는 바와 같이, 도시된 예에서의 THI에서의 단순 합성은 MI에서의 단순 합성과 비교하여 더 나은 전체 해상도를 갖는 출력 이미지(D)를 낳는다. 도 7과 도 11의 비교로부터 알 수 있는 바와 같이, 도시된 예에서의 THI에서의 DAC를 이용한 알파 블렌딩은 MI에서의 적응적 합성과 비교하여 더 나은 전체 해상도를 갖는 출력 이미지(D)를 낳는다. 도 11과 도 6의 비교로부터 알 수 있는 바와 같이, 도시된 예에서의 MI에서의 DAC를 이용한 알파 블렌딩은 THI에서의 적응적 합성과 비교하여 더 나은 전체 해상도를 갖는 출력 이미지(D)를 낳는다.As can be seen from the comparison of FIGS. 11 and 10 , alpha blending using DAC in MI in the illustrated example yields an output image (D) having better overall resolution compared to simple compositing in MI. As can be seen from the comparison of FIGS. 6 and 10 , simple compositing in THI in the illustrated example yields an output image (D) having better overall resolution compared to simple compositing in MI. As can be seen from the comparison of FIGS. 7 and 11 , alpha blending using DAC in THI in the illustrated example yields an output image (D) having better overall resolution compared to adaptive compositing in MI. As can be seen from the comparison of FIGS. 11 and 6 , alpha blending using DAC in MI in the illustrated example yields an output image (D) having better overall resolution compared to adaptive compositing in THI.

합성 전의 이득-보상Gain-compensation before synthesis

일 실시예에 따르면, 합성 방법은 이득-보상된 합성을 포함할 수 있고, 이에 따라 반사 초음파 파형의 개별 주파수 대역들은 합성 이전에 전처리될 수 있다. 예를 들어, 이미지 생성을 위해 처리되는 수신 주파수들 각각에 대응하는 전기 신호들은 출력 이미지의 품질을 개선하기 위해 이득 보상 또는 동적 범위(DR) 보상을 받을 수 있다.In one embodiment, the synthesis method may include gain-compensated synthesis, whereby individual frequency bands of the reflected ultrasound waveform may be preprocessed prior to synthesis. For example, electrical signals corresponding to each of the received frequencies processed for image generation may be gain compensated or dynamic range (DR) compensated to improve the quality of the output image.

이제, 2개의 출력 이미지 D1 및 D2를 도시하는 도 12를 참조하며, 이미지 D1은 도 6, 도 7, 도 10 또는 도 11의 것들과 유사한 3개의 수신 주파수 상에서 DAC를 이용한 알파 블렌딩을 이용하여 획득된 것을 나타내고, D2는 60의 DR 및 상이한 이득들을 갖는 동일한 3개의 수신 주파수 상에서 DR 보상을 이용하여 획득된 것을 나타낸다. D1과 D2의 비교는 DAC를 이용한 알파 블렌딩과 비교하여 DR 보상을 이용한 개선된 콘트라스트의 명확한 이점을 보여주며, 그 외에는 모두 동일하다.Now, referring to Fig. 12 which shows two output images D1 and D2, image D1 is represented as obtained using alpha blending with a DAC on three receive frequencies similar to those of Fig. 6, Fig. 7, Fig. 10 or Fig. 11, and D2 is represented as obtained using DR compensation on the same three receive frequencies with a DR of 60 and different gains. A comparison of D1 and D2 shows a clear advantage of improved contrast using DR compensation as compared to alpha blending with a DAC, otherwise all else being equal.

최대 및 최소 적응적 합성Adaptive synthesis of maximum and minimum

적응적 합성은 일반적으로 반사 초음파 파형들의 수신 주파수들에 대응하는 전기 신호들을 결합 또는 합성하는 여러 비선형 방법들을 포함한다. 예시적인 적응적 합성 기술이 아래에 설명될 것이다.Adaptive synthesis typically involves several nonlinear methods of combining or synthesizing electrical signals corresponding to the received frequencies of reflected ultrasonic waveforms. Exemplary adaptive synthesis techniques are described below.

이제, 3개의 출력 이미지 D1, D2 및 D3의 세트를 도시하는 도 13을 참조하며, 이미지 D1은 도 6, 도 7, 도 10 또는 도 11의 것들과 유사한 3개의 수신 주파수 상에서 단순 합성을 이용하여 획득된 것을 나타내고, D2는 동일한 3개의 수신 주파수 상에서 DAC를 이용한 알파 블렌딩을 이용하여 획득된 것을 나타내며, D3은 아래의 수학식 5에 따라 최대 및 최소 적응적 합성을 이용하여 획득된 것을 나타낸다. D1, D2 및 D3의 비교는 단순 합성 및 DAC를 이용한 알파 블렌딩과 비교하여 적응적 합성을 이용한 개선된 콘트라스트 및 더 나은 해상도의 명확한 이점을 보여주며, 그 외에는 모두 동일하다.Now, referring to Fig. 13 which illustrates a set of three output images D1, D2 and D3, where image D1 is represented as obtained using simple synthesis on three receive frequencies similar to those of Fig. 6, Fig. 7, Fig. 10 or Fig. 11, D2 is represented as obtained using alpha blending using a DAC on the same three receive frequencies and D3 is represented as obtained using maximum and minimum adaptive synthesis according to equation (5) below. A comparison of D1, D2 and D3 shows a clear advantage of improved contrast and better resolution using adaptive synthesis as compared to simple synthesis and alpha blending using a DAC, all else being equal.

도 13의 출력 이미지(D3)는 아래의 수학식 4에 따른, 최대, 최소 및 평균 프레임들 또는 픽셀 방사조도들의 블렌딩을 이용하는 단순한 비선형 적응적 합성 방법의 결과이다:The output image (D3) of Fig. 13 is the result of a simple nonlinear adaptive synthesis method using blending of maximum, minimum and average frames or pixel irradiances according to the following mathematical expression 4:

여기서,Here,

; ;

; ;

는 수학식 3의 맥락에서 전술한 바와 같이 깊이 보상을 갖는 알파 블렌딩 후의 픽셀 위치에서의 픽셀 방사조도에 대응하고; corresponds to the pixel irradiance at the pixel location after alpha blending with depth compensation as described above in the context of mathematical expression 3;

: 알려진 알파 블렌딩 방법들에 기반하는 최대 투명도 계수("알파 값", 또는 에 대해 이용될 투명도 계수)이다. 예를 들어, 는 방사조도(즉, , , 또는 중 적어도 하나)를, 예를 들어, 0과 1 사이 그리고 0과 1을 포함하는 것과 같은 주어진 값에 매핑하는 룩업 테이블로부터 결정될 수 있다. 따라서, 일 예에 따르면, 선택된 방사조도(즉, , , 또는 중 적어도 하나)가 임계치 X1보다 큰 경우, 는 설정된 제1 값(예를 들어, 0과 1 사이 그리고 0과 1을 포함함)을 가질 수 있고; 선택된 방사조도가 X2보다 작은 경우, 는 제2 설정 값(0과 1 사이 그리고 0과 1을 포함하며, 여기서 제2 설정 값은 제1 설정 값과 상이함)을 가질 수 있고; 선택된 방사조도가 X1과 X2 사이에 있는 경우, 는 제1 설정 값과 제2 설정 값 사이의 직선인 선형 함수에 기반하여 결정되며; : The maximum transparency factor (the "alpha value", or is the transparency coefficient to be used for. For example, is the irradiance (i.e., , , or can be determined from a lookup table that maps at least one of the following values: 0 and 1, for example, to a given value, such as between 0 and 1 and including 0 and 1. Thus, according to one example, the selected irradiance (i.e., , , or If at least one of them) is greater than the threshold X1, can have a set first value (e.g., between 0 and 1 and inclusive); if the selected irradiance is less than X2, can have a second setpoint value (between 0 and 1 and including 0 and 1, wherein the second setpoint value is different from the first setpoint value); if the selected irradiance is between X1 and X2, is determined based on a linear function which is a straight line between the first set value and the second set value;

: 알려진 알파 블렌딩 방법들에 기반한 최소 투명도 계수(에 대해 이용될 투명도 계수)이다. 예를 들어, 와 유사하게, 은 방사조도(즉, , , 또는 중 적어도 하나)를, 예를 들어, 0과 1 사이 그리고 0과 1을 포함하는 것과 같은 주어진 값에 매핑하는 룩업 테이블로부터 결정될 수 있다. 따라서, 일 예에 따르면, 선택된 방사조도(즉, , , 또는 중 적어도 하나)가 임계치 X1보다 큰 경우, 은 설정된 제1 값(예를 들어, 0과 1 사이 그리고 0과 1을 포함함)을 가질 수 있고; 선택된 방사조도가 X2보다 큰 경우, 은 제2 설정 값(0과 1 사이 그리고 0과 1을 포함하며, 여기서 제2 설정 값은 제1 설정 값과 상이함)을 가질 수 있고; 선택된 방사조도가 X1과 X2 사이에 있는 경우, 은 제1 설정 값과 제2 설정 값 사이의 직선인 선형 함수에 기반하여 결정될 수 있다. : Minimum transparency factor based on known alpha blending methods ( is the transparency coefficient to be used for. For example, Similarly, is the irradiance (i.e., , , or can be determined from a lookup table that maps at least one of the following values: 0 and 1, for example, to a given value, such as between 0 and 1 and including 0 and 1. Thus, according to one example, the selected irradiance (i.e., , , or If at least one of them) is greater than the threshold X1, can have a set first value (e.g., between 0 and 1 and inclusive); if the selected irradiance is greater than X2, can have a second setpoint value (between 0 and 1 and including 0 and 1, wherein the second setpoint value is different from the first setpoint value); if the selected irradiance is between X1 and X2, can be determined based on a linear function which is a straight line between the first set value and the second set value.

예측 합성Predictive synthesis

일부 실시예들에 따른 예측 합성은, 제1 수신 주파수에 기반한 이미지의 제1 영역(영역 NF)에 대응하는 제1 전기 신호들과, 제2 수신 주파수에 기반한 이미지의 제1 영역(영역 NF)에 대응하는 전기 신호들 사이의 관계를 결정하고, 제2 수신 주파수에 기반하여 이미지의 제2 영역(영역 FF)에 대응하는 제3 전기 신호들을 예측하는 것을 포함한다. 예를 들어, 도 6을 참조하면, 예측 합성은 영역 NF1(1.75 MHz 수신 주파수의 영역 NF)에 대응하는 전기 신호와 영역 A2(3.5 MHz 수신 주파수의 영역 NF)에 대응하는 전기 신호 사이의 관계를 결정하는데 이용될 수 있다. 예측 합성은 이어서, 영역 FF1(1.75 MHz 수신 주파수의 영역 FF)에서의 전기 신호들과 함께, 그 관계를 이용하여 영역 FF2(3.5 MHz 수신 주파수의 영역 FF)에서의 전기 신호들을 예측하는 것을 포함할 수 있다.In some embodiments, the predictive synthesis includes determining a relationship between first electrical signals corresponding to a first region (region NF) of an image based on a first reception frequency, electrical signals corresponding to the first region (region NF) of the image based on a second reception frequency, and predicting third electrical signals corresponding to a second region (region FF) of the image based on the second reception frequency. For example, referring to FIG. 6 , the predictive synthesis may be used to determine a relationship between an electrical signal corresponding to region NF1 (region NF of 1.75 MHz reception frequency) and an electrical signal corresponding to region A2 (region NF of 3.5 MHz reception frequency). The predictive synthesis may then include predicting electrical signals in region FF2 (region FF of 3.5 MHz reception frequency) using the relationship together with the electrical signals in region FF1 (region FF of 1.75 MHz reception frequency).

이 관계는, 예를 들어, 더 높은 수신 주파수들에서 더 깊은 침투들에서의 이미지들을 예측하기 위해 더 낮은 주파수들의 더 나은 침투를 입력 신호들로서 이용할 수 있게 하는데 도움이 될 수 있다. 따라서, 더 높은 주파수들에서의 타겟 대상의 더 깊은 깊이들에서의 이미지들을 더 낮은 주파수들에서의 동일한 깊이들로부터 예측된 이미지들로 대체할 수 있다.This relationship can be helpful, for example, in allowing better penetration of lower frequencies as input signals to predict images at deeper penetrations at higher reception frequencies. Thus, images at deeper depths of the target object at higher frequencies can be replaced with images predicted from the same depths at lower frequencies.

단순 예측 합성, 포인트 확산 함수들(PSF들)을 이용한 예측 합성, 및 기계 학습(ML) 기반 예측 합성을 포함하는 예측 합성의 일부 예들이 아래에 설명된다.Some examples of predictive synthesis, including simple predictive synthesis, predictive synthesis using point spread functions (PSFs), and machine learning (ML)-based predictive synthesis, are described below.

단순 예측 합성Simple predictive synthesis

예측 합성을 이용하는 단순한 방법은 수학식 5의 이용을 포함할 수 있다:A simple way to use predictive synthesis may involve the use of Equation 5:

여기서,Here,

I FF2 : 영역 FF2에서의 픽셀 방사조도이며, 이것은 예측 픽셀 방사조도이고; I FF2 : Pixel irradiance in area FF2, which is the predicted pixel irradiance;

I FF1 : 반사 초음파 파형으로부터 획득된, 영역 FF1에서의 픽셀 방사조도이고; I FF1 : Pixel irradiance in area FF1 obtained from the reflected ultrasonic waveform;

I NF2 : 반사 초음파 파형으로부터 획득된, 영역 NF2에서의 픽셀 방사조도이고; I NF2 : Pixel irradiance in area NF2 obtained from the reflected ultrasonic waveform;

I NF1 : 반사 초음파 파형으로부터 획득된, 영역 NF1에서의 픽셀 방사조도이다. I NF1 : Pixel irradiance in area NF1 obtained from the reflected ultrasonic waveform.

더 높은 수신 주파수들로부터의 더 높은 해상도 영역이 더 낮은 수신 주파수들에 대한 동일 영역을 예측하는데 이용될 수 있는 경우 역이 또한 행해질 수 있다. 더 낮은 수신 주파수들은 더 높은 수신 주파수들만큼 양호한 해상도를 갖지 않는다. 적응적 예측 합성의 이용은 더 낮은 주파수의 이미지의 더 낮은 침투의 이점들과 더 높은 주파수의 더 나은 해상도를 이용하게 할 것이며, 따라서 예를 들어 더 높은 주파수들에서 더 나은 침투를 나타내는 일부 예측 부분들을 갖는 이미지를 낳는다.The reverse can also be done, where the higher resolution region from the higher receive frequencies can be used to predict the same region for the lower receive frequencies. The lower receive frequencies do not have as good a resolution as the higher receive frequencies. The use of adaptive predictive synthesis will take advantage of the lower penetration of the lower frequency image and the better resolution of the higher frequencies, thus resulting in an image with some predicted parts that exhibit better penetration at the higher frequencies, for example.

예를 들어, 위에서 설명된 바와 같이 관계가 발견되면, 예측 합성을 이용하는 5 MHz 이미지에 대해, 예를 들어 예측 합성을 이용하지 않는 5 MHz 이미지보다 10배의 더 나은 침투가 존재할 수 있다.For example, if a relationship is found as described above, there may be, for example, 10x better penetration for a 5 MHz image using predictive synthesis than for a 5 MHz image not using predictive synthesis.

포인트 확산 함수(PSF)를 이용한 예측 합성Prediction synthesis using point spread function (PSF)

반사 초음파 파형의 포인트 확산 함수(PSF)는 수신 주파수, 수신 대역폭, 및 타겟 대상에서의 초점을 포함한, 다수의 인자에 의존한다. PSF는 타겟 대상으로부터의 반사된 빔의 산란을 나타내는 것으로 생각될 수 있다. 이미징되는 타겟 대상의 영역에 대응하는 이미지를 획득하기 위해, 예측 척도로서, PSF는 픽셀과 같은, 이미징되는 타겟 대상의 영역에 대응하는 산란 분포와 컨볼루션될 수 있다. 따라서, 주파수 의존적 PSF는 타겟 대상 의존적 산란 분포와 컨볼루션될 수 있다. 따라서, 수신 주파수가 상이할 때, 즉 1.75 MHz의 수신 주파수로부터 3.5 MHz까지 갈 때, PSF는 변할 것이지만, 이미징되는 동일 영역에 대해서는 산란 분포가 동일할 것이다.The point spread function (PSF) of a reflected ultrasound waveform depends on several factors, including the receiver frequency, the receiver bandwidth, and the focus at the target object. The PSF can be thought of as representing the scattering of the reflected beam from the target object. To obtain an image corresponding to the region of the target object being imaged, as a predictive measure, the PSF can be convolved with a scattering distribution corresponding to the region of the target object being imaged, such as pixels. Thus, a frequency dependent PSF can be convolved with a target dependent scattering distribution. Thus, when the receiver frequency is different, say, from a receiver frequency of 1.75 MHz to 3.5 MHz, the PSF will change, but for the same region being imaged, the scattering distribution will be the same.

예를 들어 도 6의 이미지들과 관련하여 예측 합성의 일반적인 논의에서 전술한 바와 같이, 다음이 가정된다:For example, as discussed above in the general discussion of predictive synthesis with respect to the images in Fig. 6, it is assumed that:

영역 NF1은 1.75 MHz 수신 주파수 이미지의 영역 NF에 대응하고; Area NF1 corresponds to area NF of the 1.75 MHz receive frequency image;

영역 FF1은 1.75 MHz 수신 주파수 이미지의 영역 FF에 대응하고; Area FF1 corresponds to area FF of the 1.75 MHz receive frequency image;

영역 NF2는 영역 NF에 대응하지만 3.5 MHz 수신 주파수 이미지의 영역 NF에 대응하고; Area NF2 corresponds to area NF, but corresponds to area NF of the 3.5 MHz receive frequency image;

영역 FF2는 영역 FF에 대응하지만 3.5 MHz 수신 주파수 이미지의 영역 FF에 대응하고; Area FF2 corresponds to area FF, but corresponds to area FF of the 3.5 MHz receiving frequency image;

PSF1은 1.75 MHz 수신 주파수 이미지에 대한 PSF에 대응하고; PSF1 corresponds to the PSF for the 1.75 MHz receive frequency image;

PSF2는 3.5 MHz 수신 주파수 이미지에 대한 PSF에 대응하고; PSF2 corresponds to the PSF for the 3.5 MHz receive frequency image;

PSFinverse는 PSF의 역이다. PSFinverse is the inverse of PSF.

위의 정의들이 주어지면, 산란 분포(이는 영역 FF에서 타겟 대상과 상관됨)를 나타내는, B2에서의 픽셀 방사조도를 예측하기를 원하면, 수학식 6을 이용할 수 있다고 가정할 수 있다:Given the above definitions, if we want to predict the pixel irradiance at B2, which represents the scatter distribution (which is correlated to the target object in region FF), we can assume that we can use Equation 6:

여기서, *PSFinverse는 PSF에 기반한 디컨볼루션을 나타낸다.Here, *PSF inverse represents deconvolution based on PSF.

ML 기반 예측 합성ML-based predictive synthesis

일부 실시예들은 ML 기반 디컨볼루션을 이용하여 원거리장에서 더 높은 해상도의 이미지(예로서, 5 MHz)를 제공하면서 더 낮은 주파수(예로서, 1.75 MHz)의 침투를 유지할 수 있는 ML 기반 예측 합성을 제안한다.Some embodiments propose ML-based predictive synthesis that can provide higher resolution images (e.g., 5 MHz) in the far field while maintaining penetration at lower frequencies (e.g., 1.75 MHz) using ML-based deconvolution.

제안된 방법:Proposed method:

기본 아이디어는 a) 근거리장 데이터를 이용하여 저주파수 및 고주파수 이미지의 로컬 영역들 간의 관계를 식별하고 b) 저주파수 이미지에 대해 식별된 관계를 적용함으로써 원거리장에서 고주파수 이미지를 획득하는 것이다. 아래의 단계들은 제안된 방법을 상세히 설명한다.The basic idea is to a) identify relationships between local regions in low-frequency and high-frequency images using near-field data, and b) obtain high-frequency images in the far field by applying the identified relationships to the low-frequency images. The steps below detail the proposed method.

훈련 및 검증 데이터 세트:Training and validation datasets:

일부 실시예들에 따라 ML 기반 합성을 수행하기 위해 아래의 동작들이 수행될 수 있다:The following operations may be performed to perform ML-based synthesis according to some embodiments:

1) 1.75 MHz 이미지를 입력으로서 선택하고 5.0 MHz를 원하는 출력 이미지로서 선택하는 것;1) Select 1.75 MHz image as input and 5.0 MHz as desired output image;

2) 1.75 MHz 및 5.0 MHz 이미지들 각각에서 (예로서, 0-5 cm의 깊이의) 근거리장 영역 NF를 선택하는 것;2) Selecting the near-field region NF (e.g., at a depth of 0-5 cm) in each of the 1.75 MHz and 5.0 MHz images;

3) 근거리장 영역 NF를 많은 "스펙클 셀들(speckle cells)"로 세그먼트화하여 훈련 데이터 세트를 생성하는 것, 즉, 근거리장 영역 내에서 많은 서브영역, 예를 들어, 5 mm x 5 mm를 측정하는 정사각형 서브영역을 생성하여 입력(1.75 MHz 서브영역) 및 출력(5.0 MHz 서브영역)을 생성하는 것;3) Generating a training data set by segmenting the near-field region NF into many “speckle cells”, i.e., generating many sub-regions within the near-field region, for example, square sub-regions measuring 5 mm x 5 mm, to generate input (1.75 MHz sub-region) and output (5.0 MHz sub-region);

4) 훈련 데이터 세트를 생성하기 위해 개별 서브영역들의 다수의 프레임 및/또는 다수의 뷰를 이용하는 것; 예를 들어, 각각의 서브영역의 핀 타겟 팬텀 및 스펙클 팬텀 상에서 약 50개의 상이한 이미징 뷰를 이용하는 것은, 선택적으로, 필요하다면 변환, 스케일링 등에 의해 또한 증강될 수 있는, 훈련 데이터 세트로서 이용할 약 5000개 초과의 이미지를 생성할 수 있고;4) Using multiple frames and/or multiple views of individual sub-regions to generate a training data set; for example, using about 50 different imaging views on the pin target phantom and the speckle phantom of each sub-region can optionally generate more than about 5000 images to use as a training data set, which may also be augmented by transformation, scaling, etc., if desired;

5) (5-10 cm)에서 중거리장(mid-field) 스펙클 셀들을 이용하여 검증 데이터 세트를 생성하는 것;5) Generating a validation data set using mid-field speckle cells at (5-10 cm);

6) 1.75 MHz 및 5.0 MHz 이미지 각각에서 (예컨대, 0-5 cm의 깊이에서의) 중거리장 영역 MF를 검증 데이터 세트로서 이용하는 것;6) Using the mid-field region MF (e.g., at a depth of 0-5 cm) from each of the 1.75 MHz and 5.0 MHz images as a validation data set;

7) 훈련 데이터 세트 및 검증 데이터 세트에 기반하여 1.75 MHz 및 5 MHz 수신 주파수들의 영역들 A 간의 관계에 대한 ML 기반 훈련 모델을 개발하는 것; 및7) Developing an ML-based training model for the relationship between regions A of 1.75 MHz and 5 MHz receiving frequencies based on the training data set and the validation data set; and

8) 훈련 모델에 기반하여 1.75 MHz 및 5 MHz 수신 주파수들의 영역들 B에서 이미지를 예측하는 것이며, B는 원거리장 영역이다.8) Predict images in the regions B of 1.75 MHz and 5 MHz receiving frequencies based on the training model, where B is the far-field region.

훈련 데이터 세트는 더 낮은 수신 주파수와 더 높은 수신 주파수 사이와 같이 영역들 A 간의 관계를 식별하는데 이용될 수 있다. 이러한 관계는 또한 스펙클 셀을 식별하는 것, 스펙클을 잡음과 구별하는 것, 이득 등화, 에지 향상 등과 같은 다른 ML 관련 응용들에 이용될 수 있다.The training data set can be used to identify relationships between regions A, such as between lower and higher reception frequencies. These relationships can also be used for other ML-related applications, such as identifying speckle cells, distinguishing speckle from noise, gain equalization, edge enhancement, etc.

측방향 주파수 합성Lateral frequency synthesis

단일의 수신 주파수에 기반하여 이미징하고 있는 경우에 발생할 수 있는 문제들을 나타내는 것으로서 도 6을 다시 참조한다. 예를 들어, 이미지 A를 보면, 전체적으로 더 나은 침투 해상도, 및 더 넓은 이미지 각도들 θ(θ는 라인 CL의 양측의 각도를 나타냄)에서 더 나은 해상도를 갖는다. 그러나, 이미지들 B 및 C는 근거리장 및 중거리장 영역들 내의 스포트라이트 영역 SL을 보여준다. 그러나, SL은 더 낮은 주파수 이미지 A로부터는 누락되어 있다.Referring again to Figure 6, which illustrates problems that can arise when imaging based on a single receiving frequency. For example, looking at image A, we see that it has better overall penetration resolution, and better resolution over wider image angles θ (where θ represents the angle on either side of line CL). However, images B and C show the spotlight region SL within the near-field and mid-field regions. However, the SL is missing from the lower frequency image A.

측방향 주파수 합성은, 깊이 및 이미지 각도에 의해 정의되는 각각의 주어진 픽셀 위치에 대해, 수신 주파수들의 각각의 주파수들에 대응하는 상기 주어진 픽셀 위치의 각각의 픽셀 방사조도들을 각각의 알파 승수만큼 승산하는 것을 포함할 수 있다. 주어진 픽셀 위치에서의 픽셀 방사조도들 각각에 대한 승수들 각각은 하나 이상의 알파 값의 함수일 수 있고, 여기서 개별 알파 값들은 이미지 각도 및 침투 깊이 둘 다의 함수일 수 있다.Lateral frequency synthesis may include, for each given pixel location defined by depth and image angle, multiplying each of the pixel irradiances at the given pixel location corresponding to each of the received frequencies by a respective alpha multiplier. Each of the multipliers for each of the pixel irradiances at the given pixel location may be a function of one or more alpha values, wherein the individual alpha values may be a function of both the image angle and the penetration depth.

측방향 주파수 합성의 예에 대해서는 아래의 수학식 7을 참조한다:For an example of lateral frequency synthesis, see Equation 7 below:

여기서,Here,

: 깊이 r 및 이미지 각도 θ에서의 출력 픽셀 방사조도이고; : is the output pixel irradiance at depth r and image angle θ;

: 높은 수신 주파수 이미지(이미지 C)에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이고; : is the pixel irradiance at depth r and image angle θ for the high reception frequency image (image C);

r: 이미지 깊이이고;r: image depth;

θ: 이미지 각도이고;θ: image angle;

: 높은 수신 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 투명도 계수 α이고, 여기서 또는 중 어느 하나에 대해 위에서 설명된 것과 동일한 방식으로 결정될 수 있고, 차이는 가 상이한 r들 및 상이한 θ들에 대해 상이한 범위들 및 상이한 중단점들 X1 및 X2를 가질 수 있다는 것이고; : is the transparency coefficient α at depth r and image angle θ for high reception frequency, where Is or can be determined in the same way as described above for either one, and the difference is that can have different ranges and different breakpoints X1 and X2 for different r's and different θ's;

: 중간 수신 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 투명도 계수 α이고, 여기서 또는 중 어느 하나에 대해 위에서 설명된 것과 동일한 방식으로 결정될 수 있고, 차이는 가 상이한 r들 및 상이한 θ들에 대해 상이한 범위들 및 상이한 중단점들 X1 및 X2를 가질 수 있다는 것이고; : is the transparency coefficient α at depth r and image angle θ for the intermediate reception frequency, where Is or can be determined in the same way as described above for either one, and the difference is that can have different ranges and different breakpoints X1 and X2 for different r's and different θ's;

: 중간 수신 주파수 이미지(이미지 B)에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이고; : is the pixel irradiance at depth r and image angle θ for the intermediate received frequency image (image B);

: 낮은 수신 주파수 이미지(이미지 A)에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이다. : is the pixel irradiance at depth r and image angle θ for the low-frequency image (image A).

따라서, 위의 수학식 4로부터의 픽셀 방사조도들 각각에 대한 승수는 다음과 같을 수 있다:Therefore, the multiplier for each of the pixel irradiances from Equation 4 above can be:

: 승수이고; : It's a multiplier;

: 승수이고; : It's a multiplier;

: 승수이다. : It's a multiplier.

따라서, 계수 α(투명도 계수)는 더 높은 주파수들에서의 "스포트라이트" 아티팩트들을 줄이는 것은 물론, 측방향들에서의 신호 대 잡음비(SNR)를 개선하기 위한 이미지 각도의 함수이다. 아래의 수학식 9는 위의 관계를 나타낸다:Therefore, the coefficient α (transparency coefficient) is a function of the image angle to improve the signal-to-noise ratio (SNR) in the lateral directions as well as reduce the "spotlight" artifacts at higher frequencies. Equation 9 below shows the above relationship:

여기서,Here,

i: 이미징 파형들의 주파수 대역이고; i : is the frequency band of the imaging waveforms;

p: 이미지에 대한 라인 인덱스 좌표이고; p : line index coordinates for the image;

: 깊이 r 및 라인 인덱스 좌표 p에서의 출력 이미지 방사조도이고; : is the output image irradiance at depth r and line index coordinate p;

: 각각 입력 이미지 강도들이고; : are the input image intensities respectively;

: 깊이 r, 라인 인덱스 좌표 p, 및 주파수 대역 I에 대한 투명도 계수이고, 여기서 또는 중 어느 하나에 대해 위에서 설명된 것과 동일한 방식으로 결정될 수 있고, 차이는 가 상이한 r들, 상이한 p들 및 상이한 i들에 대해 상이한 범위들 및 상이한 중단점들 X1 및 X2를 가질 수 있다는 것이다. : is the transparency coefficient for depth r, line index coordinate p, and frequency band I, where Is or can be determined in the same way as described above for either one, and the difference is That is, it can have different ranges and different breakpoints X1 and X2 for different r's, different p's and different i's.

측방향 합성은 지향성을 개선하고, 150도 시야와 같은 더 큰 시야 등을 제공할 수 있다.Lateral synthesis can improve directivity and provide a larger field of view, such as a 150-degree field of view.

컬러 도플러/흐름 합성Color Doppler/Flow Synthesis

일부 실시예들에 따른 컬러 도플러를 이용한 합성은 방사조도 외에도 속도(흐름 및 방향)를 포함한 도플러 이미징과 연관된 추가 파라미터를 이용한다. 일부 실시예들에 따른 컬러 도플러 합성은 다수의 주파수 데이터로부터의 흐름 속도 또는 전력을 결합하는 것을 포함할 수 있다. 다수의 주파수 대역들로부터의 전력 또는 속도는 a) 깊이, b) 각도, c) SNR, d) 흐름 속도 등에 기반하여 결합된다.Color Doppler synthesis according to some embodiments utilizes additional parameters associated with Doppler imaging, including velocity (flow and direction), in addition to irradiance. Color Doppler synthesis according to some embodiments may include combining flow velocity or power from multiple frequency data. Power or velocity from multiple frequency bands is combined based on a) depth, b) angle, c) SNR, d) flow velocity, etc.

일 실시예에 따르면, 수학식 9 내지 수학식 12를 이용하여, 컬러 도플러 합성을 이용하여 생성된 출력 이미지에 대한 알파 블렌딩 결과들을 계산할 수 있다.According to one embodiment, alpha blending results for an output image generated using color Doppler synthesis can be calculated using Equations 9 to 12.

최대 파라미터:Maximum parameters:

평균 파라미터:Average parameters:

여기서,Here,

: 이용될 알파 블렌딩에 대응하는 자기상관의 최대 제로 래그 출력 값이고; : is the maximum zero-lag output value of the autocorrelation corresponding to the alpha blending to be used;

: 자기상관의 최대 제1 래그 출력 값이고; : is the maximum first lag output value of autocorrelation;

: 이용될 알파 블렌딩에 대응하는 자기상관의 평균 제로 래그 출력 값이고; : is the average zero-lag output value of the autocorrelation corresponding to the alpha blending to be used;

: 자기상관의 평균 제1 래그 출력 값이고; : is the average first lag output value of the autocorrelation;

: 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역 i에 대응하는 제로 래그 입력 값이고(예를 들어, 아래의 수학식 14 및 수학식 15 참조); : is a zero-lag input value corresponding to the frequency band i of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used (see, for example, Equations 14 and 15 below);

: 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역 i에 대응하는 제1 래그 입력 값이다(예를 들어, 이하의 수학식 14 및 수학식 15 참조). : The first lag input value corresponding to the frequency band i of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used (see, for example, Equations 14 and 15 below).

R0 및 R1의 최대 및 평균은 위의 수학식 9 내지 수학식 12로부터 계산되고, 이어서 아래의 수학식 14 및 수학식 15에 나타낸 바와 같이 알파 블렌딩된다:The maximum and average of R0 and R1 are calculated from Equations 9 to 12 above, and then alpha blended as shown in Equations 14 and 15 below:

여기서,Here,

: 최대 및 평균 제로 래그 자기상관들의 알파 블렌딩 값에 대응하는 제로 래그 출력이고; : Zero-lag output corresponding to the alpha blending value of the maximum and average zero-lag autocorrelations;

: 최대 및 평균 제1 래그 자기상관들의 알파 블렌딩 값에 대응하는 제1 래그 출력이고; : The first lag output corresponding to the alpha blending value of the maximum and average first lag autocorrelations;

α: 알파 블렌딩에 대한 알파 값이다.α: Alpha value for alpha blending.

예시적인 실시예들의 위의 설명은 구체적으로 정맥들을 언급할 수 있지만, 실시예들은 이것으로 제한되지 않고, 이물질에 의해 혈관이 액세스될 초음파 이미징의 대상일 수 있는 신체의 임의의 혈관들의 검출 및 추적에 관한 것이다. 또한, 액세스에 대한 적합성 또는 혈관에 관련된 다른 파라미터를 나타내기 위해 특정의 컬러들이 앞서 언급되었지만, 실시예들은 이것으로 제한되지 않고, 그 범위 내에서, 텍스트, 시각적 이미지 또는 코드, 음성 통신을 통해서와 같이 임의의 방식으로 UI를 통해 사용자에게 혈관 파라미터를 표시하는 것을 포함한다.While the above description of exemplary embodiments may specifically refer to veins, the embodiments are not limited thereto, and relate to detection and tracking of any blood vessels in the body that may be the subject of ultrasound imaging where the blood vessel may be accessed by a foreign body. Additionally, while specific colors have been mentioned above to indicate suitability for access or other parameters related to the blood vessel, the embodiments are not limited thereto, and include, within their scope, displaying the blood vessel parameters to the user via the UI in any manner, such as via text, a visual image or code, or voice communication.

예에서, 프로세서(326)에 의해 구현되는 명령어들은 메모리(336) 또는 이미징 디바이스의 임의의 다른 메모리 또는 저장 디바이스를 통해 제공될 수 있거나, 또는 프로세서(326) 또는 이미징 디바이스의 임의의 다른 프로세서는 프로세서(326)가 본 명세서의 방법들/프로세스들 중 어느 하나에 대응하는 동작들과 같은, 케이싱 내의 전자 동작들을 수행하도록 지시하는 코드를 포함하는 유형의, 비일시적 기계 판독가능한 매체로서 구현될 수 있다. 프로세서(326)는 메모리(336)와 프로세서(326) 사이의 상호접속부를 통해 비일시적 기계 판독가능한 매체에 액세스할 수 있다. 예를 들어, 비일시적 기계 판독가능한 매체는 메모리(336) 또는 프로세서(326) 내의 별개의 메모리에 의해 구현될 수 있거나, 광학 디스크들, 플래시 드라이브들, 또는 케이싱에 플러깅될 수 있는 임의의 수의 다른 하드웨어 디바이스들과 같은 특정 저장 유닛들을 포함할 수 있다. 비일시적 기계 판독가능한 매체는, 예를 들어, 본 명세서에 묘사된 동작들 및 기능의 흐름도(들) 및 블록도(들)에 관하여 설명된 바와 같이, 액션들의 특정 시퀀스 또는 흐름을 수행하도록 프로세서(326)에 지시하는 명령어들을 포함할 수 있다. 본 명세서에서 사용될 때, 용어들 "기계 판독가능한 매체" 및 "컴퓨터 판독가능한 매체"는 상호교환가능하다.In an example, the instructions implemented by the processor (326) may be provided via the memory (336) or any other memory or storage device of the imaging device, or the processor (326) or any other processor of the imaging device may be implemented as a tangible, non-transitory, machine-readable medium comprising code that instructs the processor (326) to perform electronic operations within the casing, such as operations corresponding to any of the methods/processes herein. The processor (326) can access the non-transitory machine-readable medium via an interconnection between the memory (336) and the processor (326). For example, the non-transitory machine-readable medium may be implemented by a separate memory within the memory (336) or the processor (326), or may include specific storage units such as optical disks, flash drives, or any number of other hardware devices that may be plugged into the casing. A non-transitory machine-readable medium may contain instructions that direct the processor (326) to perform a particular sequence or flow of actions, for example, as described with respect to the flowchart(s) and block diagram(s) of the operations and functionality depicted herein. As used herein, the terms "machine-readable medium" and "computer-readable medium" are interchangeable.

도 14는 메모리, 및 메모리에 결합된 하나 이상의 프로세서를 포함하는 컴퓨팅 디바이스에서 수행되는 방법(1400)을 도시한다. 방법(1400)은 동작(1402)에서, 전송된 초음파 파형의 결과로서 타겟 대상으로부터 반사된 반사 초음파 파형의 각각의 반사 주파수들에 기반한 전기 신호들을 동시에 수신하는 단계를 포함한다. 이 방법은 동작(1404)에서 전기 신호들로부터의 정보를 합성하여 합성된 전기 신호들을 생성하는 단계를 포함한다. 이 방법은 동작(1406)에서 합성된 전기 신호들에 기반하여 디스플레이 디바이스 상에 출력 이미지를 생성하게 하는 단계를 포함한다.FIG. 14 illustrates a method (1400) performed on a computing device including a memory and one or more processors coupled to the memory. The method (1400) includes, at operation (1402), simultaneously receiving electrical signals based on respective reflection frequencies of reflected ultrasonic waveforms reflected from a target object as a result of a transmitted ultrasonic waveform. The method includes, at operation (1404), synthesizing information from the electrical signals to generate synthesized electrical signals. The method includes, at operation (1406), generating an output image on a display device based on the synthesized electrical signals.

명시적으로 달리 언급되지 않는 한, 아래에 설명되는 예들 중 임의의 것은 임의의 다른 예(또는 예들의 조합)와 조합될 수 있다. 본 명세서에 설명된 양태들은 또한 예를 들어, 상이한 기능들(예를 들어, 낮은/중간/높은 우선순위 등)에 대한 이용의 계층적 우선순위화를 도입함으로써 방식의 계층적 적용을 구현할 수 있다.Unless explicitly stated otherwise, any of the examples described below may be combined with any other example (or combination of examples). The aspects described herein may also implement hierarchical application of the method, for example by introducing hierarchical prioritization of utilization for different functions (e.g., low/medium/high priority, etc.).

구현들이 특정한 예시적인 양태들을 참조하여 설명되었지만, 본 개시내용의 더 넓은 범위로부터 벗어나지 않고 이들 양태들에 대해 다양한 수정들 및 변경들이 이루어질 수 있다는 것이 명백할 것이다. 본 명세서에 설명된 배열들 및 프로세스들 중 다수는 조합하여 또는 병렬 구현들로 이용될 수 있다. 따라서, 본 명세서 및 도면들은 제한적인 의미보다는 예시적인 의미로 간주되어야 한다. 본 명세서의 일부를 형성하는 첨부 도면들은, 제한이 아닌 예시로서, 본 주제가 실시될 수 있는 특정 양태들을 도시한다. 예시된 양태들은 본 기술분야의 통상의 기술자가 본 명세서에 개시된 교시들을 실시할 수 있도록 충분히 상세하게 설명된다. 다른 양태들이 이용될 수 있고 그로부터 유도될 수 있어서, 구조적 및 논리적 치환들 및 변경들은 본 개시내용의 범위로부터 벗어나지 않으면서 행해질 수 있다. 따라서, 이 상세한 설명은 제한적인 의미로 취해져서는 안 되며, 다양한 양태들의 범위는 첨부된 청구항들과 함께, 이러한 청구항들에 부여되는 등가물들의 전체 범위에 의해서만 정의된다.While the implementations have been described with reference to specific exemplary embodiments, it will be apparent that various modifications and changes may be made to these embodiments without departing from the broader scope of the present disclosure. Many of the arrangements and processes described herein may be utilized in combination or in parallel implementations. Accordingly, the present specification and drawings are to be regarded in an illustrative rather than a restrictive sense. The accompanying drawings, which form a part hereof, illustrate, by way of example, and not limitation, specific embodiments in which the subject matter may be practiced. The illustrated embodiments are described in sufficient detail to enable those skilled in the art to practice the teachings disclosed herein. Other embodiments may be utilized and derived therefrom, and structural and logical substitutions and changes may be made without departing from the scope of the present disclosure. This detailed description is therefore not to be taken in a limiting sense, and the scope of the various embodiments is defined only by the appended claims, along with the full scope of equivalents to which such claims are entitled.

본 발명의 주제의 이러한 양태들은 단지 편의를 위해 그리고 하나보다 많은 것이 실제로 개시되면 본 출원의 범위를 임의의 단일 양태 또는 발명의 개념으로 자발적으로 제한하려는 의도 없이, 개별적으로 및/또는 집합적으로, 본 명세서에 언급될 수 있다.These aspects of the subject matter of the present invention may be mentioned herein individually and/or collectively merely for convenience and without intending to voluntarily limit the scope of the present application to any single aspect or inventive concept if more than one is actually disclosed.

본 개시내용의 바람직한 실시예들이 본 명세서에 도시되고 설명되었지만, 이러한 실시예들이 단지 예로서 제공된다는 것이 본 기술분야의 통상의 기술자에게 명백할 것이다. 실시예들이 본 명세서 내에 제공되는 특정 예들에 의해 제한되는 것으로 의도되지 않는다. 본 개시내용의 실시예들이 전술한 명세서를 참조하여 설명되었지만, 본 명세서의 실시예들의 설명들 및 예시들은 제한적인 의미로 해석되도록 의도되지 않는다. 이제, 본 개시내용의 개념들로부터 벗어나지 않고 본 기술분야의 통상의 기술자에게 다수의 변형들, 변경들 및 대체들이 발생할 것이다. 게다가, 다양한 실시예들의 모든 양태들이, 각종의 조건들 및 변수들에 의존하는, 본 명세서에 기재된 특정 묘사들, 구성들, 또는 상대 비율들로 제한되지 않는다는 것을 잘 이해할 것이다. 본 명세서에 설명된 실시예들에 대한 다양한 대안들이 이용될 수 있다는 것을 이해해야 한다. 따라서, 본 개시내용은 또한 임의의 이러한 대안들, 수정들, 변형들 또는 등가물들을 커버하는 것으로 고려된다.While preferred embodiments of the present disclosure have been illustrated and described herein, it will be apparent to those skilled in the art that such embodiments are provided by way of example only. It is not intended that the embodiments be limited to the specific examples provided herein. While embodiments of the present disclosure have been described with reference to the foregoing specification, the descriptions and illustrations of the embodiments herein are not intended to be construed in a limiting sense. It will now occur to those skilled in the art that numerous modifications, variations, and substitutions may occur without departing from the concepts of the present disclosure. Moreover, it will be appreciated that all aspects of the various embodiments are not limited to the specific depictions, configurations, or relative proportions set forth herein, which depend upon various conditions and variables. It should be appreciated that various alternatives to the embodiments described herein may be utilized. Accordingly, the present disclosure is also contemplated to cover any such alternatives, modifications, variations, or equivalents.

예들Examples

본 명세서에 개시된 기술들의 예시적인 예들이 아래에 제공된다. 이러한 기술들의 실시예는 아래에 설명되는 예들 중 임의의 하나 이상 및 임의의 조합을 포함할 수 있다.Illustrative examples of the technologies disclosed herein are provided below. Embodiments of these technologies may include any one or more and any combination of the examples described below.

예 1은 메모리, 및 메모리에 결합된 하나 이상의 프로세서를 포함하는 컴퓨팅 디바이스의 장치를 포함하며, 하나 이상의 프로세서는, 전송된 초음파 파형의 결과로서 타겟 대상으로부터 반사된 반사 초음파 파형의 각각의 반사 주파수들에 기반한 전기 신호들을 동시에 수신하고; 전기 신호들로부터의 정보를 합성하여 합성된 전기 신호들을 생성하고; 합성된 전기 신호들에 기반하여 디스플레이 상에 출력 이미지를 생성하게 한다.Example 1 includes a device of a computing device including a memory, and one or more processors coupled to the memory, wherein the one or more processors are configured to simultaneously receive electrical signals based on respective reflection frequencies of reflected ultrasonic waveforms reflected from a target object as a result of a transmitted ultrasonic waveform; synthesize information from the electrical signals to generate synthesized electrical signals; and generate an output image on a display based on the synthesized electrical signals.

예 2는 예 1의 주제를 포함하며, 각각의 반사 주파수들은 전송된 초음파 파형의 기본 주파수의 각각의 고조파들에 대응하고, 기본 주파수는 전송된 초음파 파형의 단일 주파수이다.Example 2 includes the subject matter of Example 1, wherein each of the reflection frequencies corresponds to a respective harmonic of the fundamental frequency of the transmitted ultrasonic waveform, where the fundamental frequency is a single frequency of the transmitted ultrasonic waveform.

예 3은 예 1의 주제를 포함하며, 전송된 초음파 파형은 반사 초음파 파형의 각각의 주파수들에 대응하는 기본 주파수들을 갖는 다중 모드 파형이다.Example 3 includes the subject matter of Example 1, wherein the transmitted ultrasonic waveform is a multimode waveform having fundamental frequencies corresponding to respective frequencies of the reflected ultrasonic waveform.

예 4는 예 1의 주제를 포함하며, 하나 이상의 프로세서는, 전기 신호들에 대해 예측 알고리즘을 구현하는 것 - 하나 이상의 프로세서는 타겟 대상의 제1 이미지 영역에 대응하는 제1 전기 신호들로부터의 정보를 이용하여 제1 이미지 영역과 상이한 타겟 대상의 제2 이미지 영역에 대한 예측 전기 신호들을 생성함 -; 및 제2 이미지 영역에서의 출력 이미지가 예측 전기 신호들에 대응하도록, 예측 전기 신호들을 이용하여 합성된 전기 신호들을 획득하는 것에 의해 정보를 합성한다.Example 4 includes the subject matter of Example 1, wherein one or more processors implement a prediction algorithm for the electrical signals, wherein the one or more processors generate prediction electrical signals for a second image area of the target object, the second image area being different from the first image area, using information from the first electrical signals corresponding to the first image area of the target object; and synthesize information by obtaining electrical signals synthesized using the prediction electrical signals such that an output image in the second image area corresponds to the prediction electrical signals.

예 5는 예 1 내지 예 4 중 어느 하나의 주제를 포함하며, 반사 주파수들은 N개의 반사 주파수를 포함하고; 전기 신호들은 N개의 전기 신호 세트를 포함하고, 각각의 전기 신호 세트는 반사 주파수들 중 하나에 대응하고, N개의 전기 신호 세트는 타겟 대상의 N개의 입력 이미지에 대응하고; 개별 입력 이미지들은 각각의 픽셀 위치들에서의 픽셀들을 포함하고, N개의 입력 이미지의 각각의 픽셀 위치는 깊이 및 각도에 의해 정의되고; 정보를 합성하는 것은 N개의 전기 신호 세트로부터의 정보를 합성하는 것을 포함하고; 하나 이상의 프로세서는 단순 평균화, 가중 평균화, 깊이 적응적 합성을 이용한 알파 블렌딩, 최대 및 최소 적응적 합성, 예측 합성, 측방향 주파수 합성 및 컬러 도플러 합성 중 적어도 하나를 이용하여 N개의 전기 신호 세트로부터의 정보를 합성한다.Example 5 includes the subject matter of any one of Examples 1 to 4, wherein the reflection frequencies include N reflection frequencies; the electrical signals include N sets of electrical signals, each set of electrical signals corresponding to one of the reflection frequencies, the N sets of electrical signals corresponding to N input images of a target object; the individual input images include pixels at respective pixel locations, each pixel location of the N input images being defined by a depth and an angle; and synthesizing information includes synthesizing information from the N sets of electrical signals; and the one or more processors synthesize information from the N sets of electrical signals using at least one of simple averaging, weighted averaging, alpha blending using depth-adaptive synthesis, max and min adaptive synthesis, predictive synthesis, lateral frequency synthesis and color Doppler synthesis.

예 6은 예 5의 주제를 포함하며, 하나 이상의 프로세서는 추가로, 합성 이전에 전기 신호들이 이득 보상 또는 동적 범위 보상을 받게 한다.Example 6 includes the subject matter of Example 5, and further comprises one or more processors subjecting the electrical signals to gain compensation or dynamic range compensation prior to synthesis.

예 7은 예 5의 주제를 포함하며, 단순 평균화는, 각각의 픽셀 위치에 대해, N개의 입력 이미지에 걸쳐 각각의 픽셀 방사조도들의 단순 평균화 또는 가중 평균화 중 하나를 수행하는 것을 포함한다.Example 7 includes the subject matter of Example 5, wherein simple averaging comprises performing, for each pixel location, either a simple averaging or a weighted averaging of the individual pixel irradiances across the N input images.

예 8은 예 5의 주제를 포함하며, 깊이 적응적 합성을 이용한 알파 블렌딩은, 각각의 픽셀 위치에 대해, 대응하는 알파 승수만큼, N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 승산하는 것을 포함하고, 각각의 알파 승수는 하나 이상의 알파 값의 함수이고, 하나 이상의 알파 값은 상기 각각의 픽셀 위치의 깊이 또는 상기 각각의 픽셀 위치의 각도 중 적어도 하나의 함수이다.Example 8 includes the subject matter of Example 5, and wherein alpha blending using depth-adaptive synthesis comprises multiplying, for each pixel location, each of the pixel irradiances between the N input images by a corresponding alpha multiplier, wherein each alpha multiplier is a function of one or more alpha values, and wherein the one or more alpha values are a function of at least one of a depth of the respective pixel location or an angle of the respective pixel location.

예 9는 예 8의 주제를 포함하며, 상기 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, 는 출력 이미지에 대한 상기 각각의 픽셀 위치에 대한 출력 픽셀 방사조도이고; 는 수신 주파수들 중 가장 높은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 중간 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 가장 낮은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 가장 높은 주파수의 깊이 의존적 α 값에 대응하고; 는 수신 주파수들 중 중간 주파수의 깊이 의존적 α 값에 대응한다.Example 9 includes the subject matter of Example 8, wherein for each pixel location, the output irradiance in the output image is is given by , where, is the output pixel irradiance for each pixel location in the output image; is the pixel irradiance for each pixel location in the input image corresponding to the highest frequency among the received frequencies; is the pixel irradiance for each pixel location in the input image corresponding to the intermediate frequency among the received frequencies; is the pixel irradiance for each pixel location in the input image corresponding to the lowest frequency among the received frequencies; corresponds to the depth-dependent α value of the highest frequency among the received frequencies; corresponds to the depth-dependent α value of the intermediate frequency among the received frequencies.

예 10은 예 8의 주제를 포함하며, 상기 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, r: 깊이; θ: 각도; : 깊이 r 및 이미지 각도 θ에서의 출력 픽셀 방사조도; : 수신 주파수들 중 가장 높은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도; : 수신 주파수들 중 중간 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도; : 수신 주파수들 중 가장 낮은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도; 는 깊이 r 및 이미지 각도 θ에서 수신 주파수들 중 가장 높은 주파수의 알파 값에 대응하고; 는 깊이 r 및 이미지 각도 θ에서 수신 주파수들 중 중간 주파수에서의 알파 값에 대응한다.Example 10 includes the subject matter of Example 8, wherein for each pixel location, the output irradiance in the output image is is given by , where, r: depth; θ: angle; : Output pixel irradiance at depth r and image angle θ; : Pixel irradiance at depth r and image angle θ for the highest of the received frequencies; : Pixel irradiance at depth r and image angle θ for the intermediate frequency among the received frequencies; : Pixel irradiance at depth r and image angle θ for the lowest of the received frequencies; corresponds to the alpha value of the highest frequency among the received frequencies at depth r and image angle θ; corresponds to the alpha value at the middle frequency among the received frequencies at depth r and image angle θ.

예 11은 예 5의 주제를 포함하며, 최대 및 최소 적응적 합성은, 상기 각각의 픽셀 위치에 대해, N개의 입력 이미지 사이의 최대, 최소 및 평균 픽셀 방사조도들의 블렌딩을 이용하는 것을 포함한다.Example 11 includes the subject matter of Example 5, wherein the maximum and minimum adaptive synthesis involves using blending of the maximum, minimum and average pixel irradiances among the N input images for each pixel location.

예 12는 예 11의 주제를 포함하며, 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, ; ; 는 깊이 보상을 이용한 알파 블렌딩 후의 픽셀 위치에서의 픽셀 방사조도에 대응하고; , , 또는 중 적어도 하나에 기반한 최대 투명도 알파 값 계수에 대응하고, 는 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제1 값을 가지며; , , 또는 중 적어도 하나에 기반한 최소 투명도 알파 값 계수에 대응하고, 은 설정된 제1 값과 상이하고 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제2 값을 갖는다.Example 12 includes the subject matter of Example 11, such that for each pixel location, the output irradiance in the output image is is given by , where, ; ; corresponds to pixel irradiance at pixel location after alpha blending using depth compensation; Is , , or Corresponding to the maximum transparency alpha value coefficient based on at least one of has a set first value between 0 and 1 and including 0 and 1; silver , , or Corresponding to a minimum transparency alpha value coefficient based on at least one of has a set second value that is different from the set first value and is between 0 and 1 and includes 0 and 1.

예 13은 예 5의 주제를 포함하며, 예측 합성은, 제1 반사 주파수에 대응하는 제1 입력 이미지에서의 제1 영역에 대응하는 제1 전기 신호들과, 제2 반사 주파수에 대응하는 제2 입력 이미지에서의 제1 영역에 대응하는 제2 전기 신호들 사이의 관계를 결정하는 것; 및 관계에 기반하여, 제2 입력 이미지의 제2 영역에 대응하는 제3 전기 신호들을 예측하는 것을 포함한다.Example 13 includes the subject matter of Example 5, wherein the predictive synthesis comprises determining a relationship between first electrical signals corresponding to a first area in a first input image corresponding to a first reflection frequency, and second electrical signals corresponding to a first area in a second input image corresponding to a second reflection frequency; and predicting third electrical signals corresponding to a second area in the second input image based on the relationship.

예 14는 예 13의 주제를 포함하며, 제2 영역에서의 픽셀의 픽셀 방사조도는, 에 의해 주어지며, 여기서, FF1은 제1 입력 이미지에서의 제2 영역이고; FF2는 제2 입력 이미지에서의 제2 영역이고; NF1은 제1 입력 이미지에서의 제1 영역이고; NF2는 제2 입력 이미지에서의 제1 영역이고; I FF2 는 FF2에서의 픽셀 방사조도이고; I FF1 은 영역 FF1에서의 픽셀 방사조도이고; I NF2 는 영역 NF2에서의 픽셀 방사조도이고; I NF1 은 영역 NF1에서의 픽셀 방사조도이다.Example 14 includes the subject matter of Example 13, wherein the pixel irradiance of a pixel in the second region is , where, FF1 is a second region in the first input image; FF2 is a second region in the second input image; NF1 is a first region in the first input image; NF2 is a first region in the second input image; I FF2 is a pixel irradiance in FF2; I FF1 is a pixel irradiance in the region FF1; I NF2 is a pixel irradiance in the region NF2; I NF1 is a pixel irradiance in the region NF1.

예 15는 예 13의 주제를 포함하며, 제2 영역에서의 픽셀의 픽셀 방사조도는, 에 의해 주어지며, 여기서, FF1은 제1 입력 이미지에서의 제2 영역이고; FF2는 제2 입력 이미지에서의 제2 영역이고; NF2는 제2 입력 이미지에서의 제1 영역이고; I FF2 는 FF2에서의 픽셀 방사조도이고; I FF1 은 영역 FF1에서의 픽셀 방사조도이고; I NF2 는 영역 NF2에서의 픽셀 방사조도이고; PSF1은 제1 수신 주파수에 대한 포인트 확산 함수(PSF)에 대응하고; PSF2는 제2 수신 주파수에 대한 PSF에 대응하고; PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이고; PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이다.Example 15 includes the subject matter of Example 13, wherein the pixel irradiance of a pixel in the second region is , where, FF1 is a second region in the first input image; FF2 is a second region in the second input image; NF2 is a first region in the second input image; I FF2 is pixel irradiance in FF2; I FF1 is pixel irradiance in the region FF1; I NF2 is pixel irradiance in the region NF2; PSF1 corresponds to a point spread function (PSF) for the first receive frequency; PSF2 corresponds to a PSF for the second receive frequency; PSF1 inverse is an inverse of PSF1 corresponding to the deconvolution; and PSF1 inverse is an inverse of PSF1 corresponding to the deconvolution.

예 16은 예 13의 주제를 포함하며, ML 기반 합성은, 제1 영역이 근거리장 영역에 대응하는 것으로 결정하는 것; 제2 영역이 원거리장 영역에 대응하는 것으로 결정하는 것; 근거리장 영역을 복수의 서브영역들, 예를 들어 정사각형 서브영역들로 세그먼트화하는 것; 근거리장 영역에서 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 훈련 데이터 세트를 생성하는 것; 훈련 데이터 세트에 기반하여 제1 영역 내의 제1 반사 주파수에서의 픽셀 방사조도들과 제1 영역 내의 제2 반사 주파수에서의 픽셀 방사조도들 사이의 관계에 대한 ML 기반 모델을 개발하는 것; 및 모델에 기반하여 제2 영역 내의 제2 반사 주파수에서의 픽셀 방사조도들을 예측하는 것을 포함한다.Example 16 includes the subject matter of Example 13, wherein the ML-based synthesis comprises: determining that a first region corresponds to a near-field region; determining that a second region corresponds to a far-field region; segmenting the near-field region into a plurality of sub-regions, for example, square sub-regions; generating a training data set based on a plurality of first input images and a plurality of first output images in the near-field region; developing an ML-based model for a relationship between pixel irradiances at a first reflection frequency within the first region and pixel irradiances at a second reflection frequency within the first region based on the training data set; and predicting pixel irradiances at the second reflection frequency within the second region based on the model.

예 17은 예 16의 주제를 포함하며, ML 기반 합성은 입력 이미지들의 중거리장 영역에서의 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 검증 데이터 세트를 생성하는 것, 및 훈련 데이터 세트 및 검증 데이터 세트에 기반하여 ML 기반 모델을 개발하는 것을 더 포함한다.Example 17 includes the subject matter of Example 16, and further includes generating a validation data set based on a plurality of first input images and a plurality of first output images in a mid-field region of the input images, and developing an ML-based model based on the training data set and the validation data set.

예 18은 예 5의 주제를 포함하며, 컬러 도플러 합성은, 각각의 픽셀 위치에 대해, 깊이, 각도, 신호 대 잡음비, 흐름 속도 또는 전력에 관한 정보 중 적어도 하나에 기반하여 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 결합하는 것을 포함한다.Example 18 includes the subject matter of Example 5, wherein the color Doppler synthesis comprises combining, for each pixel location, individual pixel irradiances between the N input images based on at least one of information about depth, angle, signal-to-noise ratio, flow velocity or power.

예 19는 예 18의 주제를 포함하며, 출력 이미지의 R0out 및 R1out에 의해 주어지며, 여기서, : 최대 및 평균 제로 래그 자기상관들의 알파 블렌딩 값에 대응하는 제로 래그 출력; : 최대 및 평균 제1 래그 자기상관들의 알파 블렌딩 값에 대응하는 제1 래그 출력; α: 알파 블렌딩에 대한 알파 값; : 이용될 알파 블렌딩에 대응하는 자기상관의 최대 제로 래그 출력 값; : 자기상관의 최대 제1 래그 출력 값; : 이용될 알파 블렌딩에 대응하는 자기상관의 평균 제로 래그 출력 값; : 자기상관의 평균 제1 래그 출력 값; : 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제로 래그 입력 값; 및 : 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제1 래그 입력 값이다.Example 19 includes the subject of Example 18, and R0 out and R1 out of the output image are and is given by , where, : Zero-lag output corresponding to the alpha blending value of the maximum and average zero-lag autocorrelations; : First lag output corresponding to the alpha blending value of the maximum and average first lag autocorrelations; α: alpha value for alpha blending; : The maximum zero-lag output value of the autocorrelation corresponding to the alpha blending to be used; : Maximum first lag output value of autocorrelation; : The average zero-lag output value of the autocorrelation corresponding to the alpha blending to be used; : Average first lag output value of autocorrelation; : a zero-lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used; and : The first lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used.

예 20은 예 1 내지 예 4 중 어느 하나의 주제를 포함하며, 각각의 반사 주파수들은 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하고, 전송된 초음파 파형의 기본 주파수가 1.75 MHz의 단일 주파수인 것; 또는 전송된 초음파 파형의 각각의 기본 주파수들이 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하는 것 중 하나이다.Example 20 includes the subject matter of any one of Examples 1 to 4, wherein each of the reflected frequencies comprises 1.75 MHz, 3.5 MHz and 5.0 MHz, and wherein the fundamental frequency of the transmitted ultrasonic waveform is a single frequency of 1.75 MHz; or wherein each of the fundamental frequencies of the transmitted ultrasonic waveform comprises 1.75 MHz, 3.5 MHz and 5.0 MHz.

예 21은 디스플레이 디바이스를 포함하는 사용자 인터페이스 디바이스; 및 사용자 인터페이스 디바이스에 통신가능하게 결합된 컴퓨팅 디바이스를 포함하는 시스템을 포함하며, 컴퓨팅 디바이스는 메모리, 및 메모리에 결합된 하나 이상의 프로세서를 포함하고, 하나 이상의 프로세서는, 전송된 초음파 파형의 결과로서 타겟 대상으로부터 반사된 반사 초음파 파형의 각각의 반사 주파수들에 기반한 전기 신호들을 동시에 수신하고; 전기 신호들로부터의 정보를 합성하여 합성된 전기 신호들을 생성하고; 합성된 전기 신호들에 기반하여 디스플레이 디바이스 상에 출력 이미지를 생성하게 한다.Example 21 includes a system comprising a user interface device including a display device; and a computing device communicatively coupled to the user interface device, the computing device including a memory, and one or more processors coupled to the memory, the one or more processors configured to simultaneously receive electrical signals based on respective reflection frequencies of reflected ultrasonic waveforms reflected from a target object as a result of a transmitted ultrasonic waveform; synthesize information from the electrical signals to generate synthesized electrical signals; and generate an output image on the display device based on the synthesized electrical signals.

예 22는 예 21의 주제를 포함하며, 각각의 반사 주파수들은 전송된 초음파 파형의 기본 주파수의 각각의 고조파들에 대응하고, 기본 주파수는 전송된 초음파 파형의 단일 주파수이다.Example 22 includes the subject matter of Example 21, wherein each of the reflection frequencies corresponds to a respective harmonic of the fundamental frequency of the transmitted ultrasonic waveform, the fundamental frequency being a single frequency of the transmitted ultrasonic waveform.

예 23은 예 21의 주제를 포함하며, 전송된 초음파 파형은 반사 초음파 파형의 각각의 주파수들에 대응하는 기본 주파수들을 갖는 다중 모드 파형이다.Example 23 includes the subject matter of Example 21, wherein the transmitted ultrasonic waveform is a multimode waveform having fundamental frequencies corresponding to respective frequencies of the reflected ultrasonic waveform.

예 24는 예 21의 주제를 포함하며, 하나 이상의 프로세서는, 전기 신호들에 대해 예측 알고리즘을 구현하는 것 - 하나 이상의 프로세서는 타겟 대상의 제1 이미지 영역에 대응하는 제1 전기 신호들로부터의 정보를 이용하여 제1 이미지 영역과 상이한 타겟 대상의 제2 이미지 영역에 대한 예측 전기 신호들을 생성함 -; 및 제2 이미지 영역에서의 출력 이미지가 예측 전기 신호들에 대응하도록, 예측 전기 신호들을 이용하여 합성된 전기 신호들을 획득하는 것에 의해 정보를 합성한다.Example 24 includes the subject matter of Example 21, wherein one or more processors implement a prediction algorithm for electrical signals, wherein the one or more processors generate prediction electrical signals for a second image area of the target object, the second image area being different from the first image area, using information from the first electrical signals corresponding to the first image area of the target object; and synthesize information by obtaining electrical signals synthesized using the prediction electrical signals such that an output image in the second image area corresponds to the prediction electrical signals.

예 25는 예 21 내지 예 24 중 어느 하나의 주제를 포함하며, 반사 주파수들은 N개의 반사 주파수를 포함하고; 전기 신호들은 N개의 전기 신호 세트를 포함하고, 각각의 전기 신호 세트는 반사 주파수들 중 하나에 대응하고, N개의 전기 신호 세트는 타겟 대상의 N개의 입력 이미지에 대응하고; 개별 입력 이미지들은 각각의 픽셀 위치들에서의 픽셀들을 포함하고, N개의 입력 이미지의 각각의 픽셀 위치는 깊이 및 각도에 의해 정의되고; 정보를 합성하는 것은 N개의 전기 신호 세트로부터의 정보를 합성하는 것을 포함하고; 하나 이상의 프로세서는 단순 평균화, 가중 평균화, 깊이 적응적 합성을 이용한 알파 블렌딩, 최대 및 최소 적응적 합성, 예측 합성, 측방향 주파수 합성 및 컬러 도플러 합성 중 적어도 하나를 이용하여 N개의 전기 신호 세트로부터의 정보를 합성한다.Example 25 includes the subject matter of any one of Examples 21 to 24, wherein the reflection frequencies comprise N reflection frequencies; the electrical signals comprise N sets of electrical signals, each set of electrical signals corresponding to one of the reflection frequencies, the N sets of electrical signals corresponding to N input images of a target object; the individual input images comprise pixels at respective pixel locations, each pixel location of the N input images being defined by a depth and an angle; and synthesizing information comprises synthesizing information from the N sets of electrical signals; and the one or more processors synthesize information from the N sets of electrical signals using at least one of simple averaging, weighted averaging, alpha blending using depth-adaptive synthesis, max and min adaptive synthesis, predictive synthesis, lateral frequency synthesis and color Doppler synthesis.

예 26은 예 25의 주제를 포함하며, 하나 이상의 프로세서는 추가로, 합성 이전에 전기 신호들이 이득 보상 또는 동적 범위 보상을 받게 한다.Example 26 includes the subject matter of Example 25, and further comprises causing the one or more processors to subject the electrical signals to gain compensation or dynamic range compensation prior to synthesis.

예 27은 예 25의 주제를 포함하며, 단순 평균화는, 각각의 픽셀 위치에 대해, N개의 입력 이미지에 걸쳐 각각의 픽셀 방사조도들의 단순 평균화 또는 가중 평균화 중 하나를 수행하는 것을 포함한다.Example 27 includes the subject matter of Example 25, wherein the simple averaging comprises performing, for each pixel location, either a simple averaging or a weighted averaging of the individual pixel irradiances across the N input images.

예 28은 예 25의 주제를 포함하며, 깊이 적응적 합성을 이용한 알파 블렌딩은, 각각의 픽셀 위치에 대해, 대응하는 알파 승수만큼, N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 승산하는 것을 포함하고, 각각의 알파 승수는 하나 이상의 알파 값의 함수이고, 하나 이상의 알파 값은 상기 각각의 픽셀 위치의 깊이 또는 상기 각각의 픽셀 위치의 각도 중 적어도 하나의 함수이다.Example 28 includes the subject matter of Example 25, and wherein alpha blending using depth-adaptive synthesis comprises multiplying, for each pixel location, each pixel irradiance between the N input images by a corresponding alpha multiplier, wherein each alpha multiplier is a function of one or more alpha values, and wherein the one or more alpha values are a function of at least one of a depth of the respective pixel location or an angle of the respective pixel location.

예 29는 예 28의 주제를 포함하며, 상기 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, 는 출력 이미지에 대한 상기 각각의 픽셀 위치에 대한 출력 픽셀 방사조도이고; 는 수신 주파수들 중 가장 높은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 중간 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 가장 낮은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 가장 높은 주파수의 깊이 의존적 α 값에 대응하고; 는 수신 주파수들 중 중간 주파수의 깊이 의존적 α 값에 대응한다.Example 29 includes the subject matter of Example 28, wherein for each pixel location, the output irradiance in the output image is is given by , where, is the output pixel irradiance for each pixel location in the output image; is the pixel irradiance for each pixel location in the input image corresponding to the highest frequency among the received frequencies; is the pixel irradiance for each pixel location in the input image corresponding to the intermediate frequency among the received frequencies; is the pixel irradiance for each pixel location in the input image corresponding to the lowest frequency among the received frequencies; corresponds to the depth-dependent α value of the highest frequency among the received frequencies; corresponds to the depth-dependent α value of the intermediate frequency among the received frequencies.

예 30은 예 28의 주제를 포함하며, 상기 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, r: 깊이; θ: 각도; : 깊이 r 및 이미지 각도 θ에서의 출력 픽셀 방사조도; : 수신 주파수들 중 가장 높은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도; : 수신 주파수들 중 중간 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도; : 수신 주파수들 중 가장 낮은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도; : 깊이 r 및 이미지 각도 θ에서 수신 주파수들 중 가장 높은 주파수의 알파 값; 및 : 깊이 r 및 이미지 각도 θ에서 수신 주파수들 중 중간 주파수에서의 알파 값이다.Example 30 includes the subject matter of Example 28, wherein for each pixel location, the output irradiance in the output image is is given by , where, r: depth; θ: angle; : Output pixel irradiance at depth r and image angle θ; : Pixel irradiance at depth r and image angle θ for the highest of the received frequencies; : Pixel irradiance at depth r and image angle θ for the intermediate frequency among the received frequencies; : Pixel irradiance at depth r and image angle θ for the lowest of the received frequencies; : the alpha value of the highest frequency among the received frequencies at depth r and image angle θ; and : Alpha value at the middle frequency among the received frequencies at depth r and image angle θ.

예 31은 예 25의 주제를 포함하며, 최대 및 최소 적응적 합성은, 각각의 픽셀 위치에 대해, N개의 입력 이미지 사이의 최대, 최소 및 평균 픽셀 방사조도들의 블렌딩을 이용하는 것을 포함한다.Example 31 includes the subject matter of Example 25, wherein the max and min adaptive synthesis involves using, for each pixel location, blending of the maximum, minimum and average pixel irradiances between the N input images.

예 32는 예 31의 주제를 포함하며, 상기 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, ; ; 는 깊이 보상을 이용한 알파 블렌딩 후의 픽셀 위치에서의 픽셀 방사조도에 대응하고; , , 또는 중 적어도 하나에 기반한 최대 투명도 알파 값 계수에 대응하고, 는 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제1 값을 가지며; , , 또는 중 적어도 하나에 기반한 최소 투명도 알파 값 계수에 대응하고, 은 설정된 제1 값과 상이하고 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제2 값을 갖는다.Example 32 includes the subject matter of Example 31, wherein for each pixel location, the output irradiance in the output image is is given by , where, ; ; corresponds to pixel irradiance at pixel location after alpha blending using depth compensation; Is , , or Corresponding to the maximum transparency alpha value coefficient based on at least one of has a set first value between 0 and 1 and including 0 and 1; silver , , or Corresponding to a minimum transparency alpha value coefficient based on at least one of has a set second value that is different from the set first value and is between 0 and 1 and includes 0 and 1.

예 33은 예 25의 주제를 포함하며, 예측 합성은, 제1 반사 주파수에 대응하는 제1 입력 이미지에서의 제1 영역에 대응하는 제1 전기 신호들과, 제2 반사 주파수에 대응하는 제2 입력 이미지에서의 제1 영역에 대응하는 제2 전기 신호들 사이의 관계를 결정하는 것; 및 관계에 기반하여, 제2 입력 이미지의 제2 영역에 대응하는 제3 전기 신호들을 예측하는 것을 포함한다.Example 33 includes the subject matter of Example 25, wherein the predictive synthesis comprises determining a relationship between first electrical signals corresponding to a first area in a first input image corresponding to a first reflection frequency, and second electrical signals corresponding to a first area in a second input image corresponding to a second reflection frequency; and predicting third electrical signals corresponding to the second area in the second input image based on the relationship.

예 34는 예 33의 주제를 포함하며, 제2 영역에서의 픽셀의 픽셀 방사조도는, 에 의해 주어지며, 여기서, FF1은 제1 입력 이미지에서의 제2 영역이고; FF2는 제2 입력 이미지에서의 제2 영역이고; NF1은 제1 입력 이미지에서의 제1 영역이고; NF2는 제2 입력 이미지에서의 제1 영역이고; I FF2 는 FF2에서의 픽셀 방사조도이고; I FF1 은 영역 FF1에서의 픽셀 방사조도이고; I NF2 는 영역 NF2에서의 픽셀 방사조도이고; I NF1 은 영역 NF1에서의 픽셀 방사조도이다.Example 34 includes the subject matter of Example 33, wherein the pixel irradiance of a pixel in the second region is , where, FF1 is a second region in the first input image; FF2 is a second region in the second input image; NF1 is a first region in the first input image; NF2 is a first region in the second input image; I FF2 is a pixel irradiance in FF2; I FF1 is a pixel irradiance in the region FF1; I NF2 is a pixel irradiance in the region NF2; I NF1 is a pixel irradiance in the region NF1.

예 35는 예 33의 주제를 포함하며, 제2 영역에서의 픽셀의 픽셀 방사조도는, 에 의해 주어지며, 여기서, FF1은 제1 입력 이미지에서의 제2 영역이고; FF2는 제2 입력 이미지에서의 제2 영역이고; NF2는 제2 입력 이미지에서의 제1 영역이고; I FF2 는 FF2에서의 픽셀 방사조도이고; I FF1 은 영역 FF1에서의 픽셀 방사조도이고; I NF2 는 영역 NF2에서의 픽셀 방사조도이고; PSF1은 제1 수신 주파수에 대한 포인트 확산 함수(PSF)에 대응하고; PSF2는 제2 수신 주파수에 대한 PSF에 대응하고; PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이고; PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이다.Example 35 includes the subject matter of Example 33, wherein the pixel irradiance of a pixel in a second region is , where, FF1 is a second region in the first input image; FF2 is a second region in the second input image; NF2 is a first region in the second input image; I FF2 is pixel irradiance in FF2; I FF1 is pixel irradiance in the region FF1; I NF2 is pixel irradiance in the region NF2; PSF1 corresponds to a point spread function (PSF) for the first receive frequency; PSF2 corresponds to a PSF for the second receive frequency; PSF1 inverse is an inverse of PSF1 corresponding to the deconvolution; and PSF1 inverse is an inverse of PSF1 corresponding to the deconvolution.

예 36은 예 33의 주제를 포함하며, ML 기반 합성은, 제1 영역이 근거리장 영역에 대응하는 것으로 결정하는 것; 제2 영역이 원거리장 영역에 대응하는 것으로 결정하는 것; 근거리장 영역을 복수의 서브영역들, 예를 들어 정사각형 서브영역들로 세그먼트화하는 것; 근거리장 영역에서 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 훈련 데이터 세트를 생성하는 것; 훈련 데이터 세트에 기반하여 제1 영역 내의 제1 반사 주파수에서의 픽셀 방사조도들과 제1 영역 내의 제2 반사 주파수에서의 픽셀 방사조도들 사이의 관계에 대한 ML 기반 모델을 개발하는 것; 및 모델에 기반하여 제2 영역 내의 제2 반사 주파수에서의 픽셀 방사조도들을 예측하는 것을 포함한다.Example 36 includes the subject matter of Example 33, wherein the ML-based synthesis comprises: determining that a first region corresponds to a near-field region; determining that a second region corresponds to a far-field region; segmenting the near-field region into a plurality of sub-regions, for example, square sub-regions; generating a training data set based on a plurality of first input images and a plurality of first output images in the near-field region; developing an ML-based model for a relationship between pixel irradiances at a first reflection frequency within the first region and pixel irradiances at a second reflection frequency within the first region based on the training data set; and predicting pixel irradiances at the second reflection frequency within the second region based on the model.

예 37은 예 36의 주제를 포함하며, ML 기반 합성은 입력 이미지들의 중거리장 영역에서의 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 검증 데이터 세트를 생성하는 것, 및 훈련 데이터 세트 및 검증 데이터 세트에 기반하여 ML 기반 모델을 개발하는 것을 더 포함한다.Example 37 includes the subject matter of Example 36, and further includes generating a validation data set based on a plurality of first input images and a plurality of first output images in a mid-field region of the input images, and developing an ML-based model based on the training data set and the validation data set.

예 38은 예 25의 주제를 포함하며, 컬러 도플러 합성은, 각각의 픽셀 위치에 대해, 깊이, 각도, 신호 대 잡음비, 흐름 속도 또는 전력에 관한 정보 중 적어도 하나에 기반하여 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 결합하는 것을 포함한다.Example 38 includes the subject matter of Example 25, wherein the color Doppler synthesis comprises combining, for each pixel location, individual pixel irradiances between the N input images based on at least one of information about depth, angle, signal-to-noise ratio, flow velocity or power.

예 39는 예 38의 주제를 포함하며, 출력 이미지의 R0out 및 R1out에 의해 주어지며, 여기서, : 최대 및 평균 제로 래그 자기상관들의 알파 블렌딩 값에 대응하는 제로 래그 출력; : 최대 및 평균 제1 래그 자기상관들의 알파 블렌딩 값에 대응하는 제1 래그 출력; α: 알파 블렌딩에 대한 알파 값; : 이용될 알파 블렌딩에 대응하는 자기상관의 최대 제로 래그 출력 값; : 자기상관의 최대 제1 래그 출력 값; : 이용될 알파 블렌딩에 대응하는 자기상관의 평균 제로 래그 출력 값; : 자기상관의 평균 제1 래그 출력 값; : 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제로 래그 입력 값; 및 : 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제1 래그 입력 값이다.Example 39 includes the subject of Example 38, and R0 out and R1 out of the output image are and is given by , where, : Zero-lag output corresponding to the alpha blending value of the maximum and average zero-lag autocorrelations; : First lag output corresponding to the alpha blending value of the maximum and average first lag autocorrelations; α: alpha value for alpha blending; : The maximum zero-lag output value of the autocorrelation corresponding to the alpha blending to be used; : Maximum first lag output value of autocorrelation; : The average zero-lag output value of the autocorrelation corresponding to the alpha blending to be used; : Average first lag output value of autocorrelation; : a zero-lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used; and : The first lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used.

예 40은 예 21 내지 예 24 중 어느 하나의 주제를 포함하며, 각각의 반사 주파수들은 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하고, 전송된 초음파 파형의 기본 주파수가 1.75 MHz의 단일 주파수인 것; 또는 전송된 초음파 파형의 각각의 기본 주파수들이 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하는 것 중 하나이다.Example 40 includes the subject matter of any one of Examples 21 to 24, wherein each of the reflected frequencies comprises 1.75 MHz, 3.5 MHz and 5.0 MHz, and wherein the fundamental frequency of the transmitted ultrasonic waveform is a single frequency of 1.75 MHz; or wherein each of the fundamental frequencies of the transmitted ultrasonic waveform comprises 1.75 MHz, 3.5 MHz and 5.0 MHz.

예 41은 메모리, 및 메모리에 결합된 하나 이상의 프로세서를 포함하는 컴퓨팅 디바이스에서 수행되는 방법을 포함하며, 이 방법은, 전송된 초음파 파형의 결과로서 타겟 대상으로부터 반사된 반사 초음파 파형의 각각의 반사 주파수들에 기반한 전기 신호들을 동시에 수신하는 단계; 전기 신호들로부터의 정보를 합성하여 합성된 전기 신호들을 생성하는 단계; 및 합성된 전기 신호들에 기반하여 디스플레이 디바이스 상에 출력 이미지를 생성하게 하는 단계를 포함한다.Example 41 includes a method performed on a computing device including a memory and one or more processors coupled to the memory, the method comprising: simultaneously receiving electrical signals based on respective reflection frequencies of reflected ultrasonic waveforms reflected from a target object as a result of a transmitted ultrasonic waveform; generating synthesized electrical signals by synthesizing information from the electrical signals; and generating an output image on a display device based on the synthesized electrical signals.

예 42는 예 41의 주제를 포함하며, 각각의 반사 주파수들은 전송된 초음파 파형의 기본 주파수의 각각의 고조파들에 대응하고, 기본 주파수는 전송된 초음파 파형의 단일 주파수이다.Example 42 includes the subject matter of Example 41, wherein each of the reflection frequencies corresponds to a respective harmonic of the fundamental frequency of the transmitted ultrasonic waveform, the fundamental frequency being a single frequency of the transmitted ultrasonic waveform.

예 43은 예 41의 주제를 포함하며, 전송된 초음파 파형은 반사 초음파 파형의 각각의 주파수들에 대응하는 기본 주파수들을 갖는 다중 모드 파형이다.Example 43 includes the subject matter of Example 41, wherein the transmitted ultrasonic waveform is a multimode waveform having fundamental frequencies corresponding to respective frequencies of the reflected ultrasonic waveform.

예 44는 예 41의 주제를 포함하며, 정보를 합성하는 것은, 전기 신호들에 대해 예측 알고리즘을 구현하는 것 - 하나 이상의 프로세서는 타겟 대상의 제1 이미지 영역에 대응하는 제1 전기 신호들로부터의 정보를 이용하여 제1 이미지 영역과 상이한 타겟 대상의 제2 이미지 영역에 대한 예측 전기 신호들을 생성함 -; 및 제2 이미지 영역에서의 출력 이미지가 예측 전기 신호들에 대응하도록, 예측 전기 신호들을 이용하여 합성된 전기 신호들을 획득하는 것을 포함한다.Example 44 includes the subject matter of Example 41, wherein synthesizing information comprises implementing a prediction algorithm on the electrical signals, wherein the one or more processors generate prediction electrical signals for a second image area of the target object, the second image area being different from the first image area, using information from the first electrical signals corresponding to the first image area of the target object; and obtaining electrical signals synthesized using the prediction electrical signals such that an output image in the second image area corresponds to the prediction electrical signals.

예 45는 예 41의 주제를 포함하며, 반사 주파수들은 N개의 반사 주파수를 포함하고; 전기 신호들은 N개의 전기 신호 세트를 포함하고, 각각의 전기 신호 세트는 반사 주파수들 중 하나에 대응하고, N개의 전기 신호 세트는 타겟 대상의 N개의 입력 이미지에 대응하고; 개별 입력 이미지들은 각각의 픽셀 위치들에서의 픽셀들을 포함하고, N개의 입력 이미지의 각각의 픽셀 위치는 깊이 및 각도에 의해 정의되고; 정보를 합성하는 것은 N개의 전기 신호 세트로부터의 정보를 합성하는 것을 포함하고; 이 방법은 단순 평균화, 가중 평균화, 깊이 적응적 합성을 이용한 알파 블렌딩, 최대 및 최소 적응적 합성, 예측 합성, 측방향 주파수 합성 및 컬러 도플러 합성 중 적어도 하나를 이용하여 N개의 전기 신호 세트로부터의 정보를 합성하는 단계를 더 포함한다.Example 45 includes the subject matter of Example 41, wherein the reflection frequencies include N reflection frequencies; the electrical signals include N sets of electrical signals, each set of electrical signals corresponding to one of the reflection frequencies, the N sets of electrical signals corresponding to N input images of a target object; the individual input images include pixels at respective pixel locations, each pixel location of the N input images being defined by a depth and an angle; and synthesizing information includes synthesizing information from the N sets of electrical signals; the method further includes synthesizing information from the N sets of electrical signals using at least one of simple averaging, weighted averaging, alpha blending using depth-adaptive synthesis, max and min adaptive synthesis, predictive synthesis, lateral frequency synthesis and color Doppler synthesis.

예 46은 예 45의 주제를 포함하며, 합성 이전에 전기 신호들이 이득 보상 또는 동적 범위 보상을 받게 하는 단계를 더 포함한다.Example 46 includes the subject matter of Example 45, and further comprises the step of subjecting the electrical signals to gain compensation or dynamic range compensation prior to synthesis.

예 47은 예 45의 주제를 포함하며, 단순 평균화는, 각각의 픽셀 위치에 대해, N개의 입력 이미지에 걸쳐 각각의 픽셀 방사조도들의 단순 평균화 또는 가중 평균화 중 하나를 수행하는 것을 포함한다.Example 47 includes the subject matter of Example 45, wherein the simple averaging comprises performing, for each pixel location, either a simple averaging or a weighted averaging of the respective pixel irradiances across the N input images.

예 48은 예 45의 주제를 포함하며, 깊이 적응적 합성을 이용한 알파 블렌딩은, 각각의 픽셀 위치에 대해, 대응하는 알파 승수만큼, N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 승산하는 것을 포함하고, 각각의 알파 승수는 하나 이상의 알파 값의 함수이고, 하나 이상의 알파 값은 상기 각각의 픽셀 위치의 깊이 또는 상기 각각의 픽셀 위치의 각도 중 적어도 하나의 함수이다.Example 48 includes the subject matter of Example 45, wherein alpha blending using depth-adaptive synthesis comprises multiplying, for each pixel location, each of the pixel irradiances between the N input images by a corresponding alpha multiplier, wherein each alpha multiplier is a function of one or more alpha values, and wherein the one or more alpha values are a function of at least one of a depth of the respective pixel location or an angle of the respective pixel location.

예 49는 예 48의 주제를 포함하며, 상기 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, 는 출력 이미지에 대한 상기 각각의 픽셀 위치에 대한 출력 픽셀 방사조도이고; 는 수신 주파수들 중 가장 높은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 중간 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 가장 낮은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고; 는 수신 주파수들 중 가장 높은 주파수의 깊이 의존적 α 값에 대응하고; 는 수신 주파수들 중 중간 주파수의 깊이 의존적 α 값에 대응한다.Example 49 includes the subject matter of Example 48, wherein for each pixel location, the output irradiance in the output image is is given by , where, is the output pixel irradiance for each pixel location in the output image; is the pixel irradiance for each pixel location in the input image corresponding to the highest frequency among the received frequencies; is the pixel irradiance for each pixel location in the input image corresponding to the intermediate frequency among the received frequencies; is the pixel irradiance for each pixel location in the input image corresponding to the lowest frequency among the received frequencies; corresponds to the depth-dependent α value of the highest frequency among the received frequencies; corresponds to the depth-dependent α value of the intermediate frequency among the received frequencies.

예 50은 예 48의 주제를 포함하며, 상기 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, r은 깊이를 나타내고; θ는 각도를 나타내고; 는 깊이 r 및 이미지 각도 θ에서의 출력 픽셀 방사조도이고; 는 수신 주파수들 중 가장 높은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이고; 는 수신 주파수들 중 중간 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이고; 는 수신 주파수들 중 가장 낮은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이고; 는 깊이 r 및 이미지 각도 θ에서 수신 주파수들 중 가장 높은 주파수의 알파 값에 대응하고; 는 깊이 r 및 이미지 각도 θ에서 수신 주파수들 중 중간 주파수에서의 알파 값에 대응한다.Example 50 includes the subject matter of Example 48, wherein for each pixel location, the output irradiance in the output image is is given by , where r represents depth; θ represents angle; is the output pixel irradiance at depth r and image angle θ; is the pixel irradiance at depth r and image angle θ for the highest of the received frequencies; is the pixel irradiance at depth r and image angle θ for the intermediate frequency among the received frequencies; is the pixel irradiance at depth r and image angle θ for the lowest of the received frequencies; corresponds to the alpha value of the highest frequency among the received frequencies at depth r and image angle θ; corresponds to the alpha value at the middle frequency among the received frequencies at depth r and image angle θ.

예 51은 예 45의 주제를 포함하며, 최대 및 최소 적응적 합성은, 각각의 픽셀 위치에 대해, N개의 입력 이미지 사이의 최대, 최소 및 평균 픽셀 방사조도들의 블렌딩을 이용하는 것을 포함한다.Example 51 includes the subject matter of Example 45, wherein the max and min adaptive synthesis involves using, for each pixel location, blending of the maximum, minimum and average pixel irradiances among the N input images.

예 52는 예 51의 주제를 포함하며, 상기 각각의 픽셀 위치에 대해, 출력 이미지에서의 출력 방사조도는, 에 의해 주어지며, 여기서, ; ; 는 깊이 보상을 이용한 알파 블렌딩 후의 픽셀 위치에서의 픽셀 방사조도에 대응하고; , , 또는 중 적어도 하나에 기반한 최대 투명도 알파 값 계수에 대응하고, 는 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제1 값을 가지며; , , 또는 중 적어도 하나에 기반한 최소 투명도 알파 값 계수에 대응하고, 은 설정된 제1 값과 상이하고 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제2 값을 갖는다.Example 52 includes the subject matter of Example 51, wherein for each pixel location, the output irradiance in the output image is is given by , where, ; ; corresponds to pixel irradiance at pixel location after alpha blending using depth compensation; Is , , or Corresponding to the maximum transparency alpha value coefficient based on at least one of has a set first value between 0 and 1 and including 0 and 1; silver , , or Corresponding to a minimum transparency alpha value coefficient based on at least one of has a set second value that is different from the set first value and is between 0 and 1 and includes 0 and 1.

예 53은 예 45의 주제를 포함하며, 예측 합성은, 제1 반사 주파수에 대응하는 제1 입력 이미지에서의 제1 영역에 대응하는 제1 전기 신호들과, 제2 반사 주파수에 대응하는 제2 입력 이미지에서의 제1 영역에 대응하는 제2 전기 신호들 사이의 관계를 결정하는 것; 및 관계에 기반하여, 제2 입력 이미지의 제2 영역에 대응하는 제3 전기 신호들을 예측하는 것을 포함한다.Example 53 includes the subject matter of Example 45, wherein the predictive synthesis comprises determining a relationship between first electrical signals corresponding to a first area in a first input image corresponding to a first reflection frequency, and second electrical signals corresponding to a first area in a second input image corresponding to a second reflection frequency; and predicting third electrical signals corresponding to the second area in the second input image based on the relationship.

예 54는 예 43의 주제를 포함하며, 제2 영역에서의 픽셀의 픽셀 방사조도는, 에 의해 주어지며, 여기서, FF1은 제1 입력 이미지에서의 제2 영역이고; FF2는 제2 입력 이미지에서의 제2 영역이고; NF1은 제1 입력 이미지에서의 제1 영역이고; NF2는 제2 입력 이미지에서의 제1 영역이고; I FF2 는 FF2에서의 픽셀 방사조도이고; I FF1 은 영역 FF1에서의 픽셀 방사조도이고; I NF2 는 영역 NF2에서의 픽셀 방사조도이고; I NF1 은 영역 NF1에서의 픽셀 방사조도이다.Example 54 includes the subject matter of Example 43, wherein the pixel irradiance of a pixel in the second region is , where, FF1 is a second region in the first input image; FF2 is a second region in the second input image; NF1 is a first region in the first input image; NF2 is a first region in the second input image; I FF2 is a pixel irradiance in FF2; I FF1 is a pixel irradiance in the region FF1; I NF2 is a pixel irradiance in the region NF2; I NF1 is a pixel irradiance in the region NF1.

예 55는 예 53의 주제를 포함하며, 제2 영역에서의 픽셀의 픽셀 방사조도는, 에 의해 주어지며, 여기서, FF1은 제1 입력 이미지에서의 제2 영역이고; FF2는 제2 입력 이미지에서의 제2 영역이고; NF2는 제2 입력 이미지에서의 제1 영역이고; I FF2 는 FF2에서의 픽셀 방사조도이고; I FF1 은 영역 FF1에서의 픽셀 방사조도이고; I NF2 는 영역 NF2에서의 픽셀 방사조도이고; PSF1은 제1 수신 주파수에 대한 포인트 확산 함수(PSF)에 대응하고; PSF2는 제2 수신 주파수에 대한 PSF에 대응하고; PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이고; PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이다.Example 55 includes the subject matter of Example 53, wherein the pixel irradiance of a pixel in a second region is , where, FF1 is a second region in the first input image; FF2 is a second region in the second input image; NF2 is a first region in the second input image; I FF2 is pixel irradiance in FF2; I FF1 is pixel irradiance in the region FF1; I NF2 is pixel irradiance in the region NF2; PSF1 corresponds to a point spread function (PSF) for the first receive frequency; PSF2 corresponds to a PSF for the second receive frequency; PSF1 inverse is an inverse of PSF1 corresponding to the deconvolution; and PSF1 inverse is an inverse of PSF1 corresponding to the deconvolution.

예 56은 예 53의 주제를 포함하며, ML 기반 합성은, 제1 영역이 근거리장 영역에 대응하는 것으로 결정하는 것; 제2 영역이 원거리장 영역에 대응하는 것으로 결정하는 것; 근거리장 영역을 복수의 서브영역들, 예를 들어 정사각형 서브영역들로 세그먼트화하는 것; 근거리장 영역에서 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 훈련 데이터 세트를 생성하는 것; 훈련 데이터 세트에 기반하여 제1 영역 내의 제1 반사 주파수에서의 픽셀 방사조도들과 제1 영역 내의 제2 반사 주파수에서의 픽셀 방사조도들 사이의 관계에 대한 ML 기반 모델을 개발하는 것; 및 모델에 기반하여 제2 영역 내의 제2 반사 주파수에서의 픽셀 방사조도들을 예측하는 것을 포함한다.Example 56 includes the subject matter of Example 53, wherein the ML-based synthesis comprises: determining that a first region corresponds to a near-field region; determining that a second region corresponds to a far-field region; segmenting the near-field region into a plurality of sub-regions, for example, square sub-regions; generating a training data set based on a plurality of first input images and a plurality of first output images in the near-field region; developing an ML-based model for a relationship between pixel irradiances at a first reflection frequency within the first region and pixel irradiances at a second reflection frequency within the first region based on the training data set; and predicting pixel irradiances at the second reflection frequency within the second region based on the model.

예 57은 예 56의 주제를 포함하며, ML 기반 합성은 입력 이미지들의 중거리장 영역에서의 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 검증 데이터 세트를 생성하는 것, 및 훈련 데이터 세트 및 검증 데이터 세트에 기반하여 ML 기반 모델을 개발하는 것을 더 포함한다.Example 57 includes the subject matter of Example 56, and further comprises generating a validation data set based on a plurality of first input images and a plurality of first output images in a mid-field region of the input images, and developing an ML-based model based on the training data set and the validation data set.

예 58은 예 45의 주제를 포함하며, 컬러 도플러 합성은, 각각의 픽셀 위치에 대해, 깊이, 각도, 신호 대 잡음비, 흐름 속도 또는 전력에 관한 정보 중 적어도 하나에 기반하여 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 결합하는 것을 포함한다.Example 58 includes the subject matter of Example 45, wherein the color Doppler synthesis comprises combining, for each pixel location, individual pixel irradiances between the N input images based on at least one of information about depth, angle, signal-to-noise ratio, flow velocity or power.

예 59는 예 58의 주제를 포함하며, 출력 이미지의 R0out 및 R1out에 의해 주어지며, 여기서, : 최대 및 평균 제로 래그 자기상관들의 알파 블렌딩 값에 대응하는 제로 래그 출력; : 최대 및 평균 제1 래그 자기상관들의 알파 블렌딩 값에 대응하는 제1 래그 출력; α: 알파 블렌딩에 대한 알파 값; : 이용될 알파 블렌딩에 대응하는 자기상관의 최대 제로 래그 출력 값; : 자기상관의 최대 제1 래그 출력 값; : 이용될 알파 블렌딩에 대응하는 자기상관의 평균 제로 래그 출력 값; : 자기상관의 평균 제1 래그 출력 값; : 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제로 래그 입력 값; 및 : 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제1 래그 입력 값이다.Example 59 includes the subject of Example 58, and R0 out and R1 out of the output image are and is given by , where, : Zero-lag output corresponding to the alpha blending value of the maximum and average zero-lag autocorrelations; : First lag output corresponding to the alpha blending value of the maximum and average first lag autocorrelations; α: alpha value for alpha blending; : The maximum zero-lag output value of the autocorrelation corresponding to the alpha blending to be used; : Maximum first lag output value of autocorrelation; : The average zero-lag output value of the autocorrelation corresponding to the alpha blending to be used; : Average first lag output value of autocorrelation; : a zero-lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used; and : The first lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used.

예 60은 예 41의 주제를 포함하며, 각각의 반사 주파수들은 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하고, 전송된 초음파 파형의 기본 주파수가 1.75 MHz의 단일 주파수인 것; 또는 전송된 초음파 파형의 각각의 기본 주파수들이 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하는 것 중 하나이다.Example 60 includes the subject matter of Example 41, wherein each of the reflected frequencies comprises 1.75 MHz, 3.5 MHz and 5.0 MHz, and wherein the fundamental frequency of the transmitted ultrasonic waveform is a single frequency of 1.75 MHz; or wherein each of the fundamental frequencies of the transmitted ultrasonic waveform comprises 1.75 MHz, 3.5 MHz and 5.0 MHz.

예 61은 제41항 내지 제60항 중 어느 한 항의 방법을 수행하기 위한 수단을 포함하는 장치를 포함한다.Example 61 includes a device comprising means for performing the method of any one of claims 41 to 60.

예 62는, 실행될 때, 하나 이상의 프로세서로 하여금 제41항 내지 제60항 중 어느 한 항의 방법을 수행하게 하는 저장된 복수의 명령어를 포함하는 하나 이상의 컴퓨터 판독가능한 매체를 포함한다.Example 62 includes one or more computer-readable media having stored thereon a plurality of instructions that, when executed, cause one or more processors to perform a method of any one of claims 41 to 60.

예 63은 제1항 내지 제20항 중 어느 한 항의 장치를 포함하고, 사용자 인터페이스 디바이스를 더 포함하는 이미징 디바이스를 포함한다.Example 63 includes an imaging device comprising any one of the devices of claims 1 to 20, and further comprising a user interface device.

예 64는, 적어도 하나의 컴퓨터 프로세서에 의해 실행될 때, 적어도 하나의 프로세서로 하여금 예 21 내지 예 40 중 어느 하나의 방법을 수행할 수 있게 하도록 동작가능한 컴퓨터 실행가능한 명령어들을 포함하는 하나 이상의 유형의 컴퓨터 판독가능한 비일시적 저장 매체를 포함하는 제품을 포함한다.Example 64 includes an article comprising one or more tangible computer-readable non-transitory storage media comprising computer-executable instructions that, when executed by at least one computer processor, cause the at least one processor to perform any of the methods of Examples 21 to 40.

Claims (62)

컴퓨팅 디바이스의 장치로서,
메모리, 및 상기 메모리에 결합된 하나 이상의 프로세서를 포함하며, 상기 하나 이상의 프로세서는,
전송된 초음파 파형의 결과로서 타겟 대상으로부터 반사된 반사 초음파 파형의 각각의 반사 주파수들에 기반한 전기 신호들을 동시에 수신하고;
상기 전기 신호들로부터의 정보를 합성(compound)하여 합성된 전기 신호들을 생성하고;
상기 합성된 전기 신호들에 기반하여 디스플레이 상에 출력 이미지를 생성하게 하는, 장치.
As a device of a computing device,
A memory, and one or more processors coupled to the memory, wherein the one or more processors are:
Simultaneously receiving electrical signals based on respective reflection frequencies of reflected ultrasonic waves reflected from a target object as a result of the transmitted ultrasonic waves;
Generating synthesized electrical signals by compounding information from the above electrical signals;
A device that generates an output image on a display based on the synthesized electrical signals.
제1항에 있어서,
상기 각각의 반사 주파수들은 상기 전송된 초음파 파형의 기본 주파수의 각각의 고조파들에 대응하고, 상기 기본 주파수는 상기 전송된 초음파 파형의 단일 주파수인, 장치.
In the first paragraph,
A device wherein each of the above reflected frequencies corresponds to respective harmonics of the fundamental frequency of the transmitted ultrasonic waveform, wherein the fundamental frequency is a single frequency of the transmitted ultrasonic waveform.
제1항에 있어서,
상기 전송된 초음파 파형은 상기 반사 초음파 파형의 상기 각각의 주파수들에 대응하는 기본 주파수들을 갖는 다중 모드 파형인, 장치.
In the first paragraph,
A device wherein the transmitted ultrasonic waveform is a multi-mode waveform having fundamental frequencies corresponding to the respective frequencies of the reflected ultrasonic waveform.
제1항에 있어서,
상기 하나 이상의 프로세서는,
상기 전기 신호들에 대해 예측 알고리즘을 구현하는 것 - 상기 하나 이상의 프로세서는 상기 타겟 대상의 제1 이미지 영역에 대응하는 제1 전기 신호들로부터의 정보를 이용하여 상기 제1 이미지 영역과 상이한 상기 타겟 대상의 제2 이미지 영역에 대한 예측 전기 신호들을 생성함 -; 및
상기 제2 이미지 영역에서의 상기 출력 이미지가 상기 예측 전기 신호들에 대응하도록, 상기 예측 전기 신호들을 이용하여 상기 합성된 전기 신호들을 획득하는 것
에 의해 상기 정보를 합성하는, 장치.
In the first paragraph,
One or more of the above processors,
Implementing a prediction algorithm for said electrical signals, wherein said one or more processors generate prediction electrical signals for a second image area of said target object, said second image area being different from said first image area, using information from said first electrical signals corresponding to said first image area of said target object; and
Obtaining the synthesized electric signals using the predicted electric signals so that the output image in the second image area corresponds to the predicted electric signals.
A device for synthesizing said information.
제1항 내지 제4항 중 어느 한 항에 있어서,
상기 반사 주파수들은 N개의 반사 주파수를 포함하고;
상기 전기 신호들은 N개의 전기 신호 세트를 포함하고, 각각의 전기 신호 세트는 상기 반사 주파수들 중 하나에 대응하고, 상기 N개의 전기 신호 세트는 상기 타겟 대상의 N개의 입력 이미지에 대응하고;
개별 입력 이미지들은 각각의 픽셀 위치들에서의 픽셀들을 포함하고, 상기 N개의 입력 이미지의 각각의 픽셀 위치는 깊이 및 각도에 의해 정의되고;
정보를 합성하는 것은 상기 N개의 전기 신호 세트로부터의 정보를 합성하는 것을 포함하고;
상기 하나 이상의 프로세서는 단순 평균화, 가중 평균화, 깊이 적응적 합성을 이용한 알파 블렌딩, 최대 및 최소 적응적 합성, 예측 합성, 측방향 주파수 합성 및 컬러 도플러 합성 중 적어도 하나를 이용하여 상기 N개의 전기 신호 세트로부터의 상기 정보를 합성하는, 장치.
In any one of claims 1 to 4,
The above reflection frequencies include N reflection frequencies;
The above electrical signals include N sets of electrical signals, each set of electrical signals corresponding to one of the reflection frequencies, and the N sets of electrical signals corresponding to N input images of the target object;
The individual input images contain pixels at respective pixel locations, and each pixel location of the N input images is defined by depth and angle;
Synthesizing information comprises synthesizing information from said N sets of electrical signals;
A device wherein said one or more processors synthesize said information from said sets of N electrical signals using at least one of simple averaging, weighted averaging, alpha blending using depth adaptive synthesis, max and min adaptive synthesis, predictive synthesis, lateral frequency synthesis and color Doppler synthesis.
제5항에 있어서,
상기 하나 이상의 프로세서는 추가로, 합성 이전에 상기 전기 신호들이 이득 보상 또는 동적 범위 보상을 받게 하는, 장치.
In paragraph 5,
The device further comprises one or more processors, wherein the electrical signals are subjected to gain compensation or dynamic range compensation prior to synthesis.
제5항에 있어서,
단순 평균화는, 각각의 픽셀 위치에 대해, 상기 N개의 입력 이미지에 걸쳐 각각의 픽셀 방사조도들(pixel irradiances)의 단순 평균화 또는 가중 평균화 중 하나를 수행하는 것을 포함하는, 장치.
In paragraph 5,
A device wherein simple averaging comprises performing, for each pixel location, either a simple averaging or a weighted averaging of the pixel irradiances across the N input images.
제5항에 있어서,
깊이 적응적 합성을 이용한 알파 블렌딩은, 각각의 픽셀 위치에 대해, 대응하는 알파 승수(alpha multiplier)만큼, 상기 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 승산하는 것을 포함하고, 각각의 알파 승수는 하나 이상의 알파 값의 함수이고, 상기 하나 이상의 알파 값은 상기 각각의 픽셀 위치의 깊이 또는 상기 각각의 픽셀 위치의 각도 중 적어도 하나의 함수인, 장치.
In paragraph 5,
A device wherein alpha blending using depth-adaptive synthesis comprises multiplying, for each pixel location, each pixel irradiance between the N input images by a corresponding alpha multiplier, wherein each alpha multiplier is a function of one or more alpha values, the one or more alpha values being a function of at least one of a depth of the respective pixel location or an angle of the respective pixel location.
제8항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
는 상기 출력 이미지에 대한 상기 각각의 픽셀 위치에 대한 출력 픽셀 방사조도이고;
는 수신 주파수들 중 가장 높은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 중간 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 가장 낮은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 가장 높은 주파수의 깊이 의존적 α 값에 대응하고;
는 상기 수신 주파수들 중 중간 주파수의 깊이 의존적 α 값에 대응하는, 장치.
In Article 8,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
is the output pixel irradiance for each pixel location for the output image;
is the pixel irradiance for each pixel location in the input image corresponding to the highest frequency among the received frequencies;
is the pixel irradiance for each pixel location in the input image corresponding to the intermediate frequency among the above receiving frequencies;
is the pixel irradiance for each pixel location in the input image corresponding to the lowest frequency among the above receiving frequencies;
corresponds to the depth-dependent α value of the highest frequency among the above receiving frequencies;
A device corresponding to a depth-dependent α value of an intermediate frequency among the above receiving frequencies.
제8항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
r: 깊이;
θ: 각도;
: 깊이 r 및 이미지 각도 θ에서의 출력 픽셀 방사조도;
: 수신 주파수들 중 가장 높은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도;
: 상기 수신 주파수들 중 중간 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도;
: 상기 수신 주파수들 중 가장 낮은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도;
는 깊이 r 및 이미지 각도 θ에서 상기 수신 주파수들 중 가장 높은 주파수의 알파 값에 대응하고;
는 깊이 r 및 이미지 각도 θ에서 상기 수신 주파수들 중 중간 주파수에서의 알파 값에 대응하는, 장치.
In Article 8,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
r: depth;
θ: angle;
: Output pixel irradiance at depth r and image angle θ;
: Pixel irradiance at depth r and image angle θ for the highest of the received frequencies;
: Pixel irradiance at depth r and image angle θ for the intermediate frequency among the above receiving frequencies;
: Pixel irradiance at depth r and image angle θ for the lowest of the above receiving frequencies;
corresponds to the alpha value of the highest frequency among the received frequencies at depth r and image angle θ;
A device corresponding to an alpha value at an intermediate frequency among the reception frequencies at depth r and image angle θ.
제5항에 있어서,
최대 및 최소 적응적 합성은, 각각의 픽셀 위치에 대해, 상기 N개의 입력 이미지 사이의 최대, 최소 및 평균 픽셀 방사조도들의 블렌딩을 이용하는 것을 포함하는, 장치.
In paragraph 5,
A device wherein the maximum and minimum adaptive synthesis comprises blending, for each pixel location, of the maximum, minimum and average pixel irradiances among the N input images.
제11항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
;
;
는 깊이 보상을 이용한 알파 블렌딩 후의 픽셀 위치에서의 픽셀 방사조도에 대응하고;
, , 또는 중 적어도 하나에 기반한 최대 투명도 알파 값 계수에 대응하고, 는 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제1 값을 가지며;
, , 또는 중 적어도 하나에 기반한 최소 투명도 알파 값 계수에 대응하고, 은 상기 설정된 제1 값과 상이하고 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제2 값을 갖는, 장치.
In Article 11,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
;
;
corresponds to pixel irradiance at pixel location after alpha blending using depth compensation;
Is , , or Corresponding to the maximum transparency alpha value coefficient based on at least one of has a set first value between 0 and 1 and including 0 and 1;
silver , , or Corresponding to a minimum transparency alpha value coefficient based on at least one of A device having a set second value which is different from the set first value and is between 0 and 1 and including 0 and 1.
제5항에 있어서,
예측 합성은,
제1 반사 주파수에 대응하는 제1 입력 이미지에서의 제1 영역에 대응하는 제1 전기 신호들과, 제2 반사 주파수에 대응하는 제2 입력 이미지에서의 상기 제1 영역에 대응하는 제2 전기 신호들 사이의 관계를 결정하는 것; 및
상기 관계에 기반하여, 상기 제2 입력 이미지의 제2 영역에 대응하는 제3 전기 신호들을 예측하는 것
을 포함하는, 장치.
In paragraph 5,
Predictive synthesis is,
Determining a relationship between first electrical signals corresponding to a first region in a first input image corresponding to a first reflection frequency and second electrical signals corresponding to the first region in a second input image corresponding to a second reflection frequency; and
Based on the above relationship, predicting third electrical signals corresponding to the second region of the second input image.
A device comprising:
제13항에 있어서,
상기 제2 영역에서의 픽셀의 픽셀 방사조도는,
에 의해 주어지며, 여기서,
FF1은 상기 제1 입력 이미지에서의 상기 제2 영역이고;
FF2는 상기 제2 입력 이미지에서의 상기 제2 영역이고;
NF1은 상기 제1 입력 이미지에서의 상기 제1 영역이고;
NF2는 상기 제2 입력 이미지에서의 상기 제1 영역이고;
I FF2 는 FF2에서의 픽셀 방사조도이고;
I FF1 은 영역 FF1에서의 픽셀 방사조도이고;
I NF2 는 영역 NF2에서의 픽셀 방사조도이고;
I NF1 은 영역 NF1에서의 픽셀 방사조도인, 장치.
In Article 13,
The pixel irradiance of the pixel in the above second region is,
is given by , where,
FF1 is the second region in the first input image;
FF2 is the second region in the second input image;
NF1 is the first region in the first input image;
NF2 is the first region in the second input image;
I FF2 is the pixel irradiance at FF2;
I FF1 is the pixel irradiance in area FF1;
I NF2 is the pixel irradiance in area NF2;
I NF1 is the pixel irradiance in area NF1, device.
제13항에 있어서,
상기 제2 영역에서의 픽셀의 픽셀 방사조도는,
에 의해 주어지며, 여기서,
FF1은 상기 제1 입력 이미지에서의 상기 제2 영역이고;
FF2는 상기 제2 입력 이미지에서의 상기 제2 영역이고;
NF2는 상기 제2 입력 이미지에서의 상기 제1 영역이고;
I FF2 는 FF2에서의 픽셀 방사조도이고;
I FF1 은 영역 FF1에서의 픽셀 방사조도이고;
I NF2 는 영역 NF2에서의 픽셀 방사조도이고;
PSF1은 제1 수신 주파수에 대한 포인트 확산 함수(PSF)에 대응하고;
PSF2는 제2 수신 주파수에 대한 PSF에 대응하고;
PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이고;
PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역인, 장치.
In Article 13,
The pixel irradiance of the pixel in the above second region is,
is given by , where,
FF1 is the second region in the first input image;
FF2 is the second region in the second input image;
NF2 is the first region in the second input image;
I FF2 is the pixel irradiance at FF2;
I FF1 is the pixel irradiance in area FF1;
I NF2 is the pixel irradiance in area NF2;
PSF1 corresponds to the point spread function (PSF) for the first receiving frequency;
PSF2 corresponds to the PSF for the second receiving frequency;
PSF1 inverse is the inverse of PSF1 corresponding to deconvolution;
PSF1 inverse is the device that is the inverse of PSF1 corresponding to deconvolution.
제13항에 있어서,
ML 기반 합성은,
상기 제1 영역이 근거리장 영역에 대응하는 것으로 결정하는 것;
상기 제2 영역이 원거리장 영역에 대응하는 것으로 결정하는 것;
상기 근거리장 영역을 복수의 서브영역들, 예를 들어 정사각형 서브영역들로 세그먼트화하는 것;
상기 근거리장 영역에서 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 훈련 데이터 세트를 생성하는 것;
상기 훈련 데이터 세트에 기반하여 상기 제1 영역 내의 상기 제1 반사 주파수에서의 픽셀 방사조도들과 상기 제1 영역 내의 상기 제2 반사 주파수에서의 픽셀 방사조도들 사이의 관계에 대한 ML 기반 모델을 개발하는 것; 및
상기 모델에 기반하여 상기 제2 영역 내의 상기 제2 반사 주파수에서의 픽셀 방사조도들을 예측하는 것
을 포함하는, 장치.
In Article 13,
ML-based synthesis is,
Determining that the above first region corresponds to the near-field region;
Determining that the above second region corresponds to a long-range region;
Segmenting the above near-field region into a plurality of sub-regions, for example, square sub-regions;
Generating a training data set based on a plurality of first input images and a plurality of first output images in the near-field region;
Developing an ML-based model for the relationship between pixel irradiances at the first reflection frequency within the first region and pixel irradiances at the second reflection frequency within the first region based on the training data set; and
Predicting pixel irradiances at the second reflection frequency within the second region based on the above model.
A device comprising:
제16항에 있어서,
ML 기반 합성은 상기 입력 이미지들의 중거리장 영역에서의 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 검증 데이터 세트를 생성하는 것, 및 상기 훈련 데이터 세트 및 상기 검증 데이터 세트에 기반하여 상기 ML 기반 모델을 개발하는 것을 더 포함하는, 장치.
In Article 16,
A device wherein the ML-based synthesis further comprises generating a validation data set based on a plurality of first input images and a plurality of first output images in a mid-range region of the input images, and developing the ML-based model based on the training data set and the validation data set.
제5항에 있어서,
컬러 도플러 합성은, 각각의 픽셀 위치에 대해, 깊이, 각도, 신호 대 잡음비, 흐름 속도 또는 전력에 관한 정보 중 적어도 하나에 기반하여 상기 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 결합하는 것을 포함하는, 장치.
In paragraph 5,
A device wherein color Doppler synthesis comprises combining, for each pixel location, the respective pixel irradiances between said N input images based on at least one of information about depth, angle, signal-to-noise ratio, flow velocity or power.
제18항에 있어서,
상기 출력 이미지의 R0out 및 R1out에 의해 주어지며, 여기서,
: 최대 및 평균 제로 래그 자기상관들의 알파 블렌딩 값에 대응하는 제로 래그 출력;
: 최대 및 평균 제1 래그 자기상관들의 알파 블렌딩 값에 대응하는 제1 래그 출력;
α: 알파 블렌딩에 대한 알파 값;
: 이용될 알파 블렌딩에 대응하는 자기상관의 최대 제로 래그 출력 값;
: 자기상관의 최대 제1 래그 출력 값;
: 이용될 알파 블렌딩에 대응하는 자기상관의 평균 제로 래그 출력 값;
: 자기상관의 평균 제1 래그 출력 값;
: 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제로 래그 입력 값; 및
: 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제1 래그 입력 값인, 장치.
In Article 18,
R0 out and R1 out of the above output image are and is given by , where,
: Zero-lag output corresponding to the alpha blending value of the maximum and average zero-lag autocorrelations;
: First lag output corresponding to the alpha blending value of the maximum and average first lag autocorrelations;
α: Alpha value for alpha blending;
: The maximum zero-lag output value of the autocorrelation corresponding to the alpha blending to be used;
: Maximum first lag output value of autocorrelation;
: The average zero-lag output value of the autocorrelation corresponding to the alpha blending to be used;
: Average first lag output value of autocorrelation;
: a zero-lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used; and
: A device, wherein the first lag input value corresponds to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used.
제1항 내지 제4항 중 어느 한 항에 있어서,
상기 각각의 반사 주파수들은 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하고,
상기 전송된 초음파 파형의 기본 주파수가 1.75 MHz의 단일 주파수인 것; 또는
상기 전송된 초음파 파형의 각각의 기본 주파수들이 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하는 것 중 하나인, 장치.
In any one of claims 1 to 4,
The above respective reflection frequencies include 1.75 MHz, 3.5 MHz and 5.0 MHz,
The fundamental frequency of the transmitted ultrasonic wave is a single frequency of 1.75 MHz; or
A device, wherein each of the fundamental frequencies of the transmitted ultrasonic waveforms is one of 1.75 MHz, 3.5 MHz and 5.0 MHz.
시스템으로서,
디스플레이 디바이스를 포함하는 사용자 인터페이스 디바이스; 및
상기 사용자 인터페이스 디바이스에 통신가능하게 결합된 컴퓨팅 디바이스
를 포함하며, 상기 컴퓨팅 디바이스는 메모리, 및 상기 메모리에 결합된 하나 이상의 프로세서를 포함하고, 상기 하나 이상의 프로세서는,
전송된 초음파 파형의 결과로서 타겟 대상으로부터 반사된 반사 초음파 파형의 각각의 반사 주파수들에 기반한 전기 신호들을 동시에 수신하고;
상기 전기 신호들로부터의 정보를 합성하여 합성된 전기 신호들을 생성하고;
상기 합성된 전기 신호들에 기반하여 디스플레이 디바이스 상에 출력 이미지를 생성하게 하는, 시스템.
As a system,
A user interface device including a display device; and
A computing device communicatively coupled to the user interface device
, wherein the computing device comprises a memory and one or more processors coupled to the memory, wherein the one or more processors include:
Simultaneously receiving electrical signals based on respective reflection frequencies of reflected ultrasonic waves reflected from a target object as a result of the transmitted ultrasonic waves;
Generating synthesized electrical signals by synthesizing information from the above electrical signals;
A system for generating an output image on a display device based on the synthesized electrical signals.
제21항에 있어서,
상기 각각의 반사 주파수들은 상기 전송된 초음파 파형의 기본 주파수의 각각의 고조파들에 대응하고, 상기 기본 주파수는 상기 전송된 초음파 파형의 단일 주파수인, 시스템.
In Article 21,
A system wherein each of the above reflected frequencies corresponds to respective harmonics of the fundamental frequency of the transmitted ultrasonic waveform, wherein the fundamental frequency is a single frequency of the transmitted ultrasonic waveform.
제21항에 있어서,
상기 전송된 초음파 파형은 상기 반사 초음파 파형의 상기 각각의 주파수들에 대응하는 기본 주파수들을 갖는 다중 모드 파형인, 시스템.
In Article 21,
A system wherein the transmitted ultrasonic waveform is a multi-mode waveform having fundamental frequencies corresponding to the respective frequencies of the reflected ultrasonic waveform.
제21항에 있어서,
상기 하나 이상의 프로세서는,
상기 전기 신호들에 대해 예측 알고리즘을 구현하는 것 - 상기 하나 이상의 프로세서는 상기 타겟 대상의 제1 이미지 영역에 대응하는 제1 전기 신호들로부터의 정보를 이용하여 상기 제1 이미지 영역과 상이한 상기 타겟 대상의 제2 이미지 영역에 대한 예측 전기 신호들을 생성함 -; 및
상기 제2 이미지 영역에서의 상기 출력 이미지가 상기 예측 전기 신호들에 대응하도록, 상기 예측 전기 신호들을 이용하여 상기 합성된 전기 신호들을 획득하는 것
에 의해 상기 정보를 합성하는, 시스템.
In Article 21,
One or more of the above processors,
Implementing a prediction algorithm for said electrical signals, wherein said one or more processors generate prediction electrical signals for a second image area of said target object, said second image area being different from said first image area, using information from said first electrical signals corresponding to said first image area of said target object; and
Obtaining the synthesized electric signals using the predicted electric signals so that the output image in the second image area corresponds to the predicted electric signals.
A system for synthesizing said information.
제21항 내지 제24항 중 어느 한 항에 있어서,
상기 반사 주파수들은 N개의 반사 주파수를 포함하고;
상기 전기 신호들은 N개의 전기 신호 세트를 포함하고, 각각의 전기 신호 세트는 상기 반사 주파수들 중 하나에 대응하고, 상기 N개의 전기 신호 세트는 상기 타겟 대상의 N개의 입력 이미지에 대응하고;
개별 입력 이미지들은 각각의 픽셀 위치들에서의 픽셀들을 포함하고, 상기 N개의 입력 이미지의 각각의 픽셀 위치는 깊이 및 각도에 의해 정의되고;
정보를 합성하는 것은 상기 N개의 전기 신호 세트로부터의 정보를 합성하는 것을 포함하고;
상기 하나 이상의 프로세서는 단순 평균화, 가중 평균화, 깊이 적응적 합성을 이용한 알파 블렌딩, 최대 및 최소 적응적 합성, 예측 합성, 측방향 주파수 합성 및 컬러 도플러 합성 중 적어도 하나를 이용하여 상기 N개의 전기 신호 세트로부터의 상기 정보를 합성하는, 시스템.
In any one of Articles 21 to 24,
The above reflection frequencies include N reflection frequencies;
The above electrical signals include N sets of electrical signals, each set of electrical signals corresponding to one of the reflection frequencies, and the N sets of electrical signals corresponding to N input images of the target object;
The individual input images contain pixels at respective pixel locations, and each pixel location of the N input images is defined by depth and angle;
Synthesizing information comprises synthesizing information from said N sets of electrical signals;
A system wherein said one or more processors synthesize said information from said sets of N electrical signals using at least one of simple averaging, weighted averaging, alpha blending using depth adaptive synthesis, max and min adaptive synthesis, predictive synthesis, lateral frequency synthesis and color Doppler synthesis.
제25항에 있어서,
상기 하나 이상의 프로세서는 추가로, 합성 이전에 상기 전기 신호들이 이득 보상 또는 동적 범위 보상을 받게 하는, 시스템.
In Article 25,
The system further comprises one or more processors that subject the electrical signals to gain compensation or dynamic range compensation prior to synthesis.
제25항에 있어서,
단순 평균화는, 각각의 픽셀 위치에 대해, 상기 N개의 입력 이미지에 걸쳐 각각의 픽셀 방사조도들의 단순 평균화 또는 가중 평균화 중 하나를 수행하는 것을 포함하는, 시스템.
In Article 25,
A system wherein simple averaging comprises performing, for each pixel location, either a simple averaging or a weighted averaging of the respective pixel irradiances across the N input images.
제25항에 있어서,
깊이 적응적 합성을 이용한 알파 블렌딩은, 각각의 픽셀 위치에 대해, 대응하는 알파 승수만큼, 상기 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 승산하는 것을 포함하고, 각각의 알파 승수는 하나 이상의 알파 값의 함수이고, 상기 하나 이상의 알파 값은 상기 각각의 픽셀 위치의 깊이 또는 상기 각각의 픽셀 위치의 각도 중 적어도 하나의 함수인, 시스템.
In Article 25,
Alpha blending using depth-adaptive synthesis comprises, for each pixel location, multiplying each pixel irradiance between said N input images by a corresponding alpha multiplier, wherein each alpha multiplier is a function of one or more alpha values, wherein the one or more alpha values are a function of at least one of a depth of said each pixel location or an angle of said each pixel location.
제28항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
는 상기 출력 이미지에 대한 상기 각각의 픽셀 위치에 대한 출력 픽셀 방사조도이고;
는 수신 주파수들 중 가장 높은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 중간 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 가장 낮은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 가장 높은 주파수의 깊이 의존적 α 값에 대응하고;
는 상기 수신 주파수들 중 중간 주파수의 깊이 의존적 α 값에 대응하는, 시스템.
In Article 28,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
is the output pixel irradiance for each pixel location for the output image;
is the pixel irradiance for each pixel location in the input image corresponding to the highest frequency among the received frequencies;
is the pixel irradiance for each pixel location in the input image corresponding to the intermediate frequency among the above receiving frequencies;
is the pixel irradiance for each pixel location in the input image corresponding to the lowest frequency among the above receiving frequencies;
corresponds to the depth-dependent α value of the highest frequency among the above receiving frequencies;
A system corresponding to a depth-dependent α value of an intermediate frequency among the above receiving frequencies.
제28항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
r: 깊이;
θ: 각도;
: 깊이 r 및 이미지 각도 θ에서의 출력 픽셀 방사조도;
: 수신 주파수들 중 가장 높은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도;
: 상기 수신 주파수들 중 중간 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도;
: 상기 수신 주파수들 중 가장 낮은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도;
: 깊이 r 및 이미지 각도 θ에서 상기 수신 주파수들 중 가장 높은 주파수의 알파 값; 및
: 깊이 r 및 이미지 각도 θ에서 상기 수신 주파수들 중 중간 주파수에서의 알파 값인, 시스템.
In Article 28,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
r: depth;
θ: angle;
: Output pixel irradiance at depth r and image angle θ;
: Pixel irradiance at depth r and image angle θ for the highest of the received frequencies;
: Pixel irradiance at depth r and image angle θ for the intermediate frequency among the above receiving frequencies;
: Pixel irradiance at depth r and image angle θ for the lowest of the above receiving frequencies;
: the alpha value of the highest frequency among the received frequencies at depth r and image angle θ; and
: System, where the alpha value at the intermediate frequency among the above receiving frequencies at depth r and image angle θ.
제25항에 있어서,
최대 및 최소 적응적 합성은, 각각의 픽셀 위치에 대해, 상기 N개의 입력 이미지 사이의 최대, 최소 및 평균 픽셀 방사조도들의 블렌딩을 이용하는 것을 포함하는, 시스템.
In Article 25,
A system wherein the maximum and minimum adaptive synthesis comprises, for each pixel location, blending of the maximum, minimum and average pixel irradiances among the N input images.
제31항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
;
;
는 깊이 보상을 이용한 알파 블렌딩 후의 픽셀 위치에서의 픽셀 방사조도에 대응하고;
, , 또는 중 적어도 하나에 기반한 최대 투명도 알파 값 계수에 대응하고, 는 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제1 값을 가지며;
, , 또는 중 적어도 하나에 기반한 최소 투명도 알파 값 계수에 대응하고, 은 상기 설정된 제1 값과 상이하고 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제2 값을 갖는, 시스템.
In Article 31,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
;
;
corresponds to pixel irradiance at pixel location after alpha blending using depth compensation;
Is , , or Corresponding to the maximum transparency alpha value coefficient based on at least one of has a set first value between 0 and 1 and including 0 and 1;
silver , , or Corresponding to a minimum transparency alpha value coefficient based on at least one of A system having a set second value which is different from the set first value and is between 0 and 1 and including 0 and 1.
제25항에 있어서,
예측 합성은,
제1 반사 주파수에 대응하는 제1 입력 이미지에서의 제1 영역에 대응하는 제1 전기 신호들과, 제2 반사 주파수에 대응하는 제2 입력 이미지에서의 상기 제1 영역에 대응하는 제2 전기 신호들 사이의 관계를 결정하는 것; 및
상기 관계에 기반하여, 상기 제2 입력 이미지의 제2 영역에 대응하는 제3 전기 신호들을 예측하는 것
을 포함하는, 시스템.
In Article 25,
Predictive synthesis is,
Determining a relationship between first electrical signals corresponding to a first region in a first input image corresponding to a first reflection frequency and second electrical signals corresponding to the first region in a second input image corresponding to a second reflection frequency; and
Based on the above relationship, predicting third electrical signals corresponding to the second region of the second input image.
A system comprising:
제33항에 있어서,
상기 제2 영역에서의 픽셀의 픽셀 방사조도는,
에 의해 주어지며, 여기서,
FF1은 상기 제1 입력 이미지에서의 상기 제2 영역이고;
FF2는 상기 제2 입력 이미지에서의 상기 제2 영역이고;
NF1은 상기 제1 입력 이미지에서의 상기 제1 영역이고;
NF2는 상기 제2 입력 이미지에서의 상기 제1 영역이고;
I FF2 는 FF2에서의 픽셀 방사조도이고;
I FF1 은 영역 FF1에서의 픽셀 방사조도이고;
I NF2 는 영역 NF2에서의 픽셀 방사조도이고;
I NF1 은 영역 NF1에서의 픽셀 방사조도인, 시스템.
In Article 33,
The pixel irradiance of the pixel in the above second region is,
is given by , where,
FF1 is the second region in the first input image;
FF2 is the second region in the second input image;
NF1 is the first region in the first input image;
NF2 is the first region in the second input image;
I FF2 is the pixel irradiance at FF2;
I FF1 is the pixel irradiance in area FF1;
I NF2 is the pixel irradiance in area NF2;
I NF1 is the pixel irradiance in area NF1, system.
제33항에 있어서,
상기 제2 영역에서의 픽셀의 픽셀 방사조도는,
에 의해 주어지며, 여기서,
FF1은 상기 제1 입력 이미지에서의 상기 제2 영역이고;
FF2는 상기 제2 입력 이미지에서의 상기 제2 영역이고;
NF2는 상기 제2 입력 이미지에서의 상기 제1 영역이고;
I FF2 는 FF2에서의 픽셀 방사조도이고;
I FF1 은 영역 FF1에서의 픽셀 방사조도이고;
I NF2 는 영역 NF2에서의 픽셀 방사조도이고;
PSF1은 제1 수신 주파수에 대한 포인트 확산 함수(PSF)에 대응하고;
PSF2는 제2 수신 주파수에 대한 PSF에 대응하고;
PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이고;
PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역인, 시스템.
In Article 33,
The pixel irradiance of the pixel in the above second region is,
is given by , where,
FF1 is the second region in the first input image;
FF2 is the second region in the second input image;
NF2 is the first region in the second input image;
I FF2 is the pixel irradiance at FF2;
I FF1 is the pixel irradiance in area FF1;
I NF2 is the pixel irradiance in area NF2;
PSF1 corresponds to the point spread function (PSF) for the first receiving frequency;
PSF2 corresponds to the PSF for the second receiving frequency;
PSF1 inverse is the inverse of PSF1 corresponding to deconvolution;
PSF1 inverse is the inverse of PSF1 corresponding to deconvolution, system.
제33항에 있어서,
ML 기반 합성은,
상기 제1 영역이 근거리장 영역에 대응하는 것으로 결정하는 것;
상기 제2 영역이 원거리장 영역에 대응하는 것으로 결정하는 것;
상기 근거리장 영역을 복수의 서브영역들, 예를 들어 정사각형 서브영역들로 세그먼트화하는 것;
상기 근거리장 영역에서 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 훈련 데이터 세트를 생성하는 것;
상기 훈련 데이터 세트에 기반하여 상기 제1 영역 내의 상기 제1 반사 주파수에서의 픽셀 방사조도들과 상기 제1 영역 내의 상기 제2 반사 주파수에서의 픽셀 방사조도들 사이의 관계에 대한 ML 기반 모델을 개발하는 것; 및
상기 모델에 기반하여 상기 제2 영역 내의 상기 제2 반사 주파수에서의 픽셀 방사조도들을 예측하는 것
을 포함하는, 시스템.
In Article 33,
ML-based synthesis is,
Determining that the above first region corresponds to the near-field region;
Determining that the above second region corresponds to the long-range region;
Segmenting the above near-field region into a plurality of sub-regions, for example, square sub-regions;
Generating a training data set based on a plurality of first input images and a plurality of first output images in the near-field region;
Developing an ML-based model for the relationship between pixel irradiances at the first reflection frequency within the first region and pixel irradiances at the second reflection frequency within the first region based on the training data set; and
Predicting pixel irradiances at the second reflection frequency within the second region based on the above model.
A system comprising:
제36항에 있어서,
ML 기반 합성은 상기 입력 이미지들의 중거리장 영역에서의 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 검증 데이터 세트를 생성하는 것, 및 상기 훈련 데이터 세트 및 상기 검증 데이터 세트에 기반하여 상기 ML 기반 모델을 개발하는 것을 더 포함하는, 시스템.
In Article 36,
A system wherein the ML-based synthesis further comprises generating a validation data set based on a plurality of first input images and a plurality of first output images in the mid-field region of the input images, and developing the ML-based model based on the training data set and the validation data set.
제25항에 있어서,
컬러 도플러 합성은, 각각의 픽셀 위치에 대해, 깊이, 각도, 신호 대 잡음비, 흐름 속도 또는 전력에 관한 정보 중 적어도 하나에 기반하여 상기 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 결합하는 것을 포함하는, 시스템.
In Article 25,
Color Doppler synthesis is a system comprising combining, for each pixel location, the respective pixel irradiances between the N input images based on at least one of information about depth, angle, signal-to-noise ratio, flow velocity or power.
제38항에 있어서,
상기 출력 이미지의 R0out 및 R1out에 의해 주어지며, 여기서,
: 최대 및 평균 제로 래그 자기상관들의 알파 블렌딩 값에 대응하는 제로 래그 출력;
: 최대 및 평균 제1 래그 자기상관들의 알파 블렌딩 값에 대응하는 제1 래그 출력;
α: 알파 블렌딩에 대한 알파 값;
: 이용될 알파 블렌딩에 대응하는 자기상관의 최대 제로 래그 출력 값;
: 자기상관의 최대 제1 래그 출력 값;
: 이용될 알파 블렌딩에 대응하는 자기상관의 평균 제로 래그 출력 값;
: 자기상관의 평균 제1 래그 출력 값;
: 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제로 래그 입력 값; 및
: 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제1 래그 입력 값인, 시스템.
In Article 38,
R0 out and R1 out of the above output image are and is given by , where,
: Zero-lag output corresponding to the alpha blending value of the maximum and average zero-lag autocorrelations;
: First lag output corresponding to the alpha blending value of the maximum and average first lag autocorrelations;
α: Alpha value for alpha blending;
: The maximum zero-lag output value of the autocorrelation corresponding to the alpha blending to be used;
: Maximum first lag output value of autocorrelation;
: The average zero-lag output value of the autocorrelation corresponding to the alpha blending to be used;
: Average first lag output value of autocorrelation;
: a zero-lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used; and
: A system, wherein the first lag input value corresponds to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used.
제21항 내지 제24항 중 어느 한 항에 있어서,
상기 각각의 반사 주파수들은 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하고,
상기 전송된 초음파 파형의 기본 주파수가 1.75 MHz의 단일 주파수인 것; 또는
상기 전송된 초음파 파형의 각각의 기본 주파수들이 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하는 것 중 하나인, 시스템.
In any one of Articles 21 to 24,
The above respective reflection frequencies include 1.75 MHz, 3.5 MHz and 5.0 MHz,
The fundamental frequency of the transmitted ultrasonic wave is a single frequency of 1.75 MHz; or
A system, wherein each of the fundamental frequencies of the transmitted ultrasonic waveforms is one of 1.75 MHz, 3.5 MHz and 5.0 MHz.
메모리, 및 상기 메모리에 결합된 하나 이상의 프로세서를 포함하는 컴퓨팅 디바이스에서 수행되는 방법으로서,
전송된 초음파 파형의 결과로서 타겟 대상으로부터 반사된 반사 초음파 파형의 각각의 반사 주파수들에 기반한 전기 신호들을 동시에 수신하는 단계;
상기 전기 신호들로부터의 정보를 합성하여 합성된 전기 신호들을 생성하는 단계; 및
상기 합성된 전기 신호들에 기반하여 디스플레이 디바이스 상에 출력 이미지를 생성하게 하는 단계
를 포함하는, 방법.
A method performed in a computing device comprising a memory and one or more processors coupled to the memory,
A step of simultaneously receiving electrical signals based on respective reflection frequencies of a reflected ultrasonic waveform reflected from a target object as a result of a transmitted ultrasonic waveform;
A step of generating synthesized electrical signals by synthesizing information from the above electrical signals; and
A step of generating an output image on a display device based on the above synthesized electrical signals.
A method comprising:
제41항에 있어서,
상기 각각의 반사 주파수들은 상기 전송된 초음파 파형의 기본 주파수의 각각의 고조파들에 대응하고, 상기 기본 주파수는 상기 전송된 초음파 파형의 단일 주파수인, 방법.
In Article 41,
A method wherein each of the above reflected frequencies corresponds to respective harmonics of the fundamental frequency of the transmitted ultrasonic waveform, wherein the fundamental frequency is a single frequency of the transmitted ultrasonic waveform.
제41항에 있어서,
상기 전송된 초음파 파형은 상기 반사 초음파 파형의 상기 각각의 주파수들에 대응하는 기본 주파수들을 갖는 다중 모드 파형인, 방법.
In Article 41,
A method wherein the transmitted ultrasonic waveform is a multi-mode waveform having fundamental frequencies corresponding to the respective frequencies of the reflected ultrasonic waveform.
제41항에 있어서,
상기 정보를 합성하는 것은,
상기 전기 신호들에 대해 예측 알고리즘을 구현하는 것 - 상기 하나 이상의 프로세서는 상기 타겟 대상의 제1 이미지 영역에 대응하는 제1 전기 신호들로부터의 정보를 이용하여 상기 제1 이미지 영역과 상이한 상기 타겟 대상의 제2 이미지 영역에 대한 예측 전기 신호들을 생성함 -; 및
상기 제2 이미지 영역에서의 상기 출력 이미지가 상기 예측 전기 신호들에 대응하도록, 상기 예측 전기 신호들을 이용하여 상기 합성된 전기 신호들을 획득하는 것
을 포함하는, 방법.
In Article 41,
Synthesizing the above information is:
Implementing a prediction algorithm for said electrical signals, wherein said one or more processors generate prediction electrical signals for a second image area of said target object, said second image area being different from said first image area, using information from said first electrical signals corresponding to said first image area of said target object; and
Obtaining the synthesized electric signals using the predicted electric signals so that the output image in the second image area corresponds to the predicted electric signals.
A method comprising:
제41항에 있어서,
상기 반사 주파수들은 N개의 반사 주파수를 포함하고;
상기 전기 신호들은 N개의 전기 신호 세트를 포함하고, 각각의 전기 신호 세트는 상기 반사 주파수들 중 하나에 대응하고, 상기 N개의 전기 신호 세트는 상기 타겟 대상의 N개의 입력 이미지에 대응하고;
개별 입력 이미지들은 각각의 픽셀 위치들에서의 픽셀들을 포함하고, 상기 N개의 입력 이미지의 각각의 픽셀 위치는 깊이 및 각도에 의해 정의되고;
정보를 합성하는 것은 상기 N개의 전기 신호 세트로부터의 정보를 합성하는 것을 포함하고;
상기 방법은 단순 평균화, 가중 평균화, 깊이 적응적 합성을 이용한 알파 블렌딩, 최대 및 최소 적응적 합성, 예측 합성, 측방향 주파수 합성 및 컬러 도플러 합성 중 적어도 하나를 이용하여 상기 N개의 전기 신호 세트로부터의 상기 정보를 합성하는 단계를 더 포함하는, 방법.
In Article 41,
The above reflection frequencies include N reflection frequencies;
The above electrical signals include N sets of electrical signals, each set of electrical signals corresponding to one of the reflection frequencies, and the N sets of electrical signals corresponding to N input images of the target object;
The individual input images contain pixels at respective pixel locations, and each pixel location of the N input images is defined by depth and angle;
Synthesizing information comprises synthesizing information from said N sets of electrical signals;
The method further comprises a step of synthesizing the information from the N sets of electrical signals using at least one of simple averaging, weighted averaging, alpha blending using depth adaptive synthesis, max and min adaptive synthesis, predictive synthesis, lateral frequency synthesis and color Doppler synthesis.
제45항에 있어서,
합성 이전에 상기 전기 신호들이 이득 보상 또는 동적 범위 보상을 받게 하는 단계를 더 포함하는, 방법.
In Article 45,
A method further comprising the step of subjecting said electrical signals to gain compensation or dynamic range compensation prior to synthesis.
제45항에 있어서,
단순 평균화는, 각각의 픽셀 위치에 대해, 상기 N개의 입력 이미지에 걸쳐 각각의 픽셀 방사조도들의 단순 평균화 또는 가중 평균화 중 하나를 수행하는 것을 포함하는, 방법.
In Article 45,
A method wherein simple averaging comprises performing, for each pixel location, either a simple averaging or a weighted averaging of the respective pixel irradiances across the N input images.
제45항에 있어서,
깊이 적응적 합성을 이용한 알파 블렌딩은, 각각의 픽셀 위치에 대해, 대응하는 알파 승수만큼, 상기 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 승산하는 것을 포함하고, 각각의 알파 승수는 하나 이상의 알파 값의 함수이고, 상기 하나 이상의 알파 값은 상기 각각의 픽셀 위치의 깊이 또는 상기 각각의 픽셀 위치의 각도 중 적어도 하나의 함수인, 방법.
In Article 45,
A method using depth-adaptive synthesis for alpha blending comprises multiplying, for each pixel location, each pixel irradiance between said N input images by a corresponding alpha multiplier, wherein each alpha multiplier is a function of one or more alpha values, wherein the one or more alpha values are a function of at least one of a depth of said each pixel location or an angle of said each pixel location.
제48항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
는 상기 출력 이미지에 대한 상기 각각의 픽셀 위치에 대한 출력 픽셀 방사조도이고;
는 수신 주파수들 중 가장 높은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 중간 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 가장 낮은 주파수에 대응하는 입력 이미지에 대한 상기 각각의 픽셀 위치에 대한 픽셀 방사조도이고;
는 상기 수신 주파수들 중 가장 높은 주파수의 깊이 의존적 α 값에 대응하고;
는 상기 수신 주파수들 중 중간 주파수의 깊이 의존적 α 값에 대응하는, 방법.
In Article 48,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
is the output pixel irradiance for each pixel location for the output image;
is the pixel irradiance for each pixel location in the input image corresponding to the highest frequency among the received frequencies;
is the pixel irradiance for each pixel location in the input image corresponding to the intermediate frequency among the above receiving frequencies;
is the pixel irradiance for each pixel location in the input image corresponding to the lowest frequency among the above receiving frequencies;
corresponds to the depth-dependent α value of the highest frequency among the above receiving frequencies;
A method corresponding to a depth-dependent α value of an intermediate frequency among the above receiving frequencies.
제48항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
r은 깊이를 나타내고;
θ는 각도를 나타내고;
는 깊이 r 및 이미지 각도 θ에서의 출력 픽셀 방사조도이고;
는 수신 주파수들 중 가장 높은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이고;
는 상기 수신 주파수들 중 중간 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이고;
는 상기 수신 주파수들 중 가장 낮은 주파수에 대한 깊이 r 및 이미지 각도 θ에서의 픽셀 방사조도이고;
는 깊이 r 및 이미지 각도 θ에서 상기 수신 주파수들 중 가장 높은 주파수의 알파 값에 대응하고;
는 깊이 r 및 이미지 각도 θ에서 상기 수신 주파수들 중 중간 주파수에서의 알파 값에 대응하는, 방법.
In Article 48,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
r represents depth;
θ represents the angle;
is the output pixel irradiance at depth r and image angle θ;
is the pixel irradiance at depth r and image angle θ for the highest of the received frequencies;
is the pixel irradiance at depth r and image angle θ for the intermediate frequency among the above receiving frequencies;
is the pixel irradiance at depth r and image angle θ for the lowest of the above receiving frequencies;
corresponds to the alpha value of the highest frequency among the received frequencies at depth r and image angle θ;
A method in which the alpha value at the intermediate frequency among the reception frequencies at depth r and image angle θ corresponds to the alpha value.
제45항에 있어서,
최대 및 최소 적응적 합성은, 각각의 픽셀 위치에 대해, 상기 N개의 입력 이미지 사이의 최대, 최소 및 평균 픽셀 방사조도들의 블렌딩을 이용하는 것을 포함하는, 방법.
In Article 45,
A method wherein the maximum and minimum adaptive synthesis comprises blending, for each pixel location, of the maximum, minimum and average pixel irradiances among the N input images.
제51항에 있어서,
상기 각각의 픽셀 위치에 대해, 상기 출력 이미지에서의 출력 방사조도는,
에 의해 주어지며, 여기서,
;
;
는 깊이 보상을 이용한 알파 블렌딩 후의 픽셀 위치에서의 픽셀 방사조도에 대응하고;
, , 또는 중 적어도 하나에 기반한 최대 투명도 알파 값 계수에 대응하고, 는 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제1 값을 가지며;
, , 또는 중 적어도 하나에 기반한 최소 투명도 알파 값 계수에 대응하고, 은 상기 설정된 제1 값과 상이하고 0과 1 사이의 그리고 0과 1을 포함하는 설정된 제2 값을 갖는, 방법.
In Article 51,
For each pixel location above, the output irradiance in the output image is,
is given by , where,
;
;
corresponds to pixel irradiance at pixel location after alpha blending using depth compensation;
Is , , or Corresponding to the maximum transparency alpha value coefficient based on at least one of has a set first value between 0 and 1 and including 0 and 1;
silver , , or Corresponding to a minimum transparency alpha value coefficient based on at least one of A method wherein the first set value is different from the first set value and has a second set value between 0 and 1 and including 0 and 1.
제45항에 있어서,
예측 합성은,
제1 반사 주파수에 대응하는 제1 입력 이미지에서의 제1 영역에 대응하는 제1 전기 신호들과, 제2 반사 주파수에 대응하는 제2 입력 이미지에서의 상기 제1 영역에 대응하는 제2 전기 신호들 사이의 관계를 결정하는 것; 및
상기 관계에 기반하여, 상기 제2 입력 이미지의 제2 영역에 대응하는 제3 전기 신호들을 예측하는 것
을 포함하는, 방법.
In Article 45,
Predictive synthesis is,
Determining a relationship between first electrical signals corresponding to a first region in a first input image corresponding to a first reflection frequency and second electrical signals corresponding to the first region in a second input image corresponding to a second reflection frequency; and
Based on the above relationship, predicting third electrical signals corresponding to the second region of the second input image.
A method comprising:
제43항에 있어서,
상기 제2 영역에서의 픽셀의 픽셀 방사조도는,
에 의해 주어지며, 여기서,
FF1은 상기 제1 입력 이미지에서의 상기 제2 영역이고;
FF2는 상기 제2 입력 이미지에서의 상기 제2 영역이고;
NF1은 상기 제1 입력 이미지에서의 상기 제1 영역이고;
NF2는 상기 제2 입력 이미지에서의 상기 제1 영역이고;
I FF2 는 FF2에서의 픽셀 방사조도이고;
I FF1 은 영역 FF1에서의 픽셀 방사조도이고;
I NF2 는 영역 NF2에서의 픽셀 방사조도이고;
I NF1 은 영역 NF1에서의 픽셀 방사조도인, 방법.
In Article 43,
The pixel irradiance of the pixel in the above second region is,
is given by , where,
FF1 is the second region in the first input image;
FF2 is the second region in the second input image;
NF1 is the first region in the first input image;
NF2 is the first region in the second input image;
I FF2 is the pixel irradiance at FF2;
I FF1 is the pixel irradiance in area FF1;
I NF2 is the pixel irradiance in area NF2;
I NF1 is the pixel irradiance in area NF1, method.
제53항에 있어서,
상기 제2 영역에서의 픽셀의 픽셀 방사조도는,
에 의해 주어지며, 여기서,
FF1은 상기 제1 입력 이미지에서의 상기 제2 영역이고;
FF2는 상기 제2 입력 이미지에서의 상기 제2 영역이고;
NF2는 상기 제2 입력 이미지에서의 상기 제1 영역이고;
I FF2 는 FF2에서의 픽셀 방사조도이고;
I FF1 은 영역 FF1에서의 픽셀 방사조도이고;
I NF2 는 영역 NF2에서의 픽셀 방사조도이고;
PSF1은 제1 수신 주파수에 대한 포인트 확산 함수(PSF)에 대응하고;
PSF2는 제2 수신 주파수에 대한 PSF에 대응하고;
PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역이고;
PSF1inverse는 디컨볼루션에 대응하는 PSF1의 역인, 방법.
In Article 53,
The pixel irradiance of the pixel in the above second region is,
is given by , where,
FF1 is the second region in the first input image;
FF2 is the second region in the second input image;
NF2 is the first region in the second input image;
I FF2 is the pixel irradiance at FF2;
I FF1 is the pixel irradiance in area FF1;
I NF2 is the pixel irradiance in area NF2;
PSF1 corresponds to the point spread function (PSF) for the first receiving frequency;
PSF2 corresponds to the PSF for the second receiving frequency;
PSF1 inverse is the inverse of PSF1 corresponding to deconvolution;
PSF1 inverse is the inverse of PSF1 corresponding to deconvolution.
제53항에 있어서,
ML 기반 합성은,
상기 제1 영역이 근거리장 영역에 대응하는 것으로 결정하는 것;
상기 제2 영역이 원거리장 영역에 대응하는 것으로 결정하는 것;
상기 근거리장 영역을 복수의 서브영역들, 예를 들어 정사각형 서브영역들로 세그먼트화하는 것;
상기 근거리장 영역에서 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 훈련 데이터 세트를 생성하는 것;
상기 훈련 데이터 세트에 기반하여 상기 제1 영역 내의 상기 제1 반사 주파수에서의 픽셀 방사조도들과 상기 제1 영역 내의 상기 제2 반사 주파수에서의 픽셀 방사조도들 사이의 관계에 대한 ML 기반 모델을 개발하는 것; 및
상기 모델에 기반하여 상기 제2 영역 내의 상기 제2 반사 주파수에서의 픽셀 방사조도들을 예측하는 것
을 포함하는, 방법.
In Article 53,
ML-based synthesis is,
Determining that the above first region corresponds to the near-field region;
Determining that the above second region corresponds to a long-range region;
Segmenting the above near-field region into a plurality of sub-regions, for example, square sub-regions;
Generating a training data set based on a plurality of first input images and a plurality of first output images in the near-field region;
Developing an ML-based model for the relationship between pixel irradiances at the first reflection frequency within the first region and pixel irradiances at the second reflection frequency within the first region based on the training data set; and
Predicting pixel irradiances at the second reflection frequency within the second region based on the above model.
A method comprising:
제56항에 있어서,
ML 기반 합성은 상기 입력 이미지들의 중거리장 영역에서의 다수의 제1 입력 이미지들 및 다수의 제1 출력 이미지들에 기반하여 검증 데이터 세트를 생성하는 것, 및 상기 훈련 데이터 세트 및 상기 검증 데이터 세트에 기반하여 상기 ML 기반 모델을 개발하는 것을 더 포함하는, 방법.
In Article 56,
A method wherein the ML-based synthesis further comprises generating a validation data set based on a plurality of first input images and a plurality of first output images in the mid-field region of the input images, and developing the ML-based model based on the training data set and the validation data set.
제45항에 있어서,
컬러 도플러 합성은, 각각의 픽셀 위치에 대해, 깊이, 각도, 신호 대 잡음비, 흐름 속도 또는 전력에 관한 정보 중 적어도 하나에 기반하여 상기 N개의 입력 이미지 사이의 각각의 픽셀 방사조도들을 결합하는 것을 포함하는, 방법.
In Article 45,
Color Doppler synthesis is a method comprising combining, for each pixel location, the respective pixel irradiances between the N input images based on at least one of information about depth, angle, signal-to-noise ratio, flow velocity or power.
제58항에 있어서,
상기 출력 이미지의 R0out 및 R1out에 의해 주어지며, 여기서,
: 최대 및 평균 제로 래그 자기상관들의 알파 블렌딩 값에 대응하는 제로 래그 출력;
: 최대 및 평균 제1 래그 자기상관들의 알파 블렌딩 값에 대응하는 제1 래그 출력;
α: 알파 블렌딩에 대한 알파 값;
: 이용될 알파 블렌딩에 대응하는 자기상관의 최대 제로 래그 출력 값;
: 자기상관의 최대 제1 래그 출력 값;
: 이용될 알파 블렌딩에 대응하는 자기상관의 평균 제로 래그 출력 값;
: 자기상관의 평균 제1 래그 출력 값;
: 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제로 래그 입력 값; 및
: 이용될 알파 블렌딩에 대응하는 자기상관에 대한 이미징 파형들의 주파수 대역에 대응하는 제1 래그 입력 값인, 방법.
In Article 58,
R0 out and R1 out of the above output image are and is given by , where,
: Zero-lag output corresponding to the alpha blending value of the maximum and average zero-lag autocorrelations;
: First lag output corresponding to the alpha blending value of the maximum and average first lag autocorrelations;
α: Alpha value for alpha blending;
: The maximum zero-lag output value of the autocorrelation corresponding to the alpha blending to be used;
: Maximum first lag output value of autocorrelation;
: The average zero-lag output value of the autocorrelation corresponding to the alpha blending to be used;
: Average first lag output value of autocorrelation;
: a zero-lag input value corresponding to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used; and
: A method, wherein the first lag input value corresponds to the frequency band of the imaging waveforms for the autocorrelation corresponding to the alpha blending to be used.
제41항에 있어서,
상기 각각의 반사 주파수들은 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하고,
상기 전송된 초음파 파형의 기본 주파수가 1.75 MHz의 단일 주파수인 것; 또는
상기 전송된 초음파 파형의 각각의 기본 주파수들이 1.75 MHz, 3.5 MHz 및 5.0 MHz를 포함하는 것 중 하나인, 방법.
In Article 41,
The above respective reflection frequencies include 1.75 MHz, 3.5 MHz and 5.0 MHz,
The fundamental frequency of the transmitted ultrasonic wave is a single frequency of 1.75 MHz; or
A method, wherein each of the fundamental frequencies of the transmitted ultrasonic waveforms is one of 1.75 MHz, 3.5 MHz and 5.0 MHz.
장치로서,
제41항 내지 제60항 중 어느 한 항의 방법을 수행하기 위한 수단을 포함하는, 장치.
As a device,
A device comprising means for performing the method of any one of claims 41 to 60.
하나 이상의 컴퓨터 판독가능한 매체로서,
실행될 때, 하나 이상의 프로세서로 하여금 제41항 내지 제60항 중 어느 한 항의 방법을 수행하게 하는 저장된 복수의 명령어를 포함하는, 하나 이상의 컴퓨터 판독가능한 매체.
As one or more computer-readable media,
One or more computer readable media comprising a plurality of instructions stored thereon, which, when executed, cause one or more processors to perform the method of any one of claims 41 to 60.
KR1020247028958A 2022-02-02 2022-02-02 Device, system and method for generating an output ultrasound image by synthesizing signals of each received ultrasound frequency KR20240135413A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2022/014906 WO2023149872A1 (en) 2022-02-02 2022-02-02 Apparatus, system and method to compound signals of respective received ultrasonic frequencies to generate an output ultrasonic image

Publications (1)

Publication Number Publication Date
KR20240135413A true KR20240135413A (en) 2024-09-10

Family

ID=87552736

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020247028958A KR20240135413A (en) 2022-02-02 2022-02-02 Device, system and method for generating an output ultrasound image by synthesizing signals of each received ultrasound frequency

Country Status (3)

Country Link
KR (1) KR20240135413A (en)
IL (1) IL314513A (en)
WO (1) WO2023149872A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150201838A1 (en) * 2012-09-04 2015-07-23 Nevzat Guneri Gencer Hybrid mechanical-electromagnetic imaging method and the system thereof
US20170020487A1 (en) * 2013-11-29 2017-01-26 Alpinion Medical Systems Co., Ltd. Method and apparatus for compounding ultrasonic images
JP6342212B2 (en) * 2014-05-12 2018-06-13 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic equipment
US20210361258A1 (en) * 2018-08-31 2021-11-25 The College Of The Holy & Undivided Trinity Of Queen Elizabeth Ultrasound based three-dimensional lesion verification within a vasculature
US20200196987A1 (en) * 2018-12-20 2020-06-25 General Electric Company Method and system to manage beamforming parameters based on tissue density

Also Published As

Publication number Publication date
IL314513A (en) 2024-09-01
WO2023149872A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
CN108778530B (en) Ultrasound imaging with sparse array probe
Jensen Medical ultrasound imaging
CA3135281C (en) Ultrasonic imaging device with programmable anatomy and flow imaging
JP6399999B2 (en) System and method for improving the quality of ultrasound images by applying weighting factors
JP5575554B2 (en) Ultrasonic diagnostic equipment
JP2007152127A (en) Ultrasonic imaging transducer array for synthetic aperture
US20070167774A1 (en) Ultrasound diagnostic system and method of detecting lesion
US10426436B2 (en) Ultrasonic imaging apparatus and control method thereof
JP2019532750A (en) Ultrasound system with tissue type analyzer
US20120065509A1 (en) Ultrasound method and probe for electromagnetic noise cancellation
Hemmsen et al. Tissue harmonic synthetic aperture ultrasound imaging
KR101398005B1 (en) HIFU system using by handheld type therapy ultrasonic transducer
US11272906B2 (en) Ultrasonic imaging device and method for controlling same
US20230243944A1 (en) Apparatus, system and method to compound signals of respective received ultrasonic frequencies to generate an output ultrasonic image
KR20240135413A (en) Device, system and method for generating an output ultrasound image by synthesizing signals of each received ultrasound frequency
WO2023047601A1 (en) Image generation method, image generation program, and image generation apparatus
Caron-Grenier et al. Ergodic encoding for single-element ultrasound imaging in vivo
CN109982227B (en) Method and system for determining optimum driving signal of acoustic transducer
US20230296746A1 (en) Systems and methods for scanning
JP2024532114A (en) System for automated real-time detection, delineation, tracking, and characterization of blood vessels in ultrasound imaging - Patents.com
JP2024095978A (en) Beamforming method and system
Chen Novel beamforming with dual-layer array transducers for 3-D ultrasound imaging
Martin Basic production and image components