JP2007033306A - System and method for measuring fluid flow - Google Patents
System and method for measuring fluid flow Download PDFInfo
- Publication number
- JP2007033306A JP2007033306A JP2005218768A JP2005218768A JP2007033306A JP 2007033306 A JP2007033306 A JP 2007033306A JP 2005218768 A JP2005218768 A JP 2005218768A JP 2005218768 A JP2005218768 A JP 2005218768A JP 2007033306 A JP2007033306 A JP 2007033306A
- Authority
- JP
- Japan
- Prior art keywords
- image
- particle
- dimensional
- laser
- fluid flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 153
- 239000012530 fluid Substances 0.000 title claims abstract description 63
- 239000002245 particle Substances 0.000 claims abstract description 260
- 238000012545 processing Methods 0.000 claims abstract description 99
- 238000005259 measurement Methods 0.000 claims abstract description 52
- 230000003287 optical effect Effects 0.000 claims abstract description 31
- 239000013307 optical fiber Substances 0.000 claims description 66
- 239000000835 fiber Substances 0.000 claims description 36
- 230000010355 oscillation Effects 0.000 claims description 23
- 230000005540 biological transmission Effects 0.000 claims description 19
- 239000004065 semiconductor Substances 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 5
- 230000001678 irradiating effect Effects 0.000 abstract description 4
- 230000005855 radiation Effects 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 80
- 230000008569 process Effects 0.000 description 66
- 238000000917 particle-image velocimetry Methods 0.000 description 59
- 238000001514 detection method Methods 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 19
- 238000000037 particle-tracking velocimetry Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 12
- 238000000691 measurement method Methods 0.000 description 11
- 238000012935 Averaging Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 6
- 230000015556 catabolic process Effects 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 6
- 238000005315 distribution function Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 239000000523 sample Substances 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 239000000700 radioactive tracer Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000000149 penetrating effect Effects 0.000 description 2
- 201000009310 astigmatism Diseases 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 235000011187 glycerol Nutrition 0.000 description 1
- 238000000960 laser cooling Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000827 velocimetry Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Indicating Or Recording The Presence, Absence, Or Direction Of Movement (AREA)
Abstract
Description
本発明は、流体の流動計測システム及びその計測方法に関し、特に、閉空間内を流動する流体の流速及び流れ方向を高精度かつ精密に測定する流体の流動計測システム及びその計測方法に関するものである。 The present invention relates to a fluid flow measurement system and a measurement method therefor, and more particularly to a fluid flow measurement system and a measurement method therefor that measure the flow velocity and flow direction of a fluid flowing in a closed space with high accuracy and precision. .
近年、圧力容器内のような外界と環境を異にする閉空間の流動場を把握することはプラント等の効率や安全性の向上等から非常に要望されている。しかし、参照窓の必要性や光学系等の設置の困難さから粒子画像流速測定法(以下、PIV(Particle Imaging Velocimetry)と呼ぶ。)による測定は従来では不可能であった。非特許文献1では、一対のファイバスコープを使用することで、閉空間内等へ適用可能であるステレオPIVシステムを構築し、2次元3方向成分の速度測定可能なシステムを構築した。しかし、この場合、ファイバスコープを通すことで画像が劣化し粒子の情報量が極めて減少することにより、測定精度の向上が必要とされていた。 In recent years, it has been highly desired to grasp a flow field in a closed space that is different from the outside environment, such as in a pressure vessel, from the viewpoint of improving efficiency and safety of a plant or the like. However, measurement by a particle image velocity measurement method (hereinafter referred to as PIV (Particle Imaging Velocimetry)) has been impossible in the past because of the necessity of a reference window and difficulty in installing an optical system or the like. In Non-Patent Document 1, by using a pair of fiberscopes, a stereo PIV system applicable to a closed space or the like was constructed, and a system capable of measuring the speed of a two-dimensional three-way component was constructed. However, in this case, since the image is deteriorated by passing through the fiberscope and the amount of information of particles is extremely reduced, it is necessary to improve the measurement accuracy.
このような状況下、特許文献1において、ファイバスコープを使用したPIVシステムにおいて、ファイバスコープを通して撮像された粒子画像を各ピクセル毎に輝度パターン(輝度値)の加算平均値を求め、各々の粒子画像の輝度パターン(輝度値)から加算平均値を引くことで、光ファイバのファイバ配列の輝度パターン除去を行ってファイバスコープ像のノイズ除去を行い、流体の流速や流れ方向等の流動状態を精度良く正確に測定する方法が提案されている。 Under such circumstances, in Patent Document 1, in a PIV system using a fiberscope, an average value of luminance patterns (luminance values) is obtained for each pixel of a particle image captured through the fiberscope, and each particle image is obtained. By subtracting the average value from the luminance pattern (luminance value), the luminance pattern of the fiber array of the optical fiber is removed to remove the noise from the fiberscope image, and the flow state of the fluid, such as the flow velocity and flow direction, is accurately determined. A method for accurate measurement has been proposed.
さらに、特許文献2、非特許文献2において、PIVを発展させた粒子追跡法(以下、PTV(Particle Tracking Velocimetry )と呼ぶ。)においてファイバスコープを使用し、かつ、粒子の流跡を記録する粒子軌跡追跡法(以下、PTV−SS(PTV with Streak Searching )と呼ぶ。)が提案されている。そのとき、特許文献1と同様のファイバスコープ像のノイズ除去を行っている。 Furthermore, in Patent Document 2 and Non-Patent Document 2, particles that use a fiberscope in the particle tracking method (hereinafter referred to as PTV (Particle Tracking Velocimetry)) developed from PIV and record the flow of particles. A trajectory tracking method (hereinafter referred to as PTV-SS (PTV with Streak Searching)) has been proposed. At that time, the noise removal of the fiberscope image similar to Patent Document 1 is performed.
さらに、非特許文献3において、ファイバスコープを使用したPTV−SSを3次元に拡張したファイバスコープステレオPTV−SSを提案している。 Further, Non-Patent Document 3 proposes a fiberscope stereo PTV-SS in which a PTV-SS using a fiberscope is expanded in three dimensions.
さらに、非特許文献4において、PTVにおいて、各粒子の流跡を検出するのに、各粒子の流跡の検出の閾値をその背景に応じて個々に定める動的2値化法を提案している。
本発明は従来技術のこのような状況に鑑みてなされたものであり、その目的は、粒子軌跡追跡法を用いた流動計測、特に3次元流動計測において、より信頼性が高くより精度が高く精密な測定が可能な流体の流動計測システム及びその計測方法を提供することである。 The present invention has been made in view of such a situation in the prior art, and the purpose thereof is more reliable, more accurate and precise in flow measurement using the particle trajectory tracking method, particularly in three-dimensional flow measurement. It is an object to provide a fluid flow measurement system and a measurement method thereof capable of performing accurate measurement.
上記目的を達成する本発明の流体の流動計測システムは、レーザ光を発振させるレーザ発振装置と、発振されたレーザ光を流体の流動場内にシート状に投入させるレーザシート形成用光学系と、このレーザシート形成用光学系からのレーザシートで照明されて形成される2次元粒子画像と2次元粒子軌跡画像を選択的に撮像する画像撮像手段と、前記画像撮像手段で撮像された微小時間異なる2時刻における2次元粒子画像の輝度パターンを比較・解析して粒子群の移動方向及び移動量を計測する第1画像処理手段と、前記画像撮像手段で撮像された微小時間異なる2時刻における2次元粒子軌跡画像の輝度パターンを比較・解析して個々の粒子の移動方向及び移動量を計測する第2画像処理手段とを備え、前記第2画像処理手段では、前記第1画像処理手段で計測された粒子群の移動方向に基づいて個々の粒子の移動方向を定めるように構成されていることを特徴とするものである。 The fluid flow measurement system of the present invention that achieves the above object includes a laser oscillation device that oscillates laser light, a laser sheet forming optical system that oscillates the oscillated laser light into a fluid flow field, and a laser sheet forming optical system. An image imaging unit that selectively captures a two-dimensional particle image and a two-dimensional particle trajectory image that are formed by illumination with a laser sheet from a laser sheet forming optical system, and a small time difference 2 that is captured by the image imaging unit. The first image processing means for measuring the moving direction and the moving amount of the particle group by comparing / analyzing the luminance patterns of the two-dimensional particle images at the time, and the two-dimensional particles at the two times different from each other taken by the image imaging means. A second image processing unit that compares and analyzes the luminance pattern of the trajectory image to measure the movement direction and the movement amount of each particle, and the second image processing unit includes: Based on the moving direction of the measured particles by the first image processing means is characterized in that it is configured to define the direction of movement of the individual particles.
この場合、前記レーザ発振装置は半導体レーザで構成され、前記半導体レーザの発光時間の差によって2次元粒子画像と2次元粒子軌跡画像を形成することが望ましい。 In this case, it is preferable that the laser oscillation device is constituted by a semiconductor laser, and a two-dimensional particle image and a two-dimensional particle locus image are formed based on a difference in emission time of the semiconductor laser.
また、前記レーザシート形成用光学系からのレーザシートの両側から同時に2次元粒子画像と2次元粒子軌跡画像を選択的に撮像する2つの画像撮像手段を備え、各々の前記画像撮像手段に対してそれぞれ前記第1画像処理手段と、前記第2画像処理手段とを備え、各々の前記第2画像処理手段では、各々の前記第1画像処理手段で計測された粒子群の移動方向に基づいて個々の粒子の移動方向を定めるように構成することができる。 The image forming apparatus further includes two image capturing units that selectively capture a two-dimensional particle image and a two-dimensional particle trajectory image simultaneously from both sides of the laser sheet from the laser sheet forming optical system. Each of the second image processing means includes the first image processing means and the second image processing means, and each of the second image processing means individually based on the moving direction of the particle group measured by each of the first image processing means. The moving direction of the particles can be determined.
その場合、前記第2画像処理手段各々で計測された個々の粒子の移動方向及び移動量を相互に対応付けて個々の粒子の3次元的な移動方向及び移動量に再構成する3次元再構成手段を有し、個々の粒子の3次元的な移動方向及び移動量を計測することができる。 In that case, a three-dimensional reconstruction in which the movement direction and the movement amount of each particle measured by each of the second image processing means are associated with each other to reconstruct the three-dimensional movement direction and movement amount of each particle. A means for measuring the three-dimensional moving direction and moving amount of each particle.
また、前記画像撮像手段は、前記レーザシート形成用光学系からのレーザシートで照明されて形成される2次元粒子画像と2次元粒子軌跡画像を光伝送する画像伝送手段と、光伝送された2次元粒子画像と2次元粒子軌跡画像を撮像する撮像手段とを備えたものとして構成することができる。 The image pickup means includes an image transmission means for optically transmitting a two-dimensional particle image and a two-dimensional particle trajectory image formed by illumination with a laser sheet from the laser sheet forming optical system; It can comprise as an imaging means which images a two-dimensional particle trajectory image and a two-dimensional particle image.
その場合に、前記画像伝送手段は、多数本の光ファイバを束ねて一体化させ、両端面が平面加工された可撓性のイメージガイドで構成され、前記撮像手段は、CCDカメラで構成されており、前記イメージガイドは、対物レンズにより一方のファイバ端面に結像された画像を光ファイバで各画素に分解してCCDカメラ側の他端面まで同一画像として伝送するように構成することができる。 In that case, the image transmission means is composed of a flexible image guide in which a large number of optical fibers are bundled and integrated, and both end faces are processed flat, and the imaging means is composed of a CCD camera. The image guide can be configured to disassemble an image formed on one end face of the fiber by the objective lens into each pixel using an optical fiber and transmit the same image to the other end face on the CCD camera side.
また、以上において、前記レーザシート形成用光学系と前記画像撮像手段とは、一体的に組み合わせて構成されていることが望ましい。 In the above description, it is desirable that the laser sheet forming optical system and the image capturing unit are integrally combined.
また、前記第1画像処理手段、前記第2画像処理手段はそれぞれ2次元粒子画像と2次元粒子軌跡画像から前記イメージガイドに基づくファイバノイズを除去するファイバノイズ除去手段を備えていることが望ましい。 The first image processing means and the second image processing means preferably include fiber noise removing means for removing fiber noise based on the image guide from a two-dimensional particle image and a two-dimensional particle trajectory image, respectively.
また、前記第2画像処理手段で計測された個々の粒子の移動方向及び移動量をサブピクセル精度化するためのサブピクセル処理手段を備えていることが望ましい。 In addition, it is desirable to include subpixel processing means for subpixel accuracy in the movement direction and movement amount of each particle measured by the second image processing means.
本発明の流体の流動計測方法は、レーザ発振装置から発振されるレーザ光を流体の流動場にシート状に照射してレーザシートを形成し、レーザシートで照明されて形成される2次元粒子画像と2次元粒子軌跡画像を選択的に画像撮像手段で撮像し、撮像された微小時間異なる2時刻における2次元粒子画像の輝度パターンを比較・解析して粒子群の移動方向及び移動量を計測し、また、撮像された微小時間異なる2時刻における2次元粒子軌跡画像の輝度パターンを比較・解析して個々の粒子の移動方向及び移動量を計測し、その個々の粒子の移動方向及び移動量の計測の際に、先に計測された粒子群の移動方向に基づいて個々の粒子の移動方向を定めることにより、流体流動場における流体の流動を計測することを特徴とする方法である。 The fluid flow measuring method of the present invention is a two-dimensional particle image formed by irradiating a laser beam oscillated from a laser oscillation device into a fluid flow field in a sheet form to form a laser sheet and being illuminated by the laser sheet. And two-dimensional particle trajectory images are selectively picked up by the image pickup means, and the luminance patterns of the two-dimensional particle images at two times different from each other are compared and analyzed to measure the moving direction and moving amount of the particle group. Also, by comparing and analyzing the luminance patterns of the two-dimensional particle trajectory images at two times that are captured for a very short time, the movement direction and movement amount of each particle are measured, and the movement direction and movement amount of each individual particle are measured. In the measurement, the flow of the fluid in the fluid flow field is measured by determining the movement direction of each particle based on the movement direction of the particle group previously measured.
本発明による流体の流動計測システム及びその計測方法によれば、流体の流動場にシート状に照射してレーザシートを形成し、レーザシートで照明されて形成される2次元粒子画像と2次元粒子軌跡画像を選択的に撮像し、撮像された微小時間異なる2時刻における2次元粒子画像の輝度パターンを比較・解析して粒子群の移動方向及び移動量を計測し、また、撮像された微小時間異なる2時刻における2次元粒子軌跡画像の輝度パターンを比較・解析して個々の粒子の移動方向及び移動量を計測し、その個々の粒子の移動方向及び移動量の計測の際に、先に計測された粒子群の移動方向に基づいて個々の粒子の移動方向を定めることにより、複雑な流動場における個々の粒子の流速や流れ方向を測定して流体の流速や流れ方向等の流動状態を、より信頼性高く、より精度高く、より精密に測定することができる。 According to the fluid flow measurement system and the measurement method according to the present invention, a two-dimensional particle image and a two-dimensional particle formed by irradiating the fluid flow field in a sheet shape to form a laser sheet and illuminating with the laser sheet. The trajectory image is selectively captured, the luminance patterns of the two-dimensional particle images at two times that are captured at different times are compared and analyzed, and the movement direction and amount of the particle group are measured. Compare and analyze the luminance patterns of two-dimensional particle trajectory images at two different times to measure the movement direction and movement amount of each particle, and measure the movement direction and movement amount of each individual particle first. By determining the moving direction of each particle based on the moving direction of the particles, the flow state of the fluid such as the flow rate and flow direction of the fluid is measured by measuring the flow velocity and flow direction of each particle in a complex flow field. , More reliable, higher accuracy can be more precisely measured.
また、本発明によれば、複雑な流動場における流体の流動状態の測定を画像処理手段で粒子画像と粒子軌跡画像を処理することにより行うことができるので、遠隔地から流体の流動状態を測定でき、環境的に厳しい閉空間内の流体の流動状態を高信頼性、高精度、高精密に測定することができる。 In addition, according to the present invention, the flow state of the fluid in a complex flow field can be measured by processing the particle image and the particle trajectory image with the image processing means, so the flow state of the fluid can be measured from a remote location. It is possible to measure the flow state of the fluid in the environmentally severe closed space with high reliability, high accuracy, and high precision.
以下に、本発明の流体の流動計測システム及びその計測方法を図面を参照して説明する。 Hereinafter, a fluid flow measurement system and a measurement method thereof according to the present invention will be described with reference to the drawings.
図1は、本発明の流体の流動計測システムの1実施例の概要を示す図である。 FIG. 1 is a diagram showing an outline of one embodiment of a fluid flow measurement system of the present invention.
本発明の流体の流動計測システム10には、高出力のレーザ光を発振させるレーザ発振装置11が光源として備えられる。レーザ発振装置11には、例えば、小型で、発光のタイミングを制御することが容易で、高輝度、高繰り返し周波数の可能な半導体レーザを用いる。 The fluid flow measurement system 10 of the present invention includes a laser oscillation device 11 that oscillates a high-power laser beam as a light source. As the laser oscillation device 11, for example, a semiconductor laser that is small in size, can easily control the timing of light emission, and has high luminance and high repetition frequency is used.
レーザ発振装置11から発振されたレーザ光は、送光用光ファイバ12を通ってレーザシート形成用光学系13に案内される。レーザシート形成用光学系13はレーザ発振装置11から発振されたレーザ光を流体流動場14にシート状に投射させるようになっている。 The laser light oscillated from the laser oscillation device 11 is guided to the laser sheet forming optical system 13 through the light transmission optical fiber 12. The laser sheet forming optical system 13 projects the laser beam oscillated from the laser oscillation device 11 onto the fluid flow field 14 in a sheet shape.
流体流動場14は、外界と環境を異にする閉空間内に形成される。また、場合に応じて、外界に開放された形態で流体流動場14が形成されていてもよい。流動場14は、気体、液体の内の少なくとも何れかの流体からなる。具体的には、例えば、原子炉圧力容器のダウンカマ部、炉心シュラウド、火力発電プラントの熱交換器や蒸気発生器内等の閉空間における流体の速度場を対象とする。また、船舶、航空機あるいは自動車等のような、水流や気流と接触する構造部位や機材周りにおける流体の流動場も対象とすることができる。 The fluid flow field 14 is formed in a closed space having a different environment from the outside. Further, according to circumstances, the fluid flow field 14 may be formed in a form open to the outside. The flow field 14 is made of at least one of a gas and a liquid. Specifically, for example, the velocity field of fluid in a closed space such as a downcomer portion of a reactor pressure vessel, a core shroud, a heat exchanger or a steam generator of a thermal power plant is targeted. In addition, a fluid flow field around a structural part or equipment that comes into contact with a water flow or an air current, such as a ship, an aircraft, or an automobile, can also be targeted.
レーザシート形成用光学系13は、流体流動場14にレーザ発振装置11からの発振レーザ光をシート状に照射して流体流動場14にレーザシート17を形成している。このレーザシート17により流体流動場14中に混入された微細なトレーサー粒子を照明して可視化している。 The laser sheet forming optical system 13 forms a laser sheet 17 in the fluid flow field 14 by irradiating the fluid flow field 14 with the oscillation laser light from the laser oscillation device 11 in a sheet shape. The laser sheet 17 illuminates and visualizes fine tracer particles mixed in the fluid flow field 14.
レーザシート形成用光学系13は、図2(a)にレーザシート17のシート面に沿う断面を、図2(b)にそれに直交する断面を示すように、レーザシート17の作成のためのレーザ光照射光学系である。レーザ発振装置11として例えば上記のような半導体レーザを用いると、半導体レーザからの発振レーザ光は、送光用光ファイバ12から大きな広がり角を持って出射される。出射されたレーザビームは軸対称の光となっておらず、非点較差があり、レーザビームの形状変換は複雑となる。 The laser sheet forming optical system 13 is a laser for producing the laser sheet 17 so that a cross section along the sheet surface of the laser sheet 17 is shown in FIG. 2A and a cross section perpendicular to it is shown in FIG. This is a light irradiation optical system. For example, when the semiconductor laser as described above is used as the laser oscillation device 11, the oscillation laser light from the semiconductor laser is emitted from the light transmission optical fiber 12 with a large divergence angle. The emitted laser beam is not axisymmetric light, has an astigmatism difference, and the shape conversion of the laser beam becomes complicated.
このため、レーザシート形成用光学系13には、送光用光ファイバ12から出射されたレーザビームからレーザシート17を形成するためのレーザシート形成用光学手段としてのレンズ群18が用いられる。このレンズ群18は、送光用光ファイバ12から出射したレーザビームを例えば3枚の平凸レンズ19a、19b、19cによってコリメートを行い、平凹シリンドリカルレンズ19dによってレーザシート17を作成する構成となっている。このレーザシート形成用光学系13によって出力されるレーザーシート17の厚さは例えば3.0mmとなる。 For this reason, in the laser sheet forming optical system 13, a lens group 18 is used as a laser sheet forming optical means for forming the laser sheet 17 from the laser beam emitted from the light transmitting optical fiber 12. The lens group 18 is configured to collimate the laser beam emitted from the light transmitting optical fiber 12 with, for example, three plano-convex lenses 19a, 19b, and 19c, and to create the laser sheet 17 with the plano-concave cylindrical lens 19d. Yes. The thickness of the laser sheet 17 output by the laser sheet forming optical system 13 is, for example, 3.0 mm.
レーザシート形成用光学系13から流体流動場14にレーザシート17が照射され、流体の流動場14がシート状に可視化される。そして、レーザシート17の測定範囲17aに両側から対向して左右の画像伝送手段22L、22Rのそれぞれの対物レンズ27aが配置され、各対物レンズ27aを経て結像された左右の粒子画像は、左右の画像伝送手段22L、22Rを介して左右の画像撮像手段29L、29Rに送られ、そこで撮像されるようになっている。この実施例の流動計測システムにおいては、以下のように、この画像伝送手段22L、22Rとして、イメージガイド26と対物レンズ27aから構成されるファイバスコープを使用している。 The laser sheet 17 is irradiated from the laser sheet forming optical system 13 to the fluid flow field 14, and the fluid flow field 14 is visualized in a sheet shape. Then, the objective lenses 27a of the left and right image transmission means 22L and 22R are arranged facing the measurement range 17a of the laser sheet 17 from both sides, and the left and right particle images formed through the objective lenses 27a are Are sent to the left and right image capturing means 29L and 29R via the image transmission means 22L and 22R, and imaged there. In the flow measurement system of this embodiment, as described below, a fiberscope including an image guide 26 and an objective lens 27a is used as the image transmission means 22L and 22R.
ここで、左右の画像伝送手段22L、22Rの先端のプローブ部は、図3(a)に斜視図、(b)に断面図を示すように、レーザシート形成用光学系13を間に挟んで対称に各画像伝送手段22L、22Rのイメージガイド26の先端部が一体に配置され、各イメージガイド26の先端に、光路を90°曲げてレーザシート17の測定範囲17aの両側に向くようにする45°直角プリズム27bと、その入射側に配置され測定範囲17aの粒子画像を撮像するための対物レンズ27aとが一体に配置されている。 Here, as shown in the perspective view of FIG. 3A and the cross-sectional view of FIG. 3B, the probe portions at the tips of the left and right image transmission means 22L and 22R sandwich the laser sheet forming optical system 13 therebetween. Symmetrically, the front ends of the image guides 26L and 22R of the image transmission means 22L and 22R are integrally arranged, and the optical path is bent at the front end of each image guide 26 by 90 ° so as to face both sides of the measurement range 17a of the laser sheet 17. A 45 ° right-angle prism 27b and an objective lens 27a for capturing a particle image in the measurement range 17a disposed on the incident side are integrally disposed.
そして、この左右の画像伝送手段22L、22Rで伝送されたレーザシート17上の測定範囲17aの左右の粒子画像は、左右の画像撮像手段29L、29Rで撮像可能となっている。 The left and right particle images in the measurement range 17a on the laser sheet 17 transmitted by the left and right image transmission units 22L and 22R can be captured by the left and right image capturing units 29L and 29R.
左右の画像撮像手段29L、29Rは、それぞれ左右の画像伝送手段22L、22Rで伝送された粒子画像を撮像する撮像手段としてのカメラレンズ28を備えたCCDカメラ24L、24Rを有する。画像伝送手段22(左右を区別するL、Rは省く。)は、図4に示すように、数千本から数万本の光ファイバ25を束ねて一体化(溶融)させた可撓性のイメージガイド26が用いられる。イメージガイド26は、図4に示すように、束ねられた光ファイバ25の両端面の各位置が正確に対応するように並設されて束ねられる。イメージガイド26の両端面は平面に仕上げられ、対物レンズ27aにより一方の光ファイバ端面に結像された画像を各画素光ファイバとしての光ファイバ25に分解し、同一画像をCCDカメラ24側の光ファイバ端面まで伝送している(図4では、45°直角プリズム27bは省いてある。)。光ファイバ端面からカメラレンズ28を経てCCDカメラ24で撮像される。なお、画像撮像手段29L、29Rは、以上のようなイメージガイドを備えずに、レーザシート17上の粒子画像を直接撮像できるようにしてもよい。 The left and right image capturing units 29L and 29R include CCD cameras 24L and 24R each having a camera lens 28 as an image capturing unit that captures the particle images transmitted by the left and right image transmitting units 22L and 22R, respectively. As shown in FIG. 4, the image transmission means 22 (L and R that distinguish left and right are omitted) is a flexible structure in which thousands to tens of thousands of optical fibers 25 are bundled and integrated (melted). An image guide 26 is used. As shown in FIG. 4, the image guides 26 are bundled side by side so that the positions on both end faces of the bundled optical fibers 25 correspond exactly. Both end surfaces of the image guide 26 are finished to be flat, and the image formed on one end surface of the optical fiber by the objective lens 27a is decomposed into optical fibers 25 as respective pixel optical fibers, and the same image is light on the CCD camera 24 side. Transmission to the end face of the fiber (in FIG. 4, the 45 ° right-angle prism 27b is omitted). The image is picked up by the CCD camera 24 through the camera lens 28 from the end face of the optical fiber. The image capturing means 29L and 29R may be configured to directly capture the particle image on the laser sheet 17 without including the image guide as described above.
イメージガイド24の画像の限界(解像度)は、単一の光ファイバ25の直径と配列の仕方によって決まり、像の見え方は、イメージガイド26に束ねられる光ファイバ25の総本数と並べ方によって決まる。光ファイバ25のコア径より小さな光量の光分布は、光ファイバ25を伝わる間に平均化され、各コア断面内では明るさは一様となる。したがって、イメージガイド26は光ファイバ25のコア径が画素(ピクセル)としての空間分解能の最小単位となる。 The limit (resolution) of the image of the image guide 24 is determined by the diameter of the single optical fiber 25 and the arrangement method, and the appearance of the image is determined by the total number of optical fibers 25 bundled in the image guide 26 and the arrangement. The light distribution having a light quantity smaller than the core diameter of the optical fiber 25 is averaged while traveling through the optical fiber 25, and the brightness is uniform within each core cross section. Accordingly, in the image guide 26, the core diameter of the optical fiber 25 is the minimum unit of spatial resolution as a pixel.
実際のイメージガイド26は、多数本の光ファイバ25が俵積み(六方稠密配列)構造で整然とかつ稠密に配列されている。このイメージガイド26で光ファイバ間隔と略等しい間隔の格子状物体を観察すると、物体の像の強度分布と無関係なモアレ干渉縞が生じる。 In the actual image guide 26, a large number of optical fibers 25 are arranged in an ordered and dense manner in a stacked (hexagonal dense arrangement) structure. When a lattice-like object having an interval substantially equal to the optical fiber interval is observed with the image guide 26, moire interference fringes unrelated to the intensity distribution of the image of the object are generated.
また、光ファイバ25間にクラッド部分が融着されているイメージガイド26では、クラッドの厚さが薄くなると、1つの光ファイバ25のコアに入った光が隣のコアに漏れてしまう場合が生じる。このため、像の境界が滲み、像のコントラストが低下する。このため、イメージガイド26は、六方稠密配列構造を採用したとき、クラッドの厚さが薄過ぎないことが条件となる。 Further, in the image guide 26 in which the clad portion is fused between the optical fibers 25, when the thickness of the clad becomes thin, the light entering the core of one optical fiber 25 may leak to the adjacent core. . For this reason, the boundary of the image is blurred and the contrast of the image is lowered. For this reason, when the hexagonal close-packed structure is adopted for the image guide 26, it is a condition that the thickness of the clad is not too thin.
一方、本発明の流体の流動計測システム10には、シグナルジェネレータ30を備えており、パソコン31内のソフトウェアによりシグナルジェネレータ30を制御することで、TTL信号を任意に作成することができ、その信号をレーザ発振装置11のレーザドライバ32、CCDカメラ24L、24R両方に伝送し、CCDカメラ24L、24Rのフレームの切り替わり、レーザ発振装置11のレーザの照射時間・照射間隔を任意に調節可能になっている。なお、レーザドライバ32とレーザ発振装置11の間には、レーザ発振装置11の半導体レーザの冷却装置としてのペルチエドライバ33が配置されており、レーザドライバ32からこのペルチエドライバ33を介してレーザ発振装置11が駆動されるようになっている。 On the other hand, the fluid flow measurement system 10 of the present invention includes a signal generator 30, and the TTL signal can be arbitrarily generated by controlling the signal generator 30 by software in the personal computer 31. Is transmitted to both the laser driver 32 of the laser oscillation device 11 and the CCD cameras 24L and 24R, the frames of the CCD cameras 24L and 24R are switched, and the laser irradiation time and irradiation interval of the laser oscillation device 11 can be arbitrarily adjusted. Yes. A Peltier driver 33 as a semiconductor laser cooling device of the laser oscillation device 11 is disposed between the laser driver 32 and the laser oscillation device 11, and the laser oscillation device is passed from the laser driver 32 via the Peltier driver 33. 11 is driven.
また、CCDカメラ24L、24Rはそれぞれ左右のインターフェース34L、34Rを介して撮像された左右の粒子画像をパソコン31へ転送するように構成されている。そして、パソコン31に取り込まれた粒子画像は即座に以下に説明する画像処理ソフトウェアによって、粒子画像流速測定法(PIV)と粒子軌跡追跡法(PTV−SS)とを利用して3次元速度ベクトルデータに変換することが可能となっている。 The CCD cameras 24L and 24R are configured to transfer the left and right particle images captured via the left and right interfaces 34L and 34R to the personal computer 31, respectively. Then, the particle image captured by the personal computer 31 is immediately converted into three-dimensional velocity vector data using the particle image velocity measurement method (PIV) and the particle trajectory tracking method (PTV-SS) by image processing software described below. It is possible to convert to.
以上のような流動計測システムにおいて、図5に示すような画像処理ソフトウェアによって高信頼性、高精度、高精密に流体流動場14の3次元速度ベクトル情報を取得する。以下に、図5の処理の流れを順に説明する。 In the flow measurement system as described above, the three-dimensional velocity vector information of the fluid flow field 14 is acquired with high reliability, high accuracy, and high precision by image processing software as shown in FIG. In the following, the process flow of FIG. 5 will be described in order.
同時刻に左右のCCDカメラ24L、24Rで撮像され、インターフェース34L、34Rを通じてパソコン31に送られた左右のカメラ画像41L、41Rそれぞれに対して、以下のような処理を並列して行う。図5では、PIV処理42L、PTV−SS処理43L、光ファイババンドルによる画像劣化のサブピクセル処理44Lまでは、左カメラ画像41Lについてのみ図示され、右カメラ画像41Rについては図示を省いているが、右カメラ画像41Rについても同様に行われる。 The following processing is performed in parallel for each of the left and right camera images 41L and 41R captured by the left and right CCD cameras 24L and 24R at the same time and sent to the personal computer 31 through the interfaces 34L and 34R. In FIG. 5, the PIV processing 42L, the PTV-SS processing 43L, and the subpixel processing 44L for image degradation due to the optical fiber bundle are illustrated only for the left camera image 41L, and the right camera image 41R is not illustrated. The same applies to the right camera image 41R.
まず、PIV処理42Lは、特許文献1で提案された方法と同様に、ファイバスコープのイメージガイド26の光ファイバ25の配列パターンを除去した後に、通常のPIV処理を行う処理である。この処理で算出されるベクトルは、PTV−SS処理43Lにおける処理の際の補助的なベクトル情報となるものである。 First, the PIV process 42L is a process for performing a normal PIV process after removing the arrangement pattern of the optical fibers 25 of the image guide 26 of the fiberscope, as in the method proposed in Patent Document 1. The vector calculated by this process becomes auxiliary vector information at the time of the process in the PTV-SS process 43L.
PTV−SS処理43Lは、PIV処理42Lの後の処理で、従来のPTV−SS法に加えて前処理として行ったPIV処理42Lで算出された流速ベクトル(PIVベクトル)の情報を利用してさらに精度良く粒子の対応付けを可能とするものである。 The PTV-SS process 43L is a process after the PIV process 42L, and uses the information on the flow velocity vector (PIV vector) calculated by the PIV process 42L performed as a pre-process in addition to the conventional PTV-SS method. This makes it possible to associate particles with high accuracy.
まず、PIV処理42Lについて説明する。PIV処理は、得られた粒子画像を輝度の分布であると考え、粒子群の輝度パターンが微小時間内に移動する量を定量的に解析するものである。そのために、粒子移動量の解析には相互相関法が多く用いられる(相互相関PIV処理422)。しかし、CCDカメラ24Lで取得されるカメラ画像41Lには、ファイバスコープのイメージガイド26を通して撮像しているため、粒子群の輝度パターンだけでなく、光ファイバ25の配列の輝度パターンも存在する。このため、光ファイバの配列が粒子群の輝度パターンの相関値のピークの検出の際に弊害となり、結果として粒子群の誤対応(過誤ベクトル)を招く。その誤対応の例を図6に示す。図6を見ると、明らかに粒子群ではなく、光ファイバの配列パターンを相関値のピークとして検出していることが分かる。 First, the PIV process 42L will be described. In the PIV processing, the obtained particle image is regarded as a luminance distribution, and the amount of movement of the luminance pattern of the particle group within a minute time is quantitatively analyzed. For this reason, a cross-correlation method is often used for analysis of the amount of particle movement (cross-correlation PIV processing 422). However, since the camera image 41L acquired by the CCD camera 24L is captured through the image guide 26 of the fiberscope, not only the luminance pattern of the particle group but also the luminance pattern of the array of the optical fibers 25 exists. For this reason, the arrangement of the optical fibers is detrimental in detecting the peak of the correlation value of the luminance pattern of the particle group, and as a result, erroneous correspondence (error vector) of the particle group is caused. An example of the erroneous correspondence is shown in FIG. FIG. 6 clearly shows that the arrangement pattern of the optical fiber is detected as the correlation value peak, not the particle group.
このように、カメラ画像41L内に記録された光ファイバ25の配列が粒子群の輝度パターンに対してノイズとなって過誤ベクトルの発生の要因となっている。そこで、PIV処理42Lにおいては、ファイバノイズの除去処理421を相互相関PIV処理422の前に行う。このファイバノイズの除去処理421は次のようにして行う。 As described above, the arrangement of the optical fibers 25 recorded in the camera image 41L becomes noise with respect to the luminance pattern of the particle group and causes an error vector. Therefore, in the PIV process 42L, the fiber noise removal process 421 is performed before the cross-correlation PIV process 422. The fiber noise removal process 421 is performed as follows.
ファイバスコープのイメージガイド26を通してCCDカメラ24Lで撮像されたカメラ画像41Lを処理し、時系列に得られた粒子画像を各ピクセル毎に輝度パターン(輝度値)の加算平均値を求め、各々の粒子画像の輝度パターン(輝度値)から加算平均値を引くことで、光ファイバ25の配列の輝度パターン除去を行う。その手法を説明すると、測定データ(粒子画像(カメラ画像)41Lにおける輝度値)をIとすると、
I=s+n ・・・(1)
で表わされる。ただし、sは信号成分(光ファイバ配列の輝度パターン)、nは雑音成分(粒子の輝度パターン)を意味する。
The camera image 41L captured by the CCD camera 24L through the image guide 26 of the fiberscope is processed, and the particle image obtained in time series is obtained for each pixel to obtain an average value of luminance patterns (luminance values), and each particle is obtained. The luminance pattern of the arrangement of the optical fibers 25 is removed by subtracting the addition average value from the luminance pattern (luminance value) of the image. The method will be described. If the measurement data (luminance value in the particle image (camera image) 41L) is I,
I = s + n (1)
It is represented by Here, s means a signal component (luminance pattern of optical fiber array), and n means a noise component (particle luminance pattern).
すなわち、信号(光ファイバ配列の輝度パターン)に雑音(粒子の輝度パターン)が重なったものを測定しているものと考える。加算平均はSN比が小さく、信号と雑音の構成周波数にも大差のない場合、また、同じ条件で何度も測定を繰り返すことが可能な場合に有効な手法である。式(1)を時系列として表すと、次のように表せる。 That is, it is considered that the signal (luminance pattern of the optical fiber array) and noise (particle luminance pattern) are measured. Addition averaging is an effective technique when the SN ratio is small and there is no significant difference between the signal and noise constituent frequencies, and when measurement can be repeated many times under the same conditions. When Expression (1) is expressed as a time series, it can be expressed as follows.
Ii (k)=si (k)+ni (k) ・・・(2)
ここで、iはi枚目の画像、kはi枚目の画像のk番目のピクセル輝度値を表す。
I i (k) = s i (k) + n i (k) (2)
Here, i represents the i-th image, and k represents the k-th pixel luminance value of the i-th image.
粒子画像の撮影において、取り込んだ粒子画像の枚数をM枚とすると、M枚の粒子画像に対する加算平均I(k)は、次のように表せる。 In the capturing of particle images, if the number of captured particle images is M, the addition average I (k) for the M particle images can be expressed as follows.
M
I(k)=(1/M)Σ Ii (k)
i=1
M M
=(1/M)Σ si (k)+Σ ni (k) ・・・(3)
i=1 i=1
光ファイバ配列の輝度パターンsは、同一の条件(送光系・受光系)であれば、連続する粒子画像においては同じパターンが出現するため、M回の加算によりM倍の輝度値となり、これを平均する(Mで除する)と、元の輝度値のままである。すなわち、加算平均操作により、粒子の存在しない光ファイバ配列のみ撮った画像を得ることができ、光ファイバ配列の存在する粒子画像41Lから各画素毎に光ファイバ配列の輝度値(I(k)の各画素毎の輝度値)を引けば、光ファイバ配列の輝度パターンの除去が可能となる。
M
I (k) = (1 / M) Σ I i (k)
i = 1
M M
= (1 / M) Σs i (k) + Σ n i (k) (3)
i = 1 i = 1
The luminance pattern s of the optical fiber array has the same condition (light transmission system / light reception system), and the same pattern appears in successive particle images. Is averaged (divided by M), the original luminance value remains unchanged. That is, an image obtained by taking only the optical fiber array in which no particles exist can be obtained by the averaging operation, and the luminance value (I (k)) of the optical fiber array is obtained for each pixel from the particle image 41L in which the optical fiber array is present. If the luminance value for each pixel is subtracted, the luminance pattern of the optical fiber array can be removed.
図6と同じ例において、上記のファイバノイズの除去処理421を施した測定データに、次のPIV処理422で相互相関計算を行って得られた流速ベクトル(PIVベクトル)分布を図7に示す。図6と比較して、ファイバノイズの除去処理421を行うことで、過誤ベクトルがよく取り除かれていることがよく分かる。 FIG. 7 shows a flow velocity vector (PIV vector) distribution obtained by performing cross-correlation calculation in the next PIV process 422 on the measurement data subjected to the fiber noise removal process 421 in the same example as FIG. Compared with FIG. 6, it can be clearly seen that the error vector is well removed by performing the fiber noise removal processing 421.
なお、図8は、ファイバノイズの除去処理421によって光ファイバ配列の輝度パターンが除去され、粒子像のみが残る画像処理の流れを任意のラインの輝度値分布で示した図である。 FIG. 8 is a diagram showing the flow of image processing in which the luminance pattern of the optical fiber array is removed by the fiber noise removal processing 421 and only the particle image remains, as a luminance value distribution of an arbitrary line.
ファイバノイズの除去処理421で光ファイバ配列の輝度パターンの除去を行った粒子画像は、次の相互相関PIV処理422で、相互相関法に基づく粒子画像流速測定処理を行う。CCDカメラ24Lで撮像された第1時刻における2次元粒子画像(処理421でファイバノイズの除去が行われている。)をデジタル処理をした粒子画像を「参照画像」、第1時刻とは微小時間異なる第2時刻における2次元粒子画像(同様に、処理421でファイバノイズの除去が行われている。)のデジタル処理粒子画像を「探索画像」、上記参照画像中のある限定された矩形領域を「参照窓画像」、探索画像中の限定された矩形領域を「探索窓画像」と定義する。デジタル化された粒子画像中のある1点の値を「輝度値」と定義し、この輝度値が矩形領域に分布しているものを「輝度パターン」と称する。 The particle image from which the luminance pattern of the optical fiber array has been removed by the fiber noise removal processing 421 is subjected to particle image flow velocity measurement processing based on the cross-correlation method in the next cross-correlation PIV processing 422. A particle image obtained by digitally processing a two-dimensional particle image (fiber noise is removed in process 421) taken at the first time taken by the CCD camera 24L is a “reference image”, and the first time is a minute time. A digitally processed particle image of a two-dimensional particle image at a different second time (similarly, fiber noise is removed in the process 421) is a “search image”, and a limited rectangular area in the reference image is displayed. A “reference window image” and a limited rectangular area in the search image are defined as a “search window image”. A value of one point in the digitized particle image is defined as “luminance value”, and the luminance value distributed in a rectangular area is referred to as “luminance pattern”.
「参照窓画像」及び「探索窓画像」は輝度値の矩形状分布を表わしており、輝度パターンを示している。 The “reference window image” and the “search window image” represent a rectangular distribution of luminance values and indicate luminance patterns.
粒子画像から流体中の粒子群の移動量を推定するアルゴリズムは、得られた粒子画像の輝度分布の変化であると判断し、レーザシート17上の粒子群の輝度パターンが微少時間内に移動する量を定量的に解析するものである。 The algorithm for estimating the movement amount of the particle group in the fluid from the particle image is determined to be a change in the luminance distribution of the obtained particle image, and the luminance pattern of the particle group on the laser sheet 17 moves within a minute time. The quantity is analyzed quantitatively.
粒子群移動量の解析には、相互相関法が用いられ、この処理422においても相互相関法の解析手法が用いられる。 A cross-correlation method is used for the analysis of the movement amount of the particle group, and the analysis method of the cross-correlation method is also used in this processing 422.
相互相関法による粒子群の移動量推定は、「探索窓画像」と「参照窓画像」との間で次式で表わされる相関値Rを持つことが知られており、この相関値Rをもって輝度パターンの類似度を求め、比較検討して2画像間の粒子群の移動量を求める手法である。 It is known that the movement amount estimation of the particle group by the cross-correlation method has a correlation value R expressed by the following equation between the “search window image” and the “reference window image”. This is a technique for obtaining the degree of similarity between patterns and obtaining a moving amount of a particle group between two images by comparison and examination.
式(4)及び式(5)において、I1 及びI2 は参照窓画像と探索窓画像の各画素の輝度を表し、ξ、ηは探索窓画像と参照窓画像の相対的な位置で表わす。相関値Rが最大となる位置ξ、ηが画像内での粒子群の移動量ΔX′、ΔY′に相当する。参照窓画像の大きさ及び参照窓画像との相対的な位置は、予測される最小及び最大速度から決定される。参照窓画像の大きさn×mは参照窓画像の実座標系におけるその大きさが流れ場に存在する最小の渦よりも小さく、かつ、参照窓画像の中にトレーサ粒子を6〜8個以上含むことが望ましい。 In Expressions (4) and (5), I 1 and I 2 represent the luminance of each pixel of the reference window image and the search window image, and ξ and η are represented by relative positions of the search window image and the reference window image. . The positions ξ and η at which the correlation value R is maximum correspond to the movement amounts ΔX ′ and ΔY ′ of the particle group in the image. The size of the reference window image and the relative position with respect to the reference window image are determined from the predicted minimum and maximum velocities. The size nxm of the reference window image is smaller than the smallest vortex existing in the flow field in the real coordinate system of the reference window image, and 6 to 8 or more tracer particles in the reference window image It is desirable to include.
以上のように、ファイバノイズの除去処理421と相互相関PIV処理422を経ることで、レーザシート17の測定範囲17a内の図7に例示されるような流速ベクトル(PIVベクトル)分布情報が得られる。 As described above, the flow velocity vector (PIV vector) distribution information as illustrated in FIG. 7 in the measurement range 17a of the laser sheet 17 is obtained through the fiber noise removal process 421 and the cross-correlation PIV process 422. .
そして、PIV処理42Lの最後の処理として、誤ベクトル除去及び空間平均処理423を行う。この処理では、上記のファイバノイズの除去処理421と相互相関PIV処理422を経て算出されたベクトルに対して誤ベクトルと考えられるものを除去するため、正規分布に基づいたばらつき誤差の棄却を行う。相互相関PIV処理によって算出されたベクトル間隔をNピクセルとすると、算出された全てのベクトル(u,v)に対して、各々のベクトルの周囲2Nピクセルにあるベクトル成分が例えば平均値±3σ(σ:標準偏差)以内に収まらない場合は、誤ベクトルとして棄却する。もちろん、この基準値は±3σに限定されず、他の値を用いてもよい。そして、残った位置の異なるベクトルを、空間的に規則正しい交点座標位置近傍のものを抽出して平均化し、交点座標上で代表値にする空間平均処理を行う。 Then, an erroneous vector removal and spatial averaging process 423 is performed as the last process of the PIV process 42L. In this process, in order to remove a vector considered to be an erroneous vector from the vector calculated through the fiber noise elimination process 421 and the cross-correlation PIV process 422, a variation error based on the normal distribution is rejected. Assuming that the vector interval calculated by the cross-correlation PIV processing is N pixels, for all the calculated vectors (u, v), the vector components in the 2N pixels surrounding each vector are, for example, an average value ± 3σ (σ : If it does not fall within the standard deviation), it is rejected as an erroneous vector. Of course, this reference value is not limited to ± 3σ, and other values may be used. Then, spatial average processing is performed by extracting and averaging the remaining vectors having different positions in the vicinity of the spatially regular intersection point coordinate positions to obtain representative values on the intersection point coordinates.
これらの処理を行った結果のベクトルをPIV処理によるベクトルと定義し、これを次のPTV−SS処理43LでPTV−SS法を行う際の補助的なベクトル情報とする。 A vector resulting from these processes is defined as a vector by PIV processing, and this is used as auxiliary vector information when performing the PTV-SS method in the next PTV-SS process 43L.
なお、以上のPIV処理42Lによって流体流動場14のベクトルの概略の情報が取得できる。しかし、粒子群の移動量を見積もるPIV法では、本来参照窓画像内に最低でも粒子は6〜8個あることが望ましいとされるため、参照窓画像を比較的大きくとらなくてはならなくなり、計算量が莫大に増加しアルゴリズムとしては現実的ではないものとなる(探索する領域が増えると、その4乗に比例して計算量は増加する。)。つまり、取得される画像パラメータ(粒子像径、数密度)が非常に制限を受け、様々な実流動場への対応がPIV処理のみでは困難となってしまう。そこで、上記のPIV処理42Lでは粒子数を減少させてでも参照窓サイズを小さく限定し、精度を落としベクトルの概略を取得するというスタンスで解析を行う必要がある。 In addition, the outline information of the vector of the fluid flow field 14 can be acquired by the above PIV process 42L. However, in the PIV method for estimating the amount of movement of the particle group, it is desirable that there should be at least 6 to 8 particles in the reference window image, so the reference window image must be relatively large. The amount of calculation increases enormously, and the algorithm becomes unrealistic (when the area to be searched increases, the amount of calculation increases in proportion to the fourth power). That is, the acquired image parameters (particle image diameter, number density) are very limited, and it becomes difficult to deal with various actual flow fields only by PIV processing. Therefore, in the PIV process 42L described above, it is necessary to perform analysis in a stance that the reference window size is limited to a small size even if the number of particles is reduced, the accuracy is reduced, and an outline of the vector is acquired.
さて、本発明においては、PIV処理42Lの次段階の処理として、計測精度を高めるためのPTV−SS処理43Lを適用するが、その際に生じる大きな問題の1つに、粒子の誤対応の問題がある。粒子の誤対応とは、図9に示すように、光ファイババンドルによる画像の低解像度化によって粒子情報量が減少することにより、画像間での粒子の対応付けの間違いが生じることである。図9は、粒子の誤対応を説明するための図であり、この図では、分かりやすいように、参照画像、探索画像を同一画像に表示している。正しい対応付け結果は、図9(a)のように、大きな矢印が指す位置であるが、上記の理由による情報量の不足により、図9(b)の矢印のように、粒子の誤対応が起きる可能性が高い。 In the present invention, the PTV-SS process 43L for improving the measurement accuracy is applied as the next stage process of the PIV process 42L, and one of the major problems that arises at that time is the problem of erroneous correspondence of particles. There is. As shown in FIG. 9, the erroneous correspondence between particles means that the correspondence between particles between images is caused by a decrease in the amount of particle information due to the reduction in resolution of the image by the optical fiber bundle. FIG. 9 is a diagram for explaining erroneous correspondence of particles. In this figure, for easy understanding, a reference image and a search image are displayed on the same image. The correct association result is a position indicated by a large arrow as shown in FIG. 9A. However, due to a lack of information amount due to the above reason, erroneous correspondence of particles as shown by an arrow in FIG. It is likely to happen.
そこで、本発明においては、PTV−SS処理43Lの左右のカメラ画像41L、41Rとして、レーザシート17により流体流動場14を照明するレーザ発振装置11に用いている半導体レーザの発光時間を比較的長くとって粒子の流跡を記録した画像を用い、粒子群ではなく個々に粒子の移動量を見積もる粒子軌跡追跡法(Particle streak tracking velocimetry:PTV−SS)(特許文献2、非特許文献2)を適用することで、ファイバスコープのイメージガイド26を通した画像からベクトル情報を算出している。 Therefore, in the present invention, as the left and right camera images 41L and 41R of the PTV-SS process 43L, the emission time of the semiconductor laser used in the laser oscillation device 11 that illuminates the fluid flow field 14 with the laser sheet 17 is relatively long. Using particle streak tracking velocimetry (PTV-SS) (Patent Document 2, Non-Patent Document 2) that estimates the amount of movement of particles individually instead of particles using an image of particle tracks recorded. By applying this, vector information is calculated from an image passing through the image guide 26 of the fiberscope.
PTV−SS処理43Lは、粒子検出の際のファイバノイズの除去処理431と、その後の粒子検出処理432、PIVベクトルを用いたPTV−SS法433の3段階に分かれている。これらの処理について以下に説明する。 The PTV-SS process 43L is divided into three stages: a fiber noise removal process 431 upon particle detection, a subsequent particle detection process 432, and a PTV-SS method 433 using a PIV vector. These processes will be described below.
ファイバノイズの除去処理431について説明する。PIV処理42Lにおいては、ファイバノイズの除去処理421で、光ファイバ配列の存在する粒子画像41Lから各画素毎に光ファイバ配列の輝度値である粒子画像の加算平均画像I(k)を減算する手法を用いてノイズ除去を行った。このファイバノイズの除去処理431においても、同様の手法を採用してもよい。 The fiber noise removal processing 431 will be described. In the PIV processing 42L, in the fiber noise removal processing 421, a method of subtracting the addition average image I (k) of the particle image that is the luminance value of the optical fiber array for each pixel from the particle image 41L in which the optical fiber array exists. Was used to remove noise. The same method may be adopted in the fiber noise removal processing 431.
しかしながら、この処理では加算平均を用いる都合上、どうしても必要成分である粒子の輝度変化の情報が多少なりとも損失してしまう。このために、粒子検出処理432により粒子検出数が減少してしまうことが考えられる。また、PIV処理42Lにおいては、ファイバノイズにより起因する最大の問題は、粒子検出においては光ファイバの配列パターンを相関値のピークとして検出することであり、PIV処理における粒子検出の際は、この問題は発生しない。 However, in this process, the information on the change in luminance of the particles, which is a necessary component, is inevitably lost due to the use of the averaging. For this reason, it is conceivable that the number of detected particles is reduced by the particle detection processing 432. In the PIV process 42L, the biggest problem caused by fiber noise is to detect the arrangement pattern of the optical fibers as a correlation value peak in the particle detection, and this problem occurs in the particle detection in the PIV process. Does not occur.
そこで、本実施例においては、PTV処理における粒子画像41Lのファイバノイズの除去処理431として、輝度成分情報をできる限り落とさないようにするために、粒子画像41Lに対して光ファイバ25のパターンである画像の高周波数成分を取り除く高周波数フィルタとして空間平均処理を行う。この処理を行うに当たって、イメージガイド26の空間周波数を求め、光ファイバ25のコア径がCCDカメラ24LのCCDアレイの何ピクセルに相当するかを算出する。図10(a)、(b)は実際に撮影したイメージガイド26の画像の任意ラインの輝度値分布と周波数解析の例である。光ファイバ25のコアとクラッドの明暗による輝度値の変化が支配的な空間周波数として検出されると考えられ、この例では、0.320pixels-1がCCDカメラ24Lにおいて撮影されるイメージガイド26の支配的な空間周波数となる。そこで、この例では光ファイバ25のパターンの成分を取り除くために、3.124pixels以下の範囲において空間平均処理を行うことにより、0.320pixels-1以上の空間周波数を取り除いて、ファイバノイズの除去処理を行っている。このファイバノイズの除去処理のためには、上記のような空間平均処理の代わりに、電気信号処理による高周波数の空間周波数を除去する空間周波数フィルタリング処理によってもよい。 Therefore, in the present embodiment, the fiber noise removal process 431 of the particle image 41L in the PTV process is a pattern of the optical fiber 25 with respect to the particle image 41L so as not to drop luminance component information as much as possible. Spatial averaging is performed as a high frequency filter that removes high frequency components of the image. In performing this processing, the spatial frequency of the image guide 26 is obtained, and the number of pixels of the CCD array of the CCD camera 24L corresponding to the core diameter of the optical fiber 25 is calculated. FIGS. 10A and 10B are examples of luminance value distribution and frequency analysis of an arbitrary line of an image of the image guide 26 actually taken. It is considered that a change in luminance value due to the brightness of the core and clad of the optical fiber 25 is detected as a dominant spatial frequency. In this example, the image guide 26 in which 0.320 pixels- 1 is photographed by the CCD camera 24L. Spatial frequency. Therefore, in this example, in order to remove the pattern component of the optical fiber 25, a spatial averaging process is performed in a range of 3.124 pixels or less, thereby removing a spatial frequency of 0.320 pixels -1 or more and removing the fiber noise. It is carried out. In order to remove the fiber noise, a spatial frequency filtering process for removing a high-frequency spatial frequency by electrical signal processing may be used instead of the spatial averaging process as described above.
以上のようにして光ファイバ配列の存在する粒子画像41Lからファイバノイズ除去処理を行った画像から次の粒子検出処理432で粒子検出処理を行う。PTV処理を用いてベクトル情報を算出する際に重要な問題の1つとして、粒子の特定を正確に行う点がある。撮像された粒子画像41Lは輝度の濃淡によって表されるので、粒子の特定の方法としては、ある輝度の閾値を用いた単純2値化法や、マスク演算子を用いた粒子抽出法がある。しかしながら、単純2値化法は、画像のノイズ等の要因により粒子間の輝度変動が大きい場合には粒子の検出数が大幅に減少したり、一部分重なっている粒子を同一粒子と認識するといった問題点がある。また、マスク演算子を用いた粒子抽出法には粒子形状が推定パターンと一致しなければなないという問題点がある。 The particle detection process is performed in the next particle detection process 432 from the image obtained by performing the fiber noise removal process from the particle image 41L in which the optical fiber array exists as described above. One of the important problems when calculating vector information using PTV processing is that the particles are specified accurately. Since the captured particle image 41L is represented by brightness gradation, a particle specifying method includes a simple binarization method using a certain luminance threshold and a particle extraction method using a mask operator. However, the simple binarization method has a problem that the number of detected particles is greatly reduced or the partially overlapping particles are recognized as the same particle when the luminance fluctuation between particles is large due to factors such as image noise. There is a point. In addition, the particle extraction method using the mask operator has a problem that the particle shape must match the estimated pattern.
そこで、本発明においては、2値化法の閾値をそれぞれの粒子毎に決定することで、輝度変動が大きい場合への適用が可能な動的2値化法(非特許文献4)を適用する。動的2値化法では、個々の粒子に対して異なる閾値を設定することにより、画像全体における輝度分布のばらつきによって粒子検出精度が低下するという問題を解消している。この動的2値化法の概要を図11に示す。初期閾値は、画像を分割し(図12)、その領域内における輝度の平均値Iavg を利用する。単に画像の輝度平均値を初期の閾値(x,y)として2値化を行うと、隣接する領域の閾値が異なるとき、領域の境界で誤って粒子を抽出するという問題があるため、補間を行い滑らかに初期閾値を設定する。図12に示すように、分割領域の中心座標(x1 ,y1 )、(x1 ,y2 )、(x2 ,y2 )、(x2 ,y1 )における初期閾値は、平均輝度Iavg1、Iavg2、Iavg3、Iavg4として、x1 <x<x2 、y1 <y<y2 の範囲において、座標(x,y)の初期閾値(x,y)は周り4点の平均輝度から補間を行う。2次元で、格子の目毎の双1次補間(bilinear interpolation)であり、その式は、
i≡(x−x1 )/(x2 −x1 )
j≡(y−y1 )/(y2 −y1 )
・・・(6)
となり、これらi、jで表されるパラメータを用いて、次式で表される。
Therefore, in the present invention, a dynamic binarization method (Non-patent Document 4) that can be applied to a case where luminance fluctuation is large is applied by determining the threshold value of the binarization method for each particle. . In the dynamic binarization method, by setting different threshold values for individual particles, the problem that the particle detection accuracy decreases due to variations in the luminance distribution in the entire image is solved. An outline of this dynamic binarization method is shown in FIG. As an initial threshold value, an image is divided (FIG. 12), and an average luminance value I avg in the region is used. If binarization is performed simply using the average luminance value of the image as the initial threshold value (x, y), there is a problem in that particles are erroneously extracted at the boundary of the region when the threshold values of adjacent regions are different. Set the initial threshold smoothly. As shown in FIG. 12, the initial threshold value in the center coordinates (x 1 , y 1 ), (x 1 , y 2 ), (x 2 , y 2 ), (x 2 , y 1 ) of the divided area is the average luminance. I avg1, I avg2, I avg3 , as I avg4, x 1 <x <in x 2, y 1 <y <range of y 2, the coordinates (x, y) the initial threshold (x, y) around four points Interpolation is performed from the average luminance. In two dimensions, bilinear interpolation per grid eye, the equation is
i≡ (x−x 1 ) / (x 2 −x 1 )
j≡ (y−y 1 ) / (y 2 −y 1 )
... (6)
And using the parameters represented by i and j,
Θ(x,y)=(1−i)(1−j)Iavg1+i(1−j)Iavg2
+ijIavg3+(1−i)jIavg4 ・・・(7)
双1次補間は、補間点が格子の目から目へ移動する際に、補間関数(x,y)の値は連続的に変化するため、粒子の検出の精度が向上する。その後、ラベリングを行い、2値化画像の粒子として認識された領域の面積Sを求め、設定した範囲(S1 <S<S2 )の値であれば粒子とみなし、閾値(x,y)は変更しない。S1 より小さければ2値化された領域は粒子ではなくノイズであると見なして、その領域の閾値(x,y)を最大値に増加させる、逆に、S2 より大きければ、2値化された領域は複数の粒子を含むとして閾値(x,y)を増加させる。閾値設定、2値化、ラベリング、判定のサイクルを繰り返し、画面全領域で閾値の変化が行われなくなるまで繰り返す。
Θ (x, y) = (1-i) (1-j) I avg1 + i (1-j) I avg2
+ IjI avg3 + (1-i) jI avg4 (7)
Bilinear interpolation improves the accuracy of particle detection because the value of the interpolation function (x, y) changes continuously when the interpolation point moves from eye to eye of the grid. Thereafter, labeling is performed to determine the area S of the region recognized as a particle of the binarized image. If the value is within the set range (S 1 <S <S 2 ), it is regarded as a particle, and the threshold value (x, y) Does not change. If it is smaller than S 1, the binarized region is regarded as noise rather than particles, and the threshold (x, y) of the region is increased to the maximum value. Conversely, if it is larger than S 2 , binarization is performed. The threshold value (x, y) is increased on the assumption that the region thus obtained includes a plurality of particles. The cycle of threshold setting, binarization, labeling, and determination is repeated until the threshold is not changed in the entire screen area.
後記のように、本発明ではPTV−SS法を適用するため、粒子はストリークの形状で撮像されているので、個々の粒子面積は光ファイバ1本によって生じる輝度分布に比べ十分大きくなる。そのため、上記の動的2値化処理のパラメータである最小粒子面積S1 を光ファイバ1本による輝度分布より大きく設定することで、光ファイバのパターンを粒子と認識しなくすることが可能である。 As will be described later, since the PTV-SS method is applied in the present invention, the particles are imaged in a streak shape, so that the area of each particle is sufficiently larger than the luminance distribution generated by one optical fiber. Therefore, by setting the minimum particle area S 1 , which is a parameter of the above-described dynamic binarization process, to be larger than the luminance distribution by one optical fiber, it is possible to prevent the optical fiber pattern from being recognized as particles. .
以上のファイバノイズの除去処理431と粒子検出処理432を経て、光ファイバのパターンであるファイバノイズが除去され、動的2値化法により個々の粒子に対して異なる閾値を設定して2値化された微小時間異なる2時刻の粒子画像(「参照画像」と「探索画像」)41Lを用いて、PIVベクトルを用いたPTV−SS法433において、個々の粒子の移動量を求める。ただし、この際用いる粒子画像41Lは、前記したように、半導体レーザの発光時間を比較的長くとった粒子軌跡画像を用いる。 Through the fiber noise removal processing 431 and the particle detection processing 432 described above, fiber noise, which is an optical fiber pattern, is removed, and binarization is performed by setting different threshold values for individual particles by a dynamic binarization method. Using the particle images (“reference image” and “search image”) 41L at two different times, the movement amount of each particle is obtained in the PTV-SS method 433 using the PIV vector. However, as described above, the particle image 41L used in this case is a particle locus image in which the emission time of the semiconductor laser is relatively long.
以下、まず、粒子軌跡追跡法(PTV−SS)を説明し、その際に、PIV処理42Lによって得られたPIVベクトルを補助的なベクトル情報として利用してPTV−SS法で検出される2つの可能なベクトルの中の1つに限定する点を説明する。 Hereinafter, first, the particle trajectory tracking method (PTV-SS) will be described. At this time, two PTV-SS methods detected by the PTV-SS method using the PIV vector obtained by the PIV processing 42L as auxiliary vector information are described. The point of limiting to one of the possible vectors will be described.
PTV−SS法は、前記のように、照明光源のレーザ発振装置11として用いる半導体レーザの発光時間を比較的長くとり、粒子の流跡を記録する方法であり、粒子群ではなく個々に粒子の移動量を見積もる方法である。これは、流跡を記録することにより、必要以上に粒子像径を大きくとることなく、かつ、最小の空間分解能となる光ファイバ25単繊維に対して十分な粒子像の情報を与えることができるためである。PTV−SS法は、レーザ発振装置11の発光時間を容易に制御することができる半導体レーザを用いることによって可能となる。 As described above, the PTV-SS method is a method in which the emission time of the semiconductor laser used as the laser oscillation device 11 of the illumination light source is relatively long and the track of particles is recorded. This is a method for estimating the amount of movement. This is because, by recording a trace, it is possible to provide sufficient particle image information for the single optical fiber 25 having a minimum spatial resolution without taking a particle image diameter larger than necessary. Because. The PTV-SS method is made possible by using a semiconductor laser that can easily control the light emission time of the laser oscillation device 11.
ここで、本発明で用いているPTV−SS法と従来のPTV法の比較を図13に示す。図13中、(a1)と(a2)はそれぞれの方法の参照画像と探索画像を示す図であり、(b1)と(b2)はそれぞれの方法の半導体レーザの発振タイミングを示す図である。また、PTV−SS法の粒子の軌跡の部分のみに関する図を図14に示す。 Here, FIG. 13 shows a comparison between the PTV-SS method used in the present invention and the conventional PTV method. In FIG. 13, (a1) and (a2) are diagrams showing reference images and search images of the respective methods, and (b1) and (b2) are diagrams showing oscillation timings of the semiconductor lasers of the respective methods. Further, FIG. 14 shows a diagram relating only to the particle trajectory portion of the PTV-SS method.
PTV−SS法は、図13(a1)に示すように、レーザ照射時間td を粒子移動速度に対して長めに設定することで、参照画像中、探索画像中に図14に示すように長軸と短軸を持つ移動軌跡を記録するようにする。これに対して、PTV法では、図13(a2)に示すように、レーザ照射時間を粒子移動速度に対して短いので、粒子像のみで移動軌跡は記録されない。 PTV-SS method, as shown in FIG. 13 (a1), by setting the longer the laser irradiation time t d the particle migration velocity, in the reference image, the length as shown in FIG. 14 in the search image A movement trajectory with an axis and a short axis is recorded. On the other hand, in the PTV method, as shown in FIG. 13 (a2), the laser irradiation time is shorter than the particle moving speed, so that the moving locus is not recorded only by the particle image.
ここで、レーザ照射時間をtd 、レーザ照射間隔をΔt、移動軌跡の長軸、短軸の長さをそれぞれLp1、Lp とすると、粒子の速度が次の撮影画像まで一定という条件の下に、次の式(8)で次の粒子位置を推定することができる。 Here, assuming that the laser irradiation time is t d , the laser irradiation interval is Δt, and the major axis and minor axis length of the movement trajectory are L p1 and L p , respectively, the condition is that the particle velocity is constant until the next captured image. Below, the next particle position can be estimated by the following equation (8).
L=(Lp1−Lp )Δt/td ・・・(8)
ここで、Lは、次の撮影画像までの推定移動距離である。この値が粒子の軌跡画像から推定できることによって、図13(a2)、(b2)のような従来の相互相関のみを用いたPTV法に比べて、効率的に探索窓画像を設定することができ、計算量の減少、つまり、PTVの計算の速度の向上が行われる。また、広い探索窓画像を開く図13(a2)の場合に比べ、粒子の移動位置を推定することで、粒子の検出の誤対応が大幅に減少する。なお、このようにして設定された「探索窓画像」と「参照窓画像」との間で式(4)と式(5)に基づいて相互相関を計算することにより、個々の粒子の移動量が求まる。
L = (L p1 −L p ) Δt / t d (8)
Here, L is an estimated moving distance to the next photographed image. Since this value can be estimated from the particle trajectory image, the search window image can be set more efficiently than the conventional PTV method using only the cross-correlation as shown in FIGS. 13 (a2) and (b2). The calculation amount is reduced, that is, the calculation speed of the PTV is improved. In addition, as compared with the case of FIG. 13A2 in which a wide search window image is opened, the erroneous correspondence in particle detection is greatly reduced by estimating the movement position of particles. In addition, by calculating the cross-correlation between the “search window image” and the “reference window image” thus set based on the equations (4) and (5), the amount of movement of each particle Is obtained.
このように、本発明においては、PTV−SS法を適用することで、粒子の軌跡長さから次の時間の画像の粒子位置を推定することで粒子の誤対応を減少させることが可能となる。しかし、粒子の軌跡からのみの情報では、移動先が唯一に決まる訳ではなく、図15(a)に示すように、相互に180°異なる2つのベクトルが移動候補となる。従来は、方向情報に関しては流動場によって人為的に設定値を与えることで唯一のベクトルとなるように処理していたが、様々な流動場への対応を行うにはこれは不十分である。 As described above, in the present invention, by applying the PTV-SS method, it is possible to reduce particle miscorrespondence by estimating the particle position of the next time image from the particle trajectory length. . However, with the information only from the particle trajectory, the destination of movement is not uniquely determined, and two vectors that are 180 ° different from each other are candidates for movement, as shown in FIG. Conventionally, the direction information has been processed so as to become a single vector by artificially giving a set value by the flow field, but this is insufficient to cope with various flow fields.
そこで、本発明においては、この方向情報を決定するために、PIV処理42Lによって得られたPIVベクトルの方向を用いて、図15(b)のように粒子の軌跡からのみの情報では存在した2つのベクトルの可能性を、そのPIVベクトルの方向に向いた1つのベクトルに限定するようにする。なお、図15(b)の背景の白い矢印群がPIVベクトルであり、×印を付されたベクトルが可能性を否定されたベクトルであり、○印を付されたベクトルが可能性を肯定され、残るベクトルである。 Therefore, in the present invention, in order to determine this direction information, using the direction of the PIV vector obtained by the PIV process 42L, the information only exists from the particle trajectory as shown in FIG. Limit the possibility of one vector to one vector pointing in the direction of the PIV vector. Note that the white arrow group in the background of FIG. 15B is the PIV vector, the vector marked with a cross is a negated vector, and the vector marked with a circle is affirmed the possibility. The remaining vector.
図16に、例示として、トレーサ粒子の混入したグリセリン溶液を回転円盤上に設置して形成した擬似的な流れを撮影した粒子軌跡画像41Lから、上記のPIVベクトルを用いたPTV−SS法433で算出した移動量検出結果を示すベクトルマップを示す。 In FIG. 16, as an example, a PTV-SS method 433 using the above-described PIV vector is used from a particle trajectory image 41L obtained by imaging a pseudo flow formed by placing a glycerin solution mixed with tracer particles on a rotating disk. The vector map which shows the calculated movement amount detection result is shown.
このように、PIVベクトルを用いたPTV−SS法433において、PIV処理42Lによって得られたPIVベクトルを補助的に用いて、人為的なパラメータの設定をしないで、様々な流動場において自動で粒子の移動方向と移動量を計測することができる。 As described above, in the PTV-SS method 433 using the PIV vector, the PIV vector obtained by the PIV process 42L is used as an auxiliary, and the particle is automatically set in various flow fields without setting artificial parameters. The moving direction and amount of movement can be measured.
ところで、PTV−SS処理43Lにおける相互相関法による移動量の計測精度は、CCDカメラ24L、24Rによって得られる画像が空間的に離散化されたものであることから、得られる移動量は整数値である。そのため、整数値以下の移動量は相互相関法では導き出すことができない。したがって、このような流速計においては、1ピクセル以下の粒子移動量(サブピクセル移動量)の評価が必要であり、この特性を十分に考慮する必要がある。一般的には、近似関数として正規分布関数を使用して計測結果をサブピクセル精度化することが多い。これは、相互相関に用いる粒子画像が正規分布関数と同じで、そのためそれらの相互相関値マップも同様にガウス分布関数の形をとるからである。しかしながら、本発明においては、ファイバスコープを通して粒子画像を撮像するため、粒子画像が劣化して粒子の輝度分布が正規分布関数の形状をなさない。図18はファイバスコープを通した場合の粒子軌跡画像での相互相関マップの例を示す図である。ファイバスコープを通した粒子画像の場合は、光ファイバ25のコアによる影響、クラッドによる影響を大きく受け、図18のように光ファイバ25の周波数成分が大幅に突出した相関値マップになっていることが分かる。このため、図18の相関値マップに対してサブピクセル移動量算出を行う際に、正規分布関数を用いて近似を行うことは適正ではない。 By the way, the measurement accuracy of the movement amount by the cross-correlation method in the PTV-SS processing 43L is that the images obtained by the CCD cameras 24L and 24R are spatially discretized, and thus the movement amount obtained is an integer value. is there. Therefore, the amount of movement below the integer value cannot be derived by the cross correlation method. Therefore, in such an velocimeter, it is necessary to evaluate the particle movement amount (subpixel movement amount) of one pixel or less, and it is necessary to fully consider this characteristic. In general, a normal distribution function is often used as an approximation function to make the measurement result subpixel accurate. This is because the particle images used for the cross-correlation are the same as the normal distribution function, and therefore their cross-correlation value maps similarly take the form of a Gaussian distribution function. However, in the present invention, since the particle image is captured through the fiberscope, the particle image is deteriorated, and the luminance distribution of the particles does not form the normal distribution function. FIG. 18 is a diagram showing an example of a cross-correlation map in a particle trajectory image when passing through a fiberscope. In the case of a particle image passing through a fiberscope, the correlation value map is greatly influenced by the core and clad of the optical fiber 25, and the frequency component of the optical fiber 25 significantly protrudes as shown in FIG. I understand. For this reason, it is not appropriate to perform approximation using the normal distribution function when calculating the sub-pixel movement amount with respect to the correlation value map of FIG.
そこで、本発明においては、PTV−SS処理43Lに続く光ファイババンドルによる画像劣化のサブピクセル処理44Lにおいて、計測結果をサブピクセル精度化するための近似関数として参照画像の自己相関マップを使用する。参照画像の自己相関マップの例を図17に示す。そして、算出された相互相関値マップ(図19)に対して、2次曲線近似を行い、最終的なサブピクセル移動量を算出する。 Therefore, in the present invention, the autocorrelation map of the reference image is used as an approximation function for subpixel accuracy of the measurement result in the subpixel processing 44L for image degradation due to the optical fiber bundle following the PTV-SS processing 43L. An example of the autocorrelation map of the reference image is shown in FIG. Then, a quadratic curve approximation is performed on the calculated cross-correlation value map (FIG. 19) to calculate the final subpixel movement amount.
ここで、1つの粒子のサブピクセル移動量算出手順をまとめると、以下のようになる。 Here, the sub-pixel movement amount calculation procedure for one particle is summarized as follows.
1.参照画像の自己相関値をならべた自己相関値マップを作成する(図17)。 1. An autocorrelation value map in which the autocorrelation values of the reference images are arranged is created (FIG. 17).
2.参照画像と探索画像の相互相関値をならべた相互相関値マップを作成する(図18)。 2. A cross-correlation value map in which the cross-correlation values of the reference image and the search image are arranged is created (FIG. 18).
3.相互相関値マップ(図18)においてサブピクセル精度で最大点を求めるため、自己相関値マップ(図17)を近似関数として用いる。 3. In order to obtain the maximum point with sub-pixel accuracy in the cross-correlation value map (FIG. 18), the autocorrelation value map (FIG. 17) is used as an approximation function.
4.自己相関値マップ(図17)と相互相関値マップ(図18)の相互相関値を並べた相互相関値マップ(図19)を作成する。 4). A cross-correlation value map (FIG. 19) in which the cross-correlation values of the autocorrelation value map (FIG. 17) and the cross-correlation value map (FIG. 18) are arranged is created.
5.算出された相互相関値マップ(図19)に対して、2次曲線近似を行い、最終的なサブピクセル移動量を算出する。 5. A quadratic curve approximation is performed on the calculated cross-correlation value map (FIG. 19) to calculate the final subpixel movement amount.
図20に、自己相関値マップと相互相関値マップの相互相関値から得られた相互相関値マップに2次曲線近似を行った一例を示す(ただし、この例は1次元方向の2次曲線近似である。)。 FIG. 20 shows an example in which quadratic curve approximation is performed on a cross-correlation value map obtained from the cross-correlation values of the autocorrelation value map and the cross-correlation value map (however, this example is a quadratic curve approximation in a one-dimensional direction). .)
光ファイババンドルによる画像劣化のサブピクセル処理44Lにおける以上の手順を踏むことで、粒子径や粒子の速度により粒子画像に違いが生じた場合においても、それぞれに対応した近似関数を設定することが可能になる。また、これによって光ファイバによる低解像度化とクラッドによる像の欠落がサブピクセル移動量算出に及ぼす影響を大幅に軽減することが可能となる。 By following the above procedure in the sub-pixel processing 44L for image degradation due to optical fiber bundles, it is possible to set an approximate function corresponding to each particle even when there is a difference in particle image due to particle diameter or particle velocity. become. In addition, this makes it possible to significantly reduce the influence of the resolution reduction by the optical fiber and the image loss due to the clad on the subpixel movement amount calculation.
以上のPIV処理42L(ファイバノイズの除去処理421、相互相関PIV処理422、誤ベクトル除去及び空間平均処理423)、PTV−SS処理43L(ファイバノイズの除去処理431、粒子検出処理432、PIVベクトルを用いたPTV−SS法433)、光ファイババンドルによる画像劣化のサブピクセル処理44Lを経て、次の最終的なベクトルデータ処理45Lにおいて、左のCCDカメラ24Lで撮像された左のカメラ画像41Lから算出される2次元速度ベクトルデータ情報が得られる。 The above PIV processing 42L (fiber noise removal processing 421, cross-correlation PIV processing 422, erroneous vector removal and spatial averaging processing 423), PTV-SS processing 43L (fiber noise removal processing 431, particle detection processing 432, PIV vector Using the PTV-SS method 433) and the sub-pixel processing 44L for image degradation due to the optical fiber bundle, the next final vector data processing 45L is calculated from the left camera image 41L captured by the left CCD camera 24L. Two-dimensional velocity vector data information is obtained.
右のCCDカメラ24Rで撮像された右のカメラ画像41Rについても、PIV処理42L(ファイバノイズの除去処理421、相互相関PIV処理422、誤ベクトル除去及び空間平均処理423)、PTV−SS処理43L(ファイバノイズの除去処理431、粒子検出処理432、PIVベクトルを用いたPTV−SS法433)、光ファイババンドルによる画像劣化のサブピクセル処理44Lと同様の処理を経て、次の最終的なベクトルデータ処理45Rにおいて2次元速度ベクトルデータ情報が得られる。 Also for the right camera image 41R captured by the right CCD camera 24R, PIV processing 42L (fiber noise removal processing 421, cross-correlation PIV processing 422, erroneous vector removal and spatial averaging processing 423), PTV-SS processing 43L ( Fiber noise removal processing 431, particle detection processing 432, PTV-SS method 433 using PIV vectors, and processing similar to sub-pixel processing 44L for image degradation due to optical fiber bundles are performed, and the following final vector data processing Two-dimensional velocity vector data information is obtained at 45R.
これら左右のカメラ画像41L、41Rについて得られる2次元速度ベクトルデータ情報ぞれぞれを本発明に基づく流動計測結果としてもよいが、以上の実施例においては、左右視差を持った一対の2次元速度ベクトルデータ情報が得られているので、その一対の2次元速度ベクトルデータ情報から、次の3次元再構成処理46により3次元速度ベクトルデータ情報を得るようにして、3次元性を有する流動場の3次元流動計測が可能になる。以下に、この3次元再構成処理46について説明する。 Each of the two-dimensional velocity vector data information obtained for the left and right camera images 41L and 41R may be obtained as a flow measurement result based on the present invention. In the above embodiment, a pair of two-dimensional images having left and right parallaxes are used. Since velocity vector data information is obtained, a flow field having three-dimensionality is obtained by obtaining three-dimensional velocity vector data information from the pair of two-dimensional velocity vector data information by the next three-dimensional reconstruction processing 46. 3D flow measurement becomes possible. Hereinafter, the three-dimensional reconstruction process 46 will be described.
ここで利用するのは、ステレオPTVと呼ばれる方法であり、2台の撮像系(CCDカメラ24L、24R及びその光学系27a、27b、28等)と較正による3次元情報とを用いることによって、速度の第3方向成分の計測を可能にするものである。すなわち、レーザシート17でシート状に照明された領域を貫く方向に存在している方向成分を計測し、3方向成分速度ベクトルの2次元的分布を同時に計測する手法である。そして、マッピング関数による実座標とカメラ内座標との対応付けを行うことにより、光学窓及び作動流体による屈折の影響を無視して計測することが可能となっており、したがって、湾曲した光学窓を有する流路等これまで計測が困難とされた系の計測を行うことも可能である。 What is used here is a method called stereo PTV, which uses two imaging systems (CCD cameras 24L, 24R and their optical systems 27a, 27b, 28, etc.) and three-dimensional information by calibration, thereby speeding up. It is possible to measure the third direction component. That is, this is a method of measuring the direction component existing in the direction penetrating the region illuminated by the laser sheet 17 and simultaneously measuring the two-dimensional distribution of the three-direction component velocity vectors. Then, by associating the actual coordinates by the mapping function with the coordinates in the camera, it is possible to ignore the influence of refraction due to the optical window and the working fluid, and therefore, the curved optical window can be measured. It is also possible to measure a system such as a flow channel that has been difficult to measure.
ステレオPTVは、図21のように、較正によって実座標と2台のカメラのカメラ内座標(以下、ピクセル座標と称する。) との対応付けを行うことで、実座標系での速度の算出を行うものである。実座標とピクセル座標との対応付けは、レンズの収差、流体及び光学窓による屈折、遠近効果を伴うために、その関数を厳密に決定することは困難である。特に、ファイバスコープの対物レンズ27aはレンズ径が小さく、焦点距離も短い。焦点距離の短いレンズ系では、歪曲収差が無視できないものとなる。また、CCDカメラ24L、24Rの撮像面に対しレーザシート17が傾きを持っているため、カメラ内座標と実座標との対応付けが重要になってくる。また、その較正によって得られたデータは、粒子の3成分位置の算出を行う上で非常に重要になってくる。しかし、実座標とピクセル座標との対応付けは、レンズの収差、流体及び光学窓による屈折、遠近効果を伴うために、その関数を厳密に決定することは困難である。そこで、本実施例では、マッピング関数と呼ばれる実座標とピクセル座標を対応付ける関数を用いる方法(非特許文献3)を採用する。 As shown in FIG. 21, the stereo PTV performs the calculation of the velocity in the real coordinate system by associating the real coordinates with the in-camera coordinates of the two cameras (hereinafter referred to as pixel coordinates) by calibration. Is what you do. Since the correspondence between the real coordinates and the pixel coordinates is accompanied by lens aberration, refraction due to fluid and optical windows, and perspective effects, it is difficult to determine the function precisely. In particular, the objective lens 27a of the fiberscope has a small lens diameter and a short focal length. In a lens system with a short focal length, distortion is not negligible. In addition, since the laser sheet 17 is inclined with respect to the imaging surfaces of the CCD cameras 24L and 24R, it is important to associate the coordinates in the camera with the actual coordinates. In addition, the data obtained by the calibration becomes very important in calculating the three-component position of the particle. However, since the association between the real coordinates and the pixel coordinates involves lens aberration, refraction by the fluid and the optical window, and perspective effects, it is difficult to determine the function precisely. Therefore, in this embodiment, a method using a function that associates real coordinates and pixel coordinates called a mapping function (Non-Patent Document 3) is adopted.
すなわち、マッピング関数は、実座標x,yをピクセル座標値X,Yの多項式によって近似するものである。本実施例では、以下の式(9)に示されるような3次の多項式への近似を採用する。 That is, the mapping function approximates the actual coordinates x and y by a polynomial of pixel coordinate values X and Y. In this embodiment, an approximation to a cubic polynomial as shown in the following equation (9) is adopted.
x=XAに対して、
XT x=XT XA ・・・(10)
ここで、Xは式(9)のピクセル座標値行列に、xが式(9)の実座標値行列に、Aが式(9)の係数行列にそれぞれ対応する。正規方程式によって転置行列との積XT Xは正方行列となり、その逆行列(XT X)-1は簡便に求めることが可能である。係数行列Aを算出することにより、カメラ内座標を実座標へ変換することが式(9)を介して可能となる。
For x = XA,
X T x = X T XA (10)
Here, X corresponds to the pixel coordinate value matrix of Equation (9), x corresponds to the real coordinate value matrix of Equation (9), and A corresponds to the coefficient matrix of Equation (9). The product X T X with the transposed matrix becomes a square matrix by the normal equation, and the inverse matrix (X T X) −1 can be easily obtained. By calculating the coefficient matrix A, it is possible to convert the in-camera coordinates to the real coordinates via the equation (9).
その逆に、実座標からカメラ内座標への変換は、係数行列の逆行列を算出することによって容易に行うことができる。また、2台のカメラ内座標の対応付け同様の方法によって行うことが可能であり、2台のカメラ内の座標と実座標とが相互に対応づけられる。 Conversely, conversion from real coordinates to in-camera coordinates can be easily performed by calculating an inverse matrix of a coefficient matrix. Further, it can be performed by a method similar to associating the coordinates in the two cameras, and the coordinates in the two cameras and the actual coordinates are associated with each other.
本実施例における具体的な較正手順について以下に説明する。 A specific calibration procedure in the present embodiment will be described below.
まず、図22に示されるような16点の格子点を持つキャリブレーションシート(白部分は光が透過)を印刷して作成する。本実施例においては、格子点間隔が2.5mmのものを作成した。このキャリブレーションシートを、図23に示すように3箇所(z=a,0,b)それぞれの位置に移動させて、左右2台のカメラA、Bによりそのキャリブレーションシートの画像を撮像する。撮影されたピクセル画像を元に16点の格子点の位置を検出する。検出の際には、粒子検出処理432で説明した粒子検出アルゴリズムを用いる。ピクセル座標を算出した後に、式(9)、式(10)より左右のカメラにより3箇所ずつ撮像された計6枚のピクセル画像に対しての係数行列を求める。ここで、カメラAにおけるz=aの位置での係数行列をAa 、z=bにおける係数行列をAb 、z=0における係数行列をAc 、カメラBにおけるz=aの位置での係数行列をBa 、z=bにおける係数行列をBb 、z=0における係数行列をBc とする。 First, a calibration sheet having 16 lattice points as shown in FIG. 22 (white portion transmits light) is created by printing. In the present embodiment, a sample having a lattice point spacing of 2.5 mm was prepared. As shown in FIG. 23, the calibration sheet is moved to each of three positions (z = a, 0, b), and images of the calibration sheet are taken by the two cameras A and B on the left and right. The positions of 16 grid points are detected based on the captured pixel image. In the detection, the particle detection algorithm described in the particle detection process 432 is used. After calculating the pixel coordinates, a coefficient matrix is obtained for a total of six pixel images captured by the left and right cameras at three locations from Equations (9) and (10). Here, the coefficient matrix at the position of z = a in the camera A is A a , the coefficient matrix at z = b is A b , the coefficient matrix at z = 0 is A c , and the coefficient at the position of z = a in the camera B is The matrix is B a , the coefficient matrix at z = b is B b , and the coefficient matrix at z = 0 is B c .
このようにして算出された変換行列を元に、実際の3次元座標を算出していく。その手法を次に説明する。 Based on the conversion matrix thus calculated, the actual three-dimensional coordinates are calculated. The method will be described next.
上記の較正方法を利用して、粒子の3次元実座標を算出する方法を説明する。図24は、粒子の実座標の算出の概念図であり、レーザシートによって照明された領域を上方から見た図であり、まず片方のカメラに関して、z=a,bの左右における2枚の較正行列に対して式(9)により実座標を算出する。これにより、2点の実空間座標(xa ,ya ,a),(xb ,yb ,b)が求まる。これを結ぶ直線の式は、 (x−xa )/(xa −xb )=(y−ya )/(ya −yb )
=(z−a)/(a−b) ・・・(11)
となる。同様にしてもう一方のカメラに関して直線の式を求め、この2直線が交わる位置が実際の粒子の位置となる。しかし、実際にはカメラの解像度が有限であることに起因する誤差、2次元ベクトルに内在する誤差、ノイズの影響等によって2直線は厳密には交差しない。本実施例では、2直線間の距離が最小となる2直線上の点の中点を以って交差点と見なして処理を行う。
A method of calculating the three-dimensional real coordinates of the particles using the above calibration method will be described. FIG. 24 is a conceptual diagram of the calculation of the actual coordinates of the particles, and is a view of the area illuminated by the laser sheet as viewed from above. First, for one camera, two calibrations on the left and right sides of z = a and b are performed. Real coordinates are calculated for the matrix by equation (9). As a result, the two real space coordinates (x a , y a , a), (x b , y b , b) are obtained. The formula of the straight line connecting these is (x−x a ) / (x a −x b ) = (y−y a ) / (y a −y b )
= (Za) / (ab) (11)
It becomes. Similarly, a straight line equation is obtained for the other camera, and the position where these two straight lines intersect is the actual particle position. However, in reality, the two straight lines do not intersect exactly due to an error caused by the limited resolution of the camera, an error inherent in the two-dimensional vector, the influence of noise, and the like. In the present embodiment, the process is performed by regarding the midpoint of the point on the two straight lines that minimizes the distance between the two straight lines as an intersection.
しかし、この処理を行うに当たっては、まず左右のカメラにおける粒子の対応付けを行わなくてはならない。そこで、実際には、まず粒子の対応候補を探すために、全ての粒子がz=0に存在すると仮定し、z=0における係数行列Ac 、Bc を用いて実座標に変換をする。変換された実座標値は粒子がz=0と仮定した位置であるので、左右のカメラの粒子の実座標値は必ずしも一致しない。そこで、左カメラのある粒子の周囲に存在する右カメラの粒子の候補を求め、その候補全てに対して図24の2直線の対応付け処理を行う。この処理を行い、最も直線間距離が短い場合を同一粒子とみなし、粒子の対応付け処理を行う。 However, in performing this processing, first, the particles must be associated with each other on the left and right cameras. Therefore, in actuality, first, in order to search for a corresponding candidate for a particle, it is assumed that all particles exist at z = 0, and conversion into real coordinates is performed using coefficient matrices A c and B c at z = 0. Since the converted real coordinate value is a position where the particle is assumed to be z = 0, the real coordinate values of the left and right camera particles do not necessarily match. Accordingly, the right camera particle candidates existing around a certain particle of the left camera are obtained, and the two straight lines in FIG. 24 are associated with each of the candidates. This process is performed, the case where the distance between the straight lines is the shortest is regarded as the same particle, and the particle matching process is performed.
3次元再構成処理46においては、最終的なベクトルデータ処理45L、45Rにおいて、左右のCCDカメラ24L、24Rで同期して撮像され、PTV−SS処理433で対応づけられた個々の粒子の相互に微小時間異なる第1時刻と第2時刻における実座標値を上記の手法で求めることにより、3次元速度ベクトルデータ情報が得られる。 In the three-dimensional reconstruction process 46, in the final vector data processes 45L and 45R, images of the individual particles captured in synchronization with the left and right CCD cameras 24L and 24R and correlated in the PTV-SS process 433 are exchanged. Three-dimensional velocity vector data information can be obtained by obtaining the actual coordinate values at the first time and the second time that are slightly different from each other by the above method.
以上の本発明の流動計測方法の実流動場への適用性を確認するために、図25に示すような配置で、軸対称噴流(出口流速214mm/s,Re =5300)の高さ2D(D=ノズル直径) における速度計測実験を行った。第3方向(z方向)成分が検出されているかを検証するために、流動場に対して約15°プローブを傾け計測した結果の空間平均ベクトルは図26、図27に示すようなものであり、平均13.3°の傾きが検出された。 In order to confirm the applicability of the flow measurement method of the present invention to an actual flow field, the height 2D of the axially symmetric jet (outlet flow velocity 214 mm / s, Re = 5300) is arranged as shown in FIG. A speed measurement experiment was conducted at D = nozzle diameter. In order to verify whether or not the third direction (z direction) component is detected, the spatial average vector obtained by measuring the probe by tilting about 15 ° with respect to the flow field is as shown in FIGS. An average slope of 13.3 ° was detected.
また、次の表1は、従来(例えば非特許文献1)と本発明の計測方法の手法を用いて50組100枚の同一画像を処理した結果、検出された3次元ベクトル数の関係である。従来の手法においては、x軸を中心としてレーザーシートを回転させた場合、つまり、レーザーシートの面を貫く方向に流動場が発生している場合においてのベクトル算出数が約1/3に減少していたが、本発明の方法を用いた場合は、そのような減少は見られなかった。また、ベクトル検出数においても、平均して約25倍程度の増加が見られた。 Table 1 below shows the relationship between the number of three-dimensional vectors detected as a result of processing 50 sets and 100 identical images using the conventional measurement method (for example, Non-Patent Document 1) and the method of the present invention. . In the conventional method, when the laser sheet is rotated around the x-axis, that is, when a flow field is generated in a direction penetrating the surface of the laser sheet, the number of vector calculations is reduced to about 1/3. However, such a decrease was not observed when the method of the present invention was used. In addition, the number of vector detections increased by about 25 times on average.
表1 ┌────┬──────┬──────┬───────┐ │傾斜角度│旧手法(本)│本手法(本)│検出割合(倍)│ ├────┼──────┼──────┼───────┤ │ 0°│ 289 │ 3583 │ 12.40 │ ├────┼──────┼──────┼───────┤ │ 15°│ 99 │ 3844 │ 38.83 │ ├────┼──────┼──────┼───────┤ │ 30°│ 127 │ 3967 │ 31.24 │ └────┴──────┴──────┴───────┘ 。 Table 1 ┌────┬──────┬──────┬───────┐ │Tilt angle │Old method (this) │ This method (this) │ Detection rate (times) ) │ ├────┼──────┼──────┼───────┤ │ 0 ° │ 289 │ 3583 │ 12.40 │ ├────┼── ────┼──────┼───────┤ │ 15 ° │ 99 │ 3844 │ 38.83 │ ├────┼──────┼───── ─┼───────┤ │ 30 ° │ 127 │ 3967 │ 31.24 │ └────┴──────┴──────┴──────┘.
以上のように、本発明によると、より信頼性が高くより精度が高く精密な測定が可能な流体の流動計測システム及びその計測方法が達成できた。 As described above, according to the present invention, it is possible to achieve a fluid flow measurement system and a measurement method thereof that are more reliable, more accurate, and capable of precise measurement.
10…流動計測システム
11…レーザ発振装置
12…送光用光ファイバ
13…レーザシート形成用光学系
14…流体流動場
17…レーザシート
17a…測定範囲
18…レンズ群
19a、19b、19c…平凸レンズ
19d…平凹シリンドリカルレンズ
22、22L、22R…画像伝送手段
24、24L、24R…CCDカメラ
25…光ファイバ
26…イメージガイド
27a…対物レンズ
27b…45°直角プリズム
28…カメラレンズ
29L、29R…画像撮像手段
30…シグナルジェネレータ
31…パソコン
32…レーザドライバ
33…ペルチエドライバ
34L、34R…インターフェース
41L、41R…カメラ画像
42L…PIV処理
421…ファイバノイズの除去処理
422…相互相関PIV処理
423…誤ベクトル除去及び空間平均処理
43L…PTV−SS処理
431…ファイバノイズの除去処理
432…粒子検出処理
433…PIVベクトルを用いたPTV−SS法
44L…光ファイババンドルによる画像劣化のサブピクセル処理
45L、45R…最終的なベクトルデータ処理
46…3次元再構成処理
DESCRIPTION OF SYMBOLS 10 ... Flow measurement system 11 ... Laser oscillator 12 ... Optical fiber 13 for light transmission ... Optical system 14 for laser sheet formation ... Fluid flow field 17 ... Laser sheet 17a ... Measurement range 18 ... Lens group 19a, 19b, 19c ... Plano-convex lens 19d ... Plano-concave cylindrical lenses 22, 22L, 22R ... Image transmission means 24, 24L, 24R ... CCD camera 25 ... Optical fiber 26 ... Image guide 27a ... Objective lens 27b ... 45 ° right angle prism 28 ... Camera lenses 29L, 29R ... Images Imaging means 30 ... Signal generator 31 ... PC 32 ... Laser driver 33 ... Peltier driver 34L, 34R ... Interface 41L, 41R ... Camera image 42L ... PIV processing 421 ... Fiber noise removal processing 422 ... Correlation PIV processing 423 ... Error vector removal And space flat Processing 43L ... PTV-SS processing 431 ... Fiber noise removal processing 432 ... Particle detection processing 433 ... PTV-SS method 44L using PIV vector ... Subpixel processing 45L, 45R of image degradation due to optical fiber bundles ... Final vector Data processing 46 ... 3D reconstruction processing
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005218768A JP2007033306A (en) | 2005-07-28 | 2005-07-28 | System and method for measuring fluid flow |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005218768A JP2007033306A (en) | 2005-07-28 | 2005-07-28 | System and method for measuring fluid flow |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007033306A true JP2007033306A (en) | 2007-02-08 |
Family
ID=37792749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005218768A Pending JP2007033306A (en) | 2005-07-28 | 2005-07-28 | System and method for measuring fluid flow |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007033306A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009047831A (en) * | 2007-08-17 | 2009-03-05 | Toshiba Corp | Feature quantity extracting device, program and feature quantity extraction method |
JP2010243197A (en) * | 2009-04-01 | 2010-10-28 | Toshiba Corp | System for measuring fluid velocity |
WO2011058899A1 (en) * | 2009-11-10 | 2011-05-19 | 本田技研工業株式会社 | Device for measuring sound source distribution in three-dimensional space |
CN102538697A (en) * | 2011-05-25 | 2012-07-04 | 中国兵器工业集团第七○研究所 | Engine cylinder cover water chamber flow field visualization test method |
JP2013160738A (en) * | 2012-02-09 | 2013-08-19 | Tokyo Electric Power Co Inc:The | Method of identifying position of debris |
JP2014025783A (en) * | 2012-07-26 | 2014-02-06 | Tokyo Electric Power Co Inc:The | Flow visualization apparatus |
JP2020520028A (en) * | 2017-05-15 | 2020-07-02 | ラヴィジオン・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | Method for calibrating an optical measuring device |
CN113597560A (en) * | 2019-01-31 | 2021-11-02 | 日本先锋公司 | Flow rate determination device |
CN116105969A (en) * | 2022-12-23 | 2023-05-12 | 重庆交通大学 | Fish egg movement and flow field synchronous measurement test system based on image processing |
KR102538583B1 (en) * | 2022-12-16 | 2023-05-31 | 한국해양과학기술원 | Biomimetic flow measurement system |
KR102548893B1 (en) * | 2022-12-16 | 2023-06-28 | 한국해양과학기술원 | Method for measuring flow velocity and flow direction using optical sensor |
-
2005
- 2005-07-28 JP JP2005218768A patent/JP2007033306A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009047831A (en) * | 2007-08-17 | 2009-03-05 | Toshiba Corp | Feature quantity extracting device, program and feature quantity extraction method |
JP2010243197A (en) * | 2009-04-01 | 2010-10-28 | Toshiba Corp | System for measuring fluid velocity |
US8950262B2 (en) | 2009-11-10 | 2015-02-10 | Honda Motor Co., Ltd. | Device for measuring sound source distribution in three-dimensional space |
WO2011058899A1 (en) * | 2009-11-10 | 2011-05-19 | 本田技研工業株式会社 | Device for measuring sound source distribution in three-dimensional space |
JPWO2011058899A1 (en) * | 2009-11-10 | 2013-03-28 | 本田技研工業株式会社 | Sound source distribution measuring device in 3D space |
JP5437389B2 (en) * | 2009-11-10 | 2014-03-12 | 本田技研工業株式会社 | Sound source distribution measuring device in 3D space |
CN102538697A (en) * | 2011-05-25 | 2012-07-04 | 中国兵器工业集团第七○研究所 | Engine cylinder cover water chamber flow field visualization test method |
JP2013160738A (en) * | 2012-02-09 | 2013-08-19 | Tokyo Electric Power Co Inc:The | Method of identifying position of debris |
JP2014025783A (en) * | 2012-07-26 | 2014-02-06 | Tokyo Electric Power Co Inc:The | Flow visualization apparatus |
JP2020520028A (en) * | 2017-05-15 | 2020-07-02 | ラヴィジオン・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | Method for calibrating an optical measuring device |
CN113597560A (en) * | 2019-01-31 | 2021-11-02 | 日本先锋公司 | Flow rate determination device |
KR102538583B1 (en) * | 2022-12-16 | 2023-05-31 | 한국해양과학기술원 | Biomimetic flow measurement system |
KR102548893B1 (en) * | 2022-12-16 | 2023-06-28 | 한국해양과학기술원 | Method for measuring flow velocity and flow direction using optical sensor |
CN116105969A (en) * | 2022-12-23 | 2023-05-12 | 重庆交通大学 | Fish egg movement and flow field synchronous measurement test system based on image processing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007033306A (en) | System and method for measuring fluid flow | |
KR101948852B1 (en) | Hybrid image scanning method and apparatus for noncontact crack evaluation | |
JP3685256B2 (en) | Fluid flow measurement system | |
EP2568253B1 (en) | Structured-light measuring method and system | |
CN109556540A (en) | A kind of contactless object plane degree detection method based on 3D rendering, computer | |
CN111241667B (en) | Method for identifying plasma configuration based on image processing and probe data processing | |
CN115482195B (en) | Train part deformation detection method based on three-dimensional point cloud | |
JP4568800B2 (en) | Droplet state measuring apparatus and camera calibration method in the apparatus | |
CN205581299U (en) | High accuracy camera chip multiple spot range unit that dual laser markd | |
CN106996748A (en) | Wheel diameter measuring method based on binocular vision | |
JP3672482B2 (en) | Fluid flow measurement method | |
CN105717511A (en) | Multipoint distance measurement apparatus and method based on line beam laser and common camera chip | |
JP2008180630A (en) | Fluid measuring system, fluid measuring method and computer program | |
CN115901178A (en) | System and method for measuring and analyzing wave resonance flow field characteristics among multi-body marine structures | |
JPWO2006006250A1 (en) | Fluid flow measurement system, fluid flow measurement method, and computer program | |
JP2008215999A (en) | Fluid measuring system, fluid measuring method, and computer program | |
JPH1019919A (en) | Method and apparatus for measuring streamline | |
Doh et al. | Single-frame (two-field image) 3-D PTV for high speed flows | |
Lai et al. | Volumetric three-component velocimetry: a new tool for 3d flow measurement | |
JPH11326008A (en) | Device for simply restructuring stereoscopic image and three-dimensional traveling speed distribution of three-dimensional space distribution of powder in fluid | |
CN110363806A (en) | A method of three-dimensional space modeling is carried out using black light projection feature | |
CN105717502A (en) | High speed laser distance measuring device based on linear array CCD and method | |
CN111473944B (en) | PIV data correction method and device for observing complex wall surface in flow field | |
CN114862971A (en) | PTV device for measuring spray particle size and three-dimensional speed by single camera | |
CN107449373B (en) | High-speed structured light scanning method and system based on stereoscopic vision |