JP2019028004A - Three-dimensional measuring device and method for detecting abnormality in three-dimensional measuring device - Google Patents

Three-dimensional measuring device and method for detecting abnormality in three-dimensional measuring device Download PDF

Info

Publication number
JP2019028004A
JP2019028004A JP2017150302A JP2017150302A JP2019028004A JP 2019028004 A JP2019028004 A JP 2019028004A JP 2017150302 A JP2017150302 A JP 2017150302A JP 2017150302 A JP2017150302 A JP 2017150302A JP 2019028004 A JP2019028004 A JP 2019028004A
Authority
JP
Japan
Prior art keywords
contrast
unit
distance
information
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017150302A
Other languages
Japanese (ja)
Inventor
雅博 森貞
Masahiro Morisada
雅博 森貞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017150302A priority Critical patent/JP2019028004A/en
Publication of JP2019028004A publication Critical patent/JP2019028004A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique of appropriately detecting substances attaching to a light transmitting part of an imaging part or a projection part in a three-dimensional measuring device.SOLUTION: The three-dimensional measuring device includes: a projection unit 1 for projecting a pattern light or a slit light to a measurement target; an imaging unit 2 for acquiring an image taken of the measurement target to which light is projected; and a distance acquiring unit 5 for acquiring information on the distance to the measurement target based on the taken image. The three-dimensional measuring device also includes: a region division unit 7 for dividing the taken image into at least one region according to the information on the distance to the measurement target; and a contrast comparison unit 8 for acquiring the contrast of the region and comparing the acceptable range of the contrast determined from the distance information and the contrast of the region.SELECTED DRAWING: Figure 1

Description

本発明は、三次元物体(計測対象)の位置と姿勢を認識する部品認識装置などの三次元計測装置、三次元計測装置において光が通る部分の所望状態からの変化(異常ないし不具合)を検知する方法、等に関する。   The present invention detects a change (abnormality or defect) from a desired state of a part through which light passes in a three-dimensional measuring device such as a component recognition device that recognizes the position and orientation of a three-dimensional object (measurement target). It is related with the method to do.

計測対象の三次元位置情報を取得する技術の一つとして、パターン投影法によって距離画像を計測する技術がある。パターン投影法では、二次元パターン光を投影手段によって被計測空間に投影する。そして、撮影手段で被計測空間を撮影した画像からパターンを検知し、検知されたパターンを用いた三角測量法により計測対象までの距離を計測し、それに基づいて計測対象の三次元位置情報を取得する。   One technique for acquiring three-dimensional position information of a measurement target is a technique for measuring a distance image by a pattern projection method. In the pattern projection method, two-dimensional pattern light is projected onto a measurement space by projection means. Then, the pattern is detected from the image of the measurement space captured by the imaging means, the distance to the measurement target is measured by the triangulation method using the detected pattern, and the three-dimensional position information of the measurement target is acquired based on the measured distance. To do.

部品認識装置はさまざまな環境で使用されるが、例えばオイルミストの濃度が高い工場などの環境では、空気中に油の微粒子が浮遊している。投影手段や撮影手段の装置の外部との境界にはガラス等の光透過性板状部材が一般に設けられているが、このガラス上に油の微粒子が付着すると、それに起因して投影手段による投影光量が落ちたり撮影手段による撮影画像がぼやけたりする。   The component recognition apparatus is used in various environments. For example, in an environment such as a factory where the concentration of oil mist is high, fine oil particles are floating in the air. A light transmissive plate-like member such as glass is generally provided at the boundary of the projection means and the photographing means with the outside of the apparatus. When oil fine particles adhere to this glass, projection by the projection means is caused thereby. The amount of light is reduced or the image taken by the photographing means is blurred.

特許文献1には、溶接センサが撮像したスリット光の画像を用いて溶接センサ自体に発生した異常ないし変化を検知する技術が開示されている。撮像した画像と基準画像との差分画像を生成し、差分画像の輝度分布を用いて窓板の異常を判別している。   Patent Document 1 discloses a technique for detecting an abnormality or change occurring in the welding sensor itself using an image of slit light imaged by the welding sensor. A difference image between the captured image and the reference image is generated, and the abnormality of the window panel is determined using the luminance distribution of the difference image.

特許文献2には、距離測定装置のカバーガラスの曇りや汚れ、光センサアレイ内の不良画素を検知する技術が開示されている。2つの受光器の像の一致度をコントラスト低下の指標とし、光学系の曇りや汚れの検知を行なっている。   Patent Document 2 discloses a technique for detecting fogging and dirt on a cover glass of a distance measuring device and defective pixels in a photosensor array. The degree of coincidence between the images of the two light receivers is used as an index for contrast reduction to detect the clouding or dirt of the optical system.

特開2014−153155号公報JP 2014-153155 A 特開平11−2519号公報Japanese Patent Laid-Open No. 11-2519

上述した様に、オイルミストの濃度が高い環境では、投影光量が落ちたり撮影画像がぼやけたりする。よって、汚れがひどくなると部品を誤認識するなどの問題が生じる。部品認識装置では、通常、認識した部品をロボットが取り出す工程があるため、撮影対象となる部品の状態は認識するたびに異なる。従って、こうした三次元計測装置ないし認識装置に、特許文献1に開示の差分画像によって異常を判別する方法をそのまま適用することはできない。   As described above, in an environment where the concentration of oil mist is high, the amount of projected light is reduced or the captured image is blurred. Therefore, problems such as misrecognizing parts occur when the dirt becomes severe. In the component recognition apparatus, since there is usually a process in which the robot takes out the recognized component, the state of the component to be imaged changes each time it is recognized. Therefore, the method for discriminating an abnormality based on the difference image disclosed in Patent Document 1 cannot be directly applied to such a three-dimensional measurement device or recognition device.

また、通常、部品はパレット内に山積みされて置かれるため、パレットの上方にある部品と底にある部品との高さの差が大きく、すべての部品がジャストフォーカスの位置にはない。そのため、たとえ部品が被写界深度内に存在したとしても、撮影画像のコントラストは或る程度の分布を持つ値となる。従って、低下したコントラストの値を用いて汚れ検知を行なう場合には、コントラストの許容範囲を広く取らないと誤検知が生じてしまうことになり易い。こうした課題に対して、特許文献2に開示の技術は解決法を教示するものではない。   Also, since the parts are usually piled up and placed in the pallet, there is a large difference in height between the parts above the pallet and the parts at the bottom, and all the parts are not at the just focus position. Therefore, even if the component exists within the depth of field, the contrast of the captured image has a value having a certain distribution. Therefore, in the case of performing stain detection using a lowered contrast value, erroneous detection is likely to occur unless the contrast tolerance is widened. For such problems, the technique disclosed in Patent Document 2 does not teach a solution.

本発明は、上記課題を鑑みてなされたものであり、計測対象との距離の情報に基づいて撮影画像を分割して分割域のコントラストを取得し、それに基づき、撮影部や投影部における光透過部の付着物等の異常を適切に検知することを可能とした技術を提供する。   The present invention has been made in view of the above-described problems, and divides a captured image based on distance information with respect to a measurement target to acquire a contrast of the divided area, and based on this, the light transmission in the imaging unit and the projection unit Provided is a technology that makes it possible to appropriately detect abnormalities such as deposits on the part.

本発明の一側面による三次元計測装置は、計測対象に対してパターン光又はスリット光を投影する投影部と、前記パターン光又はスリット光が投影された前記計測対象を撮影し、前記計測対象の撮影画像を取得する撮影部と、前記撮影画像に基づき前記計測対象との距離の情報を取得する距離取得部と、前記撮影画像を前記計測対象との距離の情報に応じて1以上の領域に分割する領域分割部と、前記領域のコントラストを取得し、前記距離の情報に応じて定めたコントラストの許容範囲と前記領域のコントラストとを比較するコントラスト比較部と、を有する。   A three-dimensional measurement apparatus according to an aspect of the present invention shoots a projection unit that projects pattern light or slit light onto a measurement target, and captures the measurement target on which the pattern light or slit light is projected. An imaging unit that acquires a captured image, a distance acquisition unit that acquires information on the distance to the measurement target based on the captured image, and the captured image in one or more regions according to the information on the distance to the measurement target An area dividing unit that divides the image; and a contrast comparing unit that obtains the contrast of the region and compares the contrast allowable range determined according to the distance information with the contrast of the region.

本発明の一側面によれば、投影部や撮影部における光透過部の付着物等の異常の存在を適切に検知することができる。   According to one aspect of the present invention, it is possible to appropriately detect the presence of an abnormality such as a deposit on a light transmission portion in a projection unit or a photographing unit.

本発明に係る三次元計測装置ないし部品認識装置の一例の構成を示す図。The figure which shows the structure of an example of the three-dimensional measuring apparatus thru | or component recognition apparatus which concern on this invention. 画面分割および領域分割の概略を説明する図。The figure explaining the outline of a screen division | segmentation and an area | region division. 部品認識装置の処理全体を示すフローチャート。The flowchart which shows the whole process of a components recognition apparatus. 付着物検知方法を示すフローチャート。The flowchart which shows the deposit | attachment detection method. コントラストの許容範囲を説明する図。The figure explaining the allowable range of contrast. 他の付着物検知方法を示すフローチャート。The flowchart which shows the other adhering matter detection method. 計測装置が把持装置に備え付けられて使用される制御システムを示す図。The figure which shows the control system with which a measuring device is equipped with a holding device and is used.

本発明の一側面では、パターン光又はスリット光が投影された計測対象の撮影画像に基づき計測対象との距離の情報を取得し、その距離の情報に基づいて計測対象の三次元形状などを計測する。ここにおいて、投影工程で使用する投影部及び/又は撮影工程で使用する撮影部の光透過部の付着物等の異常を検知するために、次のことを行う。すなわち、計測対象との距離の情報に応じて撮影画像を1以上の領域に分割し、分割領域のコントラストを取得し、分割領域のコントラストと距離の情報に応じて定めたコントラストの許容範囲とを比較する。そして、比較の結果に基づき、前記異常の存否を検知する。計測対象との距離の情報に応じて撮影画像を1以上の領域に別けて、分割領域でコントラストを取得するため、距離に応じた分割領域内では各部のコントラストの変動が過度に大きくないという特徴を利用できて、分割領域のコントラストの信頼性が向上する。   In one aspect of the present invention, information on a distance to a measurement target is acquired based on a captured image of the measurement target on which pattern light or slit light is projected, and a three-dimensional shape of the measurement target is measured based on the distance information. To do. Here, in order to detect abnormalities such as deposits on the light transmitting part of the projection unit used in the projection process and / or the imaging unit used in the imaging process, the following is performed. That is, the captured image is divided into one or more areas according to the distance information with respect to the measurement object, the contrast of the divided areas is acquired, and the contrast tolerance range determined according to the contrast of the divided areas and the distance information is set. Compare. Then, the presence or absence of the abnormality is detected based on the comparison result. Since the captured image is divided into one or more regions according to the distance information with respect to the measurement target and the contrast is acquired in the divided regions, the contrast variation of each part is not excessively large in the divided regions according to the distance. Can be used to improve the reliability of the contrast of the divided areas.

従って、同じく距離の情報に応じて定めたコントラストの許容範囲と分割領域のコントラストとを比較することで、異常検知について信頼性の向上した結果が得られる。よって、これに基づいて、投影部や撮影部における光透過部の付着物等の異常に対して適切に対処することができる。   Therefore, by comparing the contrast allowable range determined in accordance with the distance information and the contrast of the divided areas, a result of improved reliability of abnormality detection can be obtained. Therefore, based on this, it is possible to appropriately cope with an abnormality such as a deposit on the light transmitting portion in the projection unit or the photographing unit.

以下、本発明の好適な実施形態について、添付図面を参照して詳細に説明する。ただし、本発明の範囲はこれらの具体例に限定されるものではない。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. However, the scope of the present invention is not limited to these specific examples.

〔第1実施形態〕
図1は、本実施形態における三次元計測装置である部品認識装置の構成を示す図である。部品認識装置は、投影部であるプロジェクタ1、撮影部であるカメラ2を有する。また、計測制御部3、画面分割部4、距離情報を取得する距離取得部を含む距離画像生成部5、部品認識部6、領域分割部7、コントラスト比較部8、コントラスト表9、表示部10を備える。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration of a component recognition apparatus that is a three-dimensional measurement apparatus according to the present embodiment. The component recognition apparatus includes a projector 1 that is a projection unit and a camera 2 that is a photographing unit. In addition, the measurement control unit 3, the screen division unit 4, the distance image generation unit 5 including a distance acquisition unit that acquires distance information, the component recognition unit 6, the region division unit 7, the contrast comparison unit 8, the contrast table 9, and the display unit 10. Is provided.

プロジェクタ1によって投影されたパターン光の反射光をカメラ2で撮影し、撮影された画像は画面分割部4および距離画像生成部5に送られる。距離画像生成部5では、三角測量法として一般的に知られている原理を用いて、計測対象の各部の距離情報を生成する。部品認識部6では、計測対象の距離情報を用いて部品形状(計測対象の姿勢、位置など)を認識し、ロボットコントローラやシーケンスコントローラなど(例えば後述の図7の制御部420)に認識結果を伝える。   The reflected light of the pattern light projected by the projector 1 is photographed by the camera 2, and the photographed image is sent to the screen dividing unit 4 and the distance image generating unit 5. The distance image generation unit 5 generates distance information of each part to be measured using a principle generally known as a triangulation method. The component recognition unit 6 recognizes the component shape (posture, position, etc. of the measurement target) using the distance information of the measurement target, and sends the recognition result to a robot controller or a sequence controller (for example, the control unit 420 in FIG. 7 described later). Tell.

画面分割部4では、カメラ2の撮影画像を予め定めた有限個の区域に分割する。領域分割部7では、距離画像生成部5によって求められた距離情報を用いて、予め定めた距離の範囲ごとに前記区域をさらに有限個の領域に分割する。ここでは画面分割部によって撮影画像を有限個(複数個)の区域に分割した後、領域分割部によってそれぞれの区域を更に分割しているがこの限りではない。例えば、撮影画像のサイズがさほど大きくない(データ量が比較的小さい)場合や、コントラスト比較部による処理がかなり高速な場合は、画面分割部による処理は省いても良い。   The screen dividing unit 4 divides the captured image of the camera 2 into a predetermined finite number of areas. The area dividing unit 7 further divides the section into a finite number of areas for each predetermined distance range using the distance information obtained by the distance image generating unit 5. Here, after the captured image is divided into a finite number (a plurality) of areas by the screen dividing unit, each area is further divided by the area dividing unit, but this is not restrictive. For example, when the size of the captured image is not so large (the amount of data is relatively small), or when the processing by the contrast comparison unit is very fast, the processing by the screen dividing unit may be omitted.

コントラスト比較部8では、前記領域のコントラスト値を計算し、予め定めた許容範囲外であった場合、例えば、プロジェクタ1又は/及びカメラ2に付着物などがあると検知したというメッセージを表示部10に表示させる。前記領域のコントラスト値は、領域の中で最も暗い部分と最も明るい部分の輝度の差であり、その計算式は一般によく知られている。領域内の輝度値の最大値をLmax、最小値をLminとしたとき、例えば、マイケルソン(Michelson)コントラストは次の式1で計算できる。
(Lmax−Lmin)/(Lmax+Lmin) 式1
マイケルソンコントラストの代わりに、輝度の比 Lmax/Lminを用いることもできる。
The contrast comparison unit 8 calculates the contrast value of the area, and if the contrast value is outside the predetermined allowable range, for example, a message indicating that the projector 1 or / and the camera 2 has detected an attachment or the like is displayed on the display unit 10. To display. The contrast value of the area is a difference in luminance between the darkest part and the brightest part in the area, and its calculation formula is generally well known. When the maximum luminance value in the region is Lmax and the minimum value is Lmin, for example, the Michelson contrast can be calculated by the following equation (1).
(Lmax-Lmin) / (Lmax + Lmin) Equation 1
Instead of Michelson contrast, the luminance ratio Lmax / Lmin can also be used.

コントラスト表9は、距離範囲に応じたコントラストの許容範囲の値を格納した表である。計測対象によって、例えば色や材質および光の反射率が異なるため、許容範囲の値は計測対象ごとに予め定めておく。一般的に、カメラやプロジェクタには光学レンズが用いられるが、レンズの被写界深度を超える範囲ではピントが合わなくなる。ピントが合わない範囲では、撮影対象のエッジが不鮮明となりコントラストが低下する。ピントが合っている範囲でも、撮影対象との距離によってコントラストは変わるので、どこまでのボケを許容するかによって部品認識装置の認識性能が決まる。このため、付着物などの検知を適切に行う為には、比較的ピントが合っている領域に対しては、撮影対象との距離に応じて、コントラストの許容範囲を比較的大きい値に達する範囲に設定するのがよい。反対に、ピントがあまり合っていない領域に対しては、撮影対象との距離に応じて、コントラストの許容範囲を比較的小さい値まで及ぶ範囲に設定するのがよい。   The contrast table 9 is a table that stores values of acceptable contrast ranges according to distance ranges. For example, since the color, material, and light reflectance differ depending on the measurement object, the allowable range value is determined in advance for each measurement object. In general, an optical lens is used for a camera or a projector, but the focus is not achieved in a range exceeding the depth of field of the lens. In an out-of-focus range, the edge of the object to be imaged becomes unclear and the contrast decreases. Even in the in-focus range, the contrast changes depending on the distance to the object to be photographed, so the recognition performance of the component recognition device is determined depending on how far blur is allowed. For this reason, in order to appropriately detect the attached matter, the range where the allowable range of contrast reaches a relatively large value depending on the distance to the object to be photographed for a relatively focused area. It is good to set to. On the other hand, for an area that is not in focus, it is preferable to set the allowable contrast range to a relatively small value in accordance with the distance from the subject.

画面分割および領域分割の概略を図2を用いて説明する。図2(A)は計測対象空間を分割した様子を示した図であり、XとYが撮影された二次元画像の座標軸、Zが三角測量法で求められた距離の座標軸である。生成される距離画像の画素は、この分割された領域のいずれかに属する。   The outline of screen division and area division will be described with reference to FIG. FIG. 2A is a diagram showing a state in which the measurement target space is divided. X and Y are coordinate axes of a two-dimensional image taken, and Z is a coordinate axis of a distance obtained by triangulation. A pixel of the generated distance image belongs to one of the divided areas.

説明を簡単にするため、計測対象を円柱状の物体とし、撮影画像内の一つの区域に一本の円柱が収まっている状態をカメラから見た図を図2(B)とする。この区域を真横から見た図が図2(C)である。ここで、前記区域への分割の単位長さは予め定めた値とするが、その値は、検知したい最小サイズの汚れなどによるコントラスト低下を識別できる長さに取るとよい。図2(C)は、計測対象までの距離が0からh1の領域Z0、h1からh2の領域Z1、h2以上の領域Z2の3つの領域に分けた場合を示しており、説明の便宜上分かり易いようにZ0を白塗り、Z1をハッチング、Z2を黒塗りで表記している。同様に、図2(B)においても領域を塗り分けて表記している。図2(B)のように、二次元分割の区域をさらに距離によって領域に分割し、それぞれの領域ごとにコントラスト値の計算を行なう。上述した様に、距離によって分割された領域では、計算されるコントラスト値の信頼性は高いものとなる。   In order to simplify the description, FIG. 2B is a diagram in which a measurement target is a cylindrical object, and a state in which one cylinder is accommodated in one area in the captured image is viewed from the camera. Fig. 2 (C) shows this area as seen from the side. Here, the unit length of the division into the areas is set to a predetermined value, but the value may be set to a length that can identify a decrease in contrast due to a minimum-size stain to be detected. FIG. 2 (C) shows a case where the distance to the measurement object is divided into three areas: an area Z0 from 0 to h1, an area Z1 from h1 to h2, and an area Z2 above h2, and is easy to understand. Z0 is white, Z1 is hatched, and Z2 is black. Similarly, in FIG. 2 (B), the regions are shown separately. As shown in FIG. 2B, the two-dimensional division area is further divided into areas according to the distance, and the contrast value is calculated for each area. As described above, in the region divided by the distance, the reliability of the calculated contrast value is high.

例えば、同一区域内のすべての領域のコントラストが許容範囲外であった場合、光透過部であるレンズやガラス等の光透過性部材などの汚れなどによる不具合によるコントラスト低下が起きていると判定できる。あるいは、コントラストが許容範囲外である領域が同一区域内で多数(例えば2/3以上)であった場合に、コントラスト低下が起きていると判定してもよい。1つの区域についてのみ上記判定を行って異常存否の判断結果を出すのではなく、コントラスト低下が起きていると判定できる区域が所定の割合以上(例えば2/3以上)ある場合にのみ、異常があると判定するようにしてもよい。付着物である場合、上記判定に基づき、人の手や、設置されたワイパーなどで付着物を除去すれば良い。後者では、付着物検知の判定に応答してワイパーを動かして自動化することができる。   For example, when the contrast of all the areas in the same area is out of the allowable range, it can be determined that the contrast is lowered due to a defect such as dirt of a light transmissive member such as a lens or a light transmissive member such as glass. . Alternatively, when there are a large number (for example, 2/3 or more) of regions in which the contrast is outside the allowable range in the same area, it may be determined that the contrast is lowered. The above determination is not performed for only one area and the result of determination of the presence / absence of abnormality is not generated, but the abnormality is detected only when there are more than a predetermined ratio (for example, 2/3 or more) of areas where it can be determined that the contrast is reduced. You may make it determine with there. In the case of an adhering substance, the adhering substance may be removed with a human hand or an installed wiper based on the above determination. In the latter case, the wiper can be moved and automated in response to the determination of the attached matter detection.

本実施形態の部品認識装置の処理全体の概略の流れを図3のフローチャートを用いて説明する。パレット内に山積みにされたすべての計測対象に対して(ステップS101からS106の繰り返し)、プロジェクタ1によってパターン光を計測対象空間に投影し、反射光をカメラ2で撮影する(ステップS102)。ここで、パターン光は明暗の縞パターンを用いる。次いで、撮影画像から距離情報を生成する(ステップS103)。距離情報を生成する方法は、例えば空間コード化法として一般に知られている。ステップS102で撮影した画像を用いて例えば付着物の検知を行なう(ステップS104)。次いで、距離情報から物体の三次元認識を行ない(ステップS105)、すべての対象に対して部品を認識し終えたら終了する。   A schematic flow of the entire processing of the component recognition apparatus of the present embodiment will be described with reference to the flowchart of FIG. For all measurement objects piled up in the pallet (repeating steps S101 to S106), the projector 1 projects pattern light onto the measurement object space, and the reflected light is imaged with the camera 2 (step S102). Here, the pattern light uses a bright and dark stripe pattern. Next, distance information is generated from the captured image (step S103). A method for generating distance information is generally known as a spatial encoding method, for example. For example, the adhering matter is detected using the image photographed in step S102 (step S104). Next, the three-dimensional recognition of the object is performed from the distance information (step S105), and the process ends when the parts are recognized for all the objects.

さらに付着物などの検知処理の動作を図4のフローチャートを用いて詳しく説明する。図2の説明として前述したように、撮影画像の分割(ステップS201)を行ない、画像分割したすべての区域に対して(ステップS202からS211の繰り返し)、部品認識装置から計測対象までの距離に応じて領域分割を行なう(ステップS203)。分割した領域に対して(ステップS204からS209の繰り返し)、領域ごとに例えば上記式1を用いてコントラストを計算する(ステップS205)。予め定めたコントラストの許容範囲をコントラスト表9から取り出し(ステップS206)、コントラストの計算値が許容範囲に入っているかどうか比較を行なう(ステップS207)。許容範囲外であった領域を記憶しておき(ステップS208)、区域内のすべて或いは大半の領域のコントラストが許容範囲外であった場合に警告表示を行なう(ステップS210)。ここでは、1つの区域内の複数の領域についてコントラストが許容範囲内か否かを判定し、その結果に基づいて警告を発するか否かを判断することができる。しかし、上述した様に、コントラスト比較部8は、全ての区域の領域について前記比較を行い、所定の割合以上の区域において所定の割合以上の領域のコントラストが前記許容範囲外であると判定された場合にのみ、異常検知の警告を発するようにしてもよい。   Further, the operation of the detection process for adhered matter and the like will be described in detail with reference to the flowchart of FIG. As described above with reference to FIG. 2, the captured image is divided (step S201), and all the divided areas (steps S202 to S211 are repeated) according to the distance from the component recognition device to the measurement target. Then, the area is divided (step S203). For each divided region (repetition of steps S204 to S209), the contrast is calculated for each region using, for example, Equation 1 (step S205). A predetermined allowable contrast range is extracted from the contrast table 9 (step S206), and a comparison is made as to whether the calculated contrast value is within the allowable range (step S207). An area outside the allowable range is stored (step S208), and a warning is displayed when the contrast of all or most of the areas in the area is out of the allowable range (step S210). Here, it is possible to determine whether or not the contrast is within an allowable range for a plurality of regions in one area, and to determine whether or not to issue a warning based on the result. However, as described above, the contrast comparison unit 8 performs the comparison for all the areas, and it is determined that the contrast of the area of the predetermined ratio or more is outside the allowable range in the area of the predetermined ratio or more. Only in such a case, an abnormality detection warning may be issued.

図5を用いて、コントラストと許容範囲との関係を説明する。グラフの横軸は計測対象との距離、縦軸はコントラストである。そして、(A)はレンズ等に付着物などがない場合、(B)はレンズ等に小さい付着物などがある場合、(C)はレンズ等に大きな付着物などがある場合を示し、これらを一つのグラフに重ねて示したものである。ここにおいて、各領域のコントラストが曲線で表現されているが、実際には、各領域では1つのコントラスト値が計算されている。従って、各領域のコントラストは、或るレベルの横軸に平行な横線として表わされる。   The relationship between the contrast and the allowable range will be described with reference to FIG. The horizontal axis of the graph is the distance to the measurement object, and the vertical axis is the contrast. (A) shows the case where there is no deposit on the lens, etc., (B) shows the case where there is a small deposit on the lens, etc., (C) shows the case where there is a large deposit on the lens, etc. It is shown superimposed on one graph. Here, the contrast of each region is expressed by a curve, but actually, one contrast value is calculated for each region. Thus, the contrast of each region is represented as a horizontal line parallel to a certain level of the horizontal axis.

レンズ等に付着物などがない場合、距離を考慮せずに(A)のコントラスト変化をすべて包含する範囲を考えると、汚れなどを誤検知しないためには、距離に関わらず(A)の値を包含するc0からc2という広い許容範囲に設定する必要がある。一方、距離h1からh2の領域に限ると(すなわち、他の領域を判定の考慮外とすると)、汚れなどを誤検知しないためには、例えばc1からc2という狭い許容範囲を設定すればよい。   When there is no deposit on the lens, the value of (A) is used regardless of the distance in order to prevent false detection of dirt, etc. Must be set within a wide allowable range of c0 to c2. On the other hand, if it is limited to the area from the distance h1 to h2 (that is, if other areas are not taken into consideration), in order to prevent erroneous detection of dirt, for example, a narrow allowable range of c1 to c2 may be set.

付着物などが小さい場合には、(B)のようにコントラストの低下はそれほど大きくなく、c0からc2の許容範囲では汚れなどを検知できないが、距離を考慮したc1からc2の許容範囲に設定すれば小さい汚れなども検知することができる。すなわち、c0からc2の許容範囲では、(A)と(B)についてZ0、Z1、Z2の全て領域で許容範囲内にあることになって「付着物無し」と判定される。しかし、c1からc2の許容範囲に設定すれば、領域Z0、Z2は考慮外として、(B)についてZ1の領域でコントラスト値は許容範囲外と判定され、小さい付着物を検知することができる。ここでは、ピントはh1からh2の領域Z1に合っていて、その両側の領域Z0、Z2ではピントの外れによりコントラストが下がっていると考えられる。従って、これらの領域Z0、Z2は、コントラストの低下が汚れなどに依るのかピント外れに依るのかが明瞭とは言えないので、誤検知を避けるために、上記の様に判定の考慮外としてもよい。或いは、領域Z0、Z2では、距離範囲に応じたコントラストの許容範囲の値を格納したコントラスト表9から、低めに設定された許容範囲を選択し、判定を行うようにしてもよい。レンズ等に大きな付着物などがある場合を示す(C)は、各領域に対してどのような許容範囲を設定するにせよ、コントラスト値は許容範囲外であると判断されて汚れなどがあると判定されるようにする。   When the deposit is small, the contrast is not so low as in (B), and dirt etc. cannot be detected in the allowable range from c0 to c2, but it is set to the allowable range from c1 to c2 considering the distance. Even small dirt can be detected. That is, in the allowable range from c0 to c2, (A) and (B) are within the allowable range in all areas of Z0, Z1, and Z2, and it is determined that “no deposit”. However, if the allowable range of c1 to c2 is set, the regions Z0 and Z2 are not considered, and the contrast value is determined to be outside the allowable range in the region of Z1 with respect to (B), and small deposits can be detected. Here, the focus is in the region Z1 from h1 to h2, and it is considered that the contrast decreases in the regions Z0 and Z2 on both sides due to defocusing. Therefore, since it is not clear whether these areas Z0 and Z2 depend on dirt or out of focus due to the decrease in contrast, in order to avoid erroneous detection, it may be excluded from consideration of determination as described above. . Alternatively, in the areas Z0 and Z2, a lower allowable range may be selected from the contrast table 9 that stores the value of the allowable contrast range according to the distance range, and the determination may be performed. (C) shows the case where there is a large amount of adhered matter on the lens, etc., regardless of what tolerance is set for each area, the contrast value is judged to be outside the tolerance, and there is dirt etc. To be judged.

本実施形態において、コントラスト計算に必要な画像を撮影するときのパターン光を空間コード化法で用いる縞パターンとしたが、それとは異なるパターン、例えば市松模様など、コントラストがより顕著になるようなパターンであってもよい。また、光切断法によって三次元形状を計測するとともにコントラスト計算に必要な画像を撮影するために、計測対象にスリット光を投影することもできる。上記説明では、便宜上、画面分割および領域分割を円柱状の計測対象を用いて説明したが、計測対象の形状は任意である。   In the present embodiment, the pattern light used when capturing an image necessary for contrast calculation is a stripe pattern that is used in the spatial coding method. However, a different pattern such as a checkered pattern, such as a checkered pattern, that makes the contrast more prominent. It may be. Moreover, in order to measure a three-dimensional shape by a light cutting method and to capture an image necessary for contrast calculation, it is possible to project slit light on a measurement target. In the above description, for the sake of convenience, screen division and area division have been described using a cylindrical measurement target, but the shape of the measurement target is arbitrary.

さらに、計測対象によっては、表面処理の違いや複合材料などにより、部分的に異なる反射率分布を有する場合がある。その場合、部品認識部6によって認識した計測対象の姿勢を用いて、パターン光を反射している面を求める。そして、コントラスト表に格納された許容範囲から、その面の表面反射率を考慮したコントラストの許容範囲を選んでそれに切り替えることにより対応することができる。   Furthermore, depending on the measurement target, there may be a partially different reflectance distribution due to a difference in surface treatment or a composite material. In that case, the surface reflecting the pattern light is obtained using the posture of the measurement object recognized by the component recognition unit 6. It is possible to cope with this by selecting an allowable range of contrast considering the surface reflectance of the surface from the allowable range stored in the contrast table and switching to it.

前述した様に、コントラスト表における許容範囲の値を、計測対象の種類、すなわち、計測対象の色、材質、反射率などを考慮して定めることができるが、動作をより確実にするため学習によって値を調整することもできる。   As described above, the allowable range value in the contrast table can be determined in consideration of the type of measurement target, that is, the color, material, reflectance, etc. of the measurement target. You can also adjust the value.

図6に、学習時の付着物検知処理の動作を示す。図4と同じ機能には同じ番号を付けている。コントラスト値と許容範囲を比較した結果を表示部10に表示し(ステップS301)、装置調整担当者が結果の可否を判断して許容範囲の値を調整する(ステップS302)。値の調整幅は装置調整担当者が入力してもよいし、一般に知られている学習アルゴリズムを利用して生成してもよい。例えば、結果の可否を自動的に判断できるシステム(例えば監視用カメラなどを含むもの)を設けておいて、その判断に基づいて許容範囲の値を調整する。汚れなどを検知したという判定の可否を判断したところ、間違っていた(実際には汚れなどは存在しなかった)という場合は、許容範囲の値を低めに設定し直す。反対に、汚れなどを検知しないという判定の可否を判断したところ、間違っていた(実際には汚れなどが存在した)という場合は、許容範囲の値を高めに設定し直す。   FIG. 6 shows the operation of the adhering matter detection process during learning. The same functions as those in FIG. 4 are given the same numbers. The comparison result between the contrast value and the allowable range is displayed on the display unit 10 (step S301), and the apparatus adjustment person determines whether the result is acceptable and adjusts the allowable range value (step S302). The adjustment width of the value may be input by a person in charge of device adjustment, or may be generated using a generally known learning algorithm. For example, a system (for example, including a monitoring camera) that can automatically determine whether the result is acceptable is provided, and the value of the allowable range is adjusted based on the determination. If it is determined whether or not it is possible to determine that dirt or the like has been detected, and if it is wrong (no dirt or the like actually exists), the allowable range value is reset to a lower value. On the other hand, when it is determined whether or not it is possible to determine that dirt is not detected, if it is wrong (in fact, dirt or the like is present), the value of the allowable range is reset to a higher value.

本実施形態によれば、通常は、投影手段や撮影手段の付着物等の異常を直接監視するカメラ等を別に設けることなく、上記の如き異常ないし不具合の存在を適切に検知することができる。勿論、判定結果の可否を判断する監視カメラ等を別に設けることもできる。   According to the present embodiment, normally, the presence of such an abnormality or defect can be appropriately detected without separately providing a camera or the like that directly monitors an abnormality such as a deposit on a projection unit or a photographing unit. Of course, a monitoring camera or the like for determining whether the determination result is acceptable can be provided separately.

〔第2実施形態〕
上述の本発明の三次元計測装置は、ロボットアームと連携した状態で使用されうる。この三次元計測装置は、上述した様な判定に基づいて汚れなどが除かれている。本実施形態では、一例として、図7のように計測装置400がロボットアーム410(把持装置)に備え付けられて使用される制御システムについて説明する。計測装置400は、支持台450に置かれた計測対象(ワーク)460にパターン光を投影して撮像し、画像を取得する。そして、計測装置400は、取得した画像データから計測対象460の位置及び姿勢を求める。制御部420は、計測装置400からの計測対象460の位置及び姿勢に基づいて、どの計測対象を如何なる把持姿勢のハンドで把持するかを決定する。ここにおいて、計測装置は把持装置の外部に設けられており、これから制御部420に指令を出力する様にしてもよい。
[Second Embodiment]
The above-described three-dimensional measuring apparatus of the present invention can be used in a state of being linked with a robot arm. In this three-dimensional measuring apparatus, dirt and the like are removed based on the determination as described above. In the present embodiment, as an example, a control system in which the measuring device 400 is provided to the robot arm 410 (gripping device) as shown in FIG. 7 will be described. The measuring device 400 projects and images pattern light on a measurement target (work) 460 placed on the support base 450 to acquire an image. Then, the measurement apparatus 400 obtains the position and orientation of the measurement target 460 from the acquired image data. Based on the position and orientation of the measurement target 460 from the measurement apparatus 400, the control unit 420 determines which measurement target is to be gripped with which gripping posture. Here, the measuring device is provided outside the gripping device, and a command may be output to the control unit 420 from this.

その後、制御部420は、上記決定された位置及び姿勢の情報に基づいて、ロボットアーム410に駆動指令を送ってロボットアームを制御する。ロボットアーム410は先端のロボットハンド(把持部)で計測対象460を保持して、並進や回転などの移動をさせる。さらに、ロボットアーム410によって計測対象460を他の部品に組み付けることにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動された計測対象460を加工することにより、物品製造を行うことができる。例えば、把持部に溶接ツールを備えた他のロボットアームを用いて、移動させた計測対象460の適宜の被溶接部に対して溶接処理を施すことができる。このロボットアームも本発明の計測装置を備えていて、これからの情報に基づいて、把持部の溶接ツールの位置や姿勢を制御する。こうした溶接ツールがある環境では、空気中に微粒子などが浮遊しやすいので、本発明の異常検知技術が適用された計測装置は、より効果を発揮することができる。   Thereafter, the control unit 420 controls the robot arm by sending a drive command to the robot arm 410 based on the determined position and orientation information. The robot arm 410 holds the measurement target 460 with a robot hand (gripping unit) at the tip, and moves the robot arm 410 such as translation and rotation. Furthermore, by assembling the measurement object 460 to other parts by the robot arm 410, an article composed of a plurality of parts, such as an electronic circuit board or a machine, can be manufactured. Moreover, an article can be manufactured by processing the moved measurement object 460. For example, the welding process can be performed on an appropriate welded part of the moved measurement object 460 using another robot arm having a welding tool in the gripping part. This robot arm also includes the measuring device of the present invention, and controls the position and orientation of the welding tool of the gripping part based on the information from now on. In an environment where such a welding tool is present, fine particles and the like are likely to float in the air, and thus the measuring device to which the abnormality detection technology of the present invention is applied can exhibit more effects.

制御部420は、CPUなどの演算装置やメモリなどの記憶装置を有する。また、計測装置400により計測された計測データや得られた画像をディスプレイなどの表示部430(図1に示す表示部10を兼ねてもよい)に表示してもよい。   The control unit 420 includes an arithmetic device such as a CPU and a storage device such as a memory. Further, the measurement data measured by the measurement apparatus 400 and the obtained image may be displayed on a display unit 430 such as a display (which may also serve as the display unit 10 shown in FIG. 1).

〔その他の実施形態〕
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、システム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1:プロジェクタ(投影部)
2:カメラ(撮影部)
4:画面分割部
5:距離画像生成部(距離取得部)
6:部品認識部
7:領域分割部
8:コントラスト比較部
1: Projector (projection unit)
2: Camera (shooting unit)
4: Screen division unit 5: Distance image generation unit (distance acquisition unit)
6: Component recognition unit 7: Area division unit 8: Contrast comparison unit

Claims (16)

計測対象に対してパターン光又はスリット光を投影する投影部と、
前記パターン光又はスリット光が投影された前記計測対象を撮影し、前記計測対象の撮影画像を取得する撮影部と、
前記撮影画像に基づき前記計測対象との距離の情報を取得する距離取得部と、
前記撮影画像を前記計測対象との距離の情報に応じて1以上の領域に分割する領域分割部と、
前記領域のコントラストを取得し、前記距離の情報に応じて定めたコントラストの許容範囲と前記領域のコントラストとを比較するコントラスト比較部と、を有することを特徴とする三次元計測装置。
A projection unit that projects pattern light or slit light onto a measurement target;
An imaging unit that captures the measurement target on which the pattern light or slit light is projected, and acquires a captured image of the measurement target;
A distance acquisition unit that acquires information on the distance to the measurement object based on the captured image;
An area dividing unit that divides the captured image into one or more areas in accordance with information on the distance to the measurement target;
A three-dimensional measurement apparatus comprising: a contrast comparison unit that obtains the contrast of the region and compares the contrast allowable range determined according to the distance information with the contrast of the region.
前記コントラスト比較部による比較の結果に基づき、前記投影部及び/又は前記撮影部の光透過部の異常を検知することを特徴とする請求項1に記載の三次元計測装置。   The three-dimensional measurement apparatus according to claim 1, wherein an abnormality of the light transmission unit of the projection unit and / or the imaging unit is detected based on a result of comparison by the contrast comparison unit. 前記コントラスト比較部による比較の結果に基づき、前記投影部及び/又は前記撮影部の光透過部に付着した付着物を検知することを特徴とする請求項2に記載の三次元計測装置。   The three-dimensional measurement apparatus according to claim 2, wherein the adhering matter attached to the light transmission part of the projection part and / or the photographing part is detected based on a result of comparison by the contrast comparison part. 前記コントラスト比較部は、全ての前記領域について前記比較を行い、所定の割合以上の前記領域のコントラストが前記許容範囲外であると判定された場合に前記異常検知の警告を発することを特徴とする請求項2又は3に記載の三次元計測装置。   The contrast comparison unit performs the comparison for all the regions, and issues a warning for the abnormality detection when it is determined that the contrast of the region of a predetermined ratio or more is outside the allowable range. The three-dimensional measuring apparatus according to claim 2 or 3. 前記コントラスト比較部は、前記コントラストの許容範囲を、前記計測対象の種類によって切り替えることを特徴とする請求項1から4の何れか一項に記載の三次元計測装置。   5. The three-dimensional measurement apparatus according to claim 1, wherein the contrast comparison unit switches an allowable range of the contrast depending on a type of the measurement target. 前記コントラスト比較部は、前記コントラストの許容範囲を、前記計測対象の姿勢および前記計測対象の各部の表面反射率によって切り替えることを特徴とする請求項1から4の何れか一項に記載の三次元計測装置。   5. The three-dimensional image according to claim 1, wherein the contrast comparison unit switches an allowable range of the contrast according to a posture of the measurement object and a surface reflectance of each part of the measurement object. 6. Measuring device. 計測対象に対してパターン光又はスリット光を投影する投影工程と、
前記パターン光又はスリット光が投影された前記計測対象を撮影し、前記計測対象の撮影画像を取得する撮影工程と、
前記撮影画像に基づき前記計測対象との距離の情報を取得する距離取得工程と、
前記撮影画像を前記計測対象との距離の情報に応じて1以上の領域に分割する領域分割工程
前記領域のコントラストを取得し、前記距離の情報に応じて定めたコントラストの許容範囲と前記領域のコントラストとを比較するコントラスト比較工程と、
前記コントラスト比較工程における比較の結果に基づき、前記投影工程で使用する投影部の光透過部及び/又は前記撮影工程で使用する撮影部の光透過部の異常を検知する検知工程と、
を有することを特徴とする三次元計測装置における異常検知方法。
A projection step of projecting pattern light or slit light onto the measurement object;
Photographing the measurement object on which the pattern light or slit light is projected, and obtaining a photographed image of the measurement object;
A distance acquisition step of acquiring information on the distance to the measurement object based on the captured image;
An area dividing step of dividing the captured image into one or more areas according to distance information with respect to the measurement object. The contrast of the area is acquired, and an allowable range of contrast determined according to the distance information and the area A contrast comparison step for comparing the contrast;
Based on the result of the comparison in the contrast comparison step, a detection step of detecting an abnormality in the light transmission portion of the projection unit used in the projection step and / or the light transmission portion of the imaging unit used in the imaging step;
A method for detecting an abnormality in a three-dimensional measuring apparatus.
前記検知工程では、前記投影工程で用いる投影部及び/又は前記撮影工程で用いる撮影部に付着した付着物を検知することを特徴とする請求項7に記載の異常検知方法。   The abnormality detection method according to claim 7, wherein, in the detection step, an adhering matter attached to a projection unit used in the projection step and / or a photographing unit used in the photographing step is detected. 前記コントラスト比較工程では、全ての前記領域について前記比較を行い、前記検知工程では、所定の割合以上の前記領域のコントラストが前記許容範囲外であると判定された場合に前記異常検知の警告を発することを特徴とする請求項7又は8に記載の異常検知方法。   In the contrast comparison step, the comparison is performed for all the regions, and in the detection step, the abnormality detection warning is issued when it is determined that the contrast of the region of a predetermined ratio or more is outside the allowable range. The abnormality detection method according to claim 7 or 8, wherein the abnormality is detected. 前記コントラスト比較工程では、前記コントラストの許容範囲を、前記計測対象の種類によって切り替えることを特徴とする請求項7から9の何れか一項に記載の異常検知方法。   The abnormality detection method according to any one of claims 7 to 9, wherein, in the contrast comparison step, an allowable range of the contrast is switched depending on a type of the measurement target. 前記コントラスト比較工程は、前記コントラストの許容範囲を、前記計測対象の姿勢および前記計測対象の各部の表面反射率によって切り替えることを特徴とする請求項7から9の何れか一項に記載の異常検知方法。   10. The abnormality detection according to claim 7, wherein the contrast comparison step switches an allowable range of the contrast depending on a posture of the measurement object and a surface reflectance of each part of the measurement object. Method. 請求項7から11の何れか一項に記載の異常検知方法の各工程を実行する手段としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as means for executing each step of the abnormality detection method according to any one of claims 7 to 11. 把持部により把持されるべき物体の位置および姿勢の情報を得る請求項1から6の何れか一項に記載の三次元計測装置と、
前記三次元計測装置により得られた前記情報に基づいて前記物体を把持して移動させるロボットと、
を有することを特徴とするシステム。
The three-dimensional measurement apparatus according to any one of claims 1 to 6, which obtains information on a position and orientation of an object to be gripped by a gripping unit;
A robot that grips and moves the object based on the information obtained by the three-dimensional measuring device;
The system characterized by having.
溶接ツールにより溶接されるべき物体の位置および姿勢の情報を得る請求項1から6の何れか一項に記載の三次元計測装置と、
前記三次元計測装置により得られた前記情報に基づいて前記溶接ツールを前記物体の被溶接部に移動させるロボットと、
を有することを特徴とするシステム。
The three-dimensional measuring device according to any one of claims 1 to 6, which obtains information on a position and a posture of an object to be welded by a welding tool;
A robot that moves the welding tool to the welded part of the object based on the information obtained by the three-dimensional measuring device;
The system characterized by having.
把持部により把持されるべき物体の位置および姿勢の情報を得る請求項1から6の何れか一項に記載の三次元計測装置により得られた前記情報に基づいて前記物体を把持して移動させる移動工程と、
前記移動工程で移動させられた前記物体に対して処理を行う処理工程と、
を有し、
前記処理が行われた前記物体から物品を製造することを特徴とする物品製造方法。
The information on the position and orientation of the object to be gripped by the gripping unit is obtained, and the object is gripped and moved based on the information obtained by the three-dimensional measurement apparatus according to any one of claims 1 to 6. Moving process;
A processing step of processing the object moved in the moving step;
Have
An article manufacturing method comprising manufacturing an article from the object subjected to the treatment.
前記処理工程では、溶接ツールにより溶接されるべき物体の位置および姿勢の情報を得る請求項1から6の何れか一項に記載の三次元計測装置により得られた前記情報に基づいてロボットにより前記溶接ツールを前記物体の被溶接部に移動させて前記物体に対して溶接処理を施すことを特徴とする請求項15に記載の物品製造方法。   In the processing step, information on the position and orientation of an object to be welded by a welding tool is obtained by a robot based on the information obtained by the three-dimensional measurement apparatus according to any one of claims 1 to 6. The article manufacturing method according to claim 15, wherein a welding process is performed on the object by moving a welding tool to a welded portion of the object.
JP2017150302A 2017-08-02 2017-08-02 Three-dimensional measuring device and method for detecting abnormality in three-dimensional measuring device Pending JP2019028004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017150302A JP2019028004A (en) 2017-08-02 2017-08-02 Three-dimensional measuring device and method for detecting abnormality in three-dimensional measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150302A JP2019028004A (en) 2017-08-02 2017-08-02 Three-dimensional measuring device and method for detecting abnormality in three-dimensional measuring device

Publications (1)

Publication Number Publication Date
JP2019028004A true JP2019028004A (en) 2019-02-21

Family

ID=65476161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150302A Pending JP2019028004A (en) 2017-08-02 2017-08-02 Three-dimensional measuring device and method for detecting abnormality in three-dimensional measuring device

Country Status (1)

Country Link
JP (1) JP2019028004A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022044882A1 (en) * 2020-08-24 2022-03-03 Dmg森精機株式会社 Information processing device and machine tool

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022044882A1 (en) * 2020-08-24 2022-03-03 Dmg森精機株式会社 Information processing device and machine tool

Similar Documents

Publication Publication Date Title
KR101940936B1 (en) Point cloud merging from multiple cameras and sources in three-dimensional profilometry
JP3951984B2 (en) Image projection method and image projection apparatus
KR101461068B1 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
JP4894628B2 (en) Appearance inspection method and appearance inspection apparatus
JP6061616B2 (en) Measuring apparatus, control method therefor, and program
US9659379B2 (en) Information processing system and information processing method
US11640673B2 (en) Method and system for measuring an object by means of stereoscopy
JP2012063352A (en) Three-dimensional position measurement device, three-dimensional position measurement method, and computer program
JP2016075658A (en) Information process system and information processing method
CN113570582B (en) Camera cover plate cleanliness detection method and detection device
JP2016063540A (en) Apparatus and method for imaging with reflection suppression
CN112334761A (en) Defect discriminating method, defect discriminating device, defect discriminating program, and recording medium
JP5207057B2 (en) Dirt detection device and method for detecting contamination of an imaging device
CN109696240A (en) Detection method, device and the readable storage medium storing program for executing of the semiconductor laser overall situation uniformity
JP2009250844A (en) Three-dimensional shape measurement method and three-dimensional shape measurement apparatus
JP2019028004A (en) Three-dimensional measuring device and method for detecting abnormality in three-dimensional measuring device
JP2020512536A (en) System and method for 3D profile determination using model-based peak selection
JP2022152480A (en) Three-dimensional measuring device, three-dimensional measuring method, program, system, and method for manufacturing article
JP6781969B1 (en) Measuring device and measuring method
JP2014095631A (en) Three-dimensional measurement device and three-dimensional measurement method
CN109661683B (en) Structured light projection method, depth detection method and structured light projection device based on image content
TW201809592A (en) Automated 3-D measurement
JP2021063700A (en) Three-dimensional measuring device, computer program, control system, and method for manufacturing article
JP2020129187A (en) Contour recognition device, contour recognition system and contour recognition method
JP2021190515A (en) Workpiece left-over determination system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20181204