ES2326327T3 - Escaneado 3d adaptativo. - Google Patents

Escaneado 3d adaptativo. Download PDF

Info

Publication number
ES2326327T3
ES2326327T3 ES05762717T ES05762717T ES2326327T3 ES 2326327 T3 ES2326327 T3 ES 2326327T3 ES 05762717 T ES05762717 T ES 05762717T ES 05762717 T ES05762717 T ES 05762717T ES 2326327 T3 ES2326327 T3 ES 2326327T3
Authority
ES
Spain
Prior art keywords
previous
physical object
scanner
procedure according
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05762717T
Other languages
English (en)
Inventor
Rune Fisker
Tais Clausen
Nikolaj Deichmann
Henrik Ojelund
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3Shape AS
Original Assignee
3Shape AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=35107074&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2326327(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 3Shape AS filed Critical 3Shape AS
Application granted granted Critical
Publication of ES2326327T3 publication Critical patent/ES2326327T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S359/00Optical: systems and elements
    • Y10S359/90Methods

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Un procedimiento para generar un modelo informático 3D de un objeto físico, comprendiendo dicho procedimiento las siguientes etapas: a) proporcionar un sistema de escáner, comprendiendo dicho sistema de escáner i. un escáner, y ii. un ordenador que puede conectarse a y/o integrarse en dicho escáner, comprendiendo dicho ordenador un modelo virtual de dicho escáner, b) introducir información de la forma del objeto físico en el ordenador, c) crear en dicho ordenador una función de visibilidad basada en dicho modelo virtual y en la información de la forma, pudiendo dicha función de visibilidad evaluar la cobertura de las áreas de interés del objeto físico mediante al menos una secuencia de escaneado predeterminada, d) establecer al menos una secuencia de escaneado basada en la evaluación de la función de visibilidad, e) realizar un escaneado del objeto físico usando dicha al menos una secuencia de escaneado, f) repetir opcionalmente las etapas d) y e) al menos una vez, g) obtener un modelo informático 3D del objeto físico.

Description

Escaneado 3D adaptativo.
La presente invención se refiere a la generación de modelos informáticos 3D de un objeto físico.
Antecedentes
Los sistemas de escáner 3D de luz estructurada funcionan básicamente de la misma manera descrita en la técnica anterior. Estos sistemas funcionan básicamente tal y como se describe en la figura 1, en la que un patrón de luz monocromática o multiespectral 101, tal como puntos láser, líneas láser, bandas blancas o coloreadas, se proyectan desde una fuente de luz 102 sobre el objeto 103. Después, la luz proyectada se refleja 104 y una o más cámaras 105 adquiere(n) imágenes de la proyección. El patrón de luz se detecta en la imagen y se utiliza una geometría de proyección bien establecida, tal como triangulación o estéreo, para obtener las coordenadas 3D, por ejemplo, una línea de láser se proyecta sobre el objeto formando una línea. Después, las coordenadas 3D se reconstruyen a lo largo de esa línea particular. El escáner puede contener una o más fuentes/patrones de luz y una o más cámaras.
Después, la siguiente etapa es mover el objeto y el escáner entre sí, por ejemplo, mediante rotación 106 o mediante un movimiento lineal 107 del objeto 103. De esta manera, el escáner puede reconstruir la superficie de una nueva parte del objeto, por ejemplo, una nueva línea de la superficie en la línea láser de ejemplo. Los escáneres de la técnica anterior tienen el movimiento programado de manera manual en una secuencia de escaneado predefinida o el objeto/escáner simplemente se mueve de manera manual.
Un problema heredado en el escaneado 3D de luz estructurada es que tanto la cámara como el patrón de luz necesitan "ver" cada punto de superficie al mismo tiempo para poder realizar una reconstrucción 3D de ese punto particular. Esto da lugar a áreas "ocluidas" o no cubiertas que aparecen como huecos de superficie en el escaneado final, es decir, áreas sin información de medición de superficie. En la mayoría de los casos, los huecos en el escaneado son indeseables o inaceptables desde un punto de vista tanto visual como de aplicación.
El problema se ilustra en la figura 2, en la que se muestra una nube de puntos 2a del escaneado inicial de un osito de juguete. El escaneado inicial se realiza mediante una secuencia de escaneado predefinida de dos escaneados por rotación. Cuando se crea el modelo de superficie 2b, las áreas no cubiertas aparecen como huecos, por ejemplo 204. Después se utiliza un escaneado adaptativo para realizar una secuencia de escaneado que escanee los huecos en un escaneado adicional. De hecho, dos huecos 205 ya se han escaneado de manera adaptativa y cubierto por nuevos puntos. Después del primer escaneado adaptativo, un único hueco 206 todavía está presente en el modelo de superficie 2c del resultado combinado del escaneado inicial y del escaneado adaptativo. Después, se realiza un segundo escaneado adaptativo y se obtiene una cobertura total 2d.
En la técnica anterior, el problema de la oclusión se intenta solucionar mediante una definición manual de secuencias de escaneado complejas y mediante limitaciones de cómo se coloca el objeto en el escáner. Se requieren largas secuencias de escaneado que necesitan mucho tiempo para cubrir solamente formas u objetos simples con una variación de forma moderada. En el caso de objetos con una forma variable, esto no garantiza todavía una cobertura total. Otro problema es que la creación de las secuencias de escaneado puede ser muy engorrosa y requiere un conocimiento avanzado.
Para solucionar el problema de las áreas no cubiertas, algunos escáneres comerciales cierran de manera artificial los huecos en el escaneado usando la información de superficie alrededor del hueco. El cierre de huecos artificial puede realizarse ajustando una superficie paramétrica tal como una superficie ranurada o superficies de segundo orden. El cierre de huecos artificial puede proporcionar resultados visualmente válidos pero lo precisión es muy baja, lo que es inaceptable para la mayoría de aplicaciones.
En el documento "Blending Images for Texturing 3D Models", por Adam Baumberg, Proceedings of the 13th British Machine Vision Conference, 5 de septiembre de 2002, páginas 404 a 413, universidad de Cardiff, se desvela un sistema y un procedimiento para generar mapas de textura sin junturas para una superficie de topología arbitraria a partir de imágenes reales del objeto tomadas con una cámara digital convencional y sin una iluminación controlada.
En el documento "A 3D Scanning System Based on Low-Occlusion Approach", por Bor-Tow Chen, Wen-Shiou Lou, Chia-Chen Chen; Hsien-Chang Lin, 3-D Digital Imaging and Modeling Proceedings, 2 Int. Conf., 8 de octubre de 1999, páginas 506 a 515, se desvela un algoritmo para optimizar las capas escaneadas y minimizar la cantidad de datos para reducir de manera eficaz la cantidad de capas escaneadas y adquirir los datos de mejores vistas en un escáner 3D de 2 ejes según el criterio propuesto de la mejor posición.
Resumen de la invención
La presente invención se refiere a un escaneado 3D adaptativo en el que una secuencia de escaneado para obtener una cobertura geométrica total se crea de manera automática y específica para el objeto físico.
\newpage
Por consiguiente, la presente invención se refiere a un procedimiento y a un sistema para generar un modelo informático 3D de un objeto físico, donde el procedimiento comprende las siguientes etapas:
a)
proporcionar un sistema de escáner, comprendiendo dicho sistema de escáner
i.
un escáner, y
ii.
un ordenador que puede conectarse a y/o integrarse en dicho escáner, comprendiendo dicho ordenador un modelo virtual de dicho escáner,
b)
introducir información de la forma del objeto físico en el ordenador,
c)
crear en dicho ordenador una función de visibilidad basada en dicho modelo virtual y en la información de la forma, pudiendo dicha función de visibilidad evaluar la cobertura de las áreas de interés del objeto físico mediante al menos una secuencia de escaneado predeterminada,
d)
establecer al menos una secuencia de escaneado basada en la evaluación de la función de visibilidad,
e)
realizar un escaneado del objeto físico usando dicha al menos una secuencia de escaneado,
f)
repetir opcionalmente las etapas d) y e) al menos una vez,
g)
obtener un modelo informático 3D del objeto físico.
\vskip1.000000\baselineskip
En otro aspecto, la invención se refiere a un sistema de procesamiento de datos para generar un modelo informático 3D de un objeto físico, que incluye un dispositivo de entrada, una unidad central de procesamiento, una memoria y un dispositivo de visualización, donde dicho sistema de procesamiento de datos tiene almacenado en el mismo datos que representan secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento definido anteriormente.
En todavía otro aspecto, la invención se refiere a un producto de software informático que contiene secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento definido anteriormente.
En un cuarto aspecto, la invención se refiere a un producto de circuito integrado que contiene secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento definido anteriormente.
Dibujos
La figura 1 muestra un dibujo esquemático de un sistema de escáner 3D.
Las figuras 2a a 2d muestran un ejemplo de un objeto físico que va a escanearse.
La figura 3 muestra un diagrama de flujo para realizar un escaneado de áreas no cubiertas.
La figura 4 es un diagrama de flujo para la creación automatizada de un escaneado inicial.
La figura 5 muestra un modelo informático 3D de una impresión dental.
Descripción detallada de la invención
La invención se refiere al campo del escaneado 3D de objetos físicos, es decir, la creación de modelos informáticos 3D que representan en detalle la geometría de objetos físicos y opcionalmente características de la textura, de la superficie y del material. La invención se describirá para escáneres ópticos 3D de luz estructurada, pero puede aplicarse a la mayoría de los otros tipos de escáneres 3D, tales como los escáneres de sonda táctil, escáneres láser de medición de la distancia, escáneres MR, MRI, CT, de rayos x, de ultra sonidos, cámaras de medición de la distancia, sensores del tiempo de vuelo o escáneres ópticos basados en siluetas, la estructura y el movimiento, la forma deducida a partir del sombreado, la forma deducida a partir de la textura, o los índices de color.
Una secuencia de escaneado define el escaneado real incluyendo los movimientos, las cámaras activas, las fuentes de luz activas, los patrones de luz activos y otros ajustes pertinentes. Una secuencia de escaneado puede ser desde un único escaneado sin movimiento hasta un escaneado con secuencias de movimiento largas y complejas.
Por motivos de simplicidad, el movimiento del objeto sólo se menciona en el siguiente texto. Sin embargo, debe interpretarse como un movimiento relativo en el que se mueve al menos un componente del sistema y/o el objeto, como cuando se mueve el objeto o el escáner. Esto también cubre el movimiento del patrón de luz y del campo de visión de las cámaras usando preferentemente espejos o prismas incluso aunque el escáner no se mueva físicamente.
Los sistemas de escáner 3D de luz estructurada comprenden un escáner y un ordenador conectado a y/o integrado en el escáner. Preferentemente, el escáner contiene una o más fuentes de luz 102, una o más cámaras 105 y un sistema de movimiento 106-107 que puede mover al objeto con respecto a la cámara y a la fuente de luz. Obsérvese que el sistema de movimiento no está limitado necesariamente a una única rotación 106 y a un único movimiento lineal 107 tal y como se muestra en la figura 1, sino que preferentemente puede ser un sistema de múltiples ejes con muchos grados de libertad, tal como un robot o una máquina CNC. La cámara, la fuente de luz y el sistema de movimiento están conectados 108 a un ordenador 109 que se comunica con y que controla cada componente. El ordenador puede ser una unidad aparte o integrada en el escáner.
La invención es un escaneado 3D adaptativo donde las secuencias de escaneado para obtener una cobertura geométrica total se crean de manera automática. En otras realizaciones de la invención se crean de manera automática archivos de secuencia para un escaneado óptimo de la textura, para parámetros de material de superficie, para superficies brillantes y para otras características relevantes. Obsérvese que la cobertura debe interpretarse generalmente con respecto al escaneado de estas características.
La información de la forma de la etapa b) puede ser cualquier información de la forma del objeto físico. Puede ser una información directa de la forma, tal como información de la forma que puede originarse, por ejemplo, a partir de uno o más escaneados iniciales.
De manera adicional o como alternativa, también puede ser información indirecta de la forma, tal como información relacionada con las formas de las plantillas, formas simplificadas o aproximadas, tales como cajas y cilindros, o combinaciones de las mismas, formas habituales, modelos CAD, o puede obtenerse a partir de una o más imágenes 2D. Obsérvese que la información de la forma no necesita ser información 3D, sino que también puede ser 1D, 2D, 4D o 5D. La información de la forma puede originarse por otros escáneres distintos a los escáneres de luz estructura, preferentemente escáneres de sonda táctil, MR, MRI, CT, de rayos x o de ultrasonidos. Además, pueden combinarse diferentes informaciones de la forma, por ejemplo haciendo corresponder el resultado de un escaneado inicial con otra información de la forma, preferentemente un modelo CAD, la forma de una plantilla o una forma habitual. En una realización, la información de la forma es una combinación de la información directa de la forma y de la información indirecta de la forma.
En una realización, la información de la forma del objeto físico es una nube de puntos, como cuando la información de la forma del objeto físico se obtiene ajustando una superficie a una nube de puntos. El ajuste puede llevarse a cabo mediante cualquier procedimiento adecuado, tal como el realizado mediante triangulación.
La información de la forma está alineada preferentemente al objeto físico, como cuando la información de la forma y el objeto se alinean mediante una colocación del objeto en el escáner. En otra realización, la información de la forma y el objeto se alinean mediante un escaneado inicial que está alineado con la información de la forma.
El escaneado 3D adaptativo facilita la posibilidad de un escaneado de objetos arbitrarios mediante un botón, es decir, el usuario solamente introduce un objeto arbitrario en el escáner y pulsa un único botón. Todo el escaneado se realiza después de manera automática y óptima y genera un escaneado de cobertura total. No se necesita un conocimiento avanzado para la creación de secuencias de escaneado complejas, para el ajuste de los parámetros de escaneado o para la combinación/mezcla manual de diferentes escaneados. Ningún escáner de la técnica anterior está cerca de conseguir este objetivo. La figura 3 muestra una realización de la invención en la que la adquisición de la forma se realiza mediante un escaneado inicial 300 que utiliza preferentemente la combinación de escaneados lineales, escaneados por rotación o un movimiento simultáneo de varios ejes. Por escaneado lineal se entiende un movimiento lineal relativo del objeto o un barrido lineal del patrón de luz sobre el objeto. Después, el escaneado resultante se analiza para las áreas no cubiertas y estas áreas de interés se vuelven a escanear automáticamente usando la combinación óptima de movimientos, patrones de luz, fuentes de luz y cámaras. El nuevo escaneado adaptativo puede combinarse después con el resultado del escaneado inicial para formar un escaneado de cobertura total.
El término "cobertura total" se refiere al grado de cobertura definido con respecto al modelo informático 3D específico. Por tanto, puede aceptarse que no se cubran todos los huecos ocluidos si los huecos tienen un tamaño o una localización de menor interés. También puede ser relevante predeterminar que el tiempo de escaneado sea el factor de limitación, de manera que la "cobertura total" se obtiene cuando el escaneado se ha ejecutado durante un periodo de tiempo predeterminado. Por consiguiente, el criterio de finalización de la cobertura total puede ser diferente de la cobertura absoluta de todos los huecos, el criterio de finalización puede ser huecos que estén por debajo de un determinado umbral y por tanto ignorados, solo se permite un determinado número de iteraciones y solo se necesita un tiempo de escaneado máximo o una determinada cobertura global.
La primera etapa del escaneado adaptativo puede ser determinar qué áreas no están cubiertas adecuadamente en el escaneado inicial. Preferentemente, esto se realiza creando el modelo de superficie 301, por ejemplo, mediante triangulación de la nube de puntos o ajustando superficies paramétricas tales como superficies ranuradas. Si se supone que los modelos de superficie se crean en el procesamiento posterior del escaneado, es ventajoso aplicar el mismo algoritmo de creación de superficies. Cuando el modelo de superficie está presente puede evaluarse directamente la cobertura total 302 ya que las áreas no cubiertas se corresponden con los huecos de la superficie. Las áreas no cubiertas también pueden determinarse directamente a partir de la nube de puntos, de datos vóxel y de otros datos no procesados. Dependiendo de la aplicación, algunos huecos, tales como la parte inferior del objeto, pueden ignorarse. El criterio de finalización de la cobertura total 302 puede modificarse para expresar otras prioridades como las descritas anteriormente.
Determinar de manera adaptativa la combinación de movimientos, patrones de luz, fuentes de luz y cámaras garantizando una cobertura óptima de cada área de interés es la etapa crucial del escaneado adaptativo. Recuérdese que el área de interés de esta realización corresponde a las áreas no cubiertas. La primera etapa es generar la función de visibilidad, es decir, dados la información de la forma y una configuración específica de la cámara, la fuente/patrón de luz y el movimiento del objeto, puede evaluarse la visibilidad actual del área no cubierta. Para poder evaluar la visibilidad se crea un modelo de escáner virtual que emula al escáner físico y que incluye preferentemente modelos y parámetros de cámara, modelos y parámetros de fuentes/patrones de luz, modelos y parámetros de movimiento, valores de movimiento y otros parámetros relevantes. El modelo de cámara puede ser, por ejemplo, un modelo de proyección convencional con parámetros tales como la posición y la orientación de la cámara. Muchos parámetros del escáner virtual son específicos del escáner y se obtienen a través de un procedimiento de calibración. Preferentemente, estos parámetros deben estar incluidos en el modelo de escáner virtual.
El modelo virtual del escáner, es decir, el modelo de escáner virtual, forma parte de la base para crear la función de visibilidad. La función de escáner virtual puede crearse con relación a cada generación de un modelo informático 3D, o puede crearse una vez en el sistema de escáner y solo volver a crearse si se realizan cambios en el sistema de escáner. El modelo de escáner virtual puede crearse antes, después o simultáneamente con la introducción de la información de la forma del objeto físico en el ordenador, aunque se prefiere que el modelo de escáner virtual se cree antes de la introducción de la información de la forma.
El modelo de escáner virtual se utiliza después para evaluar la visibilidad de una área no cubierta dados la información de la posición y de la orientación del objeto, los ajustes de la cámara, los ajustes de la fuente/patrón de luz y otras características relevantes. Cuando se evalúa la visibilidad, puede ser ventajoso evaluar la visibilidad en una pluralidad de puntos/celdas/zonas muestreados sobre el área no cubierta. En caso de que falte información de la forma pueden aproximarse puntos de muestreo, por ejemplo mediante interpolación o ajuste de superficie. La visibilidad de cada punto de muestra puede calcularse simultáneamente a partir del grado de visibilidad del punto tanto para la fuente/patrón de luz como para la cámara. Para muchas configuraciones de escáner, el objeto necesita moverse mientras se escanea un área no cubierta. Este movimiento necesita tenerse en cuenta durante la evaluación de la visibilidad.
La secuencia óptima de movimientos, patrones de luz, fuentes de luz y cámaras para escanear un área no cubierta se obtiene entonces como la secuencia que maximiza la visibilidad. En una realización, la al menos una secuencia de escaneado de la etapa d) se establece simulando la cobertura del objeto físico de al menos dos secuencias de escaneado y seleccionando la secuencia de escaneado que presente una cobertura óptima.
La secuencia de escaneado establecida en la etapa d) se establece preferentemente para obtener la cobertura de los huecos ocluidos en la información de la forma del objeto físico.
Preferentemente, la secuencia óptima se obtiene mediante la creación de una o más secuencias de escaneado 303 que después se optimizan. La optimización de la función de visibilidad 304 puede realizarse con respecto a cualquier parámetro libre del modelo de escáner virtual aunque puede ser ventajoso limitar la optimización a parámetros de movimiento y a diferentes combinaciones de cámara y de fuente de luz. La optimización real puede realizarse mediante un algoritmo de optimización convencional tal como el procedimiento del descenso de máxima pendiente (steepest descent), del gradiente conjugado, de Levenberg-Marquardt, el procedimiento Newton o cuasi-Newton, BFGS, de hibridación simulada o algoritmos genéricos. Pueden añadirse restricciones a los parámetros, tales como límites al eje físico, como duras restricciones o como suaves restricciones.
También pueden integrarse factores adicionales en la función de visibilidad de manera que el valor de la función refleje otras prioridades además de la visibilidad. Aunque la función de visibilidad contenga más factores que la mera visibilidad, la función todavía se denominará función de visibilidad. Factores adicionales pueden ser el tiempo de escaneado, la visibilidad para varias cámaras, la supresión de la reflexión, una superficie normal al ángulo de cámara/de fuente de luz o la visibilidad de la textura. También puede ser ventajoso dividir las áreas no cubiertas en superficies de gran curvatura para mejorar la visibilidad o combinar el escaneado de áreas vecinas para obtener tiempos de escaneado inferiores.
Por tanto, en una realización, la secuencia de escaneado se establece optimizando el escáner para la superficie de mejor ángulo con respecto al ángulo de cámara y/o de láser. En otra realización, la secuencia de escaneado se establece optimizando la velocidad de secuencia de escaneado. En una tercera realización, la secuencia de escaneado establecida se optimiza para las reflexiones mínimas desde el objeto físico, y en una cuarta realización la secuencia de escaneado establecida se optimiza para la visibilidad de más de una cámara. En realizaciones adicionales, la secuencia de escaneado establecida se optimiza para dos o más de los factores mencionados anteriormente. Por lo tanto, puede crearse una secuencia de escaneado moviendo al menos uno de los componentes del escáner con respecto a al menos uno de los otros componentes.
Después, la secuencia de escaneado óptima se selecciona como aquélla que tenga la máxima visibilidad. También pueden usarse factores adicionales para seleccionar la configuración óptima si varias secuencias consiguen una visibilidad total. Se realiza un escaneado usando la secuencia de escaneado óptima 305 y el resultado se combina con los escaneados realizados anteriormente 305. Después puede crearse el modelo de superficie para los escaneados combinados 301 y el escaneado resultante puede comprobarse para una cobertura total 302. Si no se obtiene una cobertura total en el escaneado combinado, entonces puede realizarse un segundo escaneado adaptativo. Para formas complejas pueden ser necesarias varias secuencias de escaneado adaptativo para obtener una cobertura total ya que las áreas no cubiertas pueden presentar formas que ocluyan otras partes del área no cubierta.
La cobertura de las áreas del objeto físico puede evaluarse mediante cualquier procedimiento adecuado. En una realización, la cobertura de las áreas del objeto físico se evalúa evaluando el porcentaje del área de los huecos en comparación con el área estimada del objeto físico. En otra realización, la cobertura de las áreas del objeto físico se evalúa evaluando el tamaño de los huecos. En todavía otra realización, las etapas d) y e) se repiten hasta que la cobertura del objeto físico esté por encima de un valor predeterminado. La invención también prevé combinar los diferentes procedimientos de determinación de la cobertura, por ejemplo evaluando en primer lugar el tamaño de los huecos y evaluando en segundo lugar el porcentaje del área de los huecos.
El sistema de escáner según la invención puede ser cualquier sistema de escáner adecuado, del que anteriormente se han mencionado ejemplos. En principio, el sistema de escáner según la invención comprende los siguientes componentes: al menos una fuente de luz, al menos una cámara y al menos un soporte para soportar el objeto físico.
Se prefiere que al menos uno de los siguientes componentes: la fuente de luz, la cámara y el soporte, pueda moverse con respecto a uno de los otros componentes, y la presente invención abarca sistemas en los que dos o más de los componentes pueden moverse con respecto a al menos uno de los otros componentes. Por consiguiente, los ejemplos de la invención incluyen sistemas en los que el soporte puede moverse con respecto a la fuente de luz, y/o el soporte puede moverse con respecto a la cámara, pudiendo el soporte que soporta al objeto físico realizar preferentemente al menos uno de los siguientes movimientos: un movimiento lineal, un movimiento de rotación o una combinación de los mismos.
El sistema de escáner según la invención puede comprender más componentes, tales como un sistema de escáner que comprende al menos dos fuentes de luz, y/o un sistema de escáner que comprende al menos dos cámaras.
Para el escáner mostrado en la figura 1, el modelo de escáner virtual más sencillo contiene un modelo de cámara, un modelo de luz y modelos para el movimiento de rotación y el movimiento lineal. Para completar el modelo de escáner virtual se introducen valores calibrados para todos los parámetros de modelo de escáner, tales como la posición de la cámara, para un escáner específico. Dada la información de la forma, ahora puede evaluarse la función de visibilidad. Los únicos parámetros libres del escáner son el movimiento de rotación y el movimiento lineal. Puede usarse cualquier combinación de movimiento de rotación y de movimiento lineal para escanear los huecos en el escaneado inicial. Sin embargo, una configuración sencilla y poderosa es utilizar la rotación para hacer girar el hueco para una máxima visibilidad y utilizar el movimiento lineal para escanear realmente el área. En la práctica, esto limita el parámetro libre para la rotación ya que el movimiento lineal puede obtenerse a partir del ángulo de rotación y del tamaño del hueco. Dada una secuencia de escaneado 303 con una estimación inicial del ángulo de rotación, puede obtenerse la secuencia de escaneado óptima optimizando la función de visibilidad f(...) 304 con respecto al ángulo de rotación \Theta: Max_{\Theta} f(\Theta) información de la forma, modelo de escáner virtual.
La salida de la optimización, \Theta_{max}, y el archivo de secuencia correspondiente garantiza una visibilidad máxima. La optimización real puede llevarse a cabo usando uno de los algoritmos de optimización mencionados anteriormente, por ejemplo, un descenso de máxima pendiente usando una evaluación de gradiente numérico con un tamaño de inclinación, \Delta\Theta, de 1 grado. Después, la siguiente etapa es el escaneado usando el archivo de secuencia óptima 305. Después, el escaneado resultante se combina con escaneados anteriores 306 y la superficie se crea 301 y se comprueba para una cobertura total 302. Si no se ha obtenido todavía una cobertura total, puede realizarse una nueva iteración. Tal y como se ha mencionado anteriormente en este documento, el término "cobertura total" significa la cobertura total con relación al modelo informático 3D específico y no significa necesariamente que cada parte del objeto físico está cubierta.
La figura 4 muestra otra realización de la invención en la que el modelo de escáner virtual y la función de visibilidad se utilizan para crear el primer escaneado inicial 300 en base a la información indirecta de la forma no escaneada directamente desde el objeto. Preferentemente, la información indirecta de la forma se obtiene a partir de un modelo CAD 400, un modelo habitual o un modelo de plantilla. En este caso, el área de interés corresponde al modelo total.
En la misma estructura de escáner virtual que en la anterior realización se crean una o más secuencias de escaneado 401 y los parámetros libres se optimizan 402 con respecto a la función de visibilidad. Dependiendo de la aplicación real, pueden añadirse factores adicionales a la función de visibilidad tales como el número de subescaneados, la visibilidad para subescaneados mutuos y el tiempo de escaneado. Después, la secuencia de escaneado óptima se utiliza para el escaneado inicial del objeto 403.
Es necesario conocer las posiciones absolutas del objeto para realizar un escaneado satisfactorio. Preferentemente, la posición se obtiene a partir de una colocación del objeto en el escáner o de manera más flexible llevando a cabo un rápido escaneado predefinido que después se hace corresponder/alinea con el modelo de la forma. Si fuera necesario, esto puede ir seguido de un segundo escaneado 301-305 para cerrar posibles huecos.
Una manera sencilla de acelerar el escaneado es dejar que el usuario seleccione el área de interés en alguna representación del objeto. Si se conoce la información de la forma antes del escaneado, la representación es preferentemente un modelo CAD, un modelo de platilla o un modelo habitual, o de lo contrario la representación puede ser el resultado de un escaneado rápido o incluso más rápido que una imagen 2D capturada por las cámaras. Obsérvese que una selección en una imagen 2D creada directamente por el escáner puede transformarse en una selección 3D mediante el uso del modelo de escáner virtual. Esta área de interés seleccionada por el usuario se utiliza después directamente para determinar la secuencia de escaneado óptima.
Otra realización de la invención puede aplicarse a escáneres que capturen la textura del objeto donde las modificaciones de la función de visibilidad pueden garantizar una cobertura de textura total para todo el objeto. La geometría del objeto puede originarse a partir de un escaneado o partir de un modelo obtenido indirecto. La principal diferencia para el escaneado de geometría plana es la formulación de la función de visibilidad que en este caso puede incorporar características de textura tales como la visibilidad de la textura y una superficie normal al ángulo de cámara. La función de visibilidad puede formularse para incorporar una geometría simultánea o separada y una captura de textura dependiendo de la estrategia de escaneado.
De manera similar, la invención también puede aplicarse para capturar la iluminación, el sombreado y los parámetros de material usados principalmente para proporcionar imágenes de una apariencia visual realista de los objetos. Esto se implementa ampliando la formulación de la función de visibilidad para incorporar factores de estimación de parámetros de material y de iluminación. Existen muchos modelos de material y de iluminación diferentes tales como el sombreado Phong, el sombreado Gouraud o los modelos BRDF. Sin embargo, la función de visibilidad debe poder aplicarse generalmente a todos los diferentes modelos y algoritmos de estimación.
El modelo informático 3D del objeto físico puede basarse en uno de los resultados obtenidos por el escaneado en la etapa e), o el modelo informático 3D del objeto físico puede obtenerse combinando información que proviene de cualquier otra información del objeto físico y al menos uno de los resultados del escaneado realizado en la etapa e), tal como una combinación con la información de la forma y los resultados del escaneado.
El modelo informático 3D del objeto físico también puede obtenerse combinando información de al menos dos secuencias de escaneado realizadas en la etapa e), y combinando opcionalmente información de al menos dos escaneados con cualquier otra información, tal como la información de la forma.
Aunque la invención se ha descrito con respecto a los escáneres de luz estructurada, para los expertos en la materia debe resultar evidente que la invención puede aplicarse para realizar escaneados adaptativos para otros tipos de escáneres, tales como los escáneres de superficie. Por lo tanto, la invención también puede llevarse a cabo usando, por ejemplo, escáneres de sonda táctil, escáneres láser de medición de la distancia, escáneres MR, MRI, CT, de rayos x, de ultra sonidos, cámaras de medición de la distancia, sensores del tiempo de vuelo o escáneres ópticos basados en siluetas, la estructura y el movimiento, la forma deducida a partir del sombreado, la forma deducida a partir de la textura, o las claves de color. La principal diferencia es la diferente formulación de los modelos de escáner virtuales y la función de visibilidad.
La presente invención puede utilizarse para la generación de modelos informáticos 3D de cualquier objeto físico y, por lo tanto, el escaneado adaptativo es relevante en la mayoría de las aplicaciones de escaneado 3D. Los objetos físicos pueden presentar una superficie regular o irregular, y la invención es particularmente relevante para la generación de modelos informáticos 3D de objetos físicos que presenten una superficie irregular. Ejemplos de aplicaciones son escaneados de impresiones dentales, moldes y troqueles dentales, hormas, objetos de arte, culturales e históricos, partes fabricadas para un análisis de calidad y la fabricación de moldes, impresiones de oídos, metrología, ingeniería inversa, creación sencilla de modelos 3D realistas para páginas domésticas, juegos de ordenador y animación de películas, dibujos animados y anuncios.
El escaneado óptico de impresiones dentales o anatómicas arbitrarias es una aplicación que es imposible de realizar sin un escaneado adaptativo. Las impresiones dentales son una impresión negativa de los dientes y se realizan normalmente mediante algún tipo de material de silicona. Debido a la forma de los dientes y a su variación biológica, conseguir una cobertura total es un gran reto ya que realizar un escaneado en una impresión de un diente arbitrario requiere movimientos y posiciones de visualización bastante precisos. Cuando el escaneado se utiliza para reconstrucciones dentales se requiere una precisión bastante alta para obtener un ajuste apropiado, lo que descarta el cierre de huecos artificial. Por lo tanto, la presente invención es particularmente adecuada para su aplicación en el campo dental, ya sea para realizar un escaneado de los dientes, de una prótesis o de impresiones de uno o más dientes o de una prótesis.
La figura 5 muestra un escaneado adaptativo del lado superior 400 y del lado inferior 401 de una impresión dental de dos lados que captura simultáneamente tanto las impresiones negativas de los dientes como la mordida. Para formar el escaneado total 402 de una impresión de dos lados, el escaneado de impresión superior e inferior pueden hacerse corresponder de manera preferentemente automática pero opcionalmente con la ayuda del usuario el cual marca uno o más puntos correspondientes 403 en los dos escaneados.
En otro aspecto, la invención se refiere a un sistema de escáner que puede ejecutar el procedimiento descrito anteriormente. Por consiguiente, la invención se refiere a un sistema de escáner para generar un modelo informático 3D de un objeto físico, que comprende al menos una fuente de luz, al menos una cámara y al menos un soporte para soportar el objeto físico, y un sistema de procesamiento de datos que incluye un dispositivo de entrada, una unidad de procesamiento central y un dispositivo de visualización, en el que dicho sistema de procesamiento de datos tiene almacenado en el mismo datos que representan secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento descrito anteriormente. Los componentes del sistema de escáner son los descritos anteriormente con relación al procedimiento.
En un tercer aspecto, la invención se refiere a un sistema de procesamiento de datos como el descrito anteriormente para generar un modelo informático 3D de un objeto físico, que incluye un dispositivo de entrada, una unidad central de procesamiento, una memoria y un dispositivo de visualización, en el que dicho sistema de procesamiento de datos tiene almacenado en el mismo datos que representan secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento de la invención.
En una cuarta realización, la invención se refiere a un producto de software informático que contiene secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento de la invención.
En una quinta realización, la invención se refiere a un producto de circuito integrado que contiene secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento de la invención.

Claims (38)

1. Un procedimiento para generar un modelo informático 3D de un objeto físico, comprendiendo dicho procedimiento las siguientes etapas:
a)
proporcionar un sistema de escáner, comprendiendo dicho sistema de escáner
i.
un escáner, y
ii.
un ordenador que puede conectarse a y/o integrarse en dicho escáner, comprendiendo dicho ordenador un modelo virtual de dicho escáner,
b)
introducir información de la forma del objeto físico en el ordenador,
c)
crear en dicho ordenador una función de visibilidad basada en dicho modelo virtual y en la información de la forma, pudiendo dicha función de visibilidad evaluar la cobertura de las áreas de interés del objeto físico mediante al menos una secuencia de escaneado predeterminada,
d)
establecer al menos una secuencia de escaneado basada en la evaluación de la función de visibilidad,
e)
realizar un escaneado del objeto físico usando dicha al menos una secuencia de escaneado,
f)
repetir opcionalmente las etapas d) y e) al menos una vez,
g)
obtener un modelo informático 3D del objeto físico.
2. El procedimiento según la reivindicación 1, en el que la información de la forma se obtiene mediante un escaneado inicial del objeto físico.
3. El procedimiento según la reivindicación 1, en el que la información de la forma es una información indirecta de la forma.
4. El procedimiento según la reivindicación 1, en el que la información de la forma es un modelo de diseño asistido por ordenador (modelo CAD).
5. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la información de la forma y el objeto están alineados mediante una colocación del objeto en el escáner.
6. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la información de la forma y el objeto están alineados mediante un escaneado inicial que está alineado con la información de la forma.
7. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el sistema de escáner es un sistema de escáner óptico de luz estructurada.
8. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el escáner es un escáner de superficie.
9. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el sistema de escáner comprende los siguientes componentes: al menos una fuente de luz, al menos una cámara y al menos un soporte para soportar el objeto físico.
10. El procedimiento según la reivindicación 9, en el que al menos uno de los siguientes componentes: la fuente de luz, la cámara y el soporte, puede moverse con respecto a los otros componentes.
11. El procedimiento según la reivindicación 9 ó 10, en el que el soporte puede moverse con respecto a la fuente de luz.
12. El procedimiento según la reivindicación 9, 10 u 11, en el que el soporte puede moverse con respecto a la cámara.
13. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el sistema de escáner comprende al menos dos fuentes de luz.
14. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el sistema de escáner comprende al menos dos cámaras.
\newpage
15. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la al menos una secuencia de escaneado de la etapa d) se establece simulando la cobertura del objeto físico de al menos dos secuencias de escaneado y seleccionando la secuencia de escaneado que presente una cobertura óptima.
16. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la secuencia de escaneado establecida en la etapa d) se establece para obtener la cobertura de los huecos ocluidos en la información de la forma del objeto físico.
17. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la secuencia de escaneado se establece optimizando el escáner para la superficie de mejor ángulo con respecto al ángulo de cámara y/o de láser.
18. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la secuencia de escaneado se establece optimizando la velocidad de secuencia de escaneado.
19. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la secuencia de escaneado establecida se optimiza para las reflexiones mínimas desde el objeto físico.
20. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la secuencia de escaneado establecida se optimiza para la visibilidad de más de una cámara.
21. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que una secuencia de escaneado se crea moviendo al menos uno de los componentes del escáner con respecto a al menos uno de los otros componentes.
22. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la cobertura de las áreas del objeto físico se evalúa evaluando el porcentaje del área de los huecos en comparación con el área estimada del objeto físico.
23. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la cobertura de las áreas del objeto físico se evalúa evaluando el tamaño de los huecos.
24. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que las etapas d) y e) se repiten hasta que la cobertura del objeto físico esté por encima de un valor predeterminado.
25. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el modelo informático 3D del objeto físico se obtiene combinando información que proviene de la información de la forma del objeto físico y al menos uno de los resultados del escaneado realizado en la etapa e).
26. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el modelo informático 3D del objeto físico se obtiene combinando información de al menos dos secuencias de escaneado realizadas en la etapa e).
27. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que la información de la forma del objeto físico es una nube de puntos.
28. El procedimiento según cualquiera de las reivindicaciones anteriores 1 a 23, en el que la información de la forma del objeto físico se obtiene ajustando una superficie a una nube de puntos.
29. El procedimiento según la reivindicación 28, en el que el ajuste se lleva a cabo mediante triangulación.
30. El procedimiento según la reivindicación 9, en el que el soporte para soportar el objeto físico puede realizar al menos uno de los siguientes movimientos: un movimiento lineal, un movimiento de rotación o una combinación de los mismos.
31. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el modelo virtual del escáner se crea antes de introducir la información de la forma.
32. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el objeto físico tiene una superficie irregular.
33. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el objeto físico se selecciona a partir de impresiones de objetos anatómicos o dentales.
34. El procedimiento según cualquiera de las reivindicaciones anteriores, en el que el objeto físico es una impresión de al menos un diente.
35. Un sistema de escáner para generar un modelo informático 3D de un objeto físico, que comprende al menos una fuente de luz, al menos una cámara y al menos un soporte para soportar el objeto físico, y un sistema de procesamiento de datos que incluye un dispositivo de entrada, una unidad central de procesamiento, una memoria y un dispositivo de visualización, en el que dicho sistema de procesamiento de datos tiene almacenado en el mismo datos que representan secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento según las reivindicaciones 1 a 34.
36. Un sistema de procesamiento de datos para generar un modelo informático 3D de un objeto físico, que incluye un dispositivo de entrada, una unidad central de procesamiento, una memoria y un dispositivo de visualización, en el que dicho sistema de procesamiento de datos tiene almacenado en el mismo datos que representan secuencias de instrucciones que cuando se ejecutan provocan la ejecución del procedimiento según las reivindicaciones 1 a 34.
37. Un producto de software informático que contiene secuencias de instrucciones que cuando se ejecutan provocan la ejecución el procedimiento según las reivindicaciones 1 a 34.
38. Un producto de circuito integrado que contiene secuencias de instrucciones que cuando se ejecutan provocan la ejecución el procedimiento según las reivindicaciones 1 a 34.
ES05762717T 2004-07-23 2005-07-22 Escaneado 3d adaptativo. Active ES2326327T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DKPA200401143 2004-07-23
DK200401143 2004-07-23

Publications (1)

Publication Number Publication Date
ES2326327T3 true ES2326327T3 (es) 2009-10-07

Family

ID=35107074

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05762717T Active ES2326327T3 (es) 2004-07-23 2005-07-22 Escaneado 3d adaptativo.

Country Status (11)

Country Link
US (2) US8837026B2 (es)
EP (1) EP1774465B1 (es)
JP (1) JP4892480B2 (es)
CN (1) CN100568273C (es)
AT (1) ATE430343T1 (es)
DE (1) DE602005014239D1 (es)
DK (1) DK1774465T3 (es)
ES (1) ES2326327T3 (es)
PL (1) PL1774465T3 (es)
PT (1) PT1774465E (es)
WO (1) WO2006007855A1 (es)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2507071T3 (es) 2005-11-30 2014-10-14 3Shape A/S Escaneado de impresión para fabricar reparaciones dentales
US20090063107A1 (en) * 2007-08-28 2009-03-05 Siemens Hearing Instruments Inc. Manufacturing Process of Hearing Aid Shells With Reduced Surface Distortions and Adaptive Shell Surface Modification to Improve Fit and Appertaining System
DK2401575T3 (da) * 2009-02-25 2020-03-30 Dental Imaging Technologies Corp Fremgangsmåde og apparatur til generering af en fremvisning af en tredimensional overflade
US8521480B2 (en) * 2009-03-12 2013-08-27 Etegent Technologies, Ltd. Managing non-destructive evaluation data
US8108168B2 (en) 2009-03-12 2012-01-31 Etegent Technologies, Ltd. Managing non-destructive evaluation data
JP5108827B2 (ja) * 2009-04-28 2012-12-26 ヴィスコ・テクノロジーズ株式会社 形状検査装置および形状検査プログラム
GB0919235D0 (en) * 2009-11-03 2009-12-16 De Beers Centenary AG Inclusion detection in polished gemstones
LU91714B1 (en) * 2010-07-29 2012-01-30 Iee Sarl Active illumination scanning imager
US10218955B2 (en) * 2010-12-21 2019-02-26 3Shape A/S Motion blur compensation
EP2693975B1 (en) * 2011-04-07 2018-11-28 3Shape A/S 3d system for guiding objects
EP2732434B1 (en) 2011-07-15 2018-09-05 3Shape A/S Detection of a movable object when 3d scanning a rigid object
JP5571128B2 (ja) * 2012-06-28 2014-08-13 株式会社東芝 計測支援装置、方法及びプログラム
US20140240459A1 (en) * 2012-11-21 2014-08-28 Vsp Labs, Inc. Laser frame tracer
US11543811B2 (en) 2013-03-15 2023-01-03 Etegent Technologies Ltd. Manufacture modeling and monitoring
US20140281871A1 (en) * 2013-03-15 2014-09-18 Meditory Llc Method for mapping form fields from an image containing text
US9864366B2 (en) 2013-03-15 2018-01-09 Etegent Technologies Ltd. Manufacture modeling and monitoring
JP2014217490A (ja) * 2013-05-06 2014-11-20 株式会社内藤貴金属製作所 宝石用貴金属枠の製造方法
WO2014182707A2 (en) * 2013-05-06 2014-11-13 Iphoton Solutions, Llc Volume reconstruction of an object using a 3d sensor and robotic coordinates
US9208609B2 (en) 2013-07-01 2015-12-08 Mitsubishi Electric Research Laboratories, Inc. Method for fitting primitive shapes to 3D point clouds using distance fields
US9769461B2 (en) * 2013-07-16 2017-09-19 Texas Instruments Incorporated Adaptive structured light patterns
JP2015043793A (ja) 2013-08-27 2015-03-12 ディーダブルエス エス・アール・エル 人工歯の製造方法
CN103489218B (zh) * 2013-09-17 2016-06-29 中国科学院深圳先进技术研究院 点云数据质量自动优化方法及系统
US9367063B2 (en) 2013-10-17 2016-06-14 Plethora Corporation Method for implementing design-for-manufacturability checks
WO2015058147A1 (en) 2013-10-17 2015-04-23 Plethora Corporation Method for quoting part production
US8982125B1 (en) * 2014-05-15 2015-03-17 Chaos Software Ltd. Shading CG representations of materials
US20160033251A1 (en) * 2014-07-29 2016-02-04 Plethora Corporation System and method for automated object measurement
CN107073346A (zh) 2014-09-10 2017-08-18 孩之宝公司 具有手动操作的扫描器的玩具系统
US10548694B2 (en) * 2014-10-09 2020-02-04 Dental Wings Inc. Method and system for processing dental prostheses
US9691178B2 (en) 2014-10-21 2017-06-27 Microsoft Technology Licensing, Llc Scanning and processing objects into three-dimensional mesh models
CN107073816A (zh) 2014-11-04 2017-08-18 Dws有限公司 立体光固化造型方法和组合物
WO2016081722A1 (en) 2014-11-20 2016-05-26 Cappasity Inc. Systems and methods for 3d capture of objects using multiple range cameras and multiple rgb cameras
KR102264591B1 (ko) 2015-02-27 2021-06-15 삼성전자주식회사 영상 처리 방법 및 이를 지원하는 전자 장치
US10852403B2 (en) 2015-06-10 2020-12-01 Hewlett-Packard Development Company, L.P. 3D scan tuning
US10118345B2 (en) 2015-06-17 2018-11-06 Xerox Corporation System and method for evaluation of a three-dimensional (3D) object during formation of the object
FR3038995B1 (fr) * 2015-07-15 2018-05-11 F4 Dispositif interactif a affichage personnalisable
US10005229B2 (en) 2015-08-31 2018-06-26 Xerox Corporation System for using optical sensor focus to identify feature heights on objects being produced in a three-dimensional object printer
US9993977B2 (en) 2015-10-01 2018-06-12 Xerox Corporation System for using an optical sensor array to monitor color fidelity in objects produced by a three-dimensional object printer
US10011078B2 (en) 2015-10-01 2018-07-03 Xerox Corporation System for using multiple optical sensor arrays to measure features on objects produced in a three-dimensional object printer
FR3042620B1 (fr) 2015-10-16 2017-12-08 F4 Dispositif web interactif a affichage personnalisable
CN105261068B (zh) * 2015-11-16 2018-09-14 中国石油大学(华东) 基于Micro-CT技术的储层岩心三维实体模型重构方法
CN105279794B (zh) * 2015-11-25 2018-05-22 中国石油大学(华东) 基于Micro-CT技术的储层岩心多组织模型构建方法
US10552975B2 (en) 2016-01-14 2020-02-04 Hewlett-Packard Development Company, L.P. Ranking target dimensions
EP3232406B1 (en) * 2016-04-15 2020-03-11 Ecole Nationale de l'Aviation Civile Selective display in a computer generated environment
TWI597966B (zh) 2016-07-29 2017-09-01 台達電子工業股份有限公司 全視角三維掃描器
CN106091931B (zh) * 2016-08-22 2019-02-19 上海交通大学 一种基于三维模型的自适应扫描测量系统及其控制方法
CN106323167B (zh) * 2016-08-22 2019-06-07 上海交通大学 一种基于图像识别的智能扫描在线测量系统和测量方法
US10341568B2 (en) * 2016-10-10 2019-07-02 Qualcomm Incorporated User interface to assist three dimensional scanning of objects
US10262428B2 (en) 2017-04-07 2019-04-16 Massachusetts Institute Of Technology System and method for adaptive range 3D scanning
CN108332660B (zh) * 2017-11-10 2020-05-05 广东康云多维视觉智能科技有限公司 机器人三维扫描系统和扫描方法
WO2019164973A1 (en) * 2018-02-20 2019-08-29 Local Motors IP, LLC Method and apparatus for additive manufacturing
US11276228B2 (en) 2018-03-22 2022-03-15 3Shape A/S 3D scanning with automatic selection of scan strategy
EP3575742B1 (en) * 2018-05-29 2022-01-26 Global Scanning Denmark A/S A 3d object scanning using structured light
US11785333B2 (en) 2019-01-08 2023-10-10 Hewlett-Packard Development Company, L.P. Simulation-based capture system adjustments
KR102140594B1 (ko) * 2019-04-09 2020-08-03 한국과학기술연구원 프리미티브 기반의 3차원 자동 스캔 방법 및 시스템
US10849723B1 (en) 2019-05-07 2020-12-01 Sdc U.S. Smilepay Spv Scanning device
AU2020315341A1 (en) * 2019-07-16 2022-01-20 Bodidata, Inc. Systems and methods for improved radar scanning coverage and efficiency
CN111700698B (zh) * 2020-05-14 2022-07-08 先临三维科技股份有限公司 齿科扫描方法、装置、系统和计算机可读存储介质
DE102020129923B4 (de) * 2020-11-12 2022-06-15 Smart Optics Sensortechnik Gmbh Verfahren zur Vorbereitung eines 3D-Scans und 3D-Scanner zur Durchführung des Verfahrens
US20240255415A1 (en) * 2023-01-31 2024-08-01 Lawrence Livermore National Security, Llc Optimal parameter selection for structured light metrology
DE102023108676A1 (de) 2023-04-05 2024-10-10 Rooom Ag Vorrichtung und Verfahren zur fotogrammetrischen Erstellung eines 3D-Modells eines Objekts mittels strukturiertem Licht

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981734A (ja) * 1995-09-08 1997-03-28 Mitsubishi Electric Corp 画像処理装置
US5831621A (en) 1996-10-21 1998-11-03 The Trustees Of The University Of Pennyslvania Positional space solution to the next best view problem
DE19721888C2 (de) 1997-05-26 2001-11-29 Volkswagen Ag Befestigungsvorrichtung für einen Scheinwerfer
US6249600B1 (en) 1997-11-07 2001-06-19 The Trustees Of Columbia University In The City Of New York System and method for generation of a three-dimensional solid model
US6377865B1 (en) * 1998-02-11 2002-04-23 Raindrop Geomagic, Inc. Methods of generating three-dimensional digital models of objects by wrapping point cloud data points
JP2001238230A (ja) * 2000-02-22 2001-08-31 Nippon Hoso Kyokai <Nhk> 多眼式立体テレビシステムにおける3次元構造情報を抽出する装置
US7625335B2 (en) 2000-08-25 2009-12-01 3Shape Aps Method and apparatus for three-dimensional optical scanning of interior surfaces
EP2261599B1 (de) 2000-11-08 2013-01-02 Institut Straumann Ag (Dentale) Oberflächenerfassung und -erzeugung
JP4043258B2 (ja) * 2002-03-13 2008-02-06 オリンパス株式会社 3次元画像撮影装置
JP2003315028A (ja) * 2002-04-25 2003-11-06 Minolta Co Ltd 3次元計測装置
JP3941631B2 (ja) * 2002-08-16 2007-07-04 富士ゼロックス株式会社 三次元撮像装置および方法
US20050068544A1 (en) * 2003-09-25 2005-03-31 Gunter Doemens Panoramic scanner

Also Published As

Publication number Publication date
CN100568273C (zh) 2009-12-09
JP4892480B2 (ja) 2012-03-07
ATE430343T1 (de) 2009-05-15
EP1774465A1 (en) 2007-04-18
PT1774465E (pt) 2009-07-08
DE602005014239D1 (de) 2009-06-10
CN101044505A (zh) 2007-09-26
EP1774465B1 (en) 2009-04-29
WO2006007855A1 (en) 2006-01-26
US20080306709A1 (en) 2008-12-11
DK1774465T3 (da) 2009-08-17
PL1774465T3 (pl) 2009-10-30
JP2008507682A (ja) 2008-03-13
US8837026B2 (en) 2014-09-16
US20100332196A1 (en) 2010-12-30

Similar Documents

Publication Publication Date Title
ES2326327T3 (es) Escaneado 3d adaptativo.
ES2366243T3 (es) Procedimiento de creación de modelos faciales 3d a partir de imágenes faciales.
ES2864684T3 (es) Procedimiento y sistema para retirar los aparatos ortodónticos de la malla digital de la dentición
DK2732434T3 (en) DETECTING A MOVABLE ITEM BY 3D SCANNING OF A RIGGET ITEM
KR101556992B1 (ko) 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템
KR100809521B1 (ko) 복수의 영상간 대응곡선을 이용한 3차원 곡면 생성 기법
US20060127854A1 (en) Image based dentition record digitization
WO2019215550A1 (en) Simulated orthodontic treatment via augmented visualization in real-time
US20030068079A1 (en) 3-dimension scanning system for computer-aided tooth modelling and method thereof
US20070262983A1 (en) Apparatus for generating volumetric image and matching color textured external surface
KR102311389B1 (ko) 스캔 과정 재생 방법
KR102655987B1 (ko) 3차원 아바타 생성 장치 및 방법
US20170103569A1 (en) Operator interface for 3d surface display using 2d index image
CN113728363A (zh) 基于目标函数生成牙科模型的方法
EP3185813B1 (en) Method for dental virtual model base
US20240144600A1 (en) Constructing textured 3d models of dental structures
EP3629338A1 (en) Dental model attributes transfer
KR20210059726A (ko) 구강내 스캐너를 사용하여 3d 데이터를 획득하는 하이브리드 방법
KR20120121031A (ko) 2차원 얼굴사진을 이용하여 3차원 얼굴모델을 생성하는 방법
US12138132B2 (en) Method for generating dental models based on an objective function
Schenkel et al. Comparison of normalized transfer functions for fast blending-based color correction of scans acquired under natural conditions
Li et al. Realistic human head modeling with multi-view hairstyle reconstruction
CN118172490A (zh) 数字人建模方法、装置、设备和存储介质
CN109003676A (zh) 一种牙齿美学设计方法与装置
Pusch Constraint-based surface deformation