ES2326327T3 - Escaneado 3d adaptativo. - Google Patents
Escaneado 3d adaptativo. Download PDFInfo
- Publication number
- ES2326327T3 ES2326327T3 ES05762717T ES05762717T ES2326327T3 ES 2326327 T3 ES2326327 T3 ES 2326327T3 ES 05762717 T ES05762717 T ES 05762717T ES 05762717 T ES05762717 T ES 05762717T ES 2326327 T3 ES2326327 T3 ES 2326327T3
- Authority
- ES
- Spain
- Prior art keywords
- previous
- physical object
- scanner
- procedure according
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S359/00—Optical: systems and elements
- Y10S359/90—Methods
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
Un procedimiento para generar un modelo informático 3D de un objeto físico, comprendiendo dicho procedimiento las siguientes etapas: a) proporcionar un sistema de escáner, comprendiendo dicho sistema de escáner i. un escáner, y ii. un ordenador que puede conectarse a y/o integrarse en dicho escáner, comprendiendo dicho ordenador un modelo virtual de dicho escáner, b) introducir información de la forma del objeto físico en el ordenador, c) crear en dicho ordenador una función de visibilidad basada en dicho modelo virtual y en la información de la forma, pudiendo dicha función de visibilidad evaluar la cobertura de las áreas de interés del objeto físico mediante al menos una secuencia de escaneado predeterminada, d) establecer al menos una secuencia de escaneado basada en la evaluación de la función de visibilidad, e) realizar un escaneado del objeto físico usando dicha al menos una secuencia de escaneado, f) repetir opcionalmente las etapas d) y e) al menos una vez, g) obtener un modelo informático 3D del objeto físico.
Description
Escaneado 3D adaptativo.
La presente invención se refiere a la generación
de modelos informáticos 3D de un objeto físico.
Los sistemas de escáner 3D de luz estructurada
funcionan básicamente de la misma manera descrita en la técnica
anterior. Estos sistemas funcionan básicamente tal y como se
describe en la figura 1, en la que un patrón de luz monocromática o
multiespectral 101, tal como puntos láser, líneas láser, bandas
blancas o coloreadas, se proyectan desde una fuente de luz 102
sobre el objeto 103. Después, la luz proyectada se refleja 104 y
una o más cámaras 105 adquiere(n) imágenes de la proyección.
El patrón de luz se detecta en la imagen y se utiliza una geometría
de proyección bien establecida, tal como triangulación o estéreo,
para obtener las coordenadas 3D, por ejemplo, una línea de láser se
proyecta sobre el objeto formando una línea. Después, las
coordenadas 3D se reconstruyen a lo largo de esa línea particular.
El escáner puede contener una o más fuentes/patrones de luz y una o
más cámaras.
Después, la siguiente etapa es mover el objeto y
el escáner entre sí, por ejemplo, mediante rotación 106 o mediante
un movimiento lineal 107 del objeto 103. De esta manera, el escáner
puede reconstruir la superficie de una nueva parte del objeto, por
ejemplo, una nueva línea de la superficie en la línea láser de
ejemplo. Los escáneres de la técnica anterior tienen el movimiento
programado de manera manual en una secuencia de escaneado
predefinida o el objeto/escáner simplemente se mueve de manera
manual.
Un problema heredado en el escaneado 3D de luz
estructurada es que tanto la cámara como el patrón de luz necesitan
"ver" cada punto de superficie al mismo tiempo para poder
realizar una reconstrucción 3D de ese punto particular. Esto da
lugar a áreas "ocluidas" o no cubiertas que aparecen como
huecos de superficie en el escaneado final, es decir, áreas sin
información de medición de superficie. En la mayoría de los casos,
los huecos en el escaneado son indeseables o inaceptables desde un
punto de vista tanto visual como de aplicación.
El problema se ilustra en la figura 2, en la que
se muestra una nube de puntos 2a del escaneado inicial de un osito
de juguete. El escaneado inicial se realiza mediante una secuencia
de escaneado predefinida de dos escaneados por rotación. Cuando se
crea el modelo de superficie 2b, las áreas no cubiertas aparecen
como huecos, por ejemplo 204. Después se utiliza un escaneado
adaptativo para realizar una secuencia de escaneado que escanee los
huecos en un escaneado adicional. De hecho, dos huecos 205 ya se han
escaneado de manera adaptativa y cubierto por nuevos puntos.
Después del primer escaneado adaptativo, un único hueco 206 todavía
está presente en el modelo de superficie 2c del resultado combinado
del escaneado inicial y del escaneado adaptativo. Después, se
realiza un segundo escaneado adaptativo y se obtiene una cobertura
total 2d.
En la técnica anterior, el problema de la
oclusión se intenta solucionar mediante una definición manual de
secuencias de escaneado complejas y mediante limitaciones de cómo se
coloca el objeto en el escáner. Se requieren largas secuencias de
escaneado que necesitan mucho tiempo para cubrir solamente formas u
objetos simples con una variación de forma moderada. En el caso de
objetos con una forma variable, esto no garantiza todavía una
cobertura total. Otro problema es que la creación de las secuencias
de escaneado puede ser muy engorrosa y requiere un conocimiento
avanzado.
Para solucionar el problema de las áreas no
cubiertas, algunos escáneres comerciales cierran de manera
artificial los huecos en el escaneado usando la información de
superficie alrededor del hueco. El cierre de huecos artificial
puede realizarse ajustando una superficie paramétrica tal como una
superficie ranurada o superficies de segundo orden. El cierre de
huecos artificial puede proporcionar resultados visualmente válidos
pero lo precisión es muy baja, lo que es inaceptable para la
mayoría de aplicaciones.
En el documento "Blending Images for
Texturing 3D Models", por Adam Baumberg, Proceedings of
the 13th British Machine Vision Conference, 5 de septiembre de
2002, páginas 404 a 413, universidad de Cardiff, se desvela un
sistema y un procedimiento para generar mapas de textura sin
junturas para una superficie de topología arbitraria a partir de
imágenes reales del objeto tomadas con una cámara digital
convencional y sin una iluminación controlada.
En el documento "A 3D Scanning System Based
on Low-Occlusion Approach", por
Bor-Tow Chen, Wen-Shiou Lou,
Chia-Chen Chen; Hsien-Chang Lin,
3-D Digital Imaging and Modeling Proceedings,
2 Int. Conf., 8 de octubre de 1999, páginas 506 a 515, se
desvela un algoritmo para optimizar las capas escaneadas y minimizar
la cantidad de datos para reducir de manera eficaz la cantidad de
capas escaneadas y adquirir los datos de mejores vistas en un
escáner 3D de 2 ejes según el criterio propuesto de la mejor
posición.
La presente invención se refiere a un escaneado
3D adaptativo en el que una secuencia de escaneado para obtener una
cobertura geométrica total se crea de manera automática y específica
para el objeto físico.
\newpage
Por consiguiente, la presente invención se
refiere a un procedimiento y a un sistema para generar un modelo
informático 3D de un objeto físico, donde el procedimiento comprende
las siguientes etapas:
- a)
- proporcionar un sistema de escáner, comprendiendo dicho sistema de escáner
- i.
- un escáner, y
- ii.
- un ordenador que puede conectarse a y/o integrarse en dicho escáner, comprendiendo dicho ordenador un modelo virtual de dicho escáner,
- b)
- introducir información de la forma del objeto físico en el ordenador,
- c)
- crear en dicho ordenador una función de visibilidad basada en dicho modelo virtual y en la información de la forma, pudiendo dicha función de visibilidad evaluar la cobertura de las áreas de interés del objeto físico mediante al menos una secuencia de escaneado predeterminada,
- d)
- establecer al menos una secuencia de escaneado basada en la evaluación de la función de visibilidad,
- e)
- realizar un escaneado del objeto físico usando dicha al menos una secuencia de escaneado,
- f)
- repetir opcionalmente las etapas d) y e) al menos una vez,
- g)
- obtener un modelo informático 3D del objeto físico.
\vskip1.000000\baselineskip
En otro aspecto, la invención se refiere a un
sistema de procesamiento de datos para generar un modelo informático
3D de un objeto físico, que incluye un dispositivo de entrada, una
unidad central de procesamiento, una memoria y un dispositivo de
visualización, donde dicho sistema de procesamiento de datos tiene
almacenado en el mismo datos que representan secuencias de
instrucciones que cuando se ejecutan provocan la ejecución del
procedimiento definido anteriormente.
En todavía otro aspecto, la invención se refiere
a un producto de software informático que contiene secuencias de
instrucciones que cuando se ejecutan provocan la ejecución del
procedimiento definido anteriormente.
En un cuarto aspecto, la invención se refiere a
un producto de circuito integrado que contiene secuencias de
instrucciones que cuando se ejecutan provocan la ejecución del
procedimiento definido anteriormente.
La figura 1 muestra un dibujo esquemático de un
sistema de escáner 3D.
Las figuras 2a a 2d muestran un ejemplo de un
objeto físico que va a escanearse.
La figura 3 muestra un diagrama de flujo para
realizar un escaneado de áreas no cubiertas.
La figura 4 es un diagrama de flujo para la
creación automatizada de un escaneado inicial.
La figura 5 muestra un modelo informático 3D de
una impresión dental.
La invención se refiere al campo del escaneado
3D de objetos físicos, es decir, la creación de modelos informáticos
3D que representan en detalle la geometría de objetos físicos y
opcionalmente características de la textura, de la superficie y del
material. La invención se describirá para escáneres ópticos 3D de
luz estructurada, pero puede aplicarse a la mayoría de los otros
tipos de escáneres 3D, tales como los escáneres de sonda táctil,
escáneres láser de medición de la distancia, escáneres MR, MRI, CT,
de rayos x, de ultra sonidos, cámaras de medición de la distancia,
sensores del tiempo de vuelo o escáneres ópticos basados en
siluetas, la estructura y el movimiento, la forma deducida a partir
del sombreado, la forma deducida a partir de la textura, o los
índices de color.
Una secuencia de escaneado define el escaneado
real incluyendo los movimientos, las cámaras activas, las fuentes
de luz activas, los patrones de luz activos y otros ajustes
pertinentes. Una secuencia de escaneado puede ser desde un único
escaneado sin movimiento hasta un escaneado con secuencias de
movimiento largas y complejas.
Por motivos de simplicidad, el movimiento del
objeto sólo se menciona en el siguiente texto. Sin embargo, debe
interpretarse como un movimiento relativo en el que se mueve al
menos un componente del sistema y/o el objeto, como cuando se mueve
el objeto o el escáner. Esto también cubre el movimiento del patrón
de luz y del campo de visión de las cámaras usando preferentemente
espejos o prismas incluso aunque el escáner no se mueva
físicamente.
Los sistemas de escáner 3D de luz estructurada
comprenden un escáner y un ordenador conectado a y/o integrado en
el escáner. Preferentemente, el escáner contiene una o más fuentes
de luz 102, una o más cámaras 105 y un sistema de movimiento
106-107 que puede mover al objeto con respecto a la
cámara y a la fuente de luz. Obsérvese que el sistema de movimiento
no está limitado necesariamente a una única rotación 106 y a un
único movimiento lineal 107 tal y como se muestra en la figura 1,
sino que preferentemente puede ser un sistema de múltiples ejes con
muchos grados de libertad, tal como un robot o una máquina CNC. La
cámara, la fuente de luz y el sistema de movimiento están
conectados 108 a un ordenador 109 que se comunica con y que controla
cada componente. El ordenador puede ser una unidad aparte o
integrada en el escáner.
La invención es un escaneado 3D adaptativo donde
las secuencias de escaneado para obtener una cobertura geométrica
total se crean de manera automática. En otras realizaciones de la
invención se crean de manera automática archivos de secuencia para
un escaneado óptimo de la textura, para parámetros de material de
superficie, para superficies brillantes y para otras
características relevantes. Obsérvese que la cobertura debe
interpretarse generalmente con respecto al escaneado de estas
características.
La información de la forma de la etapa b) puede
ser cualquier información de la forma del objeto físico. Puede ser
una información directa de la forma, tal como información de la
forma que puede originarse, por ejemplo, a partir de uno o más
escaneados iniciales.
De manera adicional o como alternativa, también
puede ser información indirecta de la forma, tal como información
relacionada con las formas de las plantillas, formas simplificadas o
aproximadas, tales como cajas y cilindros, o combinaciones de las
mismas, formas habituales, modelos CAD, o puede obtenerse a partir
de una o más imágenes 2D. Obsérvese que la información de la forma
no necesita ser información 3D, sino que también puede ser 1D, 2D,
4D o 5D. La información de la forma puede originarse por otros
escáneres distintos a los escáneres de luz estructura,
preferentemente escáneres de sonda táctil, MR, MRI, CT, de rayos x o
de ultrasonidos. Además, pueden combinarse diferentes informaciones
de la forma, por ejemplo haciendo corresponder el resultado de un
escaneado inicial con otra información de la forma, preferentemente
un modelo CAD, la forma de una plantilla o una forma habitual. En
una realización, la información de la forma es una combinación de la
información directa de la forma y de la información indirecta de la
forma.
En una realización, la información de la forma
del objeto físico es una nube de puntos, como cuando la información
de la forma del objeto físico se obtiene ajustando una superficie a
una nube de puntos. El ajuste puede llevarse a cabo mediante
cualquier procedimiento adecuado, tal como el realizado mediante
triangulación.
La información de la forma está alineada
preferentemente al objeto físico, como cuando la información de la
forma y el objeto se alinean mediante una colocación del objeto en
el escáner. En otra realización, la información de la forma y el
objeto se alinean mediante un escaneado inicial que está alineado
con la información de la forma.
El escaneado 3D adaptativo facilita la
posibilidad de un escaneado de objetos arbitrarios mediante un
botón, es decir, el usuario solamente introduce un objeto
arbitrario en el escáner y pulsa un único botón. Todo el escaneado
se realiza después de manera automática y óptima y genera un
escaneado de cobertura total. No se necesita un conocimiento
avanzado para la creación de secuencias de escaneado complejas, para
el ajuste de los parámetros de escaneado o para la
combinación/mezcla manual de diferentes escaneados. Ningún escáner
de la técnica anterior está cerca de conseguir este objetivo. La
figura 3 muestra una realización de la invención en la que la
adquisición de la forma se realiza mediante un escaneado inicial 300
que utiliza preferentemente la combinación de escaneados lineales,
escaneados por rotación o un movimiento simultáneo de varios ejes.
Por escaneado lineal se entiende un movimiento lineal relativo del
objeto o un barrido lineal del patrón de luz sobre el objeto.
Después, el escaneado resultante se analiza para las áreas no
cubiertas y estas áreas de interés se vuelven a escanear
automáticamente usando la combinación óptima de movimientos,
patrones de luz, fuentes de luz y cámaras. El nuevo escaneado
adaptativo puede combinarse después con el resultado del escaneado
inicial para formar un escaneado de cobertura total.
El término "cobertura total" se refiere al
grado de cobertura definido con respecto al modelo informático 3D
específico. Por tanto, puede aceptarse que no se cubran todos los
huecos ocluidos si los huecos tienen un tamaño o una localización
de menor interés. También puede ser relevante predeterminar que el
tiempo de escaneado sea el factor de limitación, de manera que la
"cobertura total" se obtiene cuando el escaneado se ha
ejecutado durante un periodo de tiempo predeterminado. Por
consiguiente, el criterio de finalización de la cobertura total
puede ser diferente de la cobertura absoluta de todos los huecos, el
criterio de finalización puede ser huecos que estén por debajo de
un determinado umbral y por tanto ignorados, solo se permite un
determinado número de iteraciones y solo se necesita un tiempo de
escaneado máximo o una determinada cobertura global.
La primera etapa del escaneado adaptativo puede
ser determinar qué áreas no están cubiertas adecuadamente en el
escaneado inicial. Preferentemente, esto se realiza creando el
modelo de superficie 301, por ejemplo, mediante triangulación de la
nube de puntos o ajustando superficies paramétricas tales como
superficies ranuradas. Si se supone que los modelos de superficie
se crean en el procesamiento posterior del escaneado, es ventajoso
aplicar el mismo algoritmo de creación de superficies. Cuando el
modelo de superficie está presente puede evaluarse directamente la
cobertura total 302 ya que las áreas no cubiertas se corresponden
con los huecos de la superficie. Las áreas no cubiertas también
pueden determinarse directamente a partir de la nube de puntos, de
datos vóxel y de otros datos no procesados. Dependiendo de la
aplicación, algunos huecos, tales como la parte inferior del
objeto, pueden ignorarse. El criterio de finalización de la
cobertura total 302 puede modificarse para expresar otras
prioridades como las descritas anteriormente.
Determinar de manera adaptativa la combinación
de movimientos, patrones de luz, fuentes de luz y cámaras
garantizando una cobertura óptima de cada área de interés es la
etapa crucial del escaneado adaptativo. Recuérdese que el área de
interés de esta realización corresponde a las áreas no cubiertas. La
primera etapa es generar la función de visibilidad, es decir, dados
la información de la forma y una configuración específica de la
cámara, la fuente/patrón de luz y el movimiento del objeto, puede
evaluarse la visibilidad actual del área no cubierta. Para poder
evaluar la visibilidad se crea un modelo de escáner virtual que
emula al escáner físico y que incluye preferentemente modelos y
parámetros de cámara, modelos y parámetros de fuentes/patrones de
luz, modelos y parámetros de movimiento, valores de movimiento y
otros parámetros relevantes. El modelo de cámara puede ser, por
ejemplo, un modelo de proyección convencional con parámetros tales
como la posición y la orientación de la cámara. Muchos parámetros
del escáner virtual son específicos del escáner y se obtienen a
través de un procedimiento de calibración. Preferentemente, estos
parámetros deben estar incluidos en el modelo de escáner
virtual.
El modelo virtual del escáner, es decir, el
modelo de escáner virtual, forma parte de la base para crear la
función de visibilidad. La función de escáner virtual puede crearse
con relación a cada generación de un modelo informático 3D, o puede
crearse una vez en el sistema de escáner y solo volver a crearse si
se realizan cambios en el sistema de escáner. El modelo de escáner
virtual puede crearse antes, después o simultáneamente con la
introducción de la información de la forma del objeto físico en el
ordenador, aunque se prefiere que el modelo de escáner virtual se
cree antes de la introducción de la información de la forma.
El modelo de escáner virtual se utiliza después
para evaluar la visibilidad de una área no cubierta dados la
información de la posición y de la orientación del objeto, los
ajustes de la cámara, los ajustes de la fuente/patrón de luz y
otras características relevantes. Cuando se evalúa la visibilidad,
puede ser ventajoso evaluar la visibilidad en una pluralidad de
puntos/celdas/zonas muestreados sobre el área no cubierta. En caso
de que falte información de la forma pueden aproximarse puntos de
muestreo, por ejemplo mediante interpolación o ajuste de
superficie. La visibilidad de cada punto de muestra puede calcularse
simultáneamente a partir del grado de visibilidad del punto tanto
para la fuente/patrón de luz como para la cámara. Para muchas
configuraciones de escáner, el objeto necesita moverse mientras se
escanea un área no cubierta. Este movimiento necesita tenerse en
cuenta durante la evaluación de la visibilidad.
La secuencia óptima de movimientos, patrones de
luz, fuentes de luz y cámaras para escanear un área no cubierta se
obtiene entonces como la secuencia que maximiza la visibilidad. En
una realización, la al menos una secuencia de escaneado de la etapa
d) se establece simulando la cobertura del objeto físico de al menos
dos secuencias de escaneado y seleccionando la secuencia de
escaneado que presente una cobertura óptima.
La secuencia de escaneado establecida en la
etapa d) se establece preferentemente para obtener la cobertura de
los huecos ocluidos en la información de la forma del objeto
físico.
Preferentemente, la secuencia óptima se obtiene
mediante la creación de una o más secuencias de escaneado 303 que
después se optimizan. La optimización de la función de visibilidad
304 puede realizarse con respecto a cualquier parámetro libre del
modelo de escáner virtual aunque puede ser ventajoso limitar la
optimización a parámetros de movimiento y a diferentes
combinaciones de cámara y de fuente de luz. La optimización real
puede realizarse mediante un algoritmo de optimización convencional
tal como el procedimiento del descenso de máxima pendiente
(steepest descent), del gradiente conjugado, de
Levenberg-Marquardt, el procedimiento Newton o
cuasi-Newton, BFGS, de hibridación simulada o
algoritmos genéricos. Pueden añadirse restricciones a los
parámetros, tales como límites al eje físico, como duras
restricciones o como suaves restricciones.
También pueden integrarse factores adicionales
en la función de visibilidad de manera que el valor de la función
refleje otras prioridades además de la visibilidad. Aunque la
función de visibilidad contenga más factores que la mera
visibilidad, la función todavía se denominará función de
visibilidad. Factores adicionales pueden ser el tiempo de
escaneado, la visibilidad para varias cámaras, la supresión de la
reflexión, una superficie normal al ángulo de cámara/de fuente de
luz o la visibilidad de la textura. También puede ser ventajoso
dividir las áreas no cubiertas en superficies de gran curvatura
para mejorar la visibilidad o combinar el escaneado de áreas
vecinas para obtener tiempos de escaneado inferiores.
Por tanto, en una realización, la secuencia de
escaneado se establece optimizando el escáner para la superficie de
mejor ángulo con respecto al ángulo de cámara y/o de láser. En otra
realización, la secuencia de escaneado se establece optimizando la
velocidad de secuencia de escaneado. En una tercera realización, la
secuencia de escaneado establecida se optimiza para las reflexiones
mínimas desde el objeto físico, y en una cuarta realización la
secuencia de escaneado establecida se optimiza para la visibilidad
de más de una cámara. En realizaciones adicionales, la secuencia de
escaneado establecida se optimiza para dos o más de los factores
mencionados anteriormente. Por lo tanto, puede crearse una secuencia
de escaneado moviendo al menos uno de los componentes del escáner
con respecto a al menos uno de los otros componentes.
Después, la secuencia de escaneado óptima se
selecciona como aquélla que tenga la máxima visibilidad. También
pueden usarse factores adicionales para seleccionar la configuración
óptima si varias secuencias consiguen una visibilidad total. Se
realiza un escaneado usando la secuencia de escaneado óptima 305 y
el resultado se combina con los escaneados realizados anteriormente
305. Después puede crearse el modelo de superficie para los
escaneados combinados 301 y el escaneado resultante puede
comprobarse para una cobertura total 302. Si no se obtiene una
cobertura total en el escaneado combinado, entonces puede realizarse
un segundo escaneado adaptativo. Para formas complejas pueden ser
necesarias varias secuencias de escaneado adaptativo para obtener
una cobertura total ya que las áreas no cubiertas pueden presentar
formas que ocluyan otras partes del área no cubierta.
La cobertura de las áreas del objeto físico
puede evaluarse mediante cualquier procedimiento adecuado. En una
realización, la cobertura de las áreas del objeto físico se evalúa
evaluando el porcentaje del área de los huecos en comparación con
el área estimada del objeto físico. En otra realización, la
cobertura de las áreas del objeto físico se evalúa evaluando el
tamaño de los huecos. En todavía otra realización, las etapas d) y
e) se repiten hasta que la cobertura del objeto físico esté por
encima de un valor predeterminado. La invención también prevé
combinar los diferentes procedimientos de determinación de la
cobertura, por ejemplo evaluando en primer lugar el tamaño de los
huecos y evaluando en segundo lugar el porcentaje del área de los
huecos.
El sistema de escáner según la invención puede
ser cualquier sistema de escáner adecuado, del que anteriormente se
han mencionado ejemplos. En principio, el sistema de escáner según
la invención comprende los siguientes componentes: al menos una
fuente de luz, al menos una cámara y al menos un soporte para
soportar el objeto físico.
Se prefiere que al menos uno de los siguientes
componentes: la fuente de luz, la cámara y el soporte, pueda
moverse con respecto a uno de los otros componentes, y la presente
invención abarca sistemas en los que dos o más de los componentes
pueden moverse con respecto a al menos uno de los otros componentes.
Por consiguiente, los ejemplos de la invención incluyen sistemas en
los que el soporte puede moverse con respecto a la fuente de luz,
y/o el soporte puede moverse con respecto a la cámara, pudiendo el
soporte que soporta al objeto físico realizar preferentemente al
menos uno de los siguientes movimientos: un movimiento lineal, un
movimiento de rotación o una combinación de los mismos.
El sistema de escáner según la invención puede
comprender más componentes, tales como un sistema de escáner que
comprende al menos dos fuentes de luz, y/o un sistema de escáner que
comprende al menos dos cámaras.
Para el escáner mostrado en la figura 1, el
modelo de escáner virtual más sencillo contiene un modelo de cámara,
un modelo de luz y modelos para el movimiento de rotación y el
movimiento lineal. Para completar el modelo de escáner virtual se
introducen valores calibrados para todos los parámetros de modelo de
escáner, tales como la posición de la cámara, para un escáner
específico. Dada la información de la forma, ahora puede evaluarse
la función de visibilidad. Los únicos parámetros libres del escáner
son el movimiento de rotación y el movimiento lineal. Puede usarse
cualquier combinación de movimiento de rotación y de movimiento
lineal para escanear los huecos en el escaneado inicial. Sin
embargo, una configuración sencilla y poderosa es utilizar la
rotación para hacer girar el hueco para una máxima visibilidad y
utilizar el movimiento lineal para escanear realmente el área. En
la práctica, esto limita el parámetro libre para la rotación ya que
el movimiento lineal puede obtenerse a partir del ángulo de
rotación y del tamaño del hueco. Dada una secuencia de escaneado 303
con una estimación inicial del ángulo de rotación, puede obtenerse
la secuencia de escaneado óptima optimizando la función de
visibilidad f(...) 304 con respecto al ángulo de rotación \Theta:
Max_{\Theta} f(\Theta) información de la forma, modelo
de escáner virtual.
La salida de la optimización, \Theta_{max},
y el archivo de secuencia correspondiente garantiza una visibilidad
máxima. La optimización real puede llevarse a cabo usando uno de los
algoritmos de optimización mencionados anteriormente, por ejemplo,
un descenso de máxima pendiente usando una evaluación de gradiente
numérico con un tamaño de inclinación, \Delta\Theta, de 1
grado. Después, la siguiente etapa es el escaneado usando el
archivo de secuencia óptima 305. Después, el escaneado resultante se
combina con escaneados anteriores 306 y la superficie se crea 301 y
se comprueba para una cobertura total 302. Si no se ha obtenido
todavía una cobertura total, puede realizarse una nueva iteración.
Tal y como se ha mencionado anteriormente en este documento, el
término "cobertura total" significa la cobertura total con
relación al modelo informático 3D específico y no significa
necesariamente que cada parte del objeto físico está cubierta.
La figura 4 muestra otra realización de la
invención en la que el modelo de escáner virtual y la función de
visibilidad se utilizan para crear el primer escaneado inicial 300
en base a la información indirecta de la forma no escaneada
directamente desde el objeto. Preferentemente, la información
indirecta de la forma se obtiene a partir de un modelo CAD 400, un
modelo habitual o un modelo de plantilla. En este caso, el área de
interés corresponde al modelo total.
En la misma estructura de escáner virtual que en
la anterior realización se crean una o más secuencias de escaneado
401 y los parámetros libres se optimizan 402 con respecto a la
función de visibilidad. Dependiendo de la aplicación real, pueden
añadirse factores adicionales a la función de visibilidad tales como
el número de subescaneados, la visibilidad para subescaneados
mutuos y el tiempo de escaneado. Después, la secuencia de escaneado
óptima se utiliza para el escaneado inicial del objeto 403.
Es necesario conocer las posiciones absolutas
del objeto para realizar un escaneado satisfactorio.
Preferentemente, la posición se obtiene a partir de una colocación
del objeto en el escáner o de manera más flexible llevando a cabo
un rápido escaneado predefinido que después se hace
corresponder/alinea con el modelo de la forma. Si fuera necesario,
esto puede ir seguido de un segundo escaneado
301-305 para cerrar posibles huecos.
Una manera sencilla de acelerar el escaneado es
dejar que el usuario seleccione el área de interés en alguna
representación del objeto. Si se conoce la información de la forma
antes del escaneado, la representación es preferentemente un modelo
CAD, un modelo de platilla o un modelo habitual, o de lo contrario
la representación puede ser el resultado de un escaneado rápido o
incluso más rápido que una imagen 2D capturada por las cámaras.
Obsérvese que una selección en una imagen 2D creada directamente por
el escáner puede transformarse en una selección 3D mediante el uso
del modelo de escáner virtual. Esta área de interés seleccionada por
el usuario se utiliza después directamente para determinar la
secuencia de escaneado óptima.
Otra realización de la invención puede aplicarse
a escáneres que capturen la textura del objeto donde las
modificaciones de la función de visibilidad pueden garantizar una
cobertura de textura total para todo el objeto. La geometría del
objeto puede originarse a partir de un escaneado o partir de un
modelo obtenido indirecto. La principal diferencia para el
escaneado de geometría plana es la formulación de la función de
visibilidad que en este caso puede incorporar características de
textura tales como la visibilidad de la textura y una superficie
normal al ángulo de cámara. La función de visibilidad puede
formularse para incorporar una geometría simultánea o separada y
una captura de textura dependiendo de la estrategia de
escaneado.
De manera similar, la invención también puede
aplicarse para capturar la iluminación, el sombreado y los
parámetros de material usados principalmente para proporcionar
imágenes de una apariencia visual realista de los objetos. Esto se
implementa ampliando la formulación de la función de visibilidad
para incorporar factores de estimación de parámetros de material y
de iluminación. Existen muchos modelos de material y de iluminación
diferentes tales como el sombreado Phong, el sombreado Gouraud o
los modelos BRDF. Sin embargo, la función de visibilidad debe poder
aplicarse generalmente a todos los diferentes modelos y algoritmos
de estimación.
El modelo informático 3D del objeto físico puede
basarse en uno de los resultados obtenidos por el escaneado en la
etapa e), o el modelo informático 3D del objeto físico puede
obtenerse combinando información que proviene de cualquier otra
información del objeto físico y al menos uno de los resultados del
escaneado realizado en la etapa e), tal como una combinación con la
información de la forma y los resultados del escaneado.
El modelo informático 3D del objeto físico
también puede obtenerse combinando información de al menos dos
secuencias de escaneado realizadas en la etapa e), y combinando
opcionalmente información de al menos dos escaneados con cualquier
otra información, tal como la información de la forma.
Aunque la invención se ha descrito con respecto
a los escáneres de luz estructurada, para los expertos en la
materia debe resultar evidente que la invención puede aplicarse para
realizar escaneados adaptativos para otros tipos de escáneres,
tales como los escáneres de superficie. Por lo tanto, la invención
también puede llevarse a cabo usando, por ejemplo, escáneres de
sonda táctil, escáneres láser de medición de la distancia,
escáneres MR, MRI, CT, de rayos x, de ultra sonidos, cámaras de
medición de la distancia, sensores del tiempo de vuelo o escáneres
ópticos basados en siluetas, la estructura y el movimiento, la forma
deducida a partir del sombreado, la forma deducida a partir de la
textura, o las claves de color. La principal diferencia es la
diferente formulación de los modelos de escáner virtuales y la
función de visibilidad.
La presente invención puede utilizarse para la
generación de modelos informáticos 3D de cualquier objeto físico y,
por lo tanto, el escaneado adaptativo es relevante en la mayoría de
las aplicaciones de escaneado 3D. Los objetos físicos pueden
presentar una superficie regular o irregular, y la invención es
particularmente relevante para la generación de modelos
informáticos 3D de objetos físicos que presenten una superficie
irregular. Ejemplos de aplicaciones son escaneados de impresiones
dentales, moldes y troqueles dentales, hormas, objetos de arte,
culturales e históricos, partes fabricadas para un análisis de
calidad y la fabricación de moldes, impresiones de oídos,
metrología, ingeniería inversa, creación sencilla de modelos 3D
realistas para páginas domésticas, juegos de ordenador y animación
de películas, dibujos animados y anuncios.
El escaneado óptico de impresiones dentales o
anatómicas arbitrarias es una aplicación que es imposible de
realizar sin un escaneado adaptativo. Las impresiones dentales son
una impresión negativa de los dientes y se realizan normalmente
mediante algún tipo de material de silicona. Debido a la forma de
los dientes y a su variación biológica, conseguir una cobertura
total es un gran reto ya que realizar un escaneado en una impresión
de un diente arbitrario requiere movimientos y posiciones de
visualización bastante precisos. Cuando el escaneado se utiliza
para reconstrucciones dentales se requiere una precisión bastante
alta para obtener un ajuste apropiado, lo que descarta el cierre de
huecos artificial. Por lo tanto, la presente invención es
particularmente adecuada para su aplicación en el campo dental, ya
sea para realizar un escaneado de los dientes, de una prótesis o de
impresiones de uno o más dientes o de una prótesis.
La figura 5 muestra un escaneado adaptativo del
lado superior 400 y del lado inferior 401 de una impresión dental
de dos lados que captura simultáneamente tanto las impresiones
negativas de los dientes como la mordida. Para formar el escaneado
total 402 de una impresión de dos lados, el escaneado de impresión
superior e inferior pueden hacerse corresponder de manera
preferentemente automática pero opcionalmente con la ayuda del
usuario el cual marca uno o más puntos correspondientes 403 en los
dos escaneados.
En otro aspecto, la invención se refiere a un
sistema de escáner que puede ejecutar el procedimiento descrito
anteriormente. Por consiguiente, la invención se refiere a un
sistema de escáner para generar un modelo informático 3D de un
objeto físico, que comprende al menos una fuente de luz, al menos
una cámara y al menos un soporte para soportar el objeto físico, y
un sistema de procesamiento de datos que incluye un dispositivo de
entrada, una unidad de procesamiento central y un dispositivo de
visualización, en el que dicho sistema de procesamiento de datos
tiene almacenado en el mismo datos que representan secuencias de
instrucciones que cuando se ejecutan provocan la ejecución del
procedimiento descrito anteriormente. Los componentes del sistema de
escáner son los descritos anteriormente con relación al
procedimiento.
En un tercer aspecto, la invención se refiere a
un sistema de procesamiento de datos como el descrito anteriormente
para generar un modelo informático 3D de un objeto físico, que
incluye un dispositivo de entrada, una unidad central de
procesamiento, una memoria y un dispositivo de visualización, en el
que dicho sistema de procesamiento de datos tiene almacenado en el
mismo datos que representan secuencias de instrucciones que cuando
se ejecutan provocan la ejecución del procedimiento de la
invención.
En una cuarta realización, la invención se
refiere a un producto de software informático que contiene
secuencias de instrucciones que cuando se ejecutan provocan la
ejecución del procedimiento de la invención.
En una quinta realización, la invención se
refiere a un producto de circuito integrado que contiene secuencias
de instrucciones que cuando se ejecutan provocan la ejecución del
procedimiento de la invención.
Claims (38)
1. Un procedimiento para generar un modelo
informático 3D de un objeto físico, comprendiendo dicho
procedimiento las siguientes etapas:
- a)
- proporcionar un sistema de escáner, comprendiendo dicho sistema de escáner
- i.
- un escáner, y
- ii.
- un ordenador que puede conectarse a y/o integrarse en dicho escáner, comprendiendo dicho ordenador un modelo virtual de dicho escáner,
- b)
- introducir información de la forma del objeto físico en el ordenador,
- c)
- crear en dicho ordenador una función de visibilidad basada en dicho modelo virtual y en la información de la forma, pudiendo dicha función de visibilidad evaluar la cobertura de las áreas de interés del objeto físico mediante al menos una secuencia de escaneado predeterminada,
- d)
- establecer al menos una secuencia de escaneado basada en la evaluación de la función de visibilidad,
- e)
- realizar un escaneado del objeto físico usando dicha al menos una secuencia de escaneado,
- f)
- repetir opcionalmente las etapas d) y e) al menos una vez,
- g)
- obtener un modelo informático 3D del objeto físico.
2. El procedimiento según la reivindicación 1,
en el que la información de la forma se obtiene mediante un
escaneado inicial del objeto físico.
3. El procedimiento según la reivindicación 1,
en el que la información de la forma es una información indirecta de
la forma.
4. El procedimiento según la reivindicación 1,
en el que la información de la forma es un modelo de diseño
asistido por ordenador (modelo CAD).
5. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la información de la forma y
el objeto están alineados mediante una colocación del objeto en el
escáner.
6. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la información de la forma y
el objeto están alineados mediante un escaneado inicial que está
alineado con la información de la forma.
7. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el sistema de escáner es un
sistema de escáner óptico de luz estructurada.
8. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el escáner es un escáner de
superficie.
9. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el sistema de escáner
comprende los siguientes componentes: al menos una fuente de luz,
al menos una cámara y al menos un soporte para soportar el objeto
físico.
10. El procedimiento según la reivindicación 9,
en el que al menos uno de los siguientes componentes: la fuente de
luz, la cámara y el soporte, puede moverse con respecto a los otros
componentes.
11. El procedimiento según la reivindicación 9 ó
10, en el que el soporte puede moverse con respecto a la fuente de
luz.
12. El procedimiento según la reivindicación 9,
10 u 11, en el que el soporte puede moverse con respecto a la
cámara.
13. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el sistema de escáner
comprende al menos dos fuentes de luz.
14. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el sistema de escáner
comprende al menos dos cámaras.
\newpage
15. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la al menos una secuencia de
escaneado de la etapa d) se establece simulando la cobertura del
objeto físico de al menos dos secuencias de escaneado y
seleccionando la secuencia de escaneado que presente una cobertura
óptima.
16. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la secuencia de escaneado
establecida en la etapa d) se establece para obtener la cobertura de
los huecos ocluidos en la información de la forma del objeto
físico.
17. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la secuencia de escaneado se
establece optimizando el escáner para la superficie de mejor ángulo
con respecto al ángulo de cámara y/o de láser.
18. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la secuencia de escaneado se
establece optimizando la velocidad de secuencia de escaneado.
19. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la secuencia de escaneado
establecida se optimiza para las reflexiones mínimas desde el objeto
físico.
20. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la secuencia de escaneado
establecida se optimiza para la visibilidad de más de una
cámara.
21. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que una secuencia de escaneado
se crea moviendo al menos uno de los componentes del escáner con
respecto a al menos uno de los otros componentes.
22. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la cobertura de las áreas
del objeto físico se evalúa evaluando el porcentaje del área de los
huecos en comparación con el área estimada del objeto físico.
23. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la cobertura de las áreas
del objeto físico se evalúa evaluando el tamaño de los huecos.
24. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que las etapas d) y e) se
repiten hasta que la cobertura del objeto físico esté por encima de
un valor predeterminado.
25. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el modelo informático 3D del
objeto físico se obtiene combinando información que proviene de la
información de la forma del objeto físico y al menos uno de los
resultados del escaneado realizado en la etapa e).
26. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el modelo informático 3D del
objeto físico se obtiene combinando información de al menos dos
secuencias de escaneado realizadas en la etapa e).
27. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la información de la forma
del objeto físico es una nube de puntos.
28. El procedimiento según cualquiera de las
reivindicaciones anteriores 1 a 23, en el que la información de la
forma del objeto físico se obtiene ajustando una superficie a una
nube de puntos.
29. El procedimiento según la reivindicación 28,
en el que el ajuste se lleva a cabo mediante triangulación.
30. El procedimiento según la reivindicación 9,
en el que el soporte para soportar el objeto físico puede realizar
al menos uno de los siguientes movimientos: un movimiento lineal, un
movimiento de rotación o una combinación de los mismos.
31. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el modelo virtual del
escáner se crea antes de introducir la información de la forma.
32. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el objeto físico tiene una
superficie irregular.
33. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el objeto físico se
selecciona a partir de impresiones de objetos anatómicos o
dentales.
34. El procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el objeto físico es una
impresión de al menos un diente.
35. Un sistema de escáner para generar un modelo
informático 3D de un objeto físico, que comprende al menos una
fuente de luz, al menos una cámara y al menos un soporte para
soportar el objeto físico, y un sistema de procesamiento de datos
que incluye un dispositivo de entrada, una unidad central de
procesamiento, una memoria y un dispositivo de visualización, en el
que dicho sistema de procesamiento de datos tiene almacenado en el
mismo datos que representan secuencias de instrucciones que cuando
se ejecutan provocan la ejecución del procedimiento según las
reivindicaciones 1 a 34.
36. Un sistema de procesamiento de datos para
generar un modelo informático 3D de un objeto físico, que incluye
un dispositivo de entrada, una unidad central de procesamiento, una
memoria y un dispositivo de visualización, en el que dicho sistema
de procesamiento de datos tiene almacenado en el mismo datos que
representan secuencias de instrucciones que cuando se ejecutan
provocan la ejecución del procedimiento según las reivindicaciones 1
a 34.
37. Un producto de software informático que
contiene secuencias de instrucciones que cuando se ejecutan provocan
la ejecución el procedimiento según las reivindicaciones 1 a
34.
38. Un producto de circuito integrado que
contiene secuencias de instrucciones que cuando se ejecutan provocan
la ejecución el procedimiento según las reivindicaciones 1 a
34.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DKPA200401143 | 2004-07-23 | ||
DK200401143 | 2004-07-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2326327T3 true ES2326327T3 (es) | 2009-10-07 |
Family
ID=35107074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES05762717T Active ES2326327T3 (es) | 2004-07-23 | 2005-07-22 | Escaneado 3d adaptativo. |
Country Status (11)
Country | Link |
---|---|
US (2) | US8837026B2 (es) |
EP (1) | EP1774465B1 (es) |
JP (1) | JP4892480B2 (es) |
CN (1) | CN100568273C (es) |
AT (1) | ATE430343T1 (es) |
DE (1) | DE602005014239D1 (es) |
DK (1) | DK1774465T3 (es) |
ES (1) | ES2326327T3 (es) |
PL (1) | PL1774465T3 (es) |
PT (1) | PT1774465E (es) |
WO (1) | WO2006007855A1 (es) |
Families Citing this family (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2507071T3 (es) | 2005-11-30 | 2014-10-14 | 3Shape A/S | Escaneado de impresión para fabricar reparaciones dentales |
US20090063107A1 (en) * | 2007-08-28 | 2009-03-05 | Siemens Hearing Instruments Inc. | Manufacturing Process of Hearing Aid Shells With Reduced Surface Distortions and Adaptive Shell Surface Modification to Improve Fit and Appertaining System |
DK2401575T3 (da) * | 2009-02-25 | 2020-03-30 | Dental Imaging Technologies Corp | Fremgangsmåde og apparatur til generering af en fremvisning af en tredimensional overflade |
US8521480B2 (en) * | 2009-03-12 | 2013-08-27 | Etegent Technologies, Ltd. | Managing non-destructive evaluation data |
US8108168B2 (en) | 2009-03-12 | 2012-01-31 | Etegent Technologies, Ltd. | Managing non-destructive evaluation data |
JP5108827B2 (ja) * | 2009-04-28 | 2012-12-26 | ヴィスコ・テクノロジーズ株式会社 | 形状検査装置および形状検査プログラム |
GB0919235D0 (en) * | 2009-11-03 | 2009-12-16 | De Beers Centenary AG | Inclusion detection in polished gemstones |
LU91714B1 (en) * | 2010-07-29 | 2012-01-30 | Iee Sarl | Active illumination scanning imager |
US10218955B2 (en) * | 2010-12-21 | 2019-02-26 | 3Shape A/S | Motion blur compensation |
EP2693975B1 (en) * | 2011-04-07 | 2018-11-28 | 3Shape A/S | 3d system for guiding objects |
EP2732434B1 (en) | 2011-07-15 | 2018-09-05 | 3Shape A/S | Detection of a movable object when 3d scanning a rigid object |
JP5571128B2 (ja) * | 2012-06-28 | 2014-08-13 | 株式会社東芝 | 計測支援装置、方法及びプログラム |
US20140240459A1 (en) * | 2012-11-21 | 2014-08-28 | Vsp Labs, Inc. | Laser frame tracer |
US11543811B2 (en) | 2013-03-15 | 2023-01-03 | Etegent Technologies Ltd. | Manufacture modeling and monitoring |
US20140281871A1 (en) * | 2013-03-15 | 2014-09-18 | Meditory Llc | Method for mapping form fields from an image containing text |
US9864366B2 (en) | 2013-03-15 | 2018-01-09 | Etegent Technologies Ltd. | Manufacture modeling and monitoring |
JP2014217490A (ja) * | 2013-05-06 | 2014-11-20 | 株式会社内藤貴金属製作所 | 宝石用貴金属枠の製造方法 |
WO2014182707A2 (en) * | 2013-05-06 | 2014-11-13 | Iphoton Solutions, Llc | Volume reconstruction of an object using a 3d sensor and robotic coordinates |
US9208609B2 (en) | 2013-07-01 | 2015-12-08 | Mitsubishi Electric Research Laboratories, Inc. | Method for fitting primitive shapes to 3D point clouds using distance fields |
US9769461B2 (en) * | 2013-07-16 | 2017-09-19 | Texas Instruments Incorporated | Adaptive structured light patterns |
JP2015043793A (ja) | 2013-08-27 | 2015-03-12 | ディーダブルエス エス・アール・エル | 人工歯の製造方法 |
CN103489218B (zh) * | 2013-09-17 | 2016-06-29 | 中国科学院深圳先进技术研究院 | 点云数据质量自动优化方法及系统 |
US9367063B2 (en) | 2013-10-17 | 2016-06-14 | Plethora Corporation | Method for implementing design-for-manufacturability checks |
WO2015058147A1 (en) | 2013-10-17 | 2015-04-23 | Plethora Corporation | Method for quoting part production |
US8982125B1 (en) * | 2014-05-15 | 2015-03-17 | Chaos Software Ltd. | Shading CG representations of materials |
US20160033251A1 (en) * | 2014-07-29 | 2016-02-04 | Plethora Corporation | System and method for automated object measurement |
CN107073346A (zh) | 2014-09-10 | 2017-08-18 | 孩之宝公司 | 具有手动操作的扫描器的玩具系统 |
US10548694B2 (en) * | 2014-10-09 | 2020-02-04 | Dental Wings Inc. | Method and system for processing dental prostheses |
US9691178B2 (en) | 2014-10-21 | 2017-06-27 | Microsoft Technology Licensing, Llc | Scanning and processing objects into three-dimensional mesh models |
CN107073816A (zh) | 2014-11-04 | 2017-08-18 | Dws有限公司 | 立体光固化造型方法和组合物 |
WO2016081722A1 (en) | 2014-11-20 | 2016-05-26 | Cappasity Inc. | Systems and methods for 3d capture of objects using multiple range cameras and multiple rgb cameras |
KR102264591B1 (ko) | 2015-02-27 | 2021-06-15 | 삼성전자주식회사 | 영상 처리 방법 및 이를 지원하는 전자 장치 |
US10852403B2 (en) | 2015-06-10 | 2020-12-01 | Hewlett-Packard Development Company, L.P. | 3D scan tuning |
US10118345B2 (en) | 2015-06-17 | 2018-11-06 | Xerox Corporation | System and method for evaluation of a three-dimensional (3D) object during formation of the object |
FR3038995B1 (fr) * | 2015-07-15 | 2018-05-11 | F4 | Dispositif interactif a affichage personnalisable |
US10005229B2 (en) | 2015-08-31 | 2018-06-26 | Xerox Corporation | System for using optical sensor focus to identify feature heights on objects being produced in a three-dimensional object printer |
US9993977B2 (en) | 2015-10-01 | 2018-06-12 | Xerox Corporation | System for using an optical sensor array to monitor color fidelity in objects produced by a three-dimensional object printer |
US10011078B2 (en) | 2015-10-01 | 2018-07-03 | Xerox Corporation | System for using multiple optical sensor arrays to measure features on objects produced in a three-dimensional object printer |
FR3042620B1 (fr) | 2015-10-16 | 2017-12-08 | F4 | Dispositif web interactif a affichage personnalisable |
CN105261068B (zh) * | 2015-11-16 | 2018-09-14 | 中国石油大学(华东) | 基于Micro-CT技术的储层岩心三维实体模型重构方法 |
CN105279794B (zh) * | 2015-11-25 | 2018-05-22 | 中国石油大学(华东) | 基于Micro-CT技术的储层岩心多组织模型构建方法 |
US10552975B2 (en) | 2016-01-14 | 2020-02-04 | Hewlett-Packard Development Company, L.P. | Ranking target dimensions |
EP3232406B1 (en) * | 2016-04-15 | 2020-03-11 | Ecole Nationale de l'Aviation Civile | Selective display in a computer generated environment |
TWI597966B (zh) | 2016-07-29 | 2017-09-01 | 台達電子工業股份有限公司 | 全視角三維掃描器 |
CN106091931B (zh) * | 2016-08-22 | 2019-02-19 | 上海交通大学 | 一种基于三维模型的自适应扫描测量系统及其控制方法 |
CN106323167B (zh) * | 2016-08-22 | 2019-06-07 | 上海交通大学 | 一种基于图像识别的智能扫描在线测量系统和测量方法 |
US10341568B2 (en) * | 2016-10-10 | 2019-07-02 | Qualcomm Incorporated | User interface to assist three dimensional scanning of objects |
US10262428B2 (en) | 2017-04-07 | 2019-04-16 | Massachusetts Institute Of Technology | System and method for adaptive range 3D scanning |
CN108332660B (zh) * | 2017-11-10 | 2020-05-05 | 广东康云多维视觉智能科技有限公司 | 机器人三维扫描系统和扫描方法 |
WO2019164973A1 (en) * | 2018-02-20 | 2019-08-29 | Local Motors IP, LLC | Method and apparatus for additive manufacturing |
US11276228B2 (en) | 2018-03-22 | 2022-03-15 | 3Shape A/S | 3D scanning with automatic selection of scan strategy |
EP3575742B1 (en) * | 2018-05-29 | 2022-01-26 | Global Scanning Denmark A/S | A 3d object scanning using structured light |
US11785333B2 (en) | 2019-01-08 | 2023-10-10 | Hewlett-Packard Development Company, L.P. | Simulation-based capture system adjustments |
KR102140594B1 (ko) * | 2019-04-09 | 2020-08-03 | 한국과학기술연구원 | 프리미티브 기반의 3차원 자동 스캔 방법 및 시스템 |
US10849723B1 (en) | 2019-05-07 | 2020-12-01 | Sdc U.S. Smilepay Spv | Scanning device |
AU2020315341A1 (en) * | 2019-07-16 | 2022-01-20 | Bodidata, Inc. | Systems and methods for improved radar scanning coverage and efficiency |
CN111700698B (zh) * | 2020-05-14 | 2022-07-08 | 先临三维科技股份有限公司 | 齿科扫描方法、装置、系统和计算机可读存储介质 |
DE102020129923B4 (de) * | 2020-11-12 | 2022-06-15 | Smart Optics Sensortechnik Gmbh | Verfahren zur Vorbereitung eines 3D-Scans und 3D-Scanner zur Durchführung des Verfahrens |
US20240255415A1 (en) * | 2023-01-31 | 2024-08-01 | Lawrence Livermore National Security, Llc | Optimal parameter selection for structured light metrology |
DE102023108676A1 (de) | 2023-04-05 | 2024-10-10 | Rooom Ag | Vorrichtung und Verfahren zur fotogrammetrischen Erstellung eines 3D-Modells eines Objekts mittels strukturiertem Licht |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981734A (ja) * | 1995-09-08 | 1997-03-28 | Mitsubishi Electric Corp | 画像処理装置 |
US5831621A (en) | 1996-10-21 | 1998-11-03 | The Trustees Of The University Of Pennyslvania | Positional space solution to the next best view problem |
DE19721888C2 (de) | 1997-05-26 | 2001-11-29 | Volkswagen Ag | Befestigungsvorrichtung für einen Scheinwerfer |
US6249600B1 (en) | 1997-11-07 | 2001-06-19 | The Trustees Of Columbia University In The City Of New York | System and method for generation of a three-dimensional solid model |
US6377865B1 (en) * | 1998-02-11 | 2002-04-23 | Raindrop Geomagic, Inc. | Methods of generating three-dimensional digital models of objects by wrapping point cloud data points |
JP2001238230A (ja) * | 2000-02-22 | 2001-08-31 | Nippon Hoso Kyokai <Nhk> | 多眼式立体テレビシステムにおける3次元構造情報を抽出する装置 |
US7625335B2 (en) | 2000-08-25 | 2009-12-01 | 3Shape Aps | Method and apparatus for three-dimensional optical scanning of interior surfaces |
EP2261599B1 (de) | 2000-11-08 | 2013-01-02 | Institut Straumann Ag | (Dentale) Oberflächenerfassung und -erzeugung |
JP4043258B2 (ja) * | 2002-03-13 | 2008-02-06 | オリンパス株式会社 | 3次元画像撮影装置 |
JP2003315028A (ja) * | 2002-04-25 | 2003-11-06 | Minolta Co Ltd | 3次元計測装置 |
JP3941631B2 (ja) * | 2002-08-16 | 2007-07-04 | 富士ゼロックス株式会社 | 三次元撮像装置および方法 |
US20050068544A1 (en) * | 2003-09-25 | 2005-03-31 | Gunter Doemens | Panoramic scanner |
-
2005
- 2005-07-22 ES ES05762717T patent/ES2326327T3/es active Active
- 2005-07-22 DK DK05762717T patent/DK1774465T3/da active
- 2005-07-22 EP EP05762717A patent/EP1774465B1/en not_active Revoked
- 2005-07-22 DE DE602005014239T patent/DE602005014239D1/de active Active
- 2005-07-22 WO PCT/DK2005/000507 patent/WO2006007855A1/en active Application Filing
- 2005-07-22 US US11/572,424 patent/US8837026B2/en active Active
- 2005-07-22 PL PL05762717T patent/PL1774465T3/pl unknown
- 2005-07-22 JP JP2007521796A patent/JP4892480B2/ja not_active Expired - Fee Related
- 2005-07-22 PT PT05762717T patent/PT1774465E/pt unknown
- 2005-07-22 AT AT05762717T patent/ATE430343T1/de active
- 2005-07-22 CN CNB2005800245366A patent/CN100568273C/zh not_active Expired - Fee Related
-
2010
- 2010-06-30 US US12/827,670 patent/US20100332196A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN100568273C (zh) | 2009-12-09 |
JP4892480B2 (ja) | 2012-03-07 |
ATE430343T1 (de) | 2009-05-15 |
EP1774465A1 (en) | 2007-04-18 |
PT1774465E (pt) | 2009-07-08 |
DE602005014239D1 (de) | 2009-06-10 |
CN101044505A (zh) | 2007-09-26 |
EP1774465B1 (en) | 2009-04-29 |
WO2006007855A1 (en) | 2006-01-26 |
US20080306709A1 (en) | 2008-12-11 |
DK1774465T3 (da) | 2009-08-17 |
PL1774465T3 (pl) | 2009-10-30 |
JP2008507682A (ja) | 2008-03-13 |
US8837026B2 (en) | 2014-09-16 |
US20100332196A1 (en) | 2010-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2326327T3 (es) | Escaneado 3d adaptativo. | |
ES2366243T3 (es) | Procedimiento de creación de modelos faciales 3d a partir de imágenes faciales. | |
ES2864684T3 (es) | Procedimiento y sistema para retirar los aparatos ortodónticos de la malla digital de la dentición | |
DK2732434T3 (en) | DETECTING A MOVABLE ITEM BY 3D SCANNING OF A RIGGET ITEM | |
KR101556992B1 (ko) | 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템 | |
KR100809521B1 (ko) | 복수의 영상간 대응곡선을 이용한 3차원 곡면 생성 기법 | |
US20060127854A1 (en) | Image based dentition record digitization | |
WO2019215550A1 (en) | Simulated orthodontic treatment via augmented visualization in real-time | |
US20030068079A1 (en) | 3-dimension scanning system for computer-aided tooth modelling and method thereof | |
US20070262983A1 (en) | Apparatus for generating volumetric image and matching color textured external surface | |
KR102311389B1 (ko) | 스캔 과정 재생 방법 | |
KR102655987B1 (ko) | 3차원 아바타 생성 장치 및 방법 | |
US20170103569A1 (en) | Operator interface for 3d surface display using 2d index image | |
CN113728363A (zh) | 基于目标函数生成牙科模型的方法 | |
EP3185813B1 (en) | Method for dental virtual model base | |
US20240144600A1 (en) | Constructing textured 3d models of dental structures | |
EP3629338A1 (en) | Dental model attributes transfer | |
KR20210059726A (ko) | 구강내 스캐너를 사용하여 3d 데이터를 획득하는 하이브리드 방법 | |
KR20120121031A (ko) | 2차원 얼굴사진을 이용하여 3차원 얼굴모델을 생성하는 방법 | |
US12138132B2 (en) | Method for generating dental models based on an objective function | |
Schenkel et al. | Comparison of normalized transfer functions for fast blending-based color correction of scans acquired under natural conditions | |
Li et al. | Realistic human head modeling with multi-view hairstyle reconstruction | |
CN118172490A (zh) | 数字人建模方法、装置、设备和存储介质 | |
CN109003676A (zh) | 一种牙齿美学设计方法与装置 | |
Pusch | Constraint-based surface deformation |