FR2942888A1 - Image acquisition configuration generating system for e.g. multiscopic restitution device, has configuration module generating data represents positions of centers and acquisition zones using another data representing restitution parameters - Google Patents
Image acquisition configuration generating system for e.g. multiscopic restitution device, has configuration module generating data represents positions of centers and acquisition zones using another data representing restitution parameters Download PDFInfo
- Publication number
- FR2942888A1 FR2942888A1 FR0901078A FR0901078A FR2942888A1 FR 2942888 A1 FR2942888 A1 FR 2942888A1 FR 0901078 A FR0901078 A FR 0901078A FR 0901078 A FR0901078 A FR 0901078A FR 2942888 A1 FR2942888 A1 FR 2942888A1
- Authority
- FR
- France
- Prior art keywords
- capture
- nxm
- data
- scene
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 166
- 238000000034 method Methods 0.000 claims abstract description 44
- 230000000694 effects Effects 0.000 claims abstract description 30
- 230000015572 biosynthetic process Effects 0.000 claims description 79
- 238000009877 rendering Methods 0.000 claims description 74
- 238000003786 synthesis reaction Methods 0.000 claims description 62
- 238000004891 communication Methods 0.000 claims description 48
- 238000003860 storage Methods 0.000 claims description 48
- 230000003068 static effect Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 17
- 239000000470 constituent Substances 0.000 claims description 13
- 238000010008 shearing Methods 0.000 claims description 5
- 238000007598 dipping method Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000000844 transformation Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 13
- 230000002452 interceptive effect Effects 0.000 description 11
- 238000009826 distribution Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 9
- 230000008447 perception Effects 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 8
- 239000003550 marker Substances 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 239000011521 glass Substances 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000001427 coherent effect Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000007639 printing Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000011282 treatment Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000005693 optoelectronics Effects 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 206010010904 Convulsion Diseases 0.000 description 1
- 208000018672 Dilatation Diseases 0.000 description 1
- 235000010044 Hernandia moerenhoutiana Nutrition 0.000 description 1
- 244000084296 Hernandia moerenhoutiana Species 0.000 description 1
- 101100386054 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) CYS3 gene Proteins 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 101150035983 str1 gene Proteins 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
Système et procédé de synthèse d'une pluralité d'images d'une scène virtuelle pour sa restitution multiscopique à déformation contrôlée par configuration préalable appropriée des capteurs virtuels La présente invention concerne u n systèm e de génération d'une configuration de captation d'une pluralité de nxm images d'une scène, notamment une scène virtuelle quelconque, permettant de déterminer des paramètres définissant une configuration de captation de cette scène en vue de sa restitution en relief sur un dispositif multiscopique, avec contrôle de sa déformation. La présente invention concerne également l'utilisation de ces paramètres représentatifs de la configuration de captation pour générer un ou des ensemble(s) multiscopique(s) d'images de synthèse d'une même scène virtuelle en 3D, en vue d'une restitution multiscopique (affichage, ~o projection, impression...) avec contrôle de la déformation. Enfin, la présente invention concerne un procédé (et un système) de génération d'une pluralité de nxm images de synthèse d'une scène virtuelle permettant de générer des ensembles cohérents d'images de synthèse fixes ou animées destinés à l'affichage, la projection ou l'impression multiscopique pour une restitution en is relief d'une scène virtuelle quelconque, avec contrôle de la déformation. L'invention s'applique notamment, mais non exclusivement, à la restitution d'images de synthèse fixes ou animées (en direct comme en différé) sur des dispositifs multiscopiques tels que, par exemple, les systèmes de projection, écrans ou afficheurs stéréoscopiques, 20 autostéréoscopiques ou dits à imagerie intégrale , ainsi que les photographies lenticulaires. Par ailleurs, certains de ces dispositifs de restitution visés peuvent être couplés à des moyens d'interaction directe (clavier, souris, pointeur 3D, souris 6D, ...) ou indirecte (suivi d'observateur ou tracking notamment) qui pourront contrôler certains des paramètres 25 de la génération de la configuration de captation et ainsi rendre cette configuration interactive . Enfin, la description de la scène virtuelle restituée peut provenir d'un moyen de stockage du système ou de canaux de communication de ce système, internes (bus, autre processus) comme externes (réseaux, connexions inter-systèmes). Cette description peut aussi être explicite (paramètres de positionnement et caractéristiques diverses des constituants) ou implicite (succession d'ordres ou instructions graphiques en permettant la captation par un module de synthèse d'images ou un processeur dédié). Art antérieur System and method for synthesizing a plurality of images of a virtual scene for its multiscopic rendering with controlled deformation by appropriate prior configuration of the virtual sensors The present invention relates to a system for generating a capture configuration of a plurality nxm images of a scene, including any virtual scene, for determining parameters defining a capture configuration of this scene for its relief in relief on a multiscopic device, with control of its deformation. The present invention also relates to the use of these parameters representative of the capture configuration to generate one or more multiscopic set (s) of synthetic images of the same virtual scene in 3D, for the purpose of restitution. multiscopic (display, ~ o projection, printing ...) with control of the deformation. Finally, the present invention relates to a method (and a system) for generating a plurality of nxm synthetic images of a virtual scene making it possible to generate coherent sets of fixed or animated synthetic images intended for display, the projection or multiscopic printing for is relief relief of any virtual scene, with control of the deformation. The invention applies in particular, but not exclusively, to the reproduction of fixed or animated still images (live or delayed) on multiscopic devices such as, for example, projection systems, stereoscopic screens or displays, Autostereoscopic or so-called integral imaging, as well as lenticular photographs. Moreover, some of these targeted rendering devices can be coupled to means of direct interaction (keyboard, mouse, 3D pointer, mouse 6D, ...) or indirect (observer tracking or tracking in particular) that can control some 25 parameters of the generation of the capture configuration and thus make this configuration interactive. Finally, the description of the virtual scene restored may come from a system storage means or communication channels of this system, internal (bus, other process) as external (networks, inter-system connections). This description can also be explicit (positioning parameters and various characteristics of the constituents) or implicit (sequence of orders or graphic instructions allowing capture by an image synthesis module or a dedicated processor). Prior art
lo D'une façon générale, on sait que la diffusion d'images en relief visibles avec ou sans lunettes fait appel à des dispositifs technologiques qualifiés de stéréoscopiques, auto-stéréoscopiques , ou encore à imagerie intégrale . Tous ces dispositifs opèrent un mixage spatial, optique, colorimétrique et/ou temporel, sur un même rectangle, de plusieurs images is d'une scène prises depuis des points de vue distincts. La présente invention est adaptée à ces divers types de dispositif en prévoyant la captation de nxm images. Un dispositif technologique (par exemple anaglyphe, filtres colorés, optiques, prismes, miroirs, lunettes à occultation, film polarisant et lunettes polarisées, barrière de parallaxe ou réseau lenticulaire, notamment) permet 20 de séparer physiquement et/ou temporellement les images parvenant aux 2 yeux d'un ou plusieurs spectateur(s). Dans le cas notamment des systèmes stéréoscopiques à lunettes colorées, actives ou polarisées, cette séparation des images peut être opérée au sein d'un seul faisceau optique indépendamment de la position du spectateur dans ce faisceau. Le dispositif 25 utilise alors 2 images seulement (n=2, m=1) qui sont transportées par ce même faisceau optique puis séparées physiquement (polarisation, couleur...) ou temporellement (occultation) par les lunettes du spectateur. Par contre, dans les dispositifs autostéréoscopiques notamment, la séparation est opérée au niveau du dispositif de restitution pour une utilisation sans 30 lunettes. Dans ces derniers cas les différentes images sont restituées dans des faisceaux optiques distincts qui sont par exemple organisés en éventail horizontal de n images (dans ce cas n>_2 et m=1). Cet éventail horizontal est sensiblement perpendiculaire aux colonnes du dispositif supposées sensiblement perpendiculaires aux lignes joignant les yeux des spectateurs. Ces faisceaux optiques peuvent également être organisés en double éventail horizontal et vertical (perpendiculairement aux lignes du dispositif), ce qui donne alors une distribution matricielle de nxm faisceaux optiques (n>_2 pour la distribution horizontale, m__>2 pour la distribution verticale) transportant chacun une image distincte. On comprendra que l'invention est à fortiori adaptée également à des dispositifs qui mixeraient lo uniquement des faisceaux optiques organisés en éventail vertical. Enfin, l'invention est aussi compatible avec des systèmes mixtes qui transportent les nxm images via un nombre plus faible de faisceaux au sein desquels plusieurs images sont mixées temporellement (occultation) et/ou physiquement (polarisation, couleur...). Ces dernières solutions multi- is stéréoscopiques permettent de transporter un ou plusieurs couples stéréoscopiques de même rang vertical destinés à un ou plusieurs observateurs distincts au sein d'un même faisceau. Le nombre de faisceaux nécessaires est donc réduit (n'xm ; n'<n). Dans la présente demande, on réfère à des lignes et des colonnes des dispositifs de restitution ou de 20 la base commune pour désigner les directions, respectivement, horizontales et verticales des alignements de pixels composant les lignes et colonnes des images diffusées par les dispositifs de restitution ou captées par les zones de captation parallèles à la base commune. De même, le terme directions principales est également utilisé pour désigner ces directions, 25 respectivement, horizontales et verticales (par exemple, respectivement, la largeur et la hauteur). Ainsi, tous ces dispositifs connus ont pour principe général d'opérer un mixage spatial (horizontalement ù perpendiculairement aux colonnes du dispositif ù, voire aussi verticalement ù perpendiculairement aux lignes du 3o dispositif ù), optique, colorimétrique et/ou temporel d'un ensemble de nxm images (n>_2 pour la distribution horizontale, m>_1 pour la distribution verticale) pour les diffuser simultanément et/ou alternativement au sein d'un ou plusieurs (n'xm ; 1<_n'n et m>_1) faisceaux optiques de telle manière que chaque oeil d'un spectateur correctement positionné vis-à-vis du dispositif reçoive une image cohérente différente de celle que reçoit l'autre oeil (l'une des images initiales et non un mélange de ces images). La perception stéréoscopique non déformée nécessite un alignement des yeux parallèlement au dispositif de restitution. Comme les colonnes du dispositif sont déjà supposées orthogonales aux lignes des yeux de chaque spectateur, ces lignes des yeux doivent donc toutes être parallèles aux lignes to du dispositif. Par ailleurs, les systèmes autostéréoscopiques imposent généralement une (distribution horizontale seulement) ou plusieurs (distribution matricielle) chaînes horizontales de positions d'oeil privilégiées (assurant une séparation correcte d'une des images mixées) qui sont alors alignées sur une ou plusieurs droites parallèles aux lignes du 15 dispositif. Cet arrangement s'applique aussi formellement, dans une configuration réduite (une chaîne de 2 positions), au cas de la stéréoscopie puisque la ligne des yeux doit être parallèle aux lignes du dispositif. En nourrissant un tel dispositif avec des images d'une même scène virtuelle captée depuis des points de vues distincts bien choisis et 20 selon des géométries projectives adaptées, un spectateur correctement positionné reçoit donc 2 images distinctes de cette scène qui forment un véritable couple stéréoscopique permettant à son cerveau de percevoir la scène en relief. Ainsi, chaque oeil de chaque spectateur reçoit une image provenant 25 physiquement d'une même zone de l'espace de restitution (généralement rectangulaire) qui correspond à la zone utile ou zone image du dispositif de restitution. Ce qui diffère est que tous ces yeux ne sont pas situés au même endroit et observent donc la zone utile du dispositif selon des axes de visée différents. 30 Un problème majeur dans le domaine de la multiscopie à partir d'images fixes ou animées, réelles et/ou virtuelles concerne le fait que la restitution par des dispositifs multiscopiques plats implique le mixage coplanaire de ces images. Ces images transmises par le dispositif ne sont donc pas toutes orthogonales à chaque axe de visée des utilisateurs (axes entre chaque oeil et le centre de la zone utile du dispositif). La s restitution des images se fait selon des pyramides dont la base commune est formée par la zone utile du dispositif et dont les sommets sont les yeux des utilisateurs. Les axes de vision n'étant forcément pas tous orthogonaux au plan de l'image observée, la restitution de ces images induit des déformations trapézoïdales s'il a mal (ou pas) été tenu compte de ces io restitutions de biais lors de la capture des images. Cela a 2 conséquences directes : Problème P1 : Si ces déformations trapézoïdales ne sont pas similaires pour les 2 images perçues par un observateur, l'appariement stéréoscopique par le cerveau est plus délicat, voire même impossible, ce 15 qui réduit ou annule la perception du relief. II s'agit là de ce qu'il est courant de dénommer en stéréoscopie la contrainte épipolaire , c'est-à-dire la nécessité, pour permettre l'appariement stéréoscopique, que les 2 projections d'un même point d'une scène sur chacune des images du couple stéréoscopique soient restituées sur le dispositif multiscopique de façon à 20 être coplanaires avec les 2 yeux de l'observateur. Lorsque la restitution (comme c'est notre cas) impose des yeux parallèles aux lignes du dispositif, cela se traduit par la nécessité que les 2 images d'un même point soient restituées sur la même ligne du dispositif. Cette condition est nécessaire à la perception du relief (qui découle de cette contrainte épipolaire). Pour une 25 restitution multiscopique plane, cela implique de choisir, pour les 2 images destinées à un même observateur, des pyramides de captation appuyées sur une base rectangulaire commune dans la scène et dont les sommets sont disposés sur une droite parallèle aux lignes de cette base commune. Pour les situations de restitution collective d'une même scène (dispositifs 30 autostéréoscopiques multi-vues notamment) qui partagent des vues entre plusieurs observateurs ou positions d'observation potentielles au sein d'une ou plusieurs chaînes de positions clés, il faut étendre cette base commune à toutes les captations destinées à une même chaîne, voire à toutes les chaînes si l'on souhaite une cohérence entre les restitutions sur les différentes chaînes. Ainsi, les axes de visée sont donc tous forcément convergents au centre de cette base commune, et les sommets des pyramides doivent former 2 à 2 (par observateur ou position d'observation choisie) des droites parallèles aux lignes de la base commune. Chaque chaîne d'images doit donc être captée depuis des positions alignées sur une droite parallèle à la base commune. Par ailleurs, pour que les zones de captation appuyées sur ces pyramides, et donc les images qu'elles captent, to restent rectangulaires, elles doivent être parallèles à cette base commune. Problème P2 : Si, pour les images destinées à une position donnée, la captation respecte la configuration à base commune et centres optiques sur une ligne parallèle à cette base, la perception de relief est garantie. Cependant cela n'implique en rien que le relief perçu reste conforme au relief ts initialement capté. En effet, l'absence de déformation lors de la restitution nécessite de plus une parfaite similarité image par image, des pyramides de captation avec les pyramides de restitution (mêmes angles d'ouverture horizontaux et verticaux, mêmes angles entre l'axe principal et la base rectangulaire). En cas de non similarité des pyramides de captation et de 20 restitution (mais dans le respect d'une géométrie de captation assurant la perception de relief), le relief perçu correspond à une déformation complexe du relief initialement capté. Cette déformation peut être désirable pour mettre en oeuvre certains effets spéciaux dans certaines utilisations, comme elle peut être indésirable dans d'autres applications. A l'évidence, cela implique 25 que captation et restitution doivent être menées de façon cohérente, que l'on souhaite ou non une déformation du relief perçu. In general, it is known that the diffusion of visible relief images with or without glasses makes use of technological devices known as stereoscopic, auto-stereoscopic, or even integral imaging. All these devices operate a spatial, optical, colorimetric and / or temporal mixing, on the same rectangle, of several images is of a scene taken from different points of view. The present invention is adapted to these various types of device by providing the capture of nxm images. A technological device (for example anaglyph, colored filters, optics, prisms, mirrors, shading glasses, polarizing film and polarized glasses, parallax barrier or lenticular network, in particular) makes it possible to physically and / or temporally separate the images reaching the 2 eyes of one or more spectator (s). In the case in particular of stereoscopic systems with colored glasses, active or polarized, this separation of images can be performed within a single optical beam regardless of the position of the viewer in this beam. The device 25 then uses only 2 images (n = 2, m = 1) which are transported by this same optical beam and then physically separated (polarization, color ...) or temporally (occultation) by the spectator's glasses. On the other hand, in the autostereoscopic devices in particular, the separation is performed at the rendering device for use without glasses. In these latter cases the different images are rendered in separate optical beams which are for example organized in a horizontal fan of n images (in this case n> _2 and m = 1). This horizontal fan is substantially perpendicular to the columns of the device assumed substantially perpendicular to the lines joining the eyes of the spectators. These optical beams can also be organized in a double horizontal and vertical range (perpendicular to the lines of the device), which then gives a matrix distribution of nxm optical beams (n> _2 for the horizontal distribution, m __> 2 for the vertical distribution) carrying each a distinct image. It will be understood that the invention is especially suitable for devices that would only mix optical beams organized in a vertical fan. Finally, the invention is also compatible with mixed systems that carry the nxm images via a smaller number of beams in which several images are mixed temporally (occultation) and / or physically (polarization, color ...). These latter multi-stereoscopic solutions make it possible to transport one or more stereoscopic pairs of the same vertical rank intended for one or more distinct observers within the same bundle. The number of beams needed is therefore reduced (n'xm; n '<n). In the present application, reference is made to rows and columns of rendering devices or of the common base for designating the directions, respectively horizontal and vertical, of the pixel alignments composing the rows and columns of the images broadcast by the rendering devices. or captured by the capture areas parallel to the common base. Likewise, the term principal directions is also used to designate these directions, respectively, horizontal and vertical (for example, respectively, width and height). Thus, all these known devices have the general principle of operating a spatial mixing (horizontally perpendicular to the columns of the device, or even vertically perpendicular to the lines of the device 3), optical, colorimetric and / or temporal of a set. of nxm images (n> _2 for the horizontal distribution, m> _1 for the vertical distribution) to diffuse them simultaneously and / or alternatively within one or more (nxm; 1 <_n'n and m> _1) optical beams such that each eye of a viewer correctly positioned vis-à-vis the device receives a coherent image different from that which receives the other eye (one of the initial images and not a mixture of these images). Undeformed stereoscopic perception requires alignment of the eyes parallel to the rendering device. Since the columns of the device are already assumed to be orthogonal to the eye lines of each viewer, these eye lines must all be parallel to the lines to the device. Moreover, autostereoscopic systems generally impose a horizontal (horizontal distribution only) or a plurality (matrix distribution) horizontal chains of privileged eye positions (ensuring a correct separation of one of the mixed images) which are then aligned on one or more parallel lines to the lines of the device. This arrangement also applies formally, in a reduced configuration (a chain of 2 positions), in the case of stereoscopy since the line of the eyes must be parallel to the lines of the device. By feeding such a device with images of the same virtual scene captured from well-chosen distinct points of view and adapted projective geometries, a properly positioned spectator thus receives two distinct images of this scene which form a real stereoscopic pair allowing to his brain to perceive the scene in relief. Thus, each eye of each viewer receives an image physically coming from the same area of the rendering space (generally rectangular) which corresponds to the useful area or image area of the rendering device. What is different is that all these eyes are not located in the same place and therefore observe the useful area of the device along different axes of sight. A major problem in the field of multiscopia from still or moving, real and / or virtual images is that rendering by flat multiscopic devices involves coplanar mixing of these images. These images transmitted by the device are not all orthogonal to each line of sight of users (axes between each eye and the center of the useful area of the device). The restitution of the images is done according to pyramids whose common base is formed by the useful zone of the device and whose vertices are the eyes of the users. The axes of vision are not necessarily all orthogonal to the plane of the image observed, the restitution of these images induces trapezoidal deformations if it has badly (or not) been taken into account these io restitutions of bias during capture images. This has 2 direct consequences: Problem P1: If these trapezoidal deformations are not similar for the 2 images perceived by an observer, the stereoscopic pairing by the brain is more delicate, even impossible, which reduces or cancels the perception of the relief. This is what is commonly called stereoscopic epipolar stress, that is to say, the need, to allow stereoscopic matching, that the two projections of the same point of a scene on each of the images of the stereoscopic pair are restored on the multiscopic device so as to be coplanar with the 2 eyes of the observer. When the restitution (as is our case) imposes eyes parallel to the lines of the device, this translates into the necessity that the 2 images of the same point are restored on the same line of the device. This condition is necessary for the perception of relief (which derives from this epipolar constraint). For a flat multiscopic restitution, this implies choosing, for the 2 images intended for the same observer, capture pyramids supported on a common rectangular base in the scene and whose vertices are arranged on a straight line parallel to the lines of this base. common. For collective restitution situations of the same scene (multi-view autostereoscopic devices in particular) which share views between several observers or potential observation positions within one or more key position chains, it is necessary to extend this base. common to all the recordings intended for the same channel, indeed to all the chains if one wishes a coherence between the restitutions on the various chains. Thus, the axes of sight are therefore necessarily convergent at the center of this common base, and the peaks of the pyramids must form 2 to 2 (by observer or selected observation position) straight lines parallel to the lines of the common base. Each image chain must therefore be picked up from positions aligned on a straight line parallel to the common base. Moreover, for the capture zones supported on these pyramids, and therefore the images they capture, to remain rectangular, they must be parallel to this common base. Problem P2: If, for images intended for a given position, the capture respects the common base configuration and optical centers on a line parallel to this base, the perception of relief is guaranteed. However, this does not imply that the perceived relief remains consistent with the relief ts initially captured. Indeed, the absence of deformation during the restitution requires moreover a perfect similarity image by image, pyramids of capture with the pyramids of restitution (same angles of opening horizontal and vertical, same angles between the main axis and the rectangular base). In case of non-similarity of the capture and playback pyramids (but in respect of a capture geometry ensuring the perception of relief), the perceived relief corresponds to a complex deformation of the relief initially captured. This distortion may be desirable to implement certain special effects in certain uses, as it may be undesirable in other applications. Obviously, this implies that capture and restitution must be carried out in a coherent manner, whether or not a deformation of the perceived relief is desired.
Des dispositifs connus sont proposés dans un schéma convergent sans base commune pour les pyramides de captation. II est connu 30 notamment les demandes FR 2 909 778 et WO 2008 081115 déposées par la demanderesse de la présente demande, qui concernent des solutions utilisant une répartition physique d'une pluralité de capteurs optoélectroniques sur un arc de cercle dont le rayon correspond à la distance entre le centre optique de chacun des capteurs et un point de la scène captée sur lequel on effectue la mise au point d'au moins l'un desdits capteurs dénommé capteur de référence et vers lequel les capteurs sont s orientés de façon convergente. D'autres dispositifs connus disposent plusieurs capteurs optoélectroniques sur une ligne tout en faisant converger leurs axes de visée en un point de la scène. Tous ces dispositifs convergents proposent de facto des systèmes de captation manifestant le problème P1 ci-dessus à moins d'une correction trapézoïdale systématique des images to avant utilisation, ce qui n'est guère souhaitable puisque cela alourdit la chaîne de traitement et produit une dégradation qualitative des images restituées. Positionnement de l'invention Pour permettre une restitution multiscopique offrant une perception de 15 relief qui soit conforme au relief attendu (ou souhaité), il est nécessaire de configurer correctement le système de captation. Certaines applications de la visualisation multiscopique d'une scène virtuelle (totalement ou partiellement) nécessitent soit l'assurance d'une restitution fidèle du relief, soit de contrôler les déformations impliquées pour ce relief pour obtenir des effets a priori 20 choisis ou acceptés en toute connaissance. Les solutions de l'art antérieur permettent un rendu relief mais présentent l'inconvénient que ce rendu relief n'est pas maîtrisé et donc pas forcément fidèle à la scène et/ou à la volonté de l'opérateur. C'est précisément ce problème technique, non adressé par l'art antérieur, que cette invention permet de résoudre en proposant un 25 contrôle de la déformation (ou de l'absence de déformation) du relief par la mise en cohérence des géométries de captation et de restitution. On notera que l'invention est adaptée notamment à la captation de scènes virtuelles pour des applications de type Synthèse d'Images , Réalité Virtuelle , Réalité Augmentée ou Virtualité Augmentée . 30 Un des buts de l'invention est de générer une configuration de captation d'une pluralité de nxm images d'une scène, pour permettre une restitution, avec un effet relief déterminé, sur au moins un dispositif de restitution multiscopique. Ce but est atteint par un système de génération d'une configuration de captation d'une pluralité de nxm im ages d'une scène virtuelle , ces nxm images étant destinées à une restitution sur au moins un dispositif de restitution multiscopique, la captation étant réalisée par la projection de la scène sur une pluralité de nxm zones de captation associées chacune à un centre optique, définissant un dispositif virtuel de captation, le système comportant des moyens de traitement de données et des moyens de mémorisation et/ou de communication interne (avec d'autres processus du système) ou externe (avec d'autres systèmes ou dispositifs) et/ou une interface utilisateur, caractérisé en ce que les moyens de traitement exécutent un module de configuration générant des données définissant ladite configuration, permettant une restitution avec un effet relief déterminé, et représentatives des positionnements, par rapport à la scène, des nxm centres optiques et des dimensions et positionnements, par rapport à la scène, des nxm zones de captation qui leurs sont associées, par la mise en relation d'au moins les données suivantes, provenant des moyens de mémorisation et/ou de communication interne ou externe et/ou de l'interface utilisateur : - des données représentatives du positionnement, de l'orientation et de l'éventuelle conformation dans la scène d'au moins un repère global de captation représentant le(s) choix de l'opérateur du système en terme de position(s) et orientations d'observation de la scène, - des données représentatives d'au moins un paramètre de configuration, définissant une déformation souhaitée pour l'effet relief et/ou une géométrie de captation, la captation étant réalisée par la projection de la scène sur les nxm zones de captation, au travers de nxm faisceaux optiques pyramidaux de captation appuyés sur une base rectangulaire 3o commune aux nxm faisceaux optiques et disposée dans la scène à capter, les nxm faisceaux passant chacun par l'un des nxm centres optiques alignés, par lots, sur une ou plusieurs droite(s), dites droites d'alignement des centres, parallèle(s) à l'une des directions principales de cette base commune, les zones de captation correspondant à l'intersection de ces faisceaux optiques avec au moins un plan parallèle à cette base commune, les axes de visée ou axes principaux des nxm faisceaux optiques, passant par leur centre optique, convergeant tous vers le centre de la base commune, - des données représentatives de paramètres de restitution, définissant ou permettant de déduire au moins les dimensions d'une zone utile choisie du dispositif de restitution et les positions d'observation io privilégiées choisies pour le dispositif de restitution. Selon une autre particularité, les données représentatives d'au moins un paramètre de configuration comportent des données représentatives d'au moins un ensemble de paramètres parmi les ensembles de paramètres suivants : 15 • un ensemble de paramètres, dits internes, de captation définissant directement la géométrie de captation par au moins les positions, vis-à-vis d'un repère propre au dispositif virtuel de captation, des centres optiques alignés sur la droite(s) d'alignement des centres et les positions des zones de captation, parallèles entre elles et orientées de 20 façon à ce que leurs lignes soient parallèles à ces droites d'alignement des centres, • un ensemble de paramètres, dits externes, de captation définissant ou permettant d'identifier la géométrie de captation à partir du point de convergence, par au moins les dimensions de la base commune 25 centrée sur le point de convergence, le positionnement de la ou des droites d'alignement des centres, le positionnement des centres optiques sur ces droites d'alignement des centres et la position des plans parallèles à la base commune (BC) contenant les zones de captation (ZC;). 30 • un ensemble de paramètres de déformation définissant des déformations envisageables pour la restitution en relief de la scène. 2942888 io Selon une autre particularité, les données représentatives d'au moins un paramètre de configuration comportent des données représentatives d'un paramètre définissant un relief restitué sans aucune déformation par rapport au relief de la scène captée. 5 Selon une autre particularité, les données représentatives d'au moins un paramètre de configuration comportent des données représentatives d'au moins un paramètre parmi les paramètres de déformation suivants, définissant des transformations entre l'espace initial de la scène et l'espace de restitution et définis soit individuellement pour chaque position to d'observation n°i, soit par lots, soit globalement, par : • au moins un facteur k; de grossissement global et notamment en profondeur, • au moins un paramètre E; de contrôle de la déformation non linéaire potentielle (qui transforme un cube en tronc de pyramide), 15 • au moins un taux pi de grossissement relatif de la largeur par rapport à la profondeur ou facteur d'anamorphose horizontal/profondeur souhaité, • au moins un taux p; de grossissement relatif de la hauteur par rapport à la largeur ou facteur d'anamorphose vertical/horizontal souhaité, • au moins un taux y; de cisaillement horizontal du relief perçu, 20 • au moins un taux b de cisaillement vertical du relief perçu par un observateur de plongement conforme à celui attendu. Selon une autre particularité, les données représentatives d'au moins un paramètre de configuration comportent des données représentatives des paramètres externes de géométrie de captation suivants : 25 au moins un paramètre définissant, relativement à la base commune, le positionnement de la ou des droite(s) d'alignement des centres, - au moins un paramètre définissant les positionnements des centres optiques sur ces droites d'alignement des centres, - au moins un paramètre définissant directement ou indirectement les 3o dimensions de la base commune, - au moins un paramètre définissant la position précise de chaque plan parallèle à la base commune portant au moins une zone de captation Selon une autre particularité, les données représentatives d'au moins un paramètre de configuration comportent des données représentatives des paramètres internes de géométrie de captation suivants : - au moins un paramètre définissant les positionnements des centres optiques vis-à-vis d'un repère propre au dispositif virtuel de captation, - au moins un paramètre définissant l'orientation de l'axe de visée de chaque pyramide de projection (ou axe principal), au moins un paramètre définissant la géométrie de la pyramide de projection effective de chaque zone de captation. Selon une autre particularité, tout ou partie des ensembles de données à partir desquels le module de configuration détermine ladite configuration sont variables au cours du temps, grâce à des données provenant des moyens de mémorisation et/ou de communication interne ou externe et/ou de l'interface utilisateur et définissant au moins une référence temporelle pour le changement des données représentatives du ou des paramètre(s) de configuration et/ou des données représentatives du repère global de captation et/ou des données représentatives dispositif de restitution, notamment des positions d'observation choisies. Known devices are proposed in a convergent scheme without a common base for the capture pyramids. It is known in particular applications FR 2 909 778 and WO 2008 081115 filed by the applicant of the present application, which relate to solutions using a physical distribution of a plurality of optoelectronic sensors on an arc of a circle whose radius corresponds to the distance between the optical center of each of the sensors and a point of the captured scene on which is carried out the development of at least one of said sensors called reference sensor and to which the sensors are oriented convergently. Other known devices have several optoelectronic sensors on a line while converging their axes of sight at a point in the scene. All of these convergent devices de facto propose capture systems manifesting the problem P1 above unless a systematic trapezoidal correction of images to before use, which is hardly desirable since it increases the chain of treatment and produces a degradation quality of the restored images. Positioning of the invention In order to allow a multiscopic rendering with a perception of relief which is in conformity with the expected (or desired) relief, it is necessary to correctly configure the capturing system. Some applications of the multiscopic visualization of a virtual scene (totally or partially) require either the assurance of a faithful reproduction of the relief, or to control the deformations involved for this relief to obtain effects a priori 20 chosen or accepted in all knowledge. The solutions of the prior art allow a relief rendering but have the disadvantage that this relief rendering is not controlled and therefore not necessarily true to the scene and / or the will of the operator. It is precisely this technical problem, not addressed by the prior art, that this invention solves by proposing a control of the deformation (or the absence of deformation) of the relief by the coherence of the capture geometries. and restitution. It should be noted that the invention is particularly suitable for capturing virtual scenes for applications such as Image Synthesis, Virtual Reality, Augmented Reality or Augmented Virtuality. One of the aims of the invention is to generate a capture configuration of a plurality of nxm images of a scene, to allow restitution, with a determined relief effect, on at least one multiscopic rendering device. This goal is achieved by a system for generating a capture configuration of a plurality of nxm images of a virtual scene, these nxm images being intended for restitution on at least one multiscopic rendering device, the capture being performed by projecting the scene onto a plurality of nxm capture areas each associated with an optical center, defining a virtual capture device, the system comprising data processing means and storage and / or internal communication means (with other process of the system) or external (with other systems or devices) and / or a user interface, characterized in that the processing means execute a configuration module generating data defining said configuration, allowing restitution with a determined relief effect, and representative of the positioning, with respect to the scene, of the nxm optical centers and the di mounts and positionings, relative to the scene, nxm capturing areas associated with them, by linking at least the following data from the storage means and / or internal or external communication and / or the user interface: - data representative of the positioning, the orientation and the eventual conformation in the scene of at least one global capture mark representing the choice (s) of the operator of the system in terms of position (s) and viewing orientations of the scene, - data representative of at least one configuration parameter, defining a desired deformation for the relief effect and / or a capture geometry, the capture being carried out by the projection of the scene on the nxm capture zones, through nxm pyramidal optical beams of capture supported on a rectangular base 3o common to the nxm optical beams and arranged in the scene to capture r, the nxm beams passing each by one of the nxm optical centers aligned, in batches, on one or more line (s), called straight alignment centers, parallel (s) to one of the main directions of this common base, the capture areas corresponding to the intersection of these optical beams with at least one plane parallel to this common base, the axes of sight or main axes of the nxm optical beams, passing through their optical center, converging all towards the center of the common base, data representative of restitution parameters, defining or making it possible to deduce at least the dimensions of a chosen useful area of the rendering device and the preferred observation positions chosen for the rendering device. According to another particularity, the data representative of at least one configuration parameter comprise data representative of at least one set of parameters among the following sets of parameters: a set of parameters, called internal parameters, of capture directly defining the capture geometry by at least the positions, vis-à-vis a reference specific to the virtual capture device, optical centers aligned on the straight line (s) of alignment of the centers and the positions of capture areas, parallel between they are oriented in such a way that their lines are parallel to these lines of alignment of the centers, • a set of parameters, called external parameters, of capture defining or making it possible to identify the geometry of capture from the point of convergence, by at least the dimensions of the common base 25 centered on the point of convergence, the positioning of the alignment line or lines of the centers s, the positioning of the optical centers on these lines of alignment of the centers and the position of the planes parallel to the common base (BC) containing the capture zones (ZC;). A set of deformation parameters defining possible deformations for the relief rendering of the scene. According to another feature, the data representative of at least one configuration parameter comprise data representative of a parameter defining a relief rendered without any deformation with respect to the relief of the captured scene. According to another particularity, the data representative of at least one configuration parameter comprise data representative of at least one parameter among the following deformation parameters, defining transformations between the initial space of the scene and the space of the restitution and defined either individually for each observation position n ° i, either in batches or globally by: • at least one factor k; of overall magnification and in particular at depth, at least one parameter E; control of the potential non-linear deformation (which transforms a cube into a truncated pyramid), • at least a pi-rate of relative magnification of the width with respect to the desired depth or horizontal anamorphosis factor / depth, • at least a rate p; relative magnification of the desired height versus width or vertical / horizontal anamorphic factor, • at least one rate y; horizontal shearing of the perceived relief, • at least a rate b of vertical shear relief perceived by a plunging observer in accordance with that expected. According to another particularity, the data representative of at least one configuration parameter comprise data representative of the following external capture geometry parameters: at least one parameter defining, with respect to the common base, the positioning of the line or lines ( s) of alignment of the centers, - at least one parameter defining the positioning of the optical centers on these alignment lines of the centers, - at least one parameter defining directly or indirectly the 3o dimensions of the common base, - at least one parameter defining the precise position of each plane parallel to the common base carrying at least one pick-up zone According to another feature, the data representative of at least one configuration parameter comprise data representative of the following internal pick-up geometry parameters: minus a parameter defining the positions of the opt centers relative to a reference specific to the virtual capture device, - at least one parameter defining the orientation of the axis of view of each projection pyramid (or main axis), at least one parameter defining the geometry the effective projection pyramid of each catchment area. According to another particularity, all or part of the sets of data from which the configuration module determines said configuration are variable over time, thanks to data from the storage means and / or internal or external communication and / or the user interface and defining at least one temporal reference for the change of the data representative of the configuration parameter (s) and / or of the data representative of the global capture frame and / or of the representative data of the restitution device, in particular of the positions chosen observation.
Un autre but de l'invention est d'utiliser cette configuration de captation pour générer une pluralité d'images d'une scène virtuelle utilisables sur un dispositif de restitution multiscopique. Another object of the invention is to use this capture configuration to generate a plurality of images of a virtual scene that can be used on a multiscopic rendering device.
Ce but est atteint par une utilisation des données représentatives des positionnements des nxm centres optiques et des dimensions et positionnements des nxm zones de captation par rapport à la scène et définissant ladite configuration selon l'une des revendications précédentes, pour la génération de nxm images ou séquences d'images d'une scène virtuelle, statique ou dynamique, par un module de synthèse d'images exécuté par le système de génération de la configuration ou par un autre système comportant des moyens de traitement de données exécutant le module de synthèse d'images et des moyens de mémorisation et/ou de communication interne ou externe et/ou une interface utilisateur, caractérisé en ce que le module de synthèse d'images génère des données représentatives des nxm images ou séquences d'images de synthèse à partir desdites données représentatives des positionnements des nxm centres optiques et des dimensions et positionnements des nxm zones de captation par rapport à la scène et définissant ladite configuration et de to données représentatives soit de positionnements et de caractéristiques, statiques ou évolutifs, de constituants d'une scène virtuelle tridimensionnelle soit d'une suite d'instructions informatiques ou ordres graphiques permettant de définir cette même scène. Selon une autre particularité, le module de synthèse d'image génère ts tout ou partie desdites données représentatives des nxm images de synthèse, statiques ou correspondant au même pas de temps dans leur séquence respective, grâce à l'exécution de multiples instances d'un logiciel de synthèse d'image. Selon une autre particularité, le module de synthèse d'image génère 20 tout ou partie desdites données représentatives des nxm images de synthèse, statiques ou correspondant au même pas de temps dans leur séquence respective, par une instance d'un logiciel de synthèse d'image agencé pour réaliser en parallèle plusieurs captations d'images en une même instance. 25 Selon une autre particularité, les nxm images ou séquences d'images de synthèse générées par le module de synthèse d'image sont stockées ou transmises à d'autres systèmes ou processus grâce aux moyens de mémorisation et/ou de communication interne ou externe. 15 Selon une autre particularité, les nxm images ou séquences d'images de synthèse générées par le module de synthèse d'image font l'objet d'un mixage adapté au dispositif de restitution multiscopique choisi, grâce à un module de mixage utilisant des données représentatives des caractéristiques techniques du dispositif de restitution pour générer des données représentatives des nxm images ou séquences d'images mixées de manière appropriée pour leur restitution sur le dispositif de restitution. Selon une autre particularité, les données représentatives des images ou séquences d'images mixées, générées par le module de mixage sont to stockées ou transmises à d'autres systèmes ou processus grâce aux moyens de mémorisation et/ou de communication interne ou externe. Selon une autre particularité, les données représentatives des images ou séquences d'images mixées, générées par le module de mixage sont transmises au dispositif de restitution. Un autre but de l'invention est de proposer un procédé de génération d'une pluralité de nxm images d'une scène virtuelle, pour permettre une restitution de ces images, avec un effet de déformation de relief déterminé, sur au moins un dispositif de restitution multiscopique. 20 Ce but est atteint par un procédé de génération d'une pluralité de nxm images ou séquences d'images d'une scène virtuelle, statique ou dynamique, ces nxm images ou séquences d'images étant destinées à une restitution sur au moins un dispositif de restitution multiscopique, et correspondant à la projection de la scène virtuelle statique ou dynamique sur 25 une pluralité de nxm zones de captation associées chacune à un centre optique, le procédé étant caractérisé en ce qu'il est mis en oeuvre par au moins un système comportant des moyens de traitement de données et des moyens de mémorisation et/ou de communication interne ou externe et/ou une interface utilisateur, et en ce qu'il comporte les étapes suivantes : • génération, par un module de configuration, de données représentatives d'une configuration de la captation, permettant une restitution avec un effet relief déterminé, et représentatives des positionnements, par rapport à la scène, des nxm centres optiques et des dimensions et positionnements, par rapport à la scène, des nxm zones de captation qui leurs sont associées, par la mise en relation d'au moins les données suivantes, provenant des moyens de mémorisation et/ou de communication interne ou externe et/ou de l'interface utilisateur : lo des données représentatives du positionnement, de l'orientation et de l'éventuelle conformation dans la scène d'au moins un repère global de captation, - des données représentatives d'au moins un paramètre de configuration, définissant une déformation souhaitée pour l'effet relief 15 et/ou une géométrie de captation, la captation étant réalisée par la projection de la scène virtuelle sur les nxm zones de captation au travers de nxm faisceaux optiques pyramidaux de captation appuyés sur une base rectangulaire commune aux nxm faisceaux optiques, disposée dans la scène à capter, les nxm faisceaux passant chacun 20 par l'un des nxm centres optiques alignés par lots sur une ou plusieurs droites, dites droites d'alignement des centres, parallèles à l'une des directions principales de cette base commune, les zones de captation correspondant à l'intersection de ces faisceaux optiques avec au moins un plan parallèle à cette base commune, les axes de 25 visée ou axes principaux des nxm faisceaux optiques, passant par leur centre optique, convergeant tous vers le centre de la base commune, - des données représentatives de paramètres de restitution, définissant ou permettant de déduire au moins les 30 dimensions d'une zone utile du dispositif de restitution choisi et les positions d'observation privilégiées choisies pour le dispositif de restitution. • captation virtuelle de la scène par génération, par un module de synthèse d'images, de données représentatives des nxm images ou séquences d'image à partir desdites données représentatives de ladite configuration et de données représentatives soit de positionnements et de caractéristiques, statiques ou évolutifs, de constituants d'une scène virtuelle tridimensionnelle, soit d'une suite d'instructions informatiques ou ordres graphiques permettant de définir cette même scène, ces données provenant des moyens de mémorisation et/ou de communication interne ou externe et/ou provenant de l'interface w utilisateur. Selon une autre particularité, l'étape de génération des données représentatives des nxm images de synthèse, statiques ou correspondant au même pas de temps dans leur séquence respective, par le module de synthèse d'image, comporte des étapes d'exécution de multiples instances 15 d'un logiciel de synthèse d'image. Selon une autre particularité, l'étape de génération des données représentatives des nxm images de synthèse, statiques ou correspondant au même pas de temps dans leur séquence respective, par le module de synthèse d'image, comporte une étape d'exécution d'une instance d'un 20 logiciel de synthèse d'image agencé pour réaliser en parallèle plusieurs captations d'images en une même instance. Les images générées par le procédé, une fois mixées de manière adéquate en fonction des caractéristiques du dispositif de restitution 25 (quelconque mais préalablement choisi et caractérisé) peuvent être affichées ou imprimées ou projetées à l'aide de, ou sur, ce dispositif de restitution et permettent, pour un observateur doué de stéréoscopie et correctement positionné par rapport au dispositif de percevoir effectivement la scène en relief, avec, de plus, une perception sans déformation ou avec une 3o déformation choisie ou contrôlée. This goal is achieved by using data representative of the positions of the nxm optical centers and the dimensions and positions of the nxm capture areas with respect to the scene and defining said configuration according to one of the preceding claims, for the generation of nxm images or image sequences of a virtual scene, static or dynamic, by an image synthesis module executed by the configuration generation system or by another system comprising data processing means executing the synthesis module of images and storage means and / or internal or external communication and / or a user interface, characterized in that the image synthesis module generates data representative of the nxm images or sequences of synthetic images from said data representative of the positions of the nxm optical centers and the dimensions and positions of the nxm zones d capturing with respect to the scene and defining said configuration and data representative of either static or evolutive positions and features, constituents of a three-dimensional virtual scene, or a sequence of computer instructions or graphic commands for defining this same scene. According to another feature, the image synthesis module generates ts all or part of said representative data of the nxm synthetic images, static or corresponding to the same time step in their respective sequence, thanks to the execution of multiple instances of a image synthesis software. According to another particularity, the image synthesis module generates all or part of said representative data of the nxm synthetic images, static or corresponding to the same time step in their respective sequence, by an instance of a synthesis software of image arranged to realize in parallel several captations of images in the same instance. According to another particular feature, the nxm images or sequences of synthesis images generated by the image synthesis module are stored or transmitted to other systems or processes by means of storage means and / or internal or external communication. According to another particular feature, the nxm images or sequences of synthesis images generated by the image synthesis module are the subject of a mixing adapted to the multiscopic reproduction device chosen, thanks to a mixing module using data. representative of the technical characteristics of the rendering device for generating data representative of the nxm images or sequences of images mixed appropriately for their return to the rendering device. According to another particularity, the data representative of the images or sequences of mixed images generated by the mixing module are stored or transmitted to other systems or processes by means of storage means and / or internal or external communication. According to another particularity, the data representative of the images or sequences of mixed images generated by the mixing module are transmitted to the rendering device. Another object of the invention is to propose a method of generating a plurality of nxm images of a virtual scene, to allow a restitution of these images, with a determined relief deformation effect, on at least one device. multiscopic restitution. This object is achieved by a method of generating a plurality of nxm images or image sequences of a virtual, static or dynamic scene, these nxm images or image sequences being intended for restitution on at least one device multiscopic rendering, and corresponding to the projection of the static or dynamic virtual scene on a plurality of nxm capture zones each associated with an optical center, the method being characterized in that it is implemented by at least one system comprising data processing means and means of storage and / or internal or external communication and / or a user interface, and in that it comprises the following steps: • generation, by a configuration module, of representative data of a configuration of the capture, allowing a restitution with a determined relief effect, and representative of the positions, with respect to the scene, of the nxm c optical inputs and dimensions and positioning, with respect to the scene, nxm capturing areas associated with them, by linking at least the following data from the storage means and / or internal or external communication and / or the user interface: lo data representative of the positioning, the orientation and the possible conformation in the scene of at least one global capture frame, - data representative of at least one parameter of configuration, defining a desired deformation for the relief effect 15 and / or a capture geometry, the capture being carried out by the projection of the virtual scene on the nxm capture zones through nxm pyramidal optical beams of capture supported on a base rectangular common to nxm optical beams, arranged in the scene to be captured, the nxm beams each passing 20 by one of the nxm optical centers aligned by lo ts on one or more straight lines, called straight lines of the centers, parallel to one of the main directions of this common base, the capture zones corresponding to the intersection of these optical beams with at least one plane parallel to this base common, the target axes or main axes of the nxm optical beams, passing through their optical center, converging all towards the center of the common base, - data representative of restitution parameters, defining or allowing to deduce at least the 30 dimensions a useful area of the chosen rendering device and the preferred viewing positions chosen for the rendering device. Virtual capture of the scene by generation, by an image synthesis module, of data representative of the nxm images or image sequences from said data representative of said configuration and data representative of either positioning or characteristics, static or evolutive components of a three-dimensional virtual scene, either a series of computer instructions or graphic orders for defining the same scene, these data from the storage means and / or internal or external communication and / or from the user w interface. According to another particularity, the step of generating the data representative of the nxm synthetic images, static or corresponding to the same time step in their respective sequence, by the image synthesis module, comprises steps of execution of multiple instances 15 of an image synthesis software. According to another particularity, the step of generating the data representative of the nxm synthetic images, static or corresponding to the same time step in their respective sequence, by the image synthesis module, comprises a step of executing a an instance of an image synthesis software arranged to perform in parallel several captations of images in the same instance. The images generated by the method, once adequately mixed according to the characteristics of the rendering device (any but previously chosen and characterized) can be displayed or printed or projected using, or on, this rendering device and allow, for an observer endowed with stereoscopy and correctly positioned relative to the device to effectively perceive the scene in relief, with, in addition, a perception without deformation or with a 3o selected or controlled deformation.
Description de l'invention D'autres particularités et avantages de la présente invention apparaîtront plus clairement à la lecture de la description ci-après, faite en 5 référence aux dessins annexés, dans lesquels: la figure 1 représente un système de génération de configuration de captation selon certains modes de réalisation, pour une utilisation par un module de synthèse d'images, selon certains modes de réalisation de l'invention, de manière à générer nxm images d'une lo scène virtuelle, - la figure 2 représente une configuration de captation d'images d'une scène selon certains modes de réalisation de l'invention, - la figure 3 représente schématiquement en perspective la géométrie de captation utilisée dans la configuration selon certains modes de 15 réalisation de l'invention, - les figures 4A et 4B représentent, respectivement, une vue de face et une vue de dessus, de la géométrie de captation utilisée dans la configuration selon certains modes de réalisation de l'invention, la figure 5 représente schématiquement une vue en perspective de la 20 géométrie de restitution sur un dispositif de restitution multiscopique, d'une pluralité d'images captées avec la configuration selon certains modes de réalisation de l'invention, - la figure 6 représente un procédé de génération d'une pluralité de nxm images d'une scène virtuelle pour une restitution multiscopique, 25 selon certains modes de réalisation de l'invention. La présente invention est donc destinée dans un premier but à la génération d'une configuration (25) de captation (détermination de paramètres d'une géométrie de captation vis à vis de la scène à capter) pour permettre ultérieurement la réalisation d'une pluralité cohérente de vues 3o d'une même scène virtuelle (générer des images de la scène) pour la restitution en relief de cette scène avec un relief sans déformation ou à 16 déformation maîtrisée sur tout dispositif de restitution multiscopique préalablement choisi. On notera ici que la génération de la configuration et la génération des images sera faite en fonction des caractéristiques techniques d'au moins un dispositif de restitution multiscopique choisi, comme détaillé ci- après. Plusieurs dispositifs de restitution multiscopique pourront avoir des caractéristiques techniques identiques et la configuration générée, ainsi que les images obtenues, pourront donc être utilisables pour plusieurs dispositifs de restitution. Le terme captation est utilisé ici pour désigner la création des images à partir d'une scène virtuelle, de manière similaire à (ou simulant io plus ou moins) une acquisition d'image d'une scène réelle. Le terme restitution est utilisé pour désigner l'affichage, la projection ou l'impression d'un mixage adapté des images captées (qui peut être réalisé par divers types de dispositifs multiscopiques). En effet, la captation est réalisée par la projection de la scène sur une pluralité de nxm zones de 15 captation associées chacune à un centre optique. Cet arrangement revient à une simulation d'optiques et de capteurs virtuels placés par rapport à la scène et définissant un dispositif virtuel de captation, en fonction des paramètres que l'invention permet de déterminer. En ce sens, l'invention se place dans un cadre qui résout 20 systématiquement P1. Elle utilise par ailleurs une analyse du problème P2 pour proposer un système informatique permettant, selon diverses modalités, de sélectionner un dispositif de restitution, puis de définir une configuration de captation (par exemple un dispositif de captation virtuel) cohérente avec ce dispositif de restitution et éventuellement avec la déformation attendue, 25 avant de calculer les images de la scène virtuelle captées au travers des zones de captation (ZC;, i=(ii,i2)E{1...n}x{1...m}) (ou capteurs virtuels) associées au centres optiques (Ci, i=(ii,i2)E{1...n}x{1...m}), précédemment définis puis de les stocker et/ou les mixer et/ou les transmettre pour restitution multiscopique au dispositif désigné. Cette architecture permet 3o d'assurer que le relief initial de la scène virtuelle subira, à la restitution, la déformation attendue ou souhaitée. DESCRIPTION OF THE INVENTION Other features and advantages of the present invention will become more apparent upon reading the following description, with reference to the accompanying drawings, in which: FIG. capture according to some embodiments, for use by an image synthesis module, according to some embodiments of the invention, so as to generate nxm images of a virtual scene lo, - Figure 2 represents a configuration of capturing images of a scene according to certain embodiments of the invention; FIG. 3 diagrammatically shows in perspective the capture geometry used in the configuration according to certain embodiments of the invention; FIGS. 4B represent, respectively, a front view and a top view of the capture geometry used in the configuration according to certain modes. Embodiment of the invention, FIG. 5 schematically represents a perspective view of the rendering geometry on a multiscopic rendering device, of a plurality of images captured with the configuration according to certain embodiments of the invention, FIG. 6 represents a method of generating a plurality of nxm images of a virtual scene for multiscopic rendering, according to certain embodiments of the invention. The present invention is therefore intended, for a first purpose, to generate a capture configuration (25) (determination of parameters of a capture geometry with respect to the scene to be captured) in order subsequently to allow the realization of a plurality coherent views 3o of the same virtual scene (generating images of the scene) for the relief restitution of this scene with a relief without deformation or controlled deformation on any multiscopic restitution device previously chosen. It will be noted here that the generation of the configuration and the generation of the images will be made according to the technical characteristics of at least one multiscopic rendering device chosen, as detailed below. Several multiscopic recovery devices may have identical technical characteristics and the configuration generated, as well as the images obtained, may therefore be usable for several rendering devices. The term capture is used herein to refer to the creation of images from a virtual scene, in a manner similar to (or more or less simulating) an image acquisition of a real scene. The term restitution is used to designate the display, projection or printing of a suitable mix of captured images (which can be achieved by various types of multiscopic devices). Indeed, capture is achieved by projecting the scene onto a plurality of nxm capture areas each associated with an optical center. This arrangement amounts to a simulation of optics and virtual sensors placed in relation to the scene and defining a virtual capture device, according to the parameters that the invention makes it possible to determine. In this sense, the invention is placed in a framework that systematically solves P1. It also uses an analysis of the P2 problem to propose a computer system allowing, according to various methods, to select a rendering device, then to define a capture configuration (for example a virtual capture device) consistent with this rendering device and possibly with the expected deformation, before computing the images of the virtual scene captured through the capture zones (ZC ;, i = (ii, i2) E {1 ... n} x {1 ... m} ) (or virtual sensors) associated with the optical centers (Ci, i = (ii, i2) E {1 ... n} x {1 ... m}), previously defined, and then storing and / or mixing them and / or transmit them for multiscopic return to the designated device. This architecture makes it possible to ensure that the initial relief of the virtual scene will undergo, at restitution, the expected or desired deformation.
L'homme de métier comprendra que l'indice i est utilisé dans la présente demande en référence à divers éléments (Ci, ZCi, etc.) ou paramètres (fi, Xi etc.) pour désigner le fait que l'élément ou le paramètre (pour lequel il apparaît en indice) concerne l'image numéro i à capter. On notera que ce terme i peut en fait correspondre à un couple de valeurs il (allant de 1 à n) et i2 (allant de 1 à m), comme défini ci-dessus par l'expression i=(ii,i2) utilisée pour une définition matricielle, mais que l'on peut, lorsque l'on n'a besoin de définir qu'une dimension (par exemple lorsque les paramètres sont regroupés selon m lots de n paramètres), n'utiliser que le lo terme i2 (ou il éventuellement) pour caractériser un lot de paramètres (par exemple, lot numéro i2, compris entre 1 et m). Those skilled in the art will understand that the index i is used in the present application with reference to various elements (Ci, ZCi, etc.) or parameters (fi, Xi, etc.) to designate the fact that the element or the parameter (for which it appears in index) concerns the image number i to capture. Note that this term i may in fact correspond to a pair of values il (ranging from 1 to n) and i2 (ranging from 1 to m), as defined above by the expression i = (ii, i2) used. for a matrix definition, but when one only needs to define one dimension (for example when the parameters are grouped according to m lots of n parameters), use only the term i2 (or possibly) to characterize a batch of parameters (for example, lot number i2, between 1 and m).
Un autre but de la présente invention est, de proposer une solution permettant, efficacement et sans surcoût trop important, de générer des vues ]s multiples (nxm images) d'une même scène virtuelle dont l'utilisation conjointe sur tout dispositif multiscopique plat permet la perception effective en relief de cette scène par un observateur correctement positionné par rapport au dispositif multiscopique. Il s'agit en fait de résoudre systématiquement le problème P1 en 20 choisissant une configuration de captation assurant une projection de la scène sur les nxm zones de captation (ZCi), au travers de nxm faisceaux optiques pyramidaux appuyés sur une base (BC) rectangulaire commune aux nxm faisceaux optiques et disposée dans la scène à capter. On comprendra à la lecture de la description ci-après que cette base commune 25 correspond en fait au cadrage de la prise de vue, c'est-à-dire au rectangle de la scène qui sera restitué précisément sur la zone utile du dispositif de restitution, ou encore à la représentation dans la scène de l'homologue de cette zone utile de restitution. Les nxm faisceaux passent chacun par l'un des nxm centres optiques (Ci) alignés par lots sur une ou 30 plusieurs droites (LCi2) parallèles à cette base commune (la numérotation bidimensionnelle i=(il,i2) permet alors de dire que chaque centre Ci est positionné sur la droite LCi2 correspondant à son second indice). Ces droites (LCi2) sont désignées ici sous le terme droites (LCi2) d'alignement des centres . Par exemple, m lots de n centres optiques (Ci) pourront être alignés sur m droites (LCi2) d'alignement des centres. Les zones de captation correspondent à l'intersection de ces faisceaux optiques (pyramides de captation) avec au moins un plan parallèle à cette base commune. Les axes de visée ou axes principaux des nxm faisceaux optiques pyramidaux, passant par leur centre optique, convergent tous vers le centre (PS) de la base commune. Un exemple illustratif de cette configuration (25) est représenté sur la figure 2 m ontrant un exemple de scène virtuelle (une to voiture) et la base commune (BC) placée devant celle-ci. Par rapport à cette scène, le positionnement de chaque centre optique (Ci), ainsi que les dimensions et le positionnement de la zone de captation associée (ZCi), forment des jeux de paramètres (25i) de définition de la configuration de chaque capteur virtuel n°i. Ces jeux de paramètres (25i) définissent 15 collectivement la configuration (25) de captation et l'on comprend d'après cette figure 2 que cette configuration (25) peut être représentée (de manière illustrative et non limitative) par des faisceaux pyramidaux (ou pyramides de captation). Ces faisceaux pyramidaux com portant une première série de pyramides (seulement deux représentées sur la figure 2, n°i et j) dont les 20 bases correspondent à la base commune (BC) et dont les sommets correspondent aux centres optiques (Ci et Ci, figure 2) et une seconde série de pyramides (inversées) dont les sommets correspondent aux centres optiques (Ci et C;, figure 2) et dont les bases correspondent aux zones de captation (ZCi et ZCi, figure 2). 25 Cette configuration revient à ce que les axes de visée (AVi, figure 2) convergent au centre (PS) de la base commune (BC) et à ce que les zones de captation (ZCi) soient parallèles à la base commune (BC). Les axes de visée (AVi) (ou axes principaux ), passent donc tous par le centre (PS) de la base commune (BC) puis par le centre optique (Ci) et le centre (Ii) de la 30 zone de captation (ZCi) de leur capteur associé. Remarquons encore que les zones de captation (ZCi) peuvent être positionnées à toute distance (fi) du centre optique (Ci) sans conséquence sur les images captées et donc sur la restitution du relief, pour peu qu'elles soient définies comme l'intersection d'au moins un plan parallèle à la base commune avec la pyramide de captation impliquée. Il est ainsi plus simple de considérer, par lots de centres optiques alignés (c'est-à-dire à i2 fixé) ou globalement, toutes ces zones de s captation comme les intersections des diverses pyramides avec un plan unique parallèle à la base commune et situé à une distance fixe fie ou f de la droite (LCi2) d'alignement des centres optiques (Ci), comme représenté sur la figure 2. On comprend donc que, dans cet exemple, les zones de captation (ZCi) sont alignées par lots sur une ou plusieurs lignes incluses dans ce ou io ces plan(s) commun(s) et parallèle(s) aux droites (LCi2) d'alignement des centres optiques (Ci). On voit donc qu'un point (U) de la scène se projette sur les zones de captation (ZCi, ZCj, figure 2) en des points (ui, uj, figure 2) dont la position dépend des positionnements des centres optiques (Ci, Cj, figure 2) et des dimensions et positionnements des zones (ZCi ZC1, figure 2) de 15 captation. Dans certains modes de réalisation, toutes les zones de captation (ZCi) (ou capteurs virtuels ) ont les mêmes dimensions 1, h (figure 3) et sont donc positionnées par leur centre Ii qui est décalé horizontalement d'une distance ai (figure 3) et verticalement d'une distance ei (figure 3) par rapport 20 à l'axe optique (AOi, figure 2), c'est-à-dire une droite orthogonale aux zones de captations (ZC,) et passant par le centre optique (Ci). On notera que, dans certains modes de réalisation, on pourra avoir des zones de captation (ZCi) situées à des distances fi différentes de la droite (LCi2) des centres optiques (Ci) et ayant donc des dimensions li, hi différentes entre elles. On comprend 25 donc que l'alignement des zones de captation est donné ici à titre illustratif pour faciliter la compréhension de la configuration de captation et qu'il est possible d'utiliser des zones de captation de dimensions variables et placées dans plusieurs plans parallèles à la base commune (BC) à des distances variées des droites (LCi2) portant leur centre optique associé, mais cela 30 complique la configuration sans constituer une réelle modification. Another object of the present invention is to propose a solution that makes it possible, efficiently and without excessive cost, to generate multiple views (nxm images) of the same virtual scene whose joint use on any multiscopic device allows the effective perception in relief of this scene by an observer correctly positioned with respect to the multiscopic device. It is in fact to systematically solve the problem P1 by choosing a capture configuration ensuring a projection of the scene on the nxm capture areas (ZCi), through nxm pyramidal optical beams supported on a rectangular base (BC) common to the nxm optical beams and arranged in the scene to capture. It will be understood from reading the following description that this common base 25 corresponds in fact to the framing of the shot, that is to say to the rectangle of the scene which will be restored precisely on the useful area of the device of restitution, or to the representation in the scene of the counterpart of this useful area of restitution. The nxm beams each pass through one of the nxm optical centers (Ci) aligned in batches on one or more lines (LCi2) parallel to this common base (the two-dimensional numbering i = (il, i2) then makes it possible to say that each center Ci is positioned on the right LCi2 corresponding to its second index). These lines (LCi2) are referred to herein as straight lines (LCi2) of center alignment. For example, m lots of n optical centers (Ci) may be aligned on m straight (LCi2) alignment centers. The capture zones correspond to the intersection of these optical beams (capture pyramids) with at least one plane parallel to this common base. The axes of aim or main axes of the nxm pyramidal optical beams, passing through their optical center, all converge towards the center (PS) of the common base. An illustrative example of this configuration (25) is shown in Figure 2 showing an example of a virtual scene (one to car) and the common base (BC) placed in front of it. With respect to this scene, the positioning of each optical center (Ci), as well as the dimensions and the positioning of the associated capture zone (ZCi), form sets of parameters (25i) for defining the configuration of each virtual sensor or. These sets of parameters (25i) collectively define the capture configuration (25) and it will be understood from this FIG. 2 that this configuration (25) can be represented (in an illustrative and nonlimiting manner) by pyramidal beams ( or pyramids of capture). These pyramidal bundles com- comprise a first series of pyramids (only two shown in Figure 2, No. i and j) whose 20 bases correspond to the common base (BC) and whose vertices correspond to the optical centers (Ci and Ci, Figure 2) and a second series of pyramids (inverted) whose vertices correspond to the optical centers (Ci and C ;, Figure 2) and whose bases correspond to the capture zones (ZCi and ZCi, Figure 2). This configuration amounts to the fact that the lines of sight (AVi, FIG. 2) converge at the center (PS) of the common base (BC) and that the capture areas (ZCi) are parallel to the common base (BC). . The axes of sight (AVi) (or main axes), therefore all pass through the center (PS) of the common base (BC) and then through the optical center (Ci) and the center (Ii) of the capture area ( ZCi) of their associated sensor. Note again that the capture zones (ZCi) can be positioned at any distance (fi) from the optical center (Ci) without any consequence on the captured images and therefore on the relief of the relief, if they are defined as the intersection at least one plane parallel to the common base with the capture pyramid involved. It is thus easier to consider, in batches of optical centers aligned (that is to say at 12 fixed) or globally, all these areas of capture as the intersections of the various pyramids with a single plane parallel to the common base and located at a fixed distance fie or f from the line (LCi2) of alignment of the optical centers (Ci), as represented in FIG. 2. It is thus clear that, in this example, the capture zones (ZCi) are aligned in batches on one or more lines included in this or these common plane (s) and parallel to the lines (LCi2) of alignment of the optical centers (Ci). We thus see that a point (U) of the scene is projected on the capture zones (ZCi, ZCj, figure 2) at points (ui, uj, figure 2) whose position depends on the positions of the optical centers (Ci , Cj, FIG. 2) and the dimensions and positioning of the capture zones (ZCi ZC1, FIG. 2). In some embodiments, all the capture zones (ZCi) (or virtual sensors) have the same dimensions 1, h (FIG. 3) and are therefore positioned by their center Ii which is horizontally offset by a distance ai (FIG. ) and vertically a distance ei (Figure 3) with respect to the optical axis (AOi, Figure 2), that is to say a straight orthogonal to the capture areas (ZC,) and passing through the center optical (Ci). It will be noted that, in certain embodiments, it will be possible to have capture zones (ZCi) situated at distances f different from the line (LCi2) of the optical centers (Ci) and therefore having different dimensions li, hi. It is therefore understood that the alignment of the capture zones is given here as an illustration to facilitate the understanding of the capture configuration and that it is possible to use capture zones of variable dimensions and placed in several parallel planes. the common base (BC) at various distances from the lines (LCi2) bearing their associated optical center, but this complicates the configuration without constituting a real modification.
La figure 5 montre à titre d'exemple l'analyse de la géométrie de restitution permettant de définir les caractéristiques du dispositif pour lequel les images vont être générées. Sur cette figure 5, le point U affiché sur le dispositif, de centre (Ce), est perçu comme un point u grâce aux images u; et ug; affichées sur l'écran et à leur appariement stéréoscopique par le cerveau de l'observateur (dont les yeux sont positionnés en O; et Ogi) Le nombre nxm de zones de captation (ZC;) (ou de capteurs virtuels ou de dispositifs de capture ) pourra varier, par exemple en fonction du nombre d'images attendues par le dispositif de restitution multiscopique permettant son observation de plusieurs points de vue différents. Toutefois, le nombre de vues captées peut être différent du nombre de points de vue restitués par les dispositifs auxquels la capture est destinée. Par exemple, il est possible de capter moins de vues que ce que le dispositif de restitution est capable de diffuser notamment si le nombre 1s d'observateur est limité. Inversement, il est possible de capter plus de vues que ce que le dispositif de restitution peut diffuser et de sélectionner les points de vue qui seront restitués, par exemple selon le choix de l'opérateur. Le terme opérateur est utilisé ici pour désigner la personne décidant des paramètres à appliquer pour la captation, c'est-à-dire 20 l'utilisateur du système de génération de la configuration et/ou du système de génération des images ou contrôlant la mise en oeuvre du procédé. Ces principes d'architecture du système de captation virtuel sont nécessaires pour résoudre le problème P1, mais ne suffisent pourtant pas à obtenir une restitution à relief contrôlé puisqu'il faut encore analyser le 25 problème P2 et notamment les relations entre les angles caractéristiques des pyramides de visée et d'observation. La présente invention concerne donc un système (1, figure 1) de génération d'une configuration (25, fig. 1 et 2) de captation d'une pluralité de nxm images d'une scène virtuelle, ces nxm images étant destinées à une 30 restitution, avec un effet relief déterminé (grâce à l'invention), sur au moins un dispositif de restitution multiscopique, la captation étant réalisée par la projection de la scène sur une pluralité de nxm zones de captation (ZC;) associées chacune à un centre optique (C;). Ce système comporte des moyens (11) de traitement de données et des moyens (12) de mémorisation et/ou de communication interne (avec d'autres processus exécutés par le système) ou externe (avec d'autres systèmes) et/ou une interface (13) utilisateur. Grâce à ces moyens de mémorisation et/ou de communication et/ou cette interface utilisateur, l'opérateur pourra sélectionner et/ou définir des paramètres relatifs à au moins un dispositif de restitution pour lequel le système adaptera la configuration (25) de captation (et auquel sont destinés ~o les images qui seront générées ( captées ) grâce à cette configuration). Dans certains modes de réalisation, le système pourra être préconfiguré et utiliser directement les paramètres sans intervention de l'opérateur, notamment dans le cas d'un des modes de réalisation décrit ci-après concernant une configuration de captation pour un relief sans déformation. 15 Dans certains modes de réalisation, le système permet à l'opérateur, grâce à l'interface (13), de sélectionner (ou saisir) les paramètres définissant le type de dispositif de restitution et/ou définissant la déformation qu'il choisit d'avoir sur le rendu relief de la scène et/ou définissant au moins un des paramètres relatifs à la géométrie de captation détaillé ci-après. Dans certains modes de 20 réalisation, le système permet à l'opérateur, grâce à l'interface (13), de sélectionner directement des configurations parmi une pluralité enregistrées au préalable dans des moyens de mémorisation accessibles par le système. Les moyens (11) de traitement exécutent un module (22, figure 1) de configuration générant des données définissant ladite configuration (25) et 25 représentatives des positionnements, par rapport à la scène, des nxm centres optiques (C;) et des dimensions et positionnements, par rapport à la scène, des nxm zones de captation (ZC;) qui leurs sont associées. Le système est caractérisé en ce que le module (22, figure 1) génère ladite configuration (25) par la mise en relation d'au moins les données suivantes, 30 provenant des moyens (12) de mémorisation et/ou de communication interne ou externe et/ou provenant de l'interface (13) utilisateur : - des données représentatives du positionnement, de l'orientation et de l'éventuelle conformation dans la scène d'au moins un repère (27, figures 1 et 2) global de captation, - des données représentatives d'au moins un paramètre (23, figure 1) de configuration, définissant une déformation souhaitée pour l'effet relief et/ou une géométrie de captation, - des données représentatives de paramètres (21, figure 1) de restitution, définissant ou permettant de déduire au moins les dimensions d'une zone utile choisie du dispositif de restitution et les ~o positions d'observation privilégiées choisies pour le dispositif de restitution. Le module (22) de configuration utilise des relations déterminées pour effectuer la mise en relation au moins des données représentatives du repère (27), des données représentatives d'au moins un paramètre de 1s configuration (23) et des données représentatives des paramètres de restitution (21). Ces relations, comme expliqué ci-après, pourront être définies par des équations, qui pourront par exemple être exprimées sous la forme des équations détaillées ci-après (ou selon divers équivalents comme expliqué ci-après). Le module (22) de configuration pourra par exemple 20 utiliser au moins un algorithme pour la mise en relation des paramètres, de façon au moins équivalente aux équations détaillées ici. Comme mentionné précédemment, la captation est réalisée par la projection de la scène sur les nxm zones de captation (ZCi), au travers de nxm faisceaux optiques pyramidaux appuyés sur une base rectangulaire (BC) commune aux nxm 25 faisceaux optiques, disposée dans la scène à capter, les nxm faisceaux passant chacun par l'un des nxm centres optiques (Ci) alignés par lots sur une ou plusieurs droite(s) (LCi2) d'alignement des centres, parallèle(s) à une direction principale de cette base commune (BC), les zones de captation (ZCi) correspondant à l'intersection de ces faisceaux optiques avec au moins 30 un plan parallèle à cette base commune (BC), les axes de visée (AVi) ou axes principaux des nxm faisceaux optiques, passant par leur centre optique (C;), convergeant tous vers le centre (PS) de la base commune (BC). Cette projection prescrit donc au moins une partie des paramètres (23) de configuration. Dans certains modes de réalisation, les moyens (12) de mémorisation et/ou de communication interne ou externe du système apportent ces 3 types de données. Dans d'autres modes de réalisation, un module de pilotage de l'interface (13) utilisateur, intégré ou non au module de configuration (22), permet de saisir via cette interface ces 3 types de données ou permet de sélectionner toujours via cette interface ces 3 types de données parmi les to données apportées par les moyens de mémorisation et/ou de communication interne ou externe. Certains modes de réalisation correspondent donc à des combinaisons de ces modes de réalisation, l'invention permettant par exemple de choisir au moins un dispositif de restitution (ce qui prescrit tout ou partie des paramètres 21) et de choisir comment on souhaite que la ts captation soit réalisée (soit en choisissant des paramètres de déformation, soit en choisissant au moins un paramètre relatif à la géométrie de captation, comme détaillé ci-après), de façon à ce que le système génère la configuration (25) permettant d'obtenir les images correspondant à ces choix. Dans d'autres modes de réalisation, le système est préconfiguré pour au 20 moins un dispositif de restitution et n'offre pas de choix sur les déformations ni la géométrie de captation. Dans ces modes de réalisation, les données représentatives d'au moins un paramètre (23) de configuration pourront correspondre à un paramètre implicite, du fait que le rendu relief ne doit pas présenter de déformation ou présenter une déformation préconfigurée , ce 25 qui prescrit un certain nombre de paramètres de la géométrie de captation comme détaillé ci-après. Le système ne mettrait alors en relation que les données représentatives du repère (27) et celles représentatives des paramètres (21) de restitution, en utilisant une relation (équation) spécifique tenant compte de ce paramètre implicite. 3o Le module (22) de configuration utilise des données représentatives du positionnement, de l'orientation et de l'éventuelle conformation dans la scène d'au moins un repère (27, figures 1 et 2) global de captation qui permet notamment de positionner dans la scène le point de convergence (PS) et d'orienter dans la scène, autour de ce point, la base commune (BC). Ce repère (27) permet alors aussi de positionner, orienter, voire conformer, les zones de captation (ZC;) et les centres optiques (Ci) vis à vis de la scène. FIG. 5 shows, by way of example, the analysis of the restitution geometry making it possible to define the characteristics of the device for which the images will be generated. In this FIG. 5, the point U displayed on the device, of center (Ce), is perceived as a point u thanks to the images u; and ug; displayed on the screen and to their stereoscopic pairing by the observer's brain (whose eyes are positioned in O; and Ogi) The number nxm of capture areas (ZC;) (or virtual sensors or capture devices ) may vary, for example depending on the number of images expected by the multiscopic rendering device allowing its observation of several different points of view. However, the number of views captured may be different from the number of viewpoints rendered by the devices for which the capture is intended. For example, it is possible to capture fewer views than what the playback device is able to broadcast especially if the number 1s observer is limited. Conversely, it is possible to capture more views than what the playback device can broadcast and select the viewpoints that will be returned, for example according to the choice of the operator. The term operator is used herein to refer to the person deciding the parameters to be applied for capturing, i.e. the user of the generation system of the configuration and / or the image generation system or controlling the setting. implementation of the method. These principles of architecture of the virtual capture system are necessary to solve the problem P1, but are not enough to obtain a controlled relief restitution since it is still necessary to analyze the problem P2 and in particular the relationships between the characteristic angles of the pyramids. of sighting and observation. The present invention therefore relates to a system (1, FIG. 1) for generating a configuration (25, FIGS. 1 and 2) for capturing a plurality of nxm images of a virtual scene, these nxm images being intended for a Rendering, with a determined relief effect (thanks to the invention), on at least one multiscopic reproduction device, the capture being performed by the projection of the scene on a plurality of nxm capture areas (ZC;) each associated with an optical center (C;). This system comprises data processing means (11) and means (12) for storing and / or communicating internally (with other processes executed by the system) or externally (with other systems) and / or user interface (13). Thanks to these storage means and / or communication and / or this user interface, the operator can select and / or define parameters relating to at least one rendering device for which the system will adapt the configuration (25) capture ( and to which are intended ~ o the images that will be generated (captured) thanks to this configuration). In some embodiments, the system may be preconfigured and use the parameters directly without operator intervention, particularly in the case of one of the embodiments described below concerning a capture configuration for a relief without deformation. In some embodiments, the system allows the operator, through the interface (13), to select (or enter) the parameters defining the type of rendering device and / or defining the deformation that he chooses. have on the relief rendering of the scene and / or defining at least one of the parameters relating to the capture geometry detailed below. In some embodiments, the system allows the operator, through the interface (13), to directly select configurations from a plurality previously stored in storage means accessible by the system. The processing means (11) executes a configuration module (22, FIG. 1) generating data defining said configuration (25) and representative of the positions, with respect to the scene, of the nxm optical centers (C) and the dimensions and positioning, relative to the scene, the nxm capture areas (ZC;) associated with them. The system is characterized in that the module (22, Fig. 1) generates said configuration (25) by relating at least the following data from the storage means (12) and / or internal communication or external and / or from the interface (13) user: - data representative of the positioning, orientation and possible conformation in the scene of at least one reference (27, Figures 1 and 2) global of capture, - data representative of at least one parameter (23, FIG. 1) of configuration, defining a desired deformation for the relief effect and / or a capture geometry, - data representative of parameters (21, FIG. of restitution, defining or allowing to deduce at least the dimensions of a chosen useful area of the rendering device and ~ o privileged observation positions chosen for the rendering device. The configuration module (22) uses determined relationships to relate at least data representative of the mark (27), data representative of at least one configuration parameter (23), and data representative of the parameters of restitution (21). These relationships, as explained below, may be defined by equations, which may for example be expressed in the form of the equations detailed below (or according to various equivalents as explained below). The configuration module (22) may for example use at least one algorithm for linking the parameters, at least equivalent to the equations detailed here. As mentioned above, the capture is carried out by the projection of the scene on the nxm capture areas (ZCi), through nxm pyramidal optical beams supported on a rectangular base (BC) common to the nxm 25 optical beams, arranged in the scene to capture, the nxm beams each passing through one of the nxm optical centers (Ci) aligned in batches on one or more line (s) (LCi2) of alignment of the centers, parallel (s) to a main direction of this base common (BC), the capture areas (ZCi) corresponding to the intersection of these optical beams with at least a plane parallel to this common base (BC), the axes of sight (AVi) or main axes of the nxm optical beams , passing through their optical center (C;), all converging towards the center (PS) of the common base (BC). This projection therefore prescribes at least a part of the configuration parameters (23). In some embodiments, the means (12) for storing and / or communicating the system internally or externally provide these three types of data. In other embodiments, a module for controlling the user interface (13), integrated or not with the configuration module (22), makes it possible to enter via this interface these 3 types of data or to select always via this interface. interface these 3 types of data among the data provided by the storage means and / or internal or external communication. Some embodiments therefore correspond to combinations of these embodiments, the invention making it possible, for example, to choose at least one rendering device (which prescribes all or part of the parameters 21) and to choose how one wishes the capture either performed (either by choosing deformation parameters, or by choosing at least one parameter relating to the capture geometry, as detailed below), so that the system generates the configuration (25) making it possible to obtain the images corresponding to these choices. In other embodiments, the system is preconfigured for at least one rendering device and offers no choice on deformations or pickup geometry. In these embodiments, the data representative of at least one configuration parameter (23) may correspond to an implicit parameter, since the relief rendering must not present any deformation or present a preconfigured deformation, which prescribes a a number of parameters of the capture geometry as detailed below. The system would then relate only the data representative of the marker (27) and those representative of the parameters (21) of restitution, using a specific relation (equation) taking into account this implicit parameter. 3o the configuration module (22) uses data representative of the positioning, the orientation and the possible conformation in the scene of at least one global recording mark (27, FIGS. 1 and 2) which makes it possible, in particular, to position in the scene the point of convergence (PS) and orient in the scene, around this point, the common base (BC). This marker (27) then also makes it possible to position, orient, or even to conform, the capture zones (ZC;) and the optical centers (Ci) with respect to the scene.
Ces données (27) peuvent être ou doivent permettre de déterminer : les coordonnées dans la scène PS,scn du point de convergence, les coordonnées dans la scène X,scn, Yiscn, Z,scn (figure 2) des 3 directions caractéristiques de la base commune (BC) : directions principales pour X et Y, et direction normale pour Z. Io Le module (22) de configuration utilise des données représentatives de paramètres (21, figure 1) de restitution. Ces paramètres (21) de restitution concernent d'une part les dimensions de la zone utile du dispositif de restitution. Cette zone utile peut être exprimée en termes de largeur L(figure 5) et de hauteur H(figure 5) par exemple, mais également en terme de ratio 15 (par exemple, de type 16/9 ou 4/3) et dimension de la diagonale (par exemple en pouces : 32") ou encore en dimension d'un point image (pitchs, par exemple en pm ou densité en dpi) et en résolution utilisée (nombre de pixels par ligne et colonne de la zone utile). On comprend donc que l'expression donnée ici aux paramètres utilisés n'est donnée qu'à titre 20 d'exemple. On comprendra à la lecture de la présente description que cette notion est vraie pour la plupart des paramètres détaillés ici. Ces paramètres (21) de restitution concernent d'autre part les positions d'observation privilégiées (O;, 09;, figure 5) pour le dispositif de restitution choisi (par exemple nxm positions privilégiées). Ces positions 25 peuvent être définies par le positionnement optimal du spectateur (par exemple à une distance optimale d'observation), un ou plusieurs plongements (ou zéniths) optimaux d'observation, comme détaillé ci-après. Un exemple d'expression de ces paramètres est donné en définition cartésienne par : 30 - la distance d; de chaque position d'observation par rapport au plan du dispositif de restitution, - le décalage latéral (selon les lignes du dispositif) o; de chaque position d'observation par rapport au centre (Ce) du dispositif, le décalage vertical (selon les colonnes du dispositif) p de chaque position d'observation par rapport au centre (Ce) du dispositif. These data (27) can be or should make it possible to determine: the coordinates in the scene PS, scn of the convergence point, the coordinates in the scene X, scn, Yiscn, Z, scn (FIG. 2) of the 3 characteristic directions of the common base (BC): main directions for X and Y, and normal direction for Z. Io The configuration module (22) uses data representative of restitution parameters (21, figure 1). These parameters (21) of restitution concern firstly the dimensions of the useful area of the rendering device. This useful area may be expressed in terms of width L (FIG. 5) and height H (FIG. 5), for example, but also in terms of ratio (for example, of the 16/9 or 4/3 type) and dimension of the diagonal (for example in inches: 32 ") or in dimension of an image point (pitchs, for example in pm or density in dpi) and in resolution used (number of pixels per line and column of the useful zone). It will therefore be understood that the expression given here to the parameters used is given only by way of example It will be understood from reading the present description that this notion is true for most of the parameters detailed here. 21) on the other hand the privileged observation positions (O ;, 09 ;, figure 5) for the chosen restitution device (for example nxm privileged positions) These positions can be defined by the optimal positioning of the spectator (for example at an optimal distance from observati on), one or more optimal dips (or zeniths) of observation, as detailed below. An example of expression of these parameters is given in Cartesian definition by: the distance d; from each observation position relative to the plane of the rendering device, - the lateral offset (along the lines of the device) o; from each observation position relative to the center (Ce) of the device, the vertical offset (according to the columns of the device) p of each observation position relative to the center (Ce) of the device.
Cependant, il est évident que l'on peut également utiliser, pour chaque position, une dé finition sphérique par la distance au centre (Ce) et des angles d'azimut et de zénith, ou même utiliser des coordonnées cylindriques. Par ailleurs, dans les exemples détaillés ici, et comme illustré sur la figure 5, ces positions étant alignées par lots sur une ou plusieurs droites (LOi2) lo d'alignement des positions d'observations , parallèles aux lignes du dispositif, un paramétrage réduit peut aussi être utilisé en ne conservant que les paramètres non redondants, tels que la distance di2, le décalage vertical p;Z de chaque droite (LOi2) d'alignement impliquée et le décalage latéral oi de chaque position sur sa droite d'alignement. Ce décalage peut même être 1s réduit aux décalages oil communs par colonnes si la distribution matricielle place les positions d'observation de même indice il au même décalage latéral. Chaque position privilégiée (Oi) est supposée recevoir en provenance du dispositif l'image n° i avec cohérence (sans mélange trop important avec 20 les autres images), comme détaillé ci-après en référence à la géométrie de restitution. Les données représentatives de la configuration (25) définissent les positionnements, par rapport à la scène, des nxm centres optiques (C;) et les dimensions et positionnements, par rapport à la scène, des nxm zones de 25 captation (ZCi) qui leur sont associées. Ces données permettent donc de définir chaque zone (ZCi) de captation (ou capteur virtuel) n° i dans la scène au moyen d'informations (25i, figure 1 et 2) qui comprennent ou permettent de déterminer la configuration (25, figure 2) de captation par : - Les coordonnées Ci,scn dans la scène du centre optique (Ci). 30 - L'orientation de la zone de captation (ZCi) dans la scène. Par exemple les coordonnées, dans la scène, des 2 vecteurs principaux X;,scn, orienté selon les lignes de l'image à capter et Yi,s,n, orienté selon les colonnes de l'image à capter. Les dimensions (de la zone utile) des zones de captation (ZCi), par exemple exprimées en largeur lzi et en hauteur hzi, - Le positionnement effectif de la zone de captation (ZCi) vis-à-vis du centre optique (Ci) (ou centre de projection ). Ce positionnement effectif du centre optique (Ci) peut être exprimé grâce au repère global (27) par Ci/scn= PS,scn+ pXi.X/scn-pYi.Y/scn-pZi.Z,scn , en coordonnées cartésiennes, avec : to pZi : distance (figure 2) séparant ce centre optique (Ci) de la base commune (BC) (selon -Zi,scn), - pXi : décalage (selon Xi,scn) de ce centre optique (Ci) par rapport au point de convergence (PS), centre de la base commune (BC), pY; : décalage (selon -Yiiscn) de ce centre optique (Ci) par rapport au 1s point de convergence (PS), centre de la base commune (BC), Ce positionnement effectif grâce au repère global (27) peut également être exprimé en coordonnées angulaires : par exemple par l'azimut et le zénith de l'axe PS-Ci (figure 2). Ce positionnement effectif de la zone de captation (ZCi) peut être 20 exprimé en coordonnées cartésiennes par : - dZi (figure 2) : distance séparant la zone de captation n° i de son centre optique (Ci) (orthogonalement au plan de la zone de captation, c'est-à-dire selon l'axe optique AOi, soit selon Z;,scn), - dX; : décalage (selon Xi,scn) du centre I de la zone de captation (ZCi) par 25 rapport au centre optique (Ci) - dYi : décalage (selon Yi,scn) du centre Ii de la zone de captation (ZCi) par rapport au centre optique (Ci). Ce positionnement effectif peut également être exprimé en coordonnées angulaires : par exemple par l'azimut et le zénith de l'axe de 30 visée (AVi, figure 2). However, it is obvious that one can also use, for each position, a spherical definition by the distance to the center (Ce) and azimuth and zenith angles, or even use cylindrical coordinates. Furthermore, in the examples detailed here, and as illustrated in FIG. 5, these positions being aligned in batches on one or more straight lines (LOi 2) for aligning the observation positions, parallel to the lines of the device, a reduced parameterization can also be used by keeping only the non-redundant parameters, such as the distance di2, the vertical shift p; Z of each alignment line (LOi2) involved and the lateral offset oi of each position on its alignment line. This offset can even be reduced to the column-by-column offsets if the matrix distribution places the same-index observation positions at the same lateral offset. Each privileged position (Oi) is supposed to receive the image n ° i from the device with coherence (without too much mixing with the other images), as detailed below with reference to the restitution geometry. The data representative of the configuration (25) define the positioning, with respect to the scene, of the nxm optical centers (C 1) and the dimensions and positioning, with respect to the scene, of the n × m capture zones (ZC 1) which are associated. These data therefore make it possible to define each zone (ZCi) of capture (or virtual sensor) No. i in the scene by means of information (25i, FIG. 1 and 2) which comprise or make it possible to determine the configuration (25, FIG. ) by: - The coordinates Ci, scn in the scene of the optical center (Ci). 30 - The orientation of the capture area (ZCi) in the scene. For example, the coordinates, in the scene, of the two main vectors X i, scn, oriented along the lines of the image to be captured and Y i, s, n, oriented along the columns of the image to be captured. The dimensions (of the useful zone) of the capture zones (ZCi), for example expressed in width lzi and in height hzi, - The effective positioning of the capture zone (ZCi) with respect to the optical center (Ci) (or projection center). This effective positioning of the optical center (Ci) can be expressed by means of the global reference (27) by Ci / scn = PS, scn + pXi.X / scn-pYi.Y / scn-pZi.Z, scn, in Cartesian coordinates, with : to pZi: distance (figure 2) separating this optical center (Ci) from the common base (BC) (according to -Zi, scn), - pXi: shift (according to Xi, scn) of this optical center (Ci) relative to at the point of convergence (PS), center of the common base (BC), pY; : offset (according to -Yiiscn) of this optical center (Ci) with respect to the 1s point of convergence (PS), center of the common base (BC), This actual positioning thanks to the global coordinate system (27) can also be expressed in coordinates angular: for example by the azimuth and zenith of the axis PS-Ci (Figure 2). This effective positioning of the capture zone (ZCi) can be expressed in Cartesian coordinates by: - dZi (FIG. 2): distance separating the capture zone n ° from its optical center (Ci) (orthogonal to the plane of the zone capture, that is to say along the optical axis AOi, or according to Z;, scn), - dX; : shift (according to Xi, scn) of the center I of the capture area (ZCi) with respect to the optical center (Ci) - dYi: shift (according to Yi, scn) of the center Ii of the capture area (ZCi) by compared to the optical center (Ci). This actual positioning can also be expressed in angular coordinates: for example by the azimuth and zenith of the target axis (AVi, FIG. 2).
De même les dimensions cartésiennes lz; et hz; de la zone de captation (ZC;) peuvent être remplacées, une fois la distance dZi déterminée, par les ouvertures angulaires horizontale et verticale (voire les azimuts gauche et droit et les zéniths bas et haut). Similarly, the Cartesian dimensions lz; and hz; the capture zone (ZC;) can be replaced, once the distance dZi determined, by the horizontal and vertical angular apertures (even the left and right azimuths and the low and high zeniths).
Ainsi, l'invention permet de déterminer, à partir des paramètres (21) de restitution, du repère global (27) de captation et des paramètres (23) de configuration, les données représentatives de la configuration (25) en déterminant au moins une partie des informations (25i) ci-dessus. Les géométries de restitution et de captation (prise de vue) sont ~o maintenant détaillées en référence aux figures 3, 4A et 4B et la figure 5. Dans les figures 3, 4A et 4B sont montrées, sous divers angles de vues, la géométrie de captation dans les modes de réalisation où toutes les zones de captation ont les mêmes dimensions et sont placées à une même distance f (mesurée parallèlement à z) de leurs centres optiques associées. Leurs is caractéristiques intrinsèques peuvent être représentées par divers jeux de paramètres globalement totalement équivalents bien que distincts dans leur structure interne (description de pyramides par des distances et/ou par des angles, caractérisation de points ou vecteurs en coordonnées cartésiennes ou cylindriques, ou sphériques, ...). Ainsi, comme mentionné précédemment, 20 les jeux de paramètres utilisés pour les descriptions géométriques à venir doivent être considérés comme des exemples non limitatifs de la façon de caractériser ces géométries et les équations détaillées ici ne sont que des exemples des relations utilisées dans l'invention pour mettre en relation les paramètres. 25 Géométrie de restitution La figure 5 représente un exemple de description de la géométrie du dispositif de restitution pour lequel les images vont être générées et expose, à titre d'exemple, tout ou partie d'un jeu de paramètres permettant de caractériser cette géométrie complètement (pour les besoins de cette 30 invention). Thus, the invention makes it possible to determine, from the reproduction parameters (21), the global capture frame (27) and the configuration parameters (23), the data representative of the configuration (25) by determining at least one part of the information (25i) above. The restitution and capture (capture) geometries are now detailed with reference to FIGS. 3, 4A and 4B and FIG. 5. In FIGS. 3, 4A and 4B are shown, from various angles of view, the geometry capture in the embodiments where all the capture areas have the same dimensions and are placed at the same distance f (measured parallel to z) of their associated optical centers. Their intrinsic characteristics can be represented by various sets of parameters that are globally totally equivalent although distinct in their internal structure (description of pyramids by distances and / or angles, characterization of points or vectors in Cartesian or cylindrical or spherical coordinates, ...). Thus, as mentioned above, the sets of parameters used for the forthcoming geometrical descriptions should be considered as non-limiting examples of how to characterize these geometries and the equations detailed here are only examples of the relationships used in the invention. to relate the parameters. Restitution Geometry FIG. 5 represents an example of a description of the geometry of the rendering device for which the images will be generated and exposes, by way of example, all or part of a set of parameters making it possible to characterize this geometry completely. (for the purposes of this invention).
Le dispositif mixe nxm images étendues par exemple sur toute sa surface utile de dimensions L (largeur, figure 5) et H (hauteur, figure 5). Chacune de ces images n° i=(il,i2) E {1...n}x{1...m} est supposée visible correctement (sans trop de mixage avec les autres) au moins depuis la position préférentielle choisie (Oi) (figure 5) positionnée sur une des droites (LOi2) d'alignement des positions d'observation choisies, parallèles aux lignes du dispositif et sont dédiées chacune à un observateur aux caractéristiques prédéfinies (écart binoculaire et hauteur de regard) qui peut alors s'y déplacer pour modifier son angle de vue de la scène restituée. lo Cette droite (LOi2) d'alignement, et donc la position d'observation (0), est située à une distance die de la zone utile du dispositif qui peut être définie d'après le dispositif de restitution choisi, de façon à assurer qu'un utilisateur d'écart binoculaire bit (figure 5), avec une ligne des yeux parallèle aux lignes du dispositif, ayant son oeil droit en (Oi) (figure 5) qui percevrait l'image n° i, 1s aurait son oeil gauche en (Og;, figure 5) avec gi=i-(gi2,0) qui y percevrait donc l'image n° gi. Ainsi, pour chaque droite (LOi2), sont définis 2 attributs ou paramètres interdépendants : bit l'écart binoculaire choisi pour cette position (souvent les bit seront tous identiques à l'écart binoculaire humain moyen 65 mm, mais il est envisageable de choisir des écarts différents selon le public 20 attendu : enfants, ...) et qi2 l'écart de numéros d'images composant les couples stéréoscopiques cohérents visibles avec écart binoculaire bi2 depuis les positions préférentielles de la droite (LOi2) d'alignement des positions d'observation. Selon une caractéristique des dispositifs multiscopiques, il est possible, 25 depuis une position (Oi) (figure 5), de continuer à percevoir du relief en se décalant verticalement (parallèlement aux colonnes de la zone utile du dispositif) plus ou moins selon que ce dispositif propose ou non une distribution verticale des images (m>1 ou m=1). Ainsi, des spectateurs de tailles variées peuvent utiliser le dispositif au prix d'une possible déformation 3o en cisaillement du relief qu'ils perçoivent (cf. plus loin). Les conditions de visualisation sont ainsi définies pour une taille d'utilisateur donnée commune à toute une chaîne de positions d'observation, ou plutôt pour un plongement pie donné qui représente l'écart vertical (parallèlement aux colonnes du dispositif) de positionnement des yeux des observateurs sur cette chaîne par rapport au centre (Ce) de la zone utile. Lorsque l'observateur (et donc le plongement effectif) n'est pas a priori connu, on se contente d'un plongement moyen pi2m (correspondant à un observateur de taille moyenne à définir). L'analyse des caractéristiques de la géométrie de restitution s'appuie sur un repère global défini par rapport au dispositif de restitution, par exemple en son centre, (Ce, x, y, z= x^y) tel que, comme représenté lo sur la figure 5 : - x est parallèle aux lignes du dispositif de restitution et orienté vers leur droite sur la figure 5, - y est parallèle aux colonnes du dispositif de restitution et orienté vers leur bas sur la figure 5, '5 Selon une particularité du système (1) de génération de la configuration (25), les données représentatives des paramètres (21) de restitution, définissant notamment les caractéristiques du dispositif de restitution multiscopique, provenant des moyens (12) de mémorisation et/ou de communication et comportant par exemple un moyen de mémorisation 20 spécifique pour ces données, comprennent et/ou permettent de déduire au moins, et si besoin, les paramètres de restitution susmentionnés L, H, die, pie (ou pi2m), oi qui représentent : • les dimensions, largeur L et hauteur H, du rectangle de zone utile choisie du dispositif (affichage, projection ou impression des images 25 mixées), • la localisation précise des droites (LOi2) d'alignement des positions dans le repère global de restitution (Ce, x, y, z), basées sur leur distance die au dispositif et leur plongement ou décalage vertical pie par rapport à Ce. • la localisation précise des positions d'observation choisies ou imposées sur leur droite (LOi2) (par exemple décalage oi latéral ù selon les lignes du dispositif ù par rapport au centre du dispositif) • réglages stéréoscopiques de chaque chaîne de positions (LOi2) : écart d'index qi2 des images de la chaîne prévues pour les yeux gauche et droit et écart binoculaire bit prévu pour cette relation stéréoscopique, Notons que les positions d'observation sont souvent régulièrement espacées sur les droites (LOi2). Dans ce cas, les décalages latéraux oi des positions d'observation sur l'une de ces droites sont collectivement définis to par l'une seulement de ces données et les caractéristiques associées à cette ligne : oi=o(l,i2)+bi2(i1-1)/qi2. Ainsi, il est possible de disposer de jeux de paramètres réduits qui permettent, dans ces configurations particulières, de calculer les paramètres manquants. L'interface (13) utilisateur (ou interface homme/machine , comme 1s par exemple au moins un écran et des moyens de saisie et/ou d'interaction) permet, en coopération avec le module (22) de configuration, la gestion interactive (saisie, consultation, sélection, édition, sauvegarde) de ces paramètres (21) de restitution mémorisés, entre autres. On notera que pour les paramètres concernant des dispositifs de restitution, ces données 20 pourront être mises à jour dans le système en fonction de l'évolution des dispositifs connus. Selon une autre variante de réalisation du système de génération, un module de reconnaissance permet la reconnaissance automatique d'un dispositif de restitution connecté au système, puis la sélection dans une liste 25 de dispositifs connus de tout ou partie de ses paramètres de restitution pour que le module (22) de configuration utilise les paramètres du dispositif détecté et reconnu, par exemple pour (ré-)initialiser leur contenu et les présenter de façon interactive à l'opérateur via l'interface 30 Géométrie de captation La figure 3 montre une représentation en perspective de la géométrie de captation des images permettant de définir la configuration de la zone de captation n° i (par exemple la zone ZC; représentée sur la figure 2) et expose, à titre d'exemple, tout ou partie d'un jeu de paramètres permettant de s caractériser complètement cette géométrie de captation (pour les besoins de cette invention). Les figures 4A et 4B montrent des représentations, respectivement, de face et de dessus, de cette géométrie de captation. La définition de la géométrie de captation s'appuie sur le repère global de captation (27, fig. 2 et 3) par exemple positionné au point (PS) de w convergence désiré et orienté de telle sorte que les 2 premiers vecteurs de base soient parallèles aux directions principales de la base commune centrée en (PS) et donc aux directions principales des zones de captation (ZC;). De façon illustrative et nullement limitative, le premier vecteur de base est ici choisi parallèle aux lignes des zones de captation et le second is parallèle aux colonnes de ces zones. Les données représentatives des paramètres relatifs à ce repère (27) proviennent par exemple des moyens (12) de mémorisation et/ou de communication, comportant par exemple un moyen de mémorisation spécifique pour ces données, et/ou proviennent de l'interface (13) utilisateur (paramètres saisis, ou sélectionnés parmi une 20 pluralité mémorisée, par l'opérateur pour définir une position dans la scène). Ce repère (27) permet de définir la position et l'orientation de toutes les pyramides de projection représentatives des zones de captation, en spécifiant notamment la direction d'observation Z et la ou les droites (LC12) d'alignement des centres optiques : R = (PS,X,Y,Z= X"Y). 25 Ces paramètres définissant le repère (27) de captation pourront donc comporter : - les coordonnées PS1Scn, dans la scène, du centre (PS) du repère (27). les coordonnées X,s,n, Y,scn et Z1Scn, dans la scène, des 3 vecteurs de base du repère (27), donnant les directions caractéristiques de la base 30 commune. The device mixes nxm images extended for example over its entire useful surface of dimensions L (width, Figure 5) and H (height, Figure 5). Each of these images # i = (il, i2) E {1 ... n} x {1 ... m} is supposed to be visible correctly (without too much mixing with the others) at least since the chosen preferential position ( Oi) (FIG. 5) positioned on one of the straight lines (LOi2) of alignment of the chosen observation positions, parallel to the lines of the device and are each dedicated to an observer with predefined characteristics (binocular deviation and gaze height) which can then move to change the angle of view of the restored scene. This alignment straight line (LOi 2), and therefore the observation position (0), is located at a distance die from the useful area of the device which can be defined according to the chosen restitution device, so as to ensure that a user of binocular deviation bit (Figure 5), with a line of eyes parallel to the lines of the device, having his right eye in (Oi) (Figure 5) which would perceive the image No. i, 1s would have his eye left in (Og ;, figure 5) with gi = i- (gi2,0) which would thus perceive the image n ° gi. Thus, for each line (LOi2), two attributes or interdependent parameters are defined: bit the binocular distance chosen for this position (often the bits will all be identical to the average human binocular distance 65 mm, but it is conceivable to choose different differences according to the expected public: children, ...) and qi2 the difference in image numbers composing visible coherent stereoscopic pairs with binocular deviation bi2 from the preferential positions of the straight line (LOi2) of alignment of the positions of 'observation. According to a characteristic of the multiscopic devices, it is possible, from a position (Oi) (FIG. 5), to continue to perceive relief by shifting vertically (parallel to the columns of the useful zone of the device) more or less depending on whether device proposes or not a vertical distribution of images (m> 1 or m = 1). Thus, spectators of various sizes can use the device at the cost of a possible deformation 3o in shear of the relief they perceive (see below). The viewing conditions are thus defined for a given user size common to a whole chain of observation positions, or rather for a given dipping which represents the vertical difference (parallel to the columns of the device) of positioning the eyes of the eyes. observers on this chain in relation to the center (Ce) of the useful zone. When the observer (and therefore the actual embedding) is not known a priori, we are satisfied with a mean plunge pi2m (corresponding to an observer of average size to be defined). The analysis of the characteristics of the restitution geometry is based on an overall reference defined with respect to the restitution device, for example in its center, (Ce, x, y, z = x ^ y) such that, as shown in FIG. In FIG. 5: - x is parallel to the lines of the reproduction device and oriented to their right in FIG. 5, - is parallel to the columns of the reproduction device and oriented downwards in FIG. 5, of the system (1) for generating the configuration (25), the data representative of the reproduction parameters (21), in particular defining the characteristics of the multiscopic reproduction device, coming from the memory and / or communication means (12) and comprising for example, a storage means 20 specific for these data, comprise and / or allow to deduce at least, and if necessary, the aforementioned restitution parameters L, H, die, pie (or pi2m), oi which represents ntent: • the dimensions, width L and height H, of the chosen useful area rectangle of the device (display, projection or printing of the mixed images), • the precise location of the lines (LO12) of alignment of the positions in the global reference frame of restitution (Ce, x, y, z), based on their distance die to the device and their dipping or vertical shift pie with respect to Ce. • the precise location of the observation positions chosen or imposed on their right (LOi2) (for example offset or lateral ù along the lines of the device ù relative to the center of the device) • stereoscopic settings of each chain of positions (LOi2): index difference qi2 of the images of the chain provided for left and right eyes and binocular deviation bit provided for this stereoscopic relationship, Note that the observation positions are often regularly spaced on the lines (LOi2). In this case, the lateral offsets oi of the observation positions on one of these lines are collectively defined by only one of these data and the characteristics associated with this line: oi = o (l, i2) + bi2 (i1-1) / Qi2. Thus, it is possible to have reduced sets of parameters which make it possible, in these particular configurations, to calculate the missing parameters. The user interface (13) (or human / machine interface, such as for example at least one screen and means of input and / or interaction) allows, in cooperation with the configuration module (22), the interactive management (inputting, consulting, selecting, editing, saving) these stored parameters (21) stored, among others. It should be noted that for parameters relating to rendering devices, this data may be updated in the system according to the evolution of the known devices. According to another embodiment of the generation system, a recognition module allows the automatic recognition of a rendering device connected to the system, then the selection in a list of known devices of all or part of its restitution parameters so that the configuration module (22) uses the parameters of the detected and recognized device, for example to (re) initialize their content and present them interactively to the operator via the interface. FIG. 3 shows a representation in perspective of the capture geometry of the images making it possible to define the configuration of the capture zone No. i (for example the zone ZC, represented in FIG. 2) and exposes, by way of example, all or part of a set of parameters to completely characterize this capture geometry (for the purposes of this invention). Figures 4A and 4B show representations, respectively, front and top, of this capture geometry. The definition of the capture geometry is based on the global capture frame (27, Fig. 2 and 3), for example, positioned at the point (PS) of desired convergence and oriented so that the first 2 basic vectors are parallel to the main directions of the common base centered in (PS) and therefore to the main directions of the catchment areas (ZC). Illustratively and in no way limiting, the first base vector is here chosen parallel to the lines of the capture zones and the second is parallel to the columns of these zones. The data representative of the parameters relating to this marker (27) come for example from means (12) for storing and / or communicating, for example comprising a specific memory means for these data, and / or come from the interface (13). ) user (parameters entered, or selected from a stored plurality, by the operator to define a position in the scene). This reference (27) makes it possible to define the position and the orientation of all the projection pyramids representative of the capture zones, specifying in particular the observation direction Z and the straight line or lines (LC12) of alignment of the optical centers: R = (PS, X, Y, Z = X "Y) .These parameters defining the pickup mark (27) may thus comprise: the coordinates PS1Scn, in the scene, of the center (PS) of the mark (27) the coordinates X, s, n, Y, scn and Z1Scn, in the scene, of the 3 basic vectors of the marker (27), giving the characteristic directions of the common base.
Plus précisément, les nxm pyramides de captation représentatives d'un dispositif (ou système) virtuel de captation (ou prise de vues) qui respecte les principes précédemment énoncés pour résoudre le problème P1, sont spécifiées par : • des axes optiques (AOi, fig. 2) parallèles de direction Z, • des centres optiques (Ci), alignés sur une ou plusieurs droites (LCi2) parallèles aux lignes de la base commune et donc de direction X, • des zones de captation (ZCi) rectangulaires : - orthogonales à z, donc parallèles entre elles, à la base commune lo (BC) et aux droites (LCi2) d'alignement des centres optiques ; éventuellement coplanaires ; - placées à une distance fi du centre optique (Ci), voire à une distance fie commune à toutes les zones associées aux centres optiques alignés sur (LCi2), ou encore à une distance f commune à 15 toutes les zones ; - de taille physique précisée, par exemple li et hi, ou de taille physique identique par lots (1i2, hie) ou globalement (I, h) selon les choix opérés ci-dessus pour les distances entre zone de captation et centre optique; 20 - décentrées par rapport à leur axe optique respectif (AOi, fig. 2) en des points Ii de sorte que les droites (I;Ci,, fig. 2) qui définissent les axes de visée (AVi) passent toutes par le point de convergence fixé PS. On notera que les zones de captation (ZCi) sont parallèles à la base 25 commune (BC). Les capteurs virtuels qu'elles définissent ont donc un axe de capture perpendiculaire à la base commune (BC) mais les pyramides de projection ont des axes de visée (AVi) (ou axes principaux) convergent vers le point PS. Contrôle de la configuration de captation 30 En plus des données représentatives des paramètres (21) de restitution, le module (22) de configuration utilise, pour générer ladite configuration (25), les données représentatives du repère global (27) qui représentent le(s) choix de l'opérateur du système en termes de position(s) et orientation(s) d'observation de la scène. Pour représenter les choix de l'opérateur en termes de captation et les traduire en une configuration opérationnelle (25), le module s (22) de configuration utilise, en sus de ces paramètres (21) et (27), les données (23) représentatives d'au moins un paramètre de configuration. Selon la nature des paramètres de configuration utilisés, ce module (22) est décliné selon plusieurs modalités qui laissent plus ou moins de liberté à l'opérateur. More precisely, the nxm capture pyramids representative of a virtual capture device (or system) that respects the principles previously stated to solve the problem P1, are specified by: • optical axes (AOi, fig 2) Z-directional parallels, • optical centers (Ci), aligned on one or more lines (LCi2) parallel to the lines of the common base and therefore of direction X, • rectangular capture zones (ZCi): orthogonal at z, therefore parallel to each other, at the common base lo (BC) and at the lines (LCi2) of alignment of the optical centers; possibly coplanar; placed at a distance fi from the optical center (Ci), or even at a distance common to all the zones associated with the optical centers aligned on (LCi2), or at a distance f common to all the zones; - Of specified physical size, for example li and hi, or of identical physical size in batches (1i2, hie) or globally (I, h) according to the choices made above for the distances between capture area and optical center; 20 - decentred with respect to their respective optical axis (AOi, Fig. 2) at points Ii so that the lines (I; Ci ,, Fig. 2) which define the viewing axes (AVi) all pass through the point of fixed convergence PS. It will be noted that the capture zones (ZCi) are parallel to the common base (BC). The virtual sensors that they define therefore have a capture axis perpendicular to the common base (BC) but the projection pyramids have sighting axes (AVi) (or main axes) converging towards the point PS. In addition to the data representative of the reproduction parameters (21), the configuration module (22) uses, to generate said configuration (25), the data representative of the global reference (27) representing the ( s) choice of the operator of the system in terms of position (s) and orientation (s) of observation of the scene. To represent the choices of the operator in terms of capture and translate them into an operational configuration (25), the configuration module s (22) uses, in addition to these parameters (21) and (27), the data (23). ) representative of at least one configuration parameter. Depending on the nature of the configuration parameters used, this module (22) is declined in several ways that leave more or less freedom to the operator.
lo Modalités contraintes Dans certains modes de réalisation, dits à effet relief parfait , les données (23) représentatives d'au moins un paramètre de configuration comportent des données (23d) représentatives d'un paramètre définissant un relief restitué sans a ucune déformation par rapport au relief de la scène 15 captée. Dans certains modes de réalisation, ce paramètre sera utilisé suite à la sélection d'un choix de l'utilisateur sur l'interface (13) qui souhaite avoir un rendu de la scène sans aucune déformation. Dans d'autres modes de réalisation, ce paramètre est en fait implicite car le système est préconfiguré pour générer seulement les données de la configuration (25) pour un relief 20 parfait et le module (22) n'utilise en fait que les paramètres (27) et (21), sans nécessiter de paramètre (23) indiquant le relief parfait puisque c'est la seule modalité envisagée. Dans ce cas du relief parfait, les paramètres (25i) peuvent être calculés comme suit (avec les jeux de paramètres choisis comme exemple) : 25 fi peut être imposé ou choisi de façon arbitraire b'iE{1...n}x{1...m} Izi=L fi/di2 hzi=H fi/di2 dXi=oi fi/di2 dYi= pi2 fi/di2 dZi=fi Xi/scn= X/scn Yi/scn= Y/scn pXi=oi PYi= Pi2 PZi= di2 30 soit Ci/scn= PS/scn+ oi•X/scn-Pi2•Y/scn-di2•Z/scn De plus, comme mentionné ci-dessus, les distances f peuvent être choisies égales par lots ou globalement. Le jeu de paramètres (25i) est alors calculé à partir de la ou des valeurs communes fi2 ou f des distances f, et montre que les zones de captation ont les mêmes dimensions par lots ou globalement : fi2 imposé ou choisi de façon arbitraire, di2{{1...n} Izi=L f2/di2 hzi=H fie/di2 dXi=oi fi2/di2 dYi= Pi2 fi2/di2 dZi=fi2 Xi/scn= X/scn , Yi/scn= Y/scn pXi=oi pYi= Pi2 pZi= di2 soit Ci/scn= PS/scn+ oi•X/scn-pi2.Y/scn-di2•Z/scn f imposé ou choisi de façon arbitraire Izi=L f/di2 hzi=H f/di2 dXi=oi f/di2 dYi= Pi2 f/di2 dZi=f Xi/scn= X/scn , Yi/scn= Y/scn pXi=oi 01.= Pi2 PZi= di2 soit Ci/scn= PS/scn+ Oi•X/scn-Pi2•Y/scn-d • Z/scn Dans ce cas du relief parfait avec des zones de captations de dimensions identiques (rapport fi/di2 constant), l'homme de métier comprendra qu'avec les données représentatives des paramètres (21) de restitution (L, H, di2, pi2 et oi) et les données représentatives du repère (27) de captation (PS/scn, X/scn, Y/scn et Z/scn), il suffit de fixer un seul paramètre (23) de configuration (distance commune f, une des distances fi ou fi2, une des valeurs commune de dimensions des zones de captation Izi, hzi, un des décalages xi ou yi). Les autres paramètres peuvent en effet en être aisément déduits d'après les équations ci-dessus. Le module de configuration (22), dans les modes de réalisation dédiés au relief parfait, peut donc utiliser, comme seul paramètre (23) de configuration, la distance f ou plusieurs distances fi ou fi2, qui peu(ven)t être choisie(s) par l'opérateur via l'interface (13) ou imposée de façon arbitraire, par exemple en provenant des moyens (12) de mémorisation et/ou de communication interne ou externe. Le module (22) génère donc bien la configuration (25) à partir des paramètres (21) de restitution, des données définissant le repère (27) de captation et de données représentatives d'au moins un paramètre (23) de configuration définissant une déformation souhaitée pour l'effet relief et/ou une géométrie de captation, mais le seul paramètre (23) de configuration réellement utilisé peut en fait n'être qu'un paramètre implicite définissant l'absence de déformation souhaitée. Dans le cas d'un système ne prévoyant que cette modalité de relief parfait, on comprend donc que les paramètres de configuration en tant que tels pourront ~o être omis et que seul un paramètre implicite imposera l'utilisation d'équations permettant une mise en relation des données représentatives des paramètres (21) de restitution et du repère global (27) équivalente à la relation définie par les équations ci-dessus. Certains modes de réalisation de l'invention concernent donc un 15 système (1) de génération d'une configuration (25) de captation d'une pluralité de nxm images d'une scène virtuelle, ces nxm images étant destinées à une restitution sur au moins un dispositif de restitution multiscopique, la captation étant réalisée par la projection de la scène sur une pluralité de nxm zones de captation (ZC;) associées c hacune à un 20 centre optique (Ci), définissant un dispositif virtuel de captation, le système comportant des moyens (11) de traitement de données et des moyens (12) de mémorisation et/ou de communication interne ou externe et/ou une interface (13) utilisateur, caractérisé en ce que les moyens (11) de traitement exécutent un module (22) de configuration générant des données définissant 25 ladite configuration (25), permettant une restitution avec un effet relief parfait (sans déformation), et représentatives des positionnements, par rapport à la scène, des nxm centres optiques (C;) et des dimensions et positionnements, par rapport à la scène, des nxm zones de captation (ZC;) qui leurs sont associées, par la mise en relation d'au moins les données suivantes, 30 provenant des moyens (12) de mémorisation et/ou de communication interne ou externe et/ou de l'interface (13) utilisateur : - des données représentatives du positionnement, de l'orientation et de l'éventuelle conformation dans la scène d'au moins un repère (27) global de captation représentant le(s) choix de l'opérateur du système en terme de position(s) et orientations d'observation de la scène, s - des données représentatives de paramètres (21) de restitution, définissant ou permettant de déduire au moins les dimensions d'une zone utile choisie du dispositif de restitution et les positions d'observation privilégiées choisies pour le dispositif de restitution, lo la captation étant réalisée par la projection de la scène sur les nxm zones de captation (ZCi), au travers de nxm faisceaux optiques pyramidaux de captation appuyés sur une base rectangulaire (BC) commune aux nxm faisceaux optiques et disposée dans la scène à capter, les nxm faisceaux passant chacun par l'un des nxm centres optiques (Ci) alignés, par lots, sur ls une ou plusieurs droite(s), dites droites (LCi2) d'alignement des centres, parallèle(s) à l'une des directions principales de cette base commune (BC), les zones de captation (ZCi) correspondant à l'intersection de ces faisceaux optiques avec au moins un plan parallèle à cette base commune (BC), les axes de visée (AVi) ou axes principaux des nxm faisceaux 20 optiques, passant par leur centre optique (Ci), convergeant tous vers le centre (PS) de la base commune (BC). Selon les choix opérés pour les distances entre zone de captation et centre optique et avec les jeux de paramètres choisis comme exemple, ce système de génération de configuration destinée à une restitution avec un 25 relief parfait impose une mise en relation (par le module (22) de configuration) des données représentatives du repère (27) avec les données représentatives des paramètres de restitution (21) selon les équations détaillées ci-dessus dans la modalité contraintes . Ce module de configuration pourra donc par exemple utiliser un paramètre (23) de 3o configuration (par exemple implicite) définissant un effet relief sans déformation, tel que le paramètre (23d) implicite mentionné précédemment ou simplement utiliser les relations correspondant, ou équivalentes, aux équations détaillées ci-dessus dans la modalité contraintes , sans nécessiter réellement un tel paramètre (notamment si le relief parfait est la seule fonctionnalité envisagée). On notera que cette modalité sans déformation correspond à une restitution relief sans déformation et à l'échelle 1. II est possible de prendre en compte une restitution sans déformation avec un facteur de grossissement global différent de 1 qui pourra être choisi par l'opérateur. Cette possibilité est fournie par les modalités relief contrôlé ci-dessous décrites. i0 Modalités relief contrôlé Dans certains modes de réalisation, l'opérateur est plus libre de ses réglages et les données représentatives d'au moins un paramètre (23) de configuration comportent des données représentatives d'au moins un 15 ensemble de paramètres parmi les ensembles de paramètres suivants : • ensemble (23a) de paramètres internes de captation définissant la géométrie de captation directement par au moins les positions, vis à vis d'un repère propre au dispositif virtuel de captation, des centres optiques (Ci) et les positions des zones de captation (ZCi) sur lesquelles 20 la scène sera projetée pour former les nxm images, • ensemble (23b) d e paramètres externes de captation définissant la géométrie de captation à partir du point de convergence (PS) par au moins : les dimensions de la base commune (BC) centrée sur le point (PS) de convergence ; le positionnement précis de la ou des droites 25 (LCi2) d'alignement des centres, relativement à la base commune ; le positionnement précis des centres optiques (Ci) sur ces droites (LCi2) d'alignement ; et enfin la position précise des plans de captation parallèles à la base commune qui définissent les zones de captation (ZCi) comme leur intersection avec les faisceaux de projection. 30 • ensemble (23c) de paramètres de déformation définissant les déformations envisageables pour la restitution en relief de la scène. Constrained modalities In some embodiments, said perfect relief effect, the data (23) representative of at least one configuration parameter comprise data (23d) representative of a parameter defining a relief rendered without any deformation with respect to the relief of the scene 15 captured. In some embodiments, this parameter will be used following the selection of a user's choice on the interface (13) that wishes to have a rendering of the scene without any deformation. In other embodiments, this parameter is actually implicit because the system is preconfigured to generate only the configuration data (25) for a perfect relief and the module (22) actually uses only the parameters ( 27) and (21), without requiring parameter (23) indicating the perfect relief since it is the only modality envisaged. In this case of the perfect relief, the parameters (25i) can be calculated as follows (with the sets of parameters chosen as an example): 25 fi can be imposed or arbitrarily chosen b'iE {1 ... n} x { 1 ... m} Izi = Lf / di2 hzi = H fi / di2 dXi = oi fi / di2 dYi = pi2 fi / di2 dZi = fi Xi / scn = X / scn Yi / scn = Y / scn pXi = oi PYi = Pi2 PZi = di2 = Ci / scn = PS / scn + oi • X / scn-Pi2 • Y / scn-di2 • Z / scn Moreover, as mentioned above, the distances f can be chosen equal in batches or globally. The set of parameters (25i) is then calculated from the common value (s) fi2 or f of the distances f, and shows that the capture zones have the same dimensions in batches or globally: fi2 imposed or arbitrarily chosen, di2 {{1 ... n} Izi = L f2 / di2 hzi = H fie / di2 dXi = oi fi2 / di2 dYi = Pi2 fi2 / di2 dZi = fi2 Xi / scn = X / scn, Yi / scn = Y / scn pXi = oi pYi = Pi2 pZi = di2 is Ci / scn = PS / scn + oi • X / scn-pi2.Y / scn-di2 • Z / scn f imposed or arbitrarily chosen Izi = L f / di2 hzi = H f / di2 dXi = oi f / di2 dYi = Pi2 f / di2 dZi = f Xi / scn = X / scn, Yi / scn = Y / scn pXi = oi 01. = Pi2 PZi = di2 is Ci / scn = PS / In this case of the perfect relief with capture zones of identical dimensions (constant ratio fi / di2), the skilled person will understand that with the data representative of the parameters (21) of restitution (L, H, di2, pi2 and oi) and the data representative of the reference (27) of capture (PS / scn, X / scn, Y / scn and Z / scn), it just set a s eul parameter (23) of configuration (common distance f, one of the distances fi or fi2, one of the common values of dimensions of the capture zones Izi, hzi, one of the offsets xi or yi). The other parameters can indeed be easily deduced from the equations above. The configuration module (22), in the embodiments dedicated to the perfect relief, can therefore use, as sole parameter (23) of configuration, the distance f or several distances fi or fi2, which can be chosen ( s) by the operator via the interface (13) or imposed arbitrarily, for example from the means (12) of storage and / or internal or external communication. The module (22) thus generates the configuration (25) from the reproduction parameters (21), the data defining the pickup mark (27) and data representative of at least one configuration parameter (23) defining a desired deformation for the relief effect and / or capture geometry, but the only configuration parameter (23) actually used may in fact be only an implicit parameter defining the absence of desired deformation. In the case of a system providing only this perfect relief modality, it is therefore understandable that the configuration parameters as such can be omitted and that only an implicit parameter will require the use of equations allowing a set relationship of the data representative of the restitution parameters (21) and the global coordinate system (27) equivalent to the relation defined by the equations above. Some embodiments of the invention therefore relate to a system (1) for generating a configuration (25) for capturing a plurality of nxm images of a virtual scene, these nxm images being intended for restitution on a least one multiscopic reproduction device, the capture being carried out by the projection of the scene on a plurality of nxm capture areas (ZC;) associated c hacune to an optical center (Ci), defining a virtual capture device, the system comprising data processing means (11) and means (12) for storage and / or internal or external communication and / or a user interface (13), characterized in that the processing means (11) execute a module (22) configuration generating data defining said configuration (25), allowing restitution with a perfect relief effect (without deformation), and representative of the positions, with respect to the scene, nxm optical centers (C;) and dimensions and positions, with respect to the scene, nxm capture areas (ZC;) associated with them, by linking at least the following data, 30 from means (12) for storing and / or communicating internally or externally and / or for the user interface (13): data representative of the positioning, the orientation and the possible conformation in the scene of at least a global capture mark (27) representing the choice (s) of the operator of the system in terms of position (s) and viewing orientations of the scene, s - representative data of restitution parameters (21), defining or allowing to deduce at least the dimensions of a chosen useful area of the playback device and the preferred viewing positions chosen for the playback device, where the recording is made by projecting the scene onto the nxm recording areas ( ZCi), through nxm pyramidal optical pickup beams supported on a rectangular base (BC) common to the nxm optical beams and arranged in the scene to be captured, the nxm beams each passing through one of the nxm optical centers (Ci) aligned , in batches, on one or more line (s), called straight lines (LCi2) of alignment of the centers, parallel (s) to one of the main directions of this common base (BC), the capture zones (ZCi ) corresponding to the intersection of these optical beams with at least one plane parallel to this common base (BC), the axes of sight (AVi) or main axes of the nxm optical beams, passing through their optical center (Ci), converging all towards the center (PS) of the common base (BC). Depending on the choices made for the distances between the capture zone and the optical center and with the sets of parameters chosen as an example, this configuration generation system intended for restitution with a perfect relief imposes a connection (by the module (22)). ) of the data representative of the marker (27) with the data representative of the reproduction parameters (21) according to the equations detailed above in the constraints mode. This configuration module may therefore for example use a configuration parameter (23) of configuration (for example implicit) defining a deformation-free relief effect, such as the aforementioned implicit parameter (23d), or simply using the corresponding or equivalent relations to equations detailed above in the constraints modality, without actually requiring such a parameter (especially if the perfect relief is the only functionality envisaged). Note that this modality without deformation corresponds to a relief relief without deformation and scale 1. It is possible to take into account a restitution without deformation with a global magnification factor different from 1 that can be chosen by the operator. This possibility is provided by the controlled relief modalities described below. Controlled relief modalities In some embodiments, the operator is freer of his settings and data representative of at least one configuration parameter (23) includes data representative of at least one set of parameters among the sets. of the following parameters: • set (23a) of internal capture parameters defining the capture geometry directly by at least the positions, with respect to a reference specific to the virtual capture device, the optical centers (Ci) and the positions of the capture areas (ZCi) on which the scene will be projected to form the nxm images; • set (23b) of external capture parameters defining the capture geometry from the convergence point (PS) by at least: the dimensions of the common base (BC) centered on the convergence point (PS); the precise positioning of the straight line (s) (LCi2) of alignment of the centers relative to the common base; the precise positioning of the optical centers (Ci) on these lines (LCi2) of alignment; and finally the precise position of the capture planes parallel to the common base that define the capture zones (ZCi) as their intersection with the projection beams. • set (23c) of deformation parameters defining the possible deformations for the relief rendering of the scene.
La figure 3 présente la géométrie de captation et fait apparaître, à titre d'exemple, deux jeux de paramètres dont l'un est dit interne et l'autre externe. La présente invention, grâce à ces divers ensembles (23a, 23b, 23c) de paramètres, permet à l'utilisateur, dans divers modes de réalisation du module (22) de configuration du système, permettant les fonctionnalités et modalités décrites ici, de choisir des valeurs pour les paramètres (23a) internes de captation et/ou des valeurs pour les paramètres (23b) externes de captation et/ou des valeurs pour les paramètres (23c) de déformation. On comprendra de l'analyse faite ci-après que certains des paramètres de ces ensembles io permettent de déduire d'autres paramètres du même ensemble ou d'un autre ensemble. L'invention permet donc en fait diverses combinaisons des modes de réalisation décrits ci-après, à moins que ces modes de réalisation ne soient incompatibles ou que cela ne soit expressément mentionné. Figure 3 shows the capture geometry and shows, by way of example, two sets of parameters, one of which is called internal and the other external. The present invention, by virtue of these various sets (23a, 23b, 23c) of parameters, allows the user, in various embodiments of the system configuration module (22), allowing the features and modalities described herein, to select values for the internal capture parameters (23a) and / or values for the external capture parameters (23b) and / or values for the deformation parameters (23c). It will be understood from the following analysis that some of the parameters of these sets can be used to deduce other parameters of the same set or of another set. The invention therefore allows in fact various combinations of the embodiments described below, unless these embodiments are incompatible or that it is expressly mentioned.
15 Grâce aux analyses des géométries de restitution et captation faites ci-dessus, il est possible de relier les coordonnées (X,Y,Z) dans le repère (27) des points U (en 3D) de la scène virtuelle captée par les caméras virtuelles précédemment définies avec les coordonnées (xi,yi,zi) dans le repère (Ce,x,y,z) de leurs homologues perçus par un observateur du dispositif de 20 restitution, placé dans en une position préférentielle (oeil droit en O;) précédemment définie lorsque le dispositif exploite conformément à ses prescriptions des images générées par une utilisation de la configuration conformément à l'invention, telle que décrite ci-après. Cette relation entre les coordonnées 3D des points de la scène et celles 25 de leurs images restituées par le dispositif pour cette position est caractérisée par exemple par l'expression en coordonnées homogène : Pi Yi 0 PiPi bi 0 1 0 0 0 k;(c; -1)/d ; E; a x; Y k; z; 1 X Y Z 1 qui fait apparaître, en sus de a, résidu de calcul sans autre importance, les paramètres de déformation (23c) qui la caractérisent collectivement. Des matrices homogènes permettent ainsi de définir les transformations entre l'espace initial de la scène et l'espace de restitution pour chaque position d'observation privilégiée n°i. Les paramètres de déformation (23c) peuvent être identifiés individuellement de multiples façons et notamment, par exemple, comme : • un (ou des) facteur(s) k; de grossissement global et notamment en to profondeur, • un (ou des) paramètres Ei de contrôle de la déformation non linéaire potentielle (qui transforme un cube en tronc de pyramide), • un (ou des) taux p; de grossissement relatif de la largeur par rapport à la profondeur ou facteur d'anamorphose horizontal/profondeur souhaité, 15 • un (ou des) taux pi de grossissement relatif de la hauteur par rapport à la largeur ou facteur d'anamorphose vertical/horizontal souhaité, • un (ou des) taux yi de cisaillement horizontal du relief perçu, • un (ou des) taux ô; de cisaillement vertical du relief perçu par un observateur de plongement conforme à celui attendu. 20 Les paramètres de restitution (21), de captation (internes 23a ou externe 23b) et de déformation (23c) ci-dessus sont liés par un jeu d'équations qui découle de la comparaison entre les coordonnées (X,Y,Z) des points (U) de la scène virtuelle 3D et celles (xi,y;,zi) de leurs homologues perçus par un observateur du dispositif de restitution. 25 Ces équations découlant de cette comparaison permettent plusieurs modalités ou variantes du module (22) de configuration qui peut par exemple et si nécessaire ou utile : • calculer les paramètres (23b) externes et/ou (23a) internes de captation 3o en fonction des paramètres (21) de restitution et des paramètres (23c) de déformation désirés, ce qui permet au système d'assurer que la déformation désirée sera obtenue effectivement à la restitution en relief de la scène virtuelle. Les équations alors utilisées sont délivrées ci-après dans la modalité concernée contrôle de déformation . • calculer les paramètres (23c) de déformation induits par les choix techniques (paramètres de captation (23b) externes et/ou (23a) internes et de restitution (21)), ce qui permet au système de quantifier précisément les déformations perceptibles et de les présenter textuellement ou schématiquement à l'opérateur pour le guider dans ses choix. Les équations alors utilisées sont délivrées ci-après dans les to modalités concernées réglage interne et réglage externe . Thanks to the analyzes of the reproduction and capture geometries made above, it is possible to connect the coordinates (X, Y, Z) in the coordinate system (27) of the U points (in 3D) of the virtual scene captured by the cameras. virtual vectors previously defined with the coordinates (xi, yi, zi) in the coordinate system (Ce, x, y, z) of their homologues perceived by an observer of the rendering device, placed in a preferential position (right eye in O; ) previously defined when the device operates in accordance with its prescriptions images generated by use of the configuration according to the invention, as described below. This relation between the 3D coordinates of the points of the scene and those of their images rendered by the device for this position is characterized for example by the homogeneous coordinate expression: Pi Yi 0 PiPi bi 0 1 0 0 0 k; -1) / d; E; a x; Y k; z; 1 X Y Z 1 which shows, in addition to a, calculation residue without any other importance, the deformation parameters (23c) which characterize it collectively. Homogeneous matrices thus make it possible to define the transformations between the initial space of the scene and the restitution space for each privileged position of observation n ° i. The deformation parameters (23c) can be individually identified in multiple ways, including, for example, as: • one (or more) factor (s) k; global magnification and particularly in depth, • one (or) parameters Ei control potential nonlinear deformation (which transforms a cube truncated pyramid), • one (or) rate p; relative magnification of width versus depth or desired horizontal anamorphosis / depth factor, • one or more relative magnification levels relative to the desired vertical / horizontal anamorphosis width or factor. • a rate (s) yi of horizontal shear of the perceived relief, • a (or) rate o; vertical shearing of the relief perceived by a plunging observer in accordance with that expected. The parameters of restitution (21), capture (internal 23a or external 23b) and deformation (23c) above are linked by a set of equations which results from the comparison between the coordinates (X, Y, Z). points (U) of the 3D virtual scene and those (xi, y;, zi) of their counterparts perceived by an observer of the rendering device. These equations resulting from this comparison allow several modalities or variants of the configuration module (22) which can for example and if necessary or useful: • calculate the external parameters (23b) and / or (23a) internal capture 30 as a function of the restitution parameters (21) and desired deformation parameters (23c), which enables the system to ensure that the desired deformation will actually be achieved at the relief rendering of the virtual scene. The equations then used are delivered hereinafter in the modality concerned control deformation. • calculate the parameters (23c) of deformation induced by the technical choices (parameters capture (23b) external and / or (23a) internal and restitution (21)), which allows the system to quantify precisely the perceptible deformations and present them textually or schematically to the operator to guide him in his choices. The equations then used are delivered hereinafter in the relevant modes of internal adjustment and external adjustment.
En sus du facteur de grossissement global k; qui n'est pas à proprement parler de nature à déformer la scène, la transformation du relief comporte donc quatre possibilités indépendantes de déformation : 15 1. une non linéarité globale qui se traduit par une déformation du volume restitué en tronc de pyramide lorsque s;≠1, 2. un glissement ou cisaillement horizontal du volume restitué en fonction de la profondeur lorsque y;≠0, 3. un glissement ou cisaillement vertical du volume restitué en 20 fonction de la profondeur lorsque b;≠0 et/ou lorsque le plongement réel de l'observateur est différent du plongement optimal, 4. une anamorphose produisant des dilatations inégales des 3 axes lorsque f.1; ≠1 et/ou p; #1. In addition to the global magnification factor k; which is not strictly speaking of a nature to distort the scene, the transformation of the relief therefore comprises four independent possibilities of deformation: 1. a global non-linearity which results in a deformation of the volume restored as a truncated pyramid when s; ≠ 1, 2. a horizontal slip or shear of the volume returned as a function of the depth when y; ≠ 0, 3. a vertical slip or shear of the volume restored as a function of depth when b; ≠ 0 and / or when the the actual embedding of the observer is different from the optimal embedding, 4. anamorphosis producing unequal dilatations of the 3 axes when f.1; ≠ 1 and / or p; # 1.
25 Ainsi pour permettre une restitution d'images à déformation maîtrisée comme sans déformation, il est nécessaire, dans certaines modalités, que la capture des images, la configuration du dispositif de restitution (zone utilisée) et les conditions d'utilisations (positions privilégiées) soient définies conjointement en fonction des paramètres de déformation souhaités. 30 Pour permettre une restitution fidèle du relief (au grossissement k; près), il convient notamment, une fois les conditions de restitution choisies, de configurer la prise de vues (géométrie de capture virtuelle) de façon à résorber ces 4 déformations potentielles. Cela est obtenu par le module (22, figure 1) de configuration en s'assurant directement ou indirectement selon les modalités retenues que les paramètres de déformation vérifient s;=1, y;=0, p;=1, p;=1 et enfin b;=0. Cette dernière condition b;=0 est plus délicate car elle dépend de la taille de l'observateur qui agit inévitablement sur son plongement effectif vis-à-vis du dispositif. Elle ne peut alors être assurée que pour des observateurs ayant le plongement défini dans les paramètres (21) de restitution pour cette position d'observation. Par contre, pour obtenir une déformation contrôlée du relief restitué, il convient de configurer la prise de vues (géométrie de captation de la scène virtuelle) de façon à obtenir le paramétrage désiré de chacune des 4 déformations potentielles. Cela est obtenu par le module (22) de configuration ts qui permettent le réglage direct ou indirect selon les modalités retenues des paramètres de déformation c (et donc k;(E; -1)/d ; ), y;, p;, p; et enfin b;. Là encore, le glissement vertical choisi b; ne peut être assuré que pour des observateurs ayant le plongement défini dans les paramètres (21) de restitution pour cette position d'observation. 20 Modalité réglage interne Dans certains modes de réalisation, le module (22) de configuration utilise des données représentatives d'au moins un paramètre (23) de configuration qui comportent des données représentatives des paramètres 25 internes (23a) de géométrie de captation suivants : - au moins un paramètre définissant les positionnements des centres optiques (C;) vis-à-vis d'un repère propre au dispositif virtuel de captation, - au moins un paramètre définissant l'orientation de l'axe de visée (AV;) 30 de chaque capteur virtuel, - au moins un paramètre définissant la géométrie de la pyramide de projection effective de chaque zone de captation (ZCi). Ce repère propre au dispositif virtuel de captation peut être quelconque, mais doit permettre l'identification précise de la position du point de référence de la captation autour ou en référence duquel sont positionnés les centres optiques et les zones de captation (la convergence n'étant pas assurée intrinsèquement dans cette modalité, ce point ne peut pas toujours être qualifié de point de convergence), de la direction de captation Z orthogonale aux zones de captation comme de l'orientation commune X to perpendiculaire à z des lignes de toutes ces zones de captation. Il peut par exemple, être centré sur le point de référence, avec ses 3ème et 1er axes orientés respectivement selon Z et X définis ci-dessus relativement à l'orientation de captation désirée. Les centres optiques (Ci) sont par exemple, choisis alignés par lots sur is une ou plusieurs droites (LCi2) d'alignement parallèles aux lignes des zones de captation, soit de direction commune (X). Ainsi, chaque point Ci d'indice i=(il,i2) est positionné sur la droite LCi2 d'alignement dont l'indice est identique à son second indice i2 et chacune de ces droites LCi2 d'alignement porte tous les points Ci i=(il,i2), de second indice identique au leur. Cela s'exprime par 20 (C(il,i2>)e(LCi2) V(il,i2)E{1...n} x{1...m}. Le positionnement des points Ci i=(il,i2) est donc prescrit par celui de ces droites (LCi2) d'alignement qui sont, par exemple, définies par leur distance Di2 selon Z au point de référence et leur plongement Pi2 (décalage selon Y, produit vectoriel de Z et X, vis-à-vis du point de référence). De façon alternative et équivalente, il peut être exprimé en 25 polaire dans le plan (YZ) passant par le point de référence par un angle de zénith et la distance euclidienne à ce point ou, encore par le zénith et l'une des 2 distances précédentes Die ou Pie. Ces positionnements de chaque centre optique (Ci) sur la droite (LCi2) d'alignement qui le porte, peuvent par exemple être exprimés par leurs 30 abscisses ci sur cette droite (selon X) avec une origine par exemple dans le plan (YZ) passant par le point de référence, ou, en polaire dans le plan (XZ) par les angles d'azimut (angles du plan XY ou du plan YZ avec chacun des plans parallèle à y passant par le point de référence et chaque centre optique), ou encore, comme détaillé ci-après, pour des optiques régulièrement espacées, au moins, par ligne (LCi2), une abscisse d'un centre optique et un s écart constant Bit/q i2 entre ces centres optiques. Cette orientation de l'axe de visée (AVi) (ou axe principal ) de chaque pyramide de projection peut, par exemple, être exprimée en angles d'azimut et de zénith de visée ou par des distances relatives caractéristiques représentées sur les figures 3, 4A et 4B : ~o - le décalage a; (selon X), à la distance f (ou fi2 ou fi), du centre (I) de la zone de captation (ZCi) par rapport à l'axe optique (AOi) du centre optique (Ci) qui lui est associé, - le décalage e; (selon Y), à la distance f, fie ou fi, des centres (Ii) des zones de captation (ZCi) par rapport à l'axe optique (AOi) (ou à la ligne 15 (LCi2) des centres optiques (Ci). Cette géométrie de la pyramide de projection effective de chaque zone de captation (ZCi) peut par exemple être exprimée par au moins un paramètre définissant les ouvertures de la pyramide de projection effective de chaque zone de captation. Par exemple, ces ouvertures peuvent être données par les 20 caractéristiques dimensionnelles (dimensions (1, h), (li2,h12) ou (1i,hi) à une distance f, fi2 ou f;) ou angulaires (angles d'ouvertures horizontale ou azimutale et verticale ou zénithale) ou d'autres expressions à la portée de l'homme de métier. Rappelons que les données dimensionnelles des pyramides a;, ei, f;, li, 25 h;, sont relatives puisque toute multiplication de chacune d'elles par un facteur identique conduit à une pyramide de projection semblable qui donnera rigoureusement la même image. Il est pourtant usuel de les expliciter toutes pour plus de confort, quitte à user d'une règle implicite qui fixe l'une de ces valeurs. Thus, in order to make it possible to restore images with controlled deformation as without deformation, it is necessary, in certain modalities, that the capture of the images, the configuration of the rendering device (zone used) and the conditions of use (privileged positions). are defined jointly according to the desired deformation parameters. To allow a faithful reproduction of the relief (at close magnification), it is particularly appropriate, once the restitution conditions chosen, to configure the shooting (virtual capture geometry) so as to reduce these 4 potential deformations. This is obtained by the configuration module (22, FIG. 1) by ensuring, directly or indirectly, that the deformation parameters satisfy s; = 1, y; = 0, p; = 1, p; = 1 and finally b = 0. This last condition b = 0 is more delicate because it depends on the size of the observer who inevitably acts on its actual embedding vis-à-vis the device. It can then be ensured only for observers having the embedding defined in the parameters (21) of restitution for this observation position. On the other hand, to obtain a controlled deformation of the relief rendered, it is necessary to configure the shooting (capture geometry of the virtual scene) so as to obtain the desired parameterization of each of the 4 potential deformations. This is obtained by the configuration module (22) ts which allow the direct or indirect adjustment according to the modalities chosen of the deformation parameters c (and hence k; (E; -1) / d;), y;, p; p; and finally b. Here again, the vertical slip chosen b; can only be assured for observers having the embedding defined in the parameters (21) of restitution for this observation position. Internal Adjustment Mode In some embodiments, the configuration module (22) uses data representative of at least one configuration parameter (23) that includes data representative of the following capture geometry internal parameters (23a): at least one parameter defining the positioning of the optical centers (C;) vis-à-vis a reference specific to the virtual capture device, at least one parameter defining the orientation of the line of sight (AV; 30 of each virtual sensor, - at least one parameter defining the geometry of the effective projection pyramid of each capture zone (ZCi). This reference specific to the virtual capture device may be arbitrary, but must allow the precise identification of the position of the reference point of the capture around or reference which are positioned optical centers and capture areas (the convergence being not intrinsically assured in this modality, this point can not always be called a point of convergence), of the direction of capture Z orthogonal to the capture zones as of the common orientation X to perpendicular to z of the lines of all these zones of capture. It may, for example, be centered on the reference point, with its 3rd and 1st axes respectively oriented along Z and X defined above relative to the desired capture orientation. The optical centers (Ci) are, for example, chosen to be aligned in batches on one or more straight lines (LCi2) of alignment parallel to the lines of the capture zones, or of common direction (X). Thus, each point Ci of index i = (il, i2) is positioned on the alignment line LCi2 whose index is identical to its second index i2 and each of these straight lines LCi2 carries all the points Ci i = (il, i2), second index identical to theirs. This is expressed by 20 (C (il, i2>) e (LCi2) V (il, i2) E {1 ... n} x {1 ... m}. The positioning of the points Ci i = (there , i2) is thus prescribed by that of these straight lines (LCi2) of alignment which are, for example, defined by their distance Di2 along Z at the point of reference and their embedding Pi2 (offset along Y, vector product of Z and X, As an alternative and equivalent way, it can be expressed in polar form in the plane (YZ) passing through the reference point by a zenith angle and the Euclidean distance at this point or, again by the zenith and one of the two previous distances Die or Pie. These positions of each optical center (Ci) on the straight line (LCi2) of alignment which carries it, can for example be expressed by their x-coordinates ci on this right (according to X) with an origin for example in the plane (YZ) passing through the reference point, or in polar in the plane (XZ) by the azimuth angles (angles of the plane XY or of the plane YZ a with each of the planes parallel thereto through the reference point and each optical center), or alternatively, as detailed below, for regularly spaced optics, at least, per line (LCi2), an abscissa of an optical center and a constant bit / q i2 difference between these optical centers. This orientation of the axis of view (AVi) (or main axis) of each projection pyramid may, for example, be expressed in angles of azimuth and zenith of sight or relative characteristic distances shown in Figures 3, 4A and 4B: ~ o - the offset a; (along X), at the distance f (or fi2 or fi), from the center (I) of the capture zone (ZCi) with respect to the optical axis (AOi) of the optical center (Ci) associated with it, - the shift e; (according to Y), at the distance f, fie or fi, centers (Ii) of the capture zones (ZCi) with respect to the optical axis (AOi) (or at line 15 (LCi2) of the optical centers (Ci This geometry of the effective projection pyramid of each capture zone (ZCi) may for example be expressed by at least one parameter defining the openings of the effective projection pyramid of each capture zone, for example these openings may be given by the dimensional characteristics (dimensions (1, h), (li2, h12) or (1i, hi) at a distance f, fi2 or f;) or angular (angles of horizontal or azimuthal and vertical or zenithal openings) or other expressions within the reach of those skilled in the art Let us recall that the dimensional data of the pyramids a, ei, f1, li, 25 h, are relative since each multiplication of each of them by an identical factor leads to a similar projection pyramid that will give the exact same image. It is, however, customary to make all of them explicit for greater comfort, even if it means using an implicit rule that sets one of these values.
Dans ces modalités de réglage interne , les informations (25i) permettant de définir la configuration (25), peuvent être calculées très simplement (avec les jeux de paramètres choisis comme exemple ci-dessus) puisque les paramètres internes (23a) sont très directement impliqués dans la description géométrique des capteurs virtuels. Ainsi, selon les choix de distance opérés, ces paramètres (25i) s'obtiennent par exemple selon l'un des jeux d'équations suivants : ^ fi imposé ou choisi de façon arbitraire ViE{1... n}x{1... m} lzi=li hzi=hi dXi=ai dYi= ei dZi=fi Xi/scn= X/scn , Yi/scn= Y/scn pXi=Ci soit pYi= Pi2 pZi= Di2 Ci/scn= PS/scn+ Ci .X/scn-P12.Y/scn-Di2.Z/scn ^ fi2 imposé ou choisi de façon arbitraire Vi2 e{1... n} Izi=li2 hzi=hi2 dXi=ai dYi= ei dZi=fi2 Xi/scn= X/scn , Yi/scn= Y/scn pXi=ci pYi= Pi2 pZi= D2 soit Ci/scn= PS/scn+ Ci.X/scn-Pi2•Y/scn-Di2•Z/scn 20 ^ f imposé ou choisi de façon arbitraire Izi= I hzi=h dXi=ai dYi= ei dZi=f Xi/scn= X/scn , Yi/scn= Y/scn pXi=ci pYi= Pi2 pZi= Di2 25 Soit Ci/scn= PS/scn+ Ci.X/scn-Pi2.Y/scn-Di2•Z/scn Dans certains modes de réalisation, lorsque les centres optiques sont voulus régulièrement espacés sur leur droite d'alignement (notamment, mais pas uniquement, lorsque le dispositif de restitution multiscopique propose des positions d'observation privilégiées régulièrement espacées et que 3o l'opérateur souhaite un relief sans déformation ou à déformation linéaire), le jeu de paramètres internes (23a) utilisé par le module (22) de configuration 15 peut être réduit par le remplacement, global ou par lots, des abscisses c; par les informations représentatives d'une abscisse (unique par exemple c(l,o) ou par droite, par exemple c(1,i2 et de l'écart inter-optique séparant les 2 centres optiques supposés capter les vues gauche et droite destinées à l'observateur attendu en toutes positions privilégiées ou sur chaque chaîne du dispositif de restitution. Cet écart inter-optique est alors défini de façon globale B ou par droite Bit. Ces paramétrages réduits remplacent aisément les précédents pour la génération des paramètres de configuration (25i) par les substitutions ci-dessous dans les équations précédentes : c(;l,;2)= c(l,o) + (il-1) B/q pour la réduction globale, ^ COI ,i2)= c(l,i2) + (il-1) B i2/q 2 pour la réduction par lots. Selon divers modes de réalisation, comme déjà mentionné, le système incorpore également une interface (13) homme/machine. Cette interface pourra être agencée ici pour permettre la gestion interactive (consultation, édition, sauvegarde) des paramètres internes de captation mémorisés en (23a), puis le module (22) de configuration, après consultation des informations définies par les données représentatives du repère global (27) de captation mémorisé, calcule et sauvegarde et/ou transfère, dans un ou plusieurs moyens (12) de mémorisation et/ou de communication interne ou externe, des données (25i) caractéristiques de chaque capteur virtuel comprenant suffisamment de paramètres pour correctement positionner, dans la scène virtuelle, les centres optiques (C;), (système au choix) et les zones de captation (ZC;) (approche dimensionnelle ou angulaire). Notons enfin qu'il revient, dans cette modalité réglage interne , à l'opérateur d'assurer que les paramètres internes fournis correspondent bien à une convergence de tous les axes de visée au point de référence. Dans certains modes de réalisation, le module de configuration (22) peut être agencé pour alerter l'utilisateur, via l'interface (13) homme/machine, sur le non respect de cette nécessité. Par exemple, le 3o module (22) de configuration pourra comporter (ou coopérer avec) un module de vérification vérifiant les saisies réalisées et contrôlant l'affichage de messages d'alerte. De plus, la rectification des erreurs pourra être réalisée par le module (22) de configuration, ou un autre module optionnel spécifique, de façon à régler automatiquement cette convergence en fixant certains paramètres (les c;, a; notamment) non encore donnés dès lors que suffisamment de paramètres (par exemple e;, f;, ainsi que deux couples c;, a; quelconques) ont déjà été fournis pour identifier le point de convergence (PS). Dans des variantes de ces précédents modes de réalisation concernant la modalité réglage interne , un module optionnel d'aide à w l'opérateur (coopérant avec, ou implémenté dans le module de configuration (22) et/ou le module de pilotage de l'interface (13) homme/machine) est configuré de façon à calculer, à partir des paramètres (21) de restitution et (23a) internes de captation qu'ils manipulent, et uniquement lorsque les axes de visée sont convergents, la déformation de relief (valeurs ls numériques des paramètres de déformation (23c)) induite par les réglages en cours et les présenter à l'opérateur. Les équations impliquées, sur les jeux de paramètres choisis pour exemple (avec ici, par soucis de généralité un paramétrage individuel de chaque zone de captation (f;, I;, h;) alors que ce paramétrage peut être par lots ou global), peuvent s'exprimer selon : 20 k;=di2/Di2 pi=bi2/(B12 ki) Ei=bi2 li fi /(Bi2 L Di2) Pi= I; H/(h; L) yi=(bi2 c - Bi2 oi)/(Bi2 di2) 8i=(Bi2 p~ - bi2 Pi Pi)/(Bi2 di2) In these internal adjustment modes, the information (25i) enabling the configuration (25) to be defined can be calculated very simply (with the sets of parameters chosen as an example above) since the internal parameters (23a) are very directly involved. in the geometric description of the virtual sensors. Thus, according to the distance choices made, these parameters (25i) are obtained for example according to one of the following sets of equations: fi fi imposed or arbitrarily chosen ViE {1 ... n} x {1. ## EQU1 ## where d i = d i = d i = d i = x i = xi / i = x / scn, Yi / scn = Y / scn pXi = Ci is pYi = Pi2 pZi = Di2 Ci / scn = PS / scn + Ci.X / scn-P12.Y / scn-Di2.Z / scn ^ fi2 imposed or arbitrarily chosen Vi2 e {1 ... n} Izi = li2 hzi = hi2 dXi = ai dYi = ei dZi = fi2 X 1 / scn = X / scn, Yi / scn = Y / scn pXi = ci pYi = Pi2 pZi = D2 is Ci / scn = PS / scn + Ci.X / scn-Pi2 • Y / scn-Di2 • Z / scn 20 ^ f imposed or arbitrarily chosen Izi = I hzi = h dXi = ai dYi = ei dZi = f Xi / scn = X / scn, Yi / scn = Y / scn pXi = ci pYi = Pi2 pZi = Di2 25 Let Ci In some embodiments, when the optical centers are desired regularly spaced on their alignment line (in particular, but not only, when the multiscopic feedback device proposes privileged observation positions spaced evenly and that the operator desires a relief without deformation or linear deformation), the set of internal parameters (23a) used by the configuration module (22) can be reduced by replacing, globally or in batches, abscissa c; by the information representative of an abscissa (unique for example c (l, o) or by a straight line, for example c (1, 12) and the inter-optical distance separating the two optical centers supposed to capture the left and right views intended to the expected observer in all the privileged positions or on each string of the rendering device.This inter-optic gap is then defined globally B or by the straight line Bit.These reduced settings easily replace the previous ones for the generation of the configuration parameters ( 25i) by the substitutions below in the above equations: c (; l,; 2) = c (l, o) + (il-1) B / q for the overall reduction, ^ COI, i2) = c ( 1, i 2) + (il-1) B i 2 / q 2 for the batch reduction According to various embodiments, as already mentioned, the system also incorporates a man / machine interface (13) which interface can be arranged here to enable interactive management (consultation, editing, saving) internal capture arameters stored in (23a), then the configuration module (22), after consultation of the information defined by the data representative of the global storage reference (27) memorized, calculates and saves and / or transfers, in one or more means (12) for storing and / or communicating internally or externally, data (25i) characteristic of each virtual sensor comprising sufficient parameters to correctly position, in the virtual scene, the optical centers (C;), (optional system ) and the capture zones (ZC;) (dimensional or angular approach). Finally, it should be noted that in this internal adjustment mode, the operator is responsible for ensuring that the internal parameters provided correspond to a convergence of all the reference axes at the reference point. In some embodiments, the configuration module (22) can be arranged to alert the user via the interface (13) man / machine, on the non respect of this need. For example, the 3o module (22) configuration may include (or cooperate with) a verification module verifying the seizures made and controlling the display of alert messages. In addition, the error correction can be carried out by the configuration module (22), or another specific optional module, so as to automatically adjust this convergence by setting certain parameters (the c ;, a; in particular) not yet given as soon as possible. when enough parameters (eg e ;, f ;, as well as any two pairs c ;, any) have already been provided to identify the point of convergence (PS). In variants of these previous embodiments relating to the internal adjustment mode, an optional module for assisting the operator (cooperating with or implemented in the configuration module (22) and / or the control module of the interface (13) man / machine) is configured so as to calculate, from the parameters (21) of restitution and (23a) capturing internal that they handle, and only when the axes of sight are convergent, the deformation of relief (Digital ls values of the deformation parameters (23c)) induced by the current settings and present them to the operator. The equations involved, on the sets of parameters chosen for example (with here, for the sake of generality an individual parameterization of each capture area (f ;, I; h;) while this setting may be batch or global), can be expressed as: 20 k = di2 / Di2 p = bi2 / (B12 ki) Ei = bi2 (/) (Bi2 L Di2) Pi = I; H / (h; L) yi = (bi 2 c - Bi 2 o 1) / (Bi 2 di 2) 8 i = (Bi 2 p - Bi 2 Pi Pi) / (Bi 2 di 2)
Dans certaines variantes de réalisation, le module optionnel d'aide à l'opérateur (coopérant avec, ou implémenté dans le module (22) de 25 configuration et/ou le module de pilotage de l'interface (13) homme/machine) est agencé pour montrer par représentation graphique ou synthèse d'images dans une vue statique ou interactive, l'effet sur un objet de forme prédéterminée (parallélépipède, sphère, ...) des déformations impliquées par les valeurs actuelles des paramètres choisis par l'utilisateur dans l'interface. 3o Ces dernières variantes (présentation de la déformation impliquée sous une forme textuelle ou graphique) donnent à l'opérateur un véritable contrôle de la déformation que ses choix impliquent et justifient donc la dénomination de modalité à déformation de relief contrôlée. In certain embodiments, the optional operator assistance module (cooperating with or implemented in the configuration module (22) and / or the control module of the man / machine interface (13)) is arranged to show by graphic representation or synthesis of images in a static or interactive view, the effect on an object of predetermined shape (parallelepiped, sphere, ...) of the deformations involved by the current values of the parameters chosen by the user in the interface. 3o These last variants (presentation of the deformation involved in a textual or graphic form) give the operator a real control of the deformation that his choices imply and thus justify the denomination of deformation modality of controlled relief.
Modalité réglage externe s Dans certains modes de réalisation, les données représentatives d'au moins un paramètre (23) de configuration comportent des données représentatives des paramètres (23b) externes de géométrie de captation suivants : - au moins un paramètre définissant, directement ou indirectement, les to dimensions de la base commune (BC) centrée sur le point de convergence (PS) et orientée implicitement dans un repère propre au dispositif virtuel de captation, - au moins un paramètre définissant le positionnement précis de la ou des droites (LCi2) d'alignement des centres, r elativement à la base 15 commune (BC) et parallèlement à ses lignes. au moins un paramètre définissant le positionnement précis des centres optiques (Ci) sur ces droites (LCi2) d'alignement, - au moins un paramètre définissant la position précise des plans de captation parallèles à la base commune (BC) qui définissent les zones 20 de captation (ZCi) comme leur intersection avec les faisceaux de projection. Ce repère propre au dispositif virtuel de captation peut être quelconque, mais doit permettre l'identification précise de la position du point de convergence qui existe par construction dans cette modalité et des 2 25 directions principales de la base commune (BC) : X orienté selon les lignes des futures captations, Y orienté selon leurs colonnes. Ce repère peut par exemple, être centré sur le point de convergence (PS), avec ses 1er et 2ème axes orientés respectivement selon X et Y définis ci-dessus relativement à l'orientation de la base commune (BC). In some embodiments, the data representative of at least one configuration parameter (23) comprise data representative of the following external collection geometry parameters (23b): at least one parameter defining, directly or indirectly , to the dimensions of the common base (BC) centered on the convergence point (PS) and oriented implicitly in a reference specific to the virtual capture device, - at least one parameter defining the precise positioning of the line (s) (LCi2) alignment of the centers, relative to the common base (BC) and parallel to its lines. at least one parameter defining the precise positioning of the optical centers (Ci) on these lines (LCi2) of alignment, - at least one parameter defining the precise position of the capture planes parallel to the common base (BC) which define the zones 20 of capture (ZCi) as their intersection with the projection beams. This reference specific to the virtual capture device can be arbitrary, but must allow the precise identification of the position of the convergence point that exists by construction in this modality and the 2 main directions of the common base (BC): X oriented according to the lines of the future captures, Y oriented according to their columns. This marker may, for example, be centered on the point of convergence (PS), with its first and second axes respectively oriented X and Y defined above relative to the orientation of the common base (BC).
Ces dimensions de la base commune (BC) peuvent être exprimées classiquement par 2 longueurs Lb (largeur) et Hb (hauteur) ou encore par un paramétrage alternatif de type ratio/diagonale. Ce positionnement des droites (LCi2) portant les centres optiques (Ci) et s parallèles à x (lignes de la base commune (BC)) est, par exemple, défini par leur distance Die à la base commune (selon Z, produit vectoriel de X et Y) et leur plongement Pie (décalage selon Y vis-à-vis du point de convergence (PS)). De façon alternative et équivalente, il peut être exprimé en polaire dans le plan (YZ) passant par le point de convergence (PS) par un angle de zénith ~o et la distance euclidienne à (PS) ou, encore par le zénith et l'une des 2 distances précédentes Di2 ou Pie. Ces positionnements de chaque centre optique (Ci) sur la ligne (LCi2) qui le porte, peuvent par exemple être exprimés par leurs abscisses ci sur cette ligne (selon X) avec une origine par exemple dans le plan (PS,Y,Z), ce qui 15 revient à considérer ces abscisses comme des décalages latéraux des centres optiques vis-à-vis de (PS)), ou en polaire dans le plan (XZ) par les angles d'azimut (angles du plan XY ou du plan YZ avec chacun des plans parallèles à Y passant par le point de référence et chaque centre optique), ou encore, comme détaillé ci-après, pour des optiques régulièrement espacées, au 20 moins, par ligne (LCi2), une abscisse d'un centre optique et un écart constant Bit/q i2 entre ces centres optiques. Ces positions des plans (XY) portant chaque zone de captation (ZCi) peuvent être exprimés par exemple par leur distance à la base commune (BC) ou, de façon équivalente, leur distance fi à leur centre optique 25 associé (Ci). Rappelons que ces données dimensionnelles permettent de positionner le plan portant chaque zone de captation (ZCi) qui est alors définie comme la projection de la base commune (BC), à travers (Ci), sur ce plan. Ainsi, ces distances importent peu car toutes les caractéristiques dimensionnelles des pyramides de projection leur sont proportionnelles et 3o que seules les valeurs relatives de ces dimensions sont pertinentes. Il est pourtant usuel d'expliciter ces distances pour plus de confort, quitte à user 10 15 20 d'une règle implicite pour les fixer individuellement (fi), par lots (fi2) ou globalement (f). Dans ce cas, les informations (25i) permettant de définir la configuration (25), peuvent être calculées par exemple (avec les jeux de paramètres s choisis comme exemple), selon l'un des jeux d'équations suivants en fonction des choix de distance opérés : ^ fi imposé ou choisi de façon arbitraire `di{{1... n}x{1... m} Izi=Lb fi/Di2 hzi=Hb fi/Di2 dXi= ci fi/Di2 dYi= Pi2 fi/Di2 dZi=fi Xi/scn= X/scn , Yi/scn= Y/scn pXi=ci pYi= Pi2 pZi= Di2 soit Ci/scn= PS/scn+ Ci.X/scn-Pi2.Y/scn-Di2•Z/scn ^ fi2 imposé ou choisi de façon arbitraire Vi2E{1... n} Izi=Lb fi2/Di2 hzi=Hb fi2/Di2 dXi= ci fi2/Di2 dYi= Pi2 fi2/Di2 dZi=fi2 Xi/scn= X/scn , Yi/scn= Y/scn pXi=ci pYi= Pi2 pZi= D2 soit Ci/scn= PS/scn+ Ci.X/scn-Pi2•Y/scn-Di2•Z/scn ^ f imposé ou choisi de façon arbitraire Izi=Lb f/Di2 hzi=Hb f/Di2 dXi= ci f/Di2 dYi= Pi2 f/Di2 dZi=f Xi/scn= X/scn , Yi/scn= Y/scn pXi=ci soit pYi= Pi2 pZi= Di2 Ci/scn= PS/scn+ Ci•X/scn-Pi2.Y/scn-Di2•Z/scn 25 Dans certains modes de réalisation, lorsque les centres optiques sont voulus régulièrement espacés sur leur droite d'alignement, le jeu de paramètres internes (23b) utilisé par le module (22) de configuration peut être réduit par le remplacement, global ou par lots, des abscisses ci par les informations représentatives d'une abscisse (unique par exemple c(l,o) ou par 3o droite, par exemple c(l,i2 et de l'écart inter-optique séparant les 2 centres optiques supposés capter les vues gauche et droite destinées à l'observateur attendu en toutes positions privilégiées ou sur chaque chaîne du dispositif de restitution. Cet écart inter-optique est alors défini de façon globale B ou par droite Bit. Ces paramétrages réduits remplacent aisément les précédents pour la génération des paramètres de configuration (25i) par s les substitutions ci-dessous dans les équations précédentes : • c(jl,j2)= C(1,0) + (il-1) B/q pour la réduction globale, ^ c(;l 12)= c(l,i2) + (il-1) B i2/q i2 pour la réduction par lots. Selon divers modes de réalisation, comme déjà mentionné, le système incorpore également une interface (13) homme/machine. Cette interface ~o pourra être agencée ici pour permettre la gestion interactive (consultation, édition, sauvegarde) des paramètres externes de captation mémorisés en (23b), puis après consultation des informations définies par les données représentatives du repère global (27) de captation mémorisé, le module (22) de configuration calcule et sauvegarde et/ou transfère, dans un ou plusieurs ts moyens (12) de mémorisation et/ou de communication interne ou externe, des données (25) caractéristiques de chaque capteur virtuel comprenant suffisamment de paramètres pour correctement positionner, dans la scène virtuelle, les centres optiques (C;), (système au choix) et les zones de captation (ZC;) (approche dimensionnelle ou angulaire). 20 Dans des variantes de ces précédents modes de réalisations concernant la modalité réglage externe , un module optionnel d'aide à l'opérateur (coopérant avec, ou implémenté dans le module de configuration (22) et/ou le module de pilotage de l'interface (13) homme/machine) est 25 configuré de façon à calculer, à partir des paramètres (21) de restitution et (23b) externes de captation qu'ils manipulent, la déformation de relief (valeurs numériques des paramètres de déformation (23c)) induite par les réglages en cours et les présenter à l'opérateur. Les équations impliquées, sur les jeux de paramètres choisis pour exemple, peuvent s'exprimer 30 selon : ki=di2/Di2 pi=bit/(Bi2 ki) Ei=bit Lb /(Bi2 L) pi= Lb H/(Hb L) Yi=(bi2 ci - Bit oi)/(Bi2 die) bi=(Bi2 Pie - bi2 Pi Pie)/(Bi2 die) These dimensions of the common base (BC) can be expressed conventionally by 2 lengths Lb (width) and Hb (height) or alternatively a parameter setting ratio / diagonal. This positioning of the lines (LCi2) carrying the optical centers (Ci) and s parallel to x (lines of the common base (BC)) is, for example, defined by their distance Die to the common base (according to Z, vector product of X and Y) and their dipping Pie (offset along Y with respect to the point of convergence (PS)). In an alternative and equivalent way, it can be expressed in polar in the plane (YZ) passing through the point of convergence (PS) by a zenith angle ~ o and the Euclidean distance to (PS) or, again by the zenith and the one of the two previous distances Di2 or Pie. These positions of each optical center (Ci) on the line (LCi2) which carries it, can for example be expressed by their abscissa ci on this line (along X) with an origin for example in the plane (PS, Y, Z) , which amounts to considering these abscissae as lateral offsets of the optical centers with respect to (PS), or in polar in the plane (XZ) by the azimuth angles (angles of the plane XY or of the plane YZ with each of the planes parallel to Y passing through the reference point and each optical center), or else, as detailed hereinafter, for optics regularly spaced, at least, by line (LCi2), an abscissa of one optical center and a constant bit / q i2 gap between these optical centers. These positions of the planes (XY) carrying each capture zone (ZCi) can be expressed for example by their distance to the common base (BC) or, equivalently, their distance f1 to their associated optical center (Ci). Recall that these dimensional data make it possible to position the plane carrying each capture zone (ZCi) which is then defined as the projection of the common base (BC), through (Ci), on this plane. Thus, these distances are of little importance because all the dimensional characteristics of the projection pyramids are proportional to them and 3o only the relative values of these dimensions are relevant. It is, however, customary to make these distances more comfortable, even if it means using an implicit rule to fix them individually (fi), in batches (fi2) or globally (f). In this case, the information (25i) enabling the configuration (25) to be defined can be calculated for example (with the sets of parameters chosen as examples), according to one of the following sets of equations according to the choices of distance operated: ^ fi imposed or arbitrarily chosen `di {{1 ... n} x {1 ... m} Izi = Lb fi / Di2 hzi = Hb fi / Di2 dXi = ci fi / Di2 dYi = Pi2 ## EQU1 ## where ## EQU1 ## where ## EQU1 ## where ## STR1 ## Di2 • Z / scn ^ fi2 imposed or arbitrarily chosen Vi2E {1 ... n} Izi = Lbf2 / Di2 hzi = Hbf2 / Di2 dXi = ci fi2 / Di2 dYi = Pi2f2 / Di2 dZi = fi2 Xi / scn = X / scn, Yi / scn = Y / scn pXi = ci pYi = Pi2 pZi = D2 is Ci / scn = PS / scn + Ci.X / scn-Pi2 • Y / scn-Di2 • Z / scn ^ f imposed or chosen arbitrarily Izi = Lb f / Di2 hzi = Hb f / Di2 dXi = ci f / Di2 dYi = Pi2 f / Di2 dZi = f Xi / scn = X / scn, Yi / scn = Y / scn pXi = ci or pYi = Pi2 pZi = Di2 Ci / scn = PS / scn + Ci • X / scn-Pi2.Y / scn-Di2 • Z / scn In some embodiments, when The optical centers are wanted regularly spaced on their alignment line, the set of internal parameters (23b) used by the configuration module (22) can be reduced by replacing, overall or in batches, the abscissa ci by the representative information. of an abscissa (unique for example c (l, o) or by 3o right, for example c (1, 12) and the inter-optical distance separating the 2 optical centers supposed to capture the left and right views intended for the observer expected in all privileged positions or on each string of the rendering device. This inter-optical gap is then defined globally B or by right Bit. These reduced settings easily replace the previous ones for generating the configuration parameters (25i) by substituting the following in the previous equations: • c (j1, j2) = C (1,0) + (il-1) B / q for the overall reduction, ^ c (; l 12) = c (l, i2) + (il-1) B i2 / q i2 for the batch reduction. According to various embodiments, as already mentioned, the system also incorporates a man / machine interface (13). This interface ~ o may be arranged here to enable interactive management (consultation, editing, saving) external capture parameters stored in (23b), and then after consulting the information defined by the data representative of the global reference (27) memorized capture , the configuration module (22) calculates and saves and / or transfers, in one or more means (12) for storage and / or internal or external communication, data (25) characteristic of each virtual sensor comprising sufficient parameters to correctly position, in the virtual scene, the optical centers (C;), (system of choice) and the capture areas (ZC;) (dimensional or angular approach). In variants of these previous embodiments relating to the external adjustment mode, an optional operator assistance module (cooperating with, or implemented in the configuration module (22) and / or the control module of the interface (13) man / machine) is configured so as to calculate, from the parameters (21) of restitution and (23b) external capture that they handle, the deformation of relief (numerical values of the deformation parameters (23c )) induced by the current settings and present them to the operator. The equations involved, on the sets of parameters chosen for example, can be expressed as: ki = di2 / Di2 pi = bit / (Bi2 ki) Ei = bit Lb / (Bi2 L) p1 = Lb H / (Hb L Yi = (bi2 ci - Bit oi) / (Bi2 die) bi = (Bi2 Pie - bi2 Pi Pie) / (Bi2 die)
Dans certaines variantes de réalisation, le module optionnel d'aide à l'opérateur (coopérant avec, ou implémenté dans, le module (22) de configuration et/ou le module de pilotage de l'interface (13) homme/machine) est agencé pour montrer par représentation graphique ou synthèse d'images dans une vue statique ou interactive, l'effet sur un objet de forme prédéterminée (parallélépipède, sphère, ...) des déformations impliquées par ~o les valeurs actuelles des paramètres choisis par l'utilisateur dans l'interface. Ces dernières variantes (présentation de la déformation impliquée sous une forme textuelle ou graphique) donnent à l'opérateur un véritable contrôle de la déformation que ses choix impliquent et justifient donc la dénomination de modalité à déformation de relief contrôlée. 15 On notera que les paramètres de cette modalité sont dits externes car ils décrivent les éléments orientés scène de la captation multiple : point de convergence (PS), base commune (BC) et positions des centres optiques (Ci) d'où sont captées les vues, par opposition aux paramétrage interne 20 qui s'attache à décrire les réglages géométriques individuels et intimes de chaque couple (centre optique, zone de captation). Ces paramètres externes permettent de caractériser simplement les paramètres internes selon, par exemple, les remarques et équations suivantes : 25 ^ Pi2 , Di2, ci et f, fi, ou fie communs aux 2 paramétrages ^ Ii=Lb fi /Di2 hi=Hb fi /Di2 ai= ci fi /Di2 ei= P;2 fi /Di2 Ainsi, l'homme de l'art identifiera aisément que de nombreuses modalités intermédiaires entre les 2 proposées ici pour exemple ( réglage interne et réglage externe ) pourraient être décrites et permettraient de 30 mettre en oeuvre l'invention dans des conditions similaires. In some embodiments, the optional operator assistance module (cooperating with, or implemented in, the configuration module (22) and / or the control module of the man / machine interface (13)) is arranged to show by graphic representation or synthesis of images in a static or interactive view, the effect on an object of predetermined shape (parallelepiped, sphere, ...) of the deformations implied by ~ o the current values of the parameters chosen by the in the interface. These latter variants (presentation of the deformation involved in a textual or graphical form) give the operator a real control of the deformation that his choices imply and therefore justify the denomination of controlled relief deformation modality. It will be noted that the parameters of this modality are said to be external because they describe the scene-oriented elements of the multiple capture: convergence point (PS), common base (BC) and positions of the optical centers (Ci) from which are captured the views, as opposed to the internal setting 20 which focuses on describing the individual and intimate geometric settings of each pair (optical center, capture area). These external parameters make it possible to simply characterize the internal parameters according to, for example, the following remarks and equations: ## EQU1 ## where are the two parameterizations: ## EQU1 ## Thus, those skilled in the art will readily recognize that many intermediate modalities between the two proposed here for example (internal adjustment and external adjustment) could be described and described in FIG. would allow the invention to be implemented under similar conditions.
Modalité contrôle de déformation Dans certains modes de réalisation, les données représentatives d'au moins un paramètre (23) de configuration comportent des données représentatives d'au moins un paramètre parmi les paramètres (23c) de déformation suivants, définis pour chaque position d'observation n°i : • un (ou des) facteur(s) k; de grossissement global et notamment en profondeur, • un (ou des) paramètre(s) E; de contrôle de la déformation non linéaire potentielle (qui transforme un cube en tronc de pyramide), • un (ou des) taux p; de grossissement relatif de la largeur par rapport à la profondeur ou facteur d'anamorphose horizontal/profondeur souhaité, • un (ou des) taux p; de grossissement relatif de la hauteur par rapport à la largeur ou facteur d'anamorphose vertical/horizontal souhaité, • un (ou des) taux y; de cisaillement horizontal du relief perçu, • un (ou des) taux b; de cisaillement vertical du relief perçu par un observateur de plongement conforme à celui attendu. Ces paramètres de déformation sont donnés seulement à titre d'exemples illustratifs. Ils peuvent être notamment définis pour chaque position, par lots ou encore globalement. L'homme de métier pourra aussi définir la déformation sous de nombreuses autres formes sans s'éloigner de l'esprit de l'invention. On notera également que, dans certains modes de réalisation, le système n'utilise qu'un seul paramètre de déformation. Ce paramètre peut, dans certains modes de réalisation, concerner le facteur de grossissement k, qui n'est pas réellement une déformation mais qui donne les proportions des images simplement dilatées ou contractées par rapport au relief de la scène virtuelle si s;=1, y;=0, p =1, p;=1 et b;=0. On notera que dans le cas où k;=1, on retrouve les conditions concernant un relief parfait (rendu relief sans déformation) mentionné précédemment et une scène restituée avec un relief 3o identique à celui de la scène captée. Dans ces cas où les paramètres (23) de configuration comportent ces paramètres (23c) de déformation, les informations (25i) peuvent être calculées comme suit (avec les jeux de paramètres choisis comme exemple) : f; imposé ou choisi, individuellement ViE{1...n}x{1...m}, par lots 5 Vi2e{1...n} ou globalement Iz;=L f; / (p; di2) hz;= H f; c; / (p; p d;2) dX;= fi (oi + yi di2)/ (hi di2) dY;= f; (pi - bi di2)/ (p pi di2) dZ;=f; Xi/scn= X/scn , Yi/scn= Y/scn pXi=(oi + yi di2)/(ki pi) pYi= (pi - bi di2)/(ki p pi) pZi= di2/ki 10 Ci/scn= PS/scn + (oi + yi di2)/(ki hi)•X/scn - (pi - bi di2)/(ki p pi)•Y/scn - di2/k;.Z/scn Selon divers modes de réalisation, comme déjà mentionné, le système incorpore également, une interface (13) homme/machine. Cette interface pourra être agencée ici pour permettre la gestion interactive (consultation, édition, sauvegarde) des paramètres de déformation mémorisés en 15 (23c), puis après consultation des informations définies par les données représentatives des paramètres (21) de restitution et du repère global (27) de captation mémorisé, le module (22) de configuration calcule et sauvegarde et/ou transfère, dans un ou plusieurs moyens (12) de mémorisation et/ou de communication interne ou externe, des données (25) 20 caractéristiques de chaque capteur virtuel comprenant suffisamment de paramètres pour correctement positionner, dans la scène virtuelle, les centres optiques (C;), et les zones de captation (ZC;) selon les équations ci-dessus par exemple. Cette modalité pourra, optionnellement, proposer un choix de retour direct au jeu de paramètres associés à une absence de 25 déformation avec ou sans contrainte sur le(s) facteur(s) de grossissement global k;. Comme mentionné précédemment, l'interface (13) peut faire intervenir un module optionnel d'aide à l'opérateur (coopérant avec, ou implémenté dans le module de configuration) qui lui montre par représentation graphique 3o ou synthèse d'images, l'effet sur un objet de forme prédéterminée (parallélépipède, sphère, ...) des déformations impliquées par les valeurs actuelles des paramètres gérés dans l'interface. Deformation control mode In certain embodiments, the data representative of at least one configuration parameter (23) comprise data representative of at least one parameter among the following deformation parameters (23c), defined for each position of observation n ° i: • one (or more) factor (s) k; of overall magnification and in particular in depth, • one (or more) parameter (s) E; control of the potential nonlinear deformation (which transforms a cube into a truncated pyramid), • a (or) rate p; relative magnification of width versus depth or desired horizontal anamorphosis / depth factor, • one (or more) p rates; relative magnification of height versus desired width or vertical / horizontal anamorphosis factor, • y rate (s); horizontal shear of the perceived relief, • one (or) rate b; vertical shearing of the relief perceived by a plunging observer in accordance with that expected. These deformation parameters are given only as illustrative examples. They can be defined for each position, in batches or globally. Those skilled in the art may also define deformation in many other forms without departing from the spirit of the invention. It will also be noted that in some embodiments the system uses only one deformation parameter. This parameter can, in some embodiments, concern the magnification factor k, which is not really a deformation but which gives the proportions of the images simply dilated or contracted with respect to the relief of the virtual scene if s = 1, y = 0, p = 1, p = 1 and b = 0. Note that in the case where k; = 1, we find the conditions for a perfect relief (rendered relief without deformation) mentioned above and a scene restored with a relief 3o identical to that of the captured scene. In those cases where the configuration parameters (23) comprise these deformation parameters (23c), the information (25i) can be calculated as follows (with the parameter sets chosen as an example): f; imposed or chosen, individually ViE {1 ... n} x {1 ... m}, in batches 5 Vi2e {1 ... n} or globally Iz; = L f; / (p; di2) hz; = H f; c; / (p; pd; 2) dX; = fi (oi + yi di2) / (hi di2) dY; = f; (pi - bi di2) / (p pi di2) dZ; = f; X 1 / scn = X / scn, Yi / scn = Y / scn pXi = (oi + yi di2) / (ki pi) pYi = (pi-bi di2) / (ki p1p) pZi = di2 / ki 10 Ci / scn = PS / scn + (oi + yi di2) / (ki hi) • X / scn - (pi - bi di2) / (ki p pi) • Y / scn - di2 / k; .Z / scn According to various modes embodiment, as already mentioned, the system also incorporates a man / machine interface (13). This interface may be arranged here to enable interactive management (consultation, editing, saving) of the deformation parameters stored in 15 (23c), and then after consulting the information defined by the data representative of the parameters (21) of restitution and the global reference 27), the configuration module (22) calculates and saves and / or transfers, in one or more means (12) of storage and / or internal or external communication, data (25) characteristic of each virtual sensor comprising enough parameters to correctly position, in the virtual scene, the optical centers (C;), and the capture areas (ZC;) according to the above equations for example. This modality may, optionally, propose a choice of direct return to the set of parameters associated with an absence of deformation with or without constraint on the global magnification factor (s) k. As mentioned above, the interface (13) may involve an optional operator assistance module (cooperating with or implemented in the configuration module) which shows it by graphical representation or synthesis of images. effect on an object of predetermined shape (parallelepiped, sphere, ...) of the deformations implied by the current values of the parameters managed in the interface.
Dans des variantes de ces modes de réalisation concernant la modalité contrôle de déformation , un module optionnel d'aide à l'opérateur (coopérant avec, ou implémenté dans le module de configuration (22)) est configuré de façon à calculer, à partir des paramètres (21) de restitution et (23c) de déformation qu'ils manipulent, les réglages internes ou externes du dispositif virtuel de captation (valeurs numériques des to paramètres (23a) et/ou (23b)) induits par les déformations choisies et les présenter à l'opérateur. Les équations impliquées, sur les jeux de paramètres choisis pour exemple, peuvent s'exprimer, pour les paramètres externes (23b) selon : ci= (oi + ri di2)/ (ki hi) Pi2= (Pi - âi di2)/ (ki P Ni) Die=die/ki. 15 Lb=L si / (ki pi) Hb= H si / (ki p pi) fi imposé ou choisi, individuellement `diE{1...n}x{1...m}, par lots Vi2E{1...n} ou globalement In variants of these embodiments concerning the deformation control modality, an optional operator assistance module (cooperating with, or implemented in the configuration module (22)) is configured to calculate, from parameters (21) of restitution and (23c) deformation that they manipulate, the internal or external settings of the virtual capture device (numerical values of the to parameters (23a) and / or (23b)) induced by the deformations chosen and the present to the operator. The equations involved, on the sets of parameters chosen for example, can be expressed, for the external parameters (23b) according to: ci = (oi + ri di2) / (ki hi) Pi2 = (Pi - di2) / ( ki P Ni) Die = die / ki. Lb = L if / (ki pi) Hb = H if / (ki p pi) fi imposed or selected, individually at diE {1 ... n} x {1 ... m}, in batches Vi2E {1. ..n} or globally
et pour les paramètres internes (23a) selon : 20 ci= (oi + Yi d~2)/ (ki pi) Pie= (pi - 8i di2)/ (ki p pi) Die=die/ki. fi imposé ou choisi, individuellement b'iE{1...n}x{1...m}, par lots Vi2E{1...n} ou globalement Ii=L fi Ei / (hi die) ai= fi (oi + Yi diz)/ (hi dit) hi=Hfisi/(Pipdie) ei= fi (pi- bi di2)/ (p pi dit) 25 Ces dernières variantes (présentation des réglages internes et/ou externes associées à une déformation choisie) donnent à l'opérateur un moyen d'autoformation au contrôle direct de l'effet relief qui pourrait lui être utile dans les autres modalités de réalisation de l'invention. 30 Utilisation de la configuration de captation Ainsi, les différentes modalités permettent à l'opérateur, par les diverses variantes de l'interface (13) et/ou du module de configuration (22) (et des modules optionnels), d'éditer et de stocker et/ou transférer, dans un ou plusieurs moyens de mémorisation (12) et/ou de communication interne ou externe, les diverses données définies dans les modes de réalisation détaillés précédemment et représentant les contraintes de restitution (dispositif) et les choix de l'utilisateur (réglage direct de la géométrie interne des capteurs, réglage direct mais guidé par le point de convergence, de cette to géométrie collective de captation, ou encore réglage indirect de la captation par contrôle direct des déformations induites) puis de définir les paramètres (25i) représentatifs d'une pluralité de nxm caméras virtuelles constituant un système de captation virtuel positionné dans la scène grâce au repère global de captation (27) et/ou de les stocker et/ou les transférer dans le(s) moyen(s) 15 de mémorisation (12) et/ou de communication interne ou externe. and for the internal parameters (23a) according to: 20 ci = (oi + Yi d ~ 2) / (ki pi) Pie = (pi - 8i di2) / (ki p pi) Die = die / ki. fi imposed or chosen, individually b'iE {1 ... n} x {1 ... m}, by lots Vi2E {1 ... n} or globally Ii = L fi Ei / (hi die) ai = fi (oi + Yi diz) / (hi) hi = Hfisi / (Pipdie) ei = fi (pi-bi di2) / (p pi say) 25 These last variants (presentation of the internal and / or external settings associated with a deformation chosen) give the operator a means of self-training with direct control of the relief effect that could be useful to him in the other embodiments of the invention. Using the capture configuration Thus, the different modalities allow the operator, through the various variants of the interface (13) and / or the configuration module (22) (and optional modules), to edit and storing and / or transferring, in one or more storage means (12) and / or internal or external communication, the various data defined in the embodiments detailed above and representing the restitution constraints (device) and the choices of the user (direct adjustment of the internal geometry of the sensors, direct adjustment but guided by the point of convergence, of this collective collecting geometry, or indirect adjustment of the capture by direct control of the induced deformations) and then to define the parameters (25i) representative of a plurality of nxm virtual cameras constituting a virtual capture system positioned in the scene using the global heading reference (27) and / or to store and / or transfer them in the storage medium (s) (12) and / or internal or external communication.
Dans certains modes de réalisation, tout ou partie des données à partir desquels le module (22) de configuration détermine ladite configuration (25) sont variables au cours du temps, grâce à des données provenant des 20 moyens (12) de mémorisation et/ou de communication interne ou externe et/ou de l'interface (13) utilisateur et définissant au moins une référence (29) temporelle pour le changement des données (23) représentatives de la configuration et/ou des données représentatives du repère (27) global de captation et/ou des données (21) de restitution (notamment les positions 25 privilégiées d'observation). Ces données définissant au moins une référence (29) temporelle pourront définir des évolutions discrètes (couples (instant, valeur nouvelle) par exemple) comme des évolutions continues (fonctions du temps associées à certaines valeurs, valeurs clés interpolées, ...). Ces données pourront provenir des moyens (12) de mémorisation et/ou de 3o communication interne ou externe, pour définir des variations programmées ou contrôlées de la captation au cours du temps. Dans une variante, certaines de ces données sont générées en fonction d'au moins une action de l'utilisateur sur l'interface (13) utilisateur. Ainsi, l'utilisateur peut définir les variations de la captation, par exemple à l'aide d'une navigation contrôlée, par exemple, par des moyens de saisie tel qu'un pointeur (une souris, un dispositif de pointage 3D par exemple). La variation de tout ou partie des données représentatives du repère (27) de captation permet ainsi des effets classiques de travelling autour de la scène ou de navigation interactive. La variation de tout ou partie des données représentatives des paramètres (23) de configuration permet, selon l'ensemble de données choisi (paramètres to externes, internes ou de déformation), de contrôler directement ou indirectement, de façon programmée ou interactive, l'évolution de la déformation de relief restitué et des paramètres de captation (point de convergence, position des centres optiques, pyramides de projection, etc.). La variation de tout ou partie des données représentatives de la restitution 15 (21) permet de régler le dispositif de captation en fonction de positions évolutives des observateurs. Cela permet notamment le suivi interactif d'un ou plusieurs observateurs à qui l'on souhaite proposer une expérience de visualisation en relief intrinsèque autour de laquelle ils peuvent, dans certaines limites, se déplacer pour l'appréhender sous divers angles de façon 20 très naturelle. Le système (1) selon l'invention générant les paramètres (25i) de définition des nxm pyramides de captation, grâce au module (22) de configuration, permet de définir une configuration (25) de prises de vues. 25 Cette configuration peut être utilisée pour générer des images ou séquences d'images de synthèse d'une scène virtuelle statique ou dynamique. Pour cela, le système (1) peut comporter ou être associé à un module de synthèse d'image utilisant la configuration (25) générée par le module (22) de configuration pour générer ces images ou séquences d'images, grâce à des 3o données (24) représentatives soit de positionnements et de caractéristiques, statiques ou évolutifs, de constituants d'une scène virtuelle tridimensionnelle, soit d'une suite d'instructions informatiques ou ordres graphiques permettant de définir cette même scène, ces données (24) provenant des moyens (12) de mémorisation et/ou de communication interne ou externe. En utilisant la configuration (25) produite par le module (22), le module de synthèse d'image générera des images ou séquences d'images, qui, une fois mixées de façon appropriées, pourront être restituées par un dispositif de restitution multiscopique restituant le relief de la scène. On comprend donc que le système (1) de génération de la configuration peut alors former (ou être associé à) un système de génération de nxm images ou séquences io d'images de synthèse destinées à une restitution d'une scène virtuelle tridimensionnelle statique ou dynamique. L'invention concerne donc également une utilisation des données (25) représentatives des positionnements des nxm centres optiques (C;) et des dimensions et positionnements des nxm zones de captation (ZC;) par rapport 15 à la scène et définissant ladite configuration selon l'invention, pour la génération de nxm images ou séquences d'images d'une scène virtuelle, statique ou dynamique. On parlera ici pour simplifier de la génération de nxm images, qu'il s'agisse en fait d'images statiques ou de séquences d'images (flux dynamique, par exemple une vidéo). 20 Cette génération des nxm images (synthèse d'images) est réalisée par un module (MSI) de synthèse d'images exécuté sur des moyens de traitement. Ces moyens de traitement pourront être ceux du système de génération de la configuration ou au moins un autre système informatique. Le module (MSI) de synthèse d'images est donc exécuté par le système (1) 25 de génération de la configuration ou par un autre système comportant des moyens (11) de traitement de données exécutant le module (MSI) de synthèse d'images et des moyens (12) de mémorisation et/ou de communication interne ou externe et/ou une interface (13) utilisateur. Ce module (MSI) de synthèse d'images génère des données (28) représentatives des nxm images ou séquences d'images de synthèse à partir : - des données (25) représentatives des positionnements des nxm centres optiques (C;) et des dimensions et positionnements des nxm zones de captation (ZC;) par rapport à la scène et définissant ladite configuration (25) ; - des données (24) représentatives soit de positionnements et de caractéristiques, statiques ou évolutifs, de constituants d'une scène virtuelle tridimensionnelle, soit d'une suite d'instructions informatiques io ou ordres graphiques permettant de définir cette même scène. L'invention prévoit donc également un système de génération d'une pluralité de nxm images (ou système de synthèse d'images) d'une scène virtuelle, ces nxm images étant destinées à une restitution sur au moins un dispositif de restitution multiscopique, la captation étant réalisée par la 1s projection de la scène sur une pluralité de nxm zones de captation (ZC;) associées chacune à un centre optique (C;), définissant un dispositif virtuel de captation, le système comportant des moyens (11) de traitement de données et des moyens (12) de mémorisation et/ou de communication interne ou externe et/ou une interface (13) utilisateur, caractérisé en ce que : 20 - les moyens (11) de traitement exécutent un module (22) de configuration générant des données définissant une configuration (25) de captation, permettant une restitution avec un effet relief déterminé, et représentatives des positionnements, par rapport à la scène, des nxm centres optiques (C;) et des dimensions et positionnements, par rapport à la 25 scène, des nxm zones de captation (ZC;) qui leurs sont associées, par la mise en relation d'au moins les données suivantes, provenant des moyens (12) de mémorisation et/ou de communication interne ou externe du système et/ou provenant de l'interface (13) utilisateur : - des données représentatives du positionnement, de l'orientation et de 30 l'éventuelle conformation dans la scène d'au moins un repère (27) global de captation représentant le(s) choix de l'opérateur du système en terme de position(s) et orientations d'observation de la scène, des données représentatives d'au moins un paramètre (23) de configuration, définissant une déformation souhaitée pour l'effet relief et/ou une géométrie de captation, la captation étant réalisée par la projection de la scène sur les nxm zones de captation (ZC;), au travers de nxm faisceaux optiques pyramidaux de captation appuyés sur une base rectangulaire (BC) commune aux nxm faisceaux optiques et disposée dans la scène à capter, les nxm faisceaux passant chacun to par l'un des nxm centres optiques (Ci) alignés, par lots, sur une ou plusieurs droite(s), dites droites (LCi2) d'alignement des centres, parallèle(s) à l'une des directions principales de cette base commune (BC), les zones de captation (ZCi) correspondant à l'intersection de ces faisceaux optiques avec au moins un plan parallèle à cette base 15 commune (BC), les axes de visée (AV;) ou axes principaux des nxm faisceaux optiques, passant par leur centre optique (Ci), convergeant tous vers le centre (PS) de la base commune (BC), - des données représentatives de paramètres (21) de restitution, définissant ou permettant de déduire au moins les 20 dimensions d'une zone utile choisie du dispositif de restitution et les positions d'observation privilégiées choisies pour le dispositif de restitution. - les moyens (11) de traitement du système ou d'un système informatique associé, exécutent un module (MSI) de synthèse d'images 25 générant des données (28) représentatives des nxm images ou séquences d'images de synthèse à partir desdites données (25) définissant la configuration et de données (24) représentatives soit de positionnements et de caractéristiques, statiques ou évolutifs, de constituants d'une scène virtuelle tridimensionnelle, soit d'une suite d'instructions informatiques ou 30 ordres graphiques permettant de définir cette même scène. In some embodiments, all or part of the data from which the configuration module (22) determines said configuration (25) are variable over time, with data from the storage means (12) and / or internal or external communication and / or user interface (13) and defining at least one time reference (29) for the change of the data (23) representative of the configuration and / or data representative of the global reference (27) capture and / or restitution data (21) (especially the privileged observation positions). These data defining at least one temporal reference (29) can define discrete evolutions (couples (instant, new value) for example) as continuous evolutions (time functions associated with certain values, interpolated key values, ...). These data may come from the means (12) of storage and / or 3o internal or external communication, to define programmed or controlled variations of the capture over time. In a variant, some of these data are generated as a function of at least one action of the user on the user interface (13). Thus, the user can define the variations of the capture, for example using a controlled navigation, for example, by input means such as a pointer (a mouse, a 3D pointing device for example) . The variation of all or part of the data representative of the reference (27) capture thus allows conventional effects traveling around the scene or interactive navigation. The variation of all or part of the data representative of the configuration parameters (23) makes it possible, according to the set of data chosen (external, internal or deformation parameters), to control directly or indirectly, in a programmed or interactive manner, the evolution of the restored relief deformation and capture parameters (point of convergence, position of the optical centers, projection pyramids, etc.). The variation of all or part of the data representative of the restitution (21) makes it possible to adjust the capturing device according to the evolutionary positions of the observers. This allows in particular the interactive monitoring of one or more observers to whom it is desired to propose an intrinsic relief viewing experience around which they can, within certain limits, move to approach it from various angles in a very natural way. . The system (1) according to the invention generating the parameters (25i) for defining the capture nxm pyramids, thanks to the configuration module (22), makes it possible to define a configuration (25) of shots. This configuration can be used to generate images or sequences of computer generated images of a static or dynamic virtual scene. For this purpose, the system (1) may comprise or be associated with an image synthesis module using the configuration (25) generated by the configuration module (22) to generate these images or image sequences, by means of 3o data (24) representative of static and evolutive positions and characteristics of constituents of a three-dimensional virtual scene, or of a series of computer instructions or graphic orders making it possible to define this same scene, these data (24) coming from means (12) for storing and / or communicating internally or externally. By using the configuration (25) produced by the module (22), the image synthesis module will generate images or image sequences, which, once appropriately mixed, can be restored by a rendering multiscopic rendering device. the relief of the scene. It is thus clear that the system (1) for generating the configuration can then form (or be associated with) a system for generating nxm images or sequences of synthesis images intended for rendering a static three-dimensional virtual scene or dynamic. The invention therefore also relates to a use of the data (25) representative of the positioning of the nxm optical centers (C;) and the dimensions and positioning of the nxm capture areas (ZC;) with respect to the scene and defining said configuration according to the invention for generating nxm images or image sequences of a virtual, static or dynamic scene. We will speak here to simplify the generation of nxm images, whether in fact static images or sequences of images (dynamic flow, for example a video). This generation of nxm images (image synthesis) is performed by an image synthesis module (MSI) executed on processing means. These processing means may be those of the configuration generation system or at least one other computer system. The image synthesis module (MSI) is therefore executed by the system (1) for generating the configuration or by another system comprising data processing means (11) executing the synthesis module (MSI). images and means (12) for storing and / or communicating internally or externally and / or a user interface (13). This image synthesis module (MSI) generates data (28) representative of the nxm images or sequences of synthetic images from: - data (25) representative of the positions of the nxm optical centers (C;) and the dimensions and positioning the nxm capture areas (ZC;) with respect to the scene and defining said pattern (25); data representative of either static and evolutive positions and features, constituents of a three-dimensional virtual scene, or a sequence of computer instructions or graphic orders defining the same scene. The invention therefore also provides a system for generating a plurality of nxm images (or image synthesis system) of a virtual scene, these nxm images being intended for restitution on at least one multiscopic reproduction device, the captation being performed by the projection of the scene on a plurality of nxm capture areas (ZC;) each associated with an optical center (C;), defining a virtual capture device, the system comprising means (11) of treatment of data and means (12) for storing and / or communicating internally or externally and / or a user interface (13), characterized in that: the processing means (11) execute a configuration module (22) generating data defining a capture configuration (25), allowing a restitution with a determined relief effect, and representative of the positions, with respect to the scene, of the nxm optical centers (C;) and dimensions and positionings, relative to the scene, nxm capture areas (ZC;) associated with them, by linking at least the following data, from the means (12) of storage and / or internal or external communication of the system and / or coming from the user interface (13): data representative of the positioning, the orientation and the possible conformation in the scene of at least one global reference (27) capture signal representing the choice (s) of the operator of the system in terms of position (s) and viewing orientations of the scene, data representative of at least one parameter (23) of configuration, defining a desired deformation for the relief effect and / or a capture geometry, the capture being carried out by the projection of the scene on the nxm capture zones (ZC;), through nxm pyramidal optical collection beams supported on a rectangular base (BC) common nxm optical beams and arranged in the scene to be captured, the nxm beams each passing through one of the nxm optical centers (Ci) aligned, in batches, on one or more line (s), said straight (LCi2) of alignment of the centers, parallel (s) to one of the main directions of this common base (BC), the capture areas (ZCi) corresponding to the intersection of these optical beams with at least one plane parallel to this common base 15 (BC), the axes of sight (AV;) or principal axes of nxm optical beams, passing through their optical center (Ci), all converging towards the center (PS) of the common base (BC), - representative data of parameters (21) of restitution, defining or enabling to deduce at least the dimensions of a chosen useful area of the rendering device and the preferred observation positions chosen for the rendering device. the processing means (11) of the system or of an associated computer system, execute an image synthesis module (MSI) generating data (28) representative of the nxm images or sequences of computer-generated images from said data (25) defining the configuration and data (24) representative of either static or evolutive positions and features of constituents of a three-dimensional virtual scene, or a sequence of computer instructions or graphic orders for defining this same scene.
Selon divers modes de réalisation, ce système pourra être configuré pour générer des images à relief parfait, selon les relations expliquées en référence avec la modalité contraintes ou pour générer des images à effet relief maîtrisé selon les relations expliquées en référence aux modalités s relief contrôlé , réglage interne ou réglage externe et contrôle de déformation . On comprend donc de ce qui précède que le système de génération d'image (système de synthèse d'image) peut, selon divers modes de réalisation, soit générer lui-même la configuration, soit faire l'utilisation d'une 10 configuration générée au préalable par le système (1) de génération de la configuration. Dans les modes de réalisation où le système de synthèse d'image utilise la configuration (25) générée, il permet en fait de sélectionner une configuration (25) soit des paramètres (25i) de définition de la configuration, via l'interface (13), parmi une pluralité de configurations (25) 1s déterminées, provenant des moyens (12) de mémorisation et/ou de communication interne ou externe, le module (22) de configuration du système de génération des images pouvant alors simplement être (ou être remplacé par) une application contrôlant l'interface pour afficher les diverses configurations proposées et prendre en compte les choix et actions de 20 l'opérateur. Dans des variantes de ces modes de réalisation, les configurations (25) stockées pourront être associées avec des données définissant au moins une référence (29) temporelle pour le changement de tout ou partie de la configuration au cours du temps. De même, dans des variantes de ces modes de réalisation, le module de configuration pourra être 25 associé à, ou comporter, un module d'aide à la décision, comme par exemple un des modules optionnels décrits précédemment. Par exemple, ce module d'aide pourra montrer le résultat de la configuration envisagée, en termes de déformation (par exemple sur un objet 3D affiché) et/ou en termes de géométrie de captation (par exemple sur une représentation graphique 3o montrant les angles ou les pyramides de captation). L'homme de métier comprendra que les diverses fonctionnalités décrites ici peuvent être transposées d'un système à l'autre. According to various embodiments, this system can be configured to generate images with perfect relief, according to the relationships explained with reference to the constraints modality or to generate images with controlled relief effect according to the relations explained with reference to modalities controlled relief, internal adjustment or external adjustment and deformation control. It will therefore be understood from the foregoing that the image generation system (image synthesis system) may, according to various embodiments, either generate the configuration itself, or make use of a generated configuration. in advance by the system (1) for generating the configuration. In the embodiments where the image synthesis system uses the generated configuration (25), it actually allows a configuration (25) or configuration definition parameters (25i) to be selected via the interface (13). ), among a plurality of configurations (25) 1s determined from the means (12) for storage and / or internal or external communication, the module (22) for configuring the image generation system can then simply be (or be replaced by) an application controlling the interface to display the various proposed configurations and to take into account the choices and actions of the operator. In variants of these embodiments, the stored configurations (25) may be associated with data defining at least one time reference (29) for changing all or part of the configuration over time. Likewise, in variants of these embodiments, the configuration module may be associated with, or comprise, a decision support module, such as one of the optional modules described above. For example, this help module may show the result of the envisaged configuration, in terms of deformation (for example on a displayed 3D object) and / or in terms of capture geometry (for example on a graphical representation 3o showing the angles or the pyramids of capture). Those skilled in the art will understand that the various features described herein can be transposed from one system to another.
Les données (24) représentatives de la scène pourront comporter des paramètres permettant la représentation explicite des constituants d'une scène pour produire les nxm images. Selon les modalités acceptables par le module (MSI) de synthèse d'image, les données (24) représentatives de la scène pourront correspondre notamment au positionnement, à la forme et à la matière d'objets, ainsi qu'au positionnement et aux caractéristiques optiques d'illuminants, etc... comme connu dans le domaine. Les données (24) représentatives de la scène pourront comporter des instructions informatiques de type ordres graphiques correspondant à la to représentation implicite des constituants d'une scène pour produire les nxm images. Selon les modalités acceptables par le module (MSI), les données (24) pourront correspondre notamment à des instructions de définitions géométriques, photométriques et optiques dans un langage binaire ou source acceptable par le module (MSI). 15 Ces données (24) représentatives de la scène, pourront, comme mentionné précédemment, être stockées dans des moyens de mémorisation du système de synthèse d'images ou des moyens de mémorisation accessibles par le système de synthèse d'images, c'est-à-dire via des moyens de communication avec d'autres systèmes, ou même n'être 20 présentes dans le système que par le biais de moyens de communication. Par exemple, il est possible, pour la synthèse d'image, de réaliser une CAO (conception assistée par ordinateur) collaborative dans laquelle plusieurs systèmes de CAO coopèrent pour réaliser la synthèse d'image en échangeant les données (24) nécessaires via des canaux de communication 25 (réseau, comme par exemple de type intranet ou internet) avec éventuellement une centralisation des données. De plus, il est possible que les données (24) représentatives de la scène soient obtenues directement à partir de canaux de communication internes, tels que les bus ou autres processus. Par exemple, le module de synthèse d'image, dans une modalité 3o désignée sous le nom de wrapper , peut être (ou comporter, ou être associé à, un module) agencé pour intercepter directement des appels faits, par exemple, à une carte ou une bibliothèque graphique, pour générer les images de synthèse à partir des données interceptées. Dans ce cas, la description de la scène est en fait implicite puisqu'elle correspond en fait à une succession d'ordres ou instructions graphiques obtenue, par exemple, à la volée . On comprend donc que les données (24) représentatives de la scène virtuelle peuvent être stockées dans des moyens de mémorisation du type mémoire de stockage ou du type mémoire volatile et/ou provenir de moyens de communication avec d'autres systèmes. On notera que ces notions, sont également transposables aux différents types de données décrits ici (à l'exception du fait que ces données ne concernent pas des instructions graphiques comme dans le cas du wrapper , mais peuvent néanmoins être présentes de manière volatile dans un bus ou autre processus). Ces notions sont notamment transposables aux données représentatives des configurations (25) utilisées, puisqu'elles peuvent en fait provenir des de mémoires internes au système qui les utilise ou de mémoires externes et de mémoires volatiles (via des moyens de communication interne et/ou externe). On désigne ici ces différentes possibilités par le terme moyens (12) de mémorisation et/ou de communication éventuellement qualifié d ( interne (cas du wrapper , par exemple) ou d' externe (cas de la CAO collaborative, par exemple). De même que pour les variations temporelles mentionnées précédemment pour tout ou partie des paramètres de configuration (23a, 23b, 23c) et/ou des paramètres du repère (27) et/ou des paramètres de restitution (21), lors de la synthèse d'image, les paramètres (24) de définition de la scène virtuelle 3D peuvent varier dans le temps. Ainsi, la scène virtuelle peut être dynamique, avec des données définissant au moins une référence (29) temporelle et des évolutions discrètes et/ou continues de certaines des données (24). Dans une telle scène dynamique, l'invention permet en plus de 3o faire varier les points de vue (travelling, suivi interactif d'observateur(s)) et/ou les déformations grâce aux variations de tout ou partie des paramètres de configuration (23) et/ou du repère (27) et/ou de la restitution (21), comme expliqué précédemment. Dans certains modes de réalisation, le module (MSI) de synthèse d'image génère tout ou partie desdites données (28) représentatives des nxm images de synthèse, statiques ou correspondant au même pas de temps dans leur séquence respective, grâce à l'exécution de multiples instances d'un logiciel de synthèse d'image. Dans certaines variantes, on pourra par exemple avoir les nxm instances réparties sur plusieurs systèmes informatiques, contrôlés par un système central, par exemple le système (1) to de génération de la configuration. Dans certains modes de réalisation, le module (MSI) de synthèse d'image génère tout ou partie desdites données (28) représentatives des nxm images de synthèse, statiques ou correspondant au même pas de temps dans leur séquence respective, par une même instance d'un logiciel is de synthèse d'image agencé pour réaliser en parallèle plusieurs traitements à la volée. On notera ici que ces modes de réalisation à nxm instances et à une instance unique ne sont pas incompatibles entre elles car il est possible d'utiliser ces deux types de traitement en même temps en réalisant moins de nxm instances du module (MSI) produisant chacune plusieurs des nxm 20 images. Dans certains modes de réalisation, les nxm images ou séquences d'images de synthèse générées par le module (MSI) de synthèse d'image pourront être stockées ou transmises à d'autres processus ou systèmes grâce aux moyens (12) de mémorisation et/ou de communication interne ou 25 externe, par exemple en vue d'un mixage ultérieur, d'un mixage par un autre processus ou d'un mixage distant. Dans d'autres modes de réalisation, les nxm images ou séquences d'images de synthèse générées par le module (MSI) de synthèse d'image font l'objet d'un mixage spatial et/ou temporel qui permettra leur restitution directe (après transmission) sur un dispositif 3o multiscopique. Ce mixage sera adapté au dispositif de restitution multiscopique choisi, grâce à un module (MX) de mixage utilisant des données (DR) représentatives des caractéristiques techniques du dispositif de restitution (modalités spatiales et temporelles du mixage, par exemple, masques de mélanges des nxm images sur la zone utile, fréquence et phase du mixage temporel ...) pour générer des données (DX) représentatives des nxm images ou séquences d'images mixées de manière appropriée pour leur restitution sur le dispositif de restitution. Dans ces modes de réalisation où les images sont mixées, les données (DX) représentatives des images mixées, peuvent être stockées ou transmises à d'autres processus ou to systèmes grâce aux moyens (12) de mémorisation et/ou de communication interne ou externe, par exemple en vue d'une restitution multiscopique ultérieure, d'une utilisation par un autre processus du système ou d'une utilisation par un système distant, et/ou être transmises à au moins un dispositif de restitution correspondant au dispositif choisi lors de la 15 configuration (25) de la captation. On notera ici que la présente description mentionne des moyens (12) de mémorisation et de communication interne ou externe qui sont représentés dans les figures comme appartenant au système (1) de génération mais il doit être évident que l'invention permet de répartir les 20 divers types de données décrites ici dans plusieurs moyens de mémorisation et de communication différents et que plusieurs systèmes informatiques pourront coopérer pour permettre les diverses fonctionnalités décrites ici. Dans le cas où les moyens de traitement exécutent successivement nxm instances du logiciel de synthèse d'image et où les (séquences d') 25 images sont transmises directement au dispositif de restitution multiscopique, les vitesses d'exécution des nxm instances et de mixage doivent être suffisantes pour permettre la génération des images mixées en un temps suffisamment court pour permettre l'affichage par l'écran multiscopique. The data (24) representative of the scene may include parameters allowing the explicit representation of the constituents of a scene to produce the nxm images. According to the modalities acceptable by the image synthesis module (MSI), the data (24) representative of the scene may correspond in particular to the positioning, to the shape and to the material of objects, as well as to the positioning and characteristics optical illuminants, etc ... as known in the field. The data (24) representative of the scene may comprise computer instructions of the graphic order type corresponding to the implicit representation of the constituents of a scene to produce the nxm images. According to the modalities acceptable by the module (MSI), the data (24) may correspond in particular to instructions for geometric, photometric and optical definitions in a binary language or source acceptable by the module (MSI). These data (24) representative of the scene may, as mentioned above, be stored in storage means of the image synthesis system or storage means accessible by the image synthesis system; ie via means of communication with other systems, or even be present in the system only through means of communication. For example, it is possible for image synthesis to perform a collaborative CAD (Computer Aided Design) in which several CAD systems cooperate to perform the image synthesis by exchanging the necessary data (24) via channels. communication 25 (network, such as intranet or internet) with possible centralization of data. In addition, it is possible for the representative scene data (24) to be obtained directly from internal communication channels, such as buses or other processes. For example, the image synthesis module, in a modality 3o referred to as a wrapper, can be (or include, or be associated with, a module) arranged to directly intercept calls made, for example, to a card or a graphic library, to generate the computer generated images from the intercepted data. In this case, the description of the scene is in fact implicit since it corresponds in fact to a succession of orders or graphical instructions obtained, for example, on the fly. It is thus clear that the data (24) representative of the virtual scene can be stored in storage means of the storage memory type or the volatile memory type and / or come from communication means with other systems. Note that these notions are also transferable to the different types of data described here (except for the fact that these data do not concern graphic instructions as in the case of the wrapper, but can nevertheless be present in a volatile way in a bus or other process). These notions are in particular transferable to the data representative of the configurations (25) used, since they can in fact come from memories internal to the system that uses them or from external memories and volatile memories (via means of internal and / or external communication ). These various possibilities are referred to here by the means (12) of storage and / or communication possibly qualified as internal (for example the wrapper case) or externally (as in the case of collaborative CAD, for example). for the aforementioned temporal variations for all or part of the configuration parameters (23a, 23b, 23c) and / or the parameters of the marker (27) and / or of the reproduction parameters (21), during the image synthesis , the parameters (24) for defining the 3D virtual scene may vary over time, thus the virtual scene may be dynamic, with data defining at least one temporal reference (29) and discrete and / or continuous evolutions of certain In such a dynamic scene, the invention makes it possible in addition to 3o to vary the points of view (tracking, interactive monitoring of observer (s)) and / or the deformations thanks to the variations of all or configuration parameters (23) and / or the mark (27) and / or the restitution (21), as previously explained. In some embodiments, the image synthesis module (MSI) generates all or part of said data (28) representative of the nxm synthetic images, static or corresponding to the same time step in their respective sequence, thanks to the execution multiple instances of an image synthesis software. In certain variants, it will be possible, for example, to have the nxm instances distributed over several computer systems, controlled by a central system, for example the system (1) to generate the configuration. In some embodiments, the image synthesis module (MSI) generates all or part of said data (28) representative of the nxm synthetic images, static or corresponding to the same time step in their respective sequence, by the same instance of is an image synthesis software designed to perform in parallel several treatments on the fly. It should be noted here that these embodiments with nxm instances and with a single instance are not mutually incompatible because it is possible to use these two types of processing at the same time by producing fewer nxm instances of the module (MSI) each producing many of the nxm 20 images. In some embodiments, the nxm images or sequences of synthesis images generated by the image synthesis module (MSI) may be stored or transmitted to other processes or systems by the means (12) of storage and / or internal or external communication, for example for later mixing, mixing by another process or remote mixing. In other embodiments, the nxm images or sequences of synthesis images generated by the image synthesis module (MSI) are subjected to a spatial and / or temporal mixing which will allow their direct restitution (after transmission) on a device 3o multiscopic. This mix will be adapted to the multiscopic playback device chosen, thanks to a mixing module (MX) using data (DR) representative of the technical characteristics of the playback device (spatial and temporal modes of the mix, for example, masks of mixtures of the nxm images on the useful area, frequency and phase of the time mixing ...) for generating data (DX) representative of the nxm images or sequences of images mixed appropriately for their reproduction on the playback device. In these embodiments where the images are mixed, the data (DX) representative of the mixed images can be stored or transmitted to other processes or systems by the means (12) of storage and / or internal or external communication , for example with a view to a subsequent multiscopic reproduction, use by another process of the system or use by a remote system, and / or being transmitted to at least one rendering device corresponding to the device chosen during the configuration (25) of the capture. It will be noted here that the present description mentions means (12) of storage and of internal or external communication which are represented in the figures as belonging to the system (1) of generation, but it must be obvious that the invention makes it possible to distribute the 20 various types of data described herein in several different storage and communication means and that several computer systems will cooperate to enable the various features described herein. In the case where the processing means successively execute nxm instances of the image synthesis software and where the (sequences of) images are transmitted directly to the multiscopic reproduction device, the execution speeds of the nxm instances and of mixing must be sufficient to allow the generation of the mixed images in a sufficiently short time to allow the display by the multiscopic screen.
On comprend donc que l'invention permet de configurer une captation de nxm images et permet de générer ces images destinées une restitution multiscopique en relief (une fois mixées). It is thus understood that the invention makes it possible to configure a capture of nxm images and makes it possible to generate these images intended for multiscopic rendering in relief (once mixed).
Procédé de synthèse d'images multiscopiques L'invention concerne donc également un procédé de génération d'une pluralité de nxm images ou séquences d'images d'une scène virtuelle, statique ou dynamique, comme représenté de manière illustrative et non limitative sur la figure 6. Ces nxm images ou séquences d'images étant destinées à une restitution sur au moins un dispositif de restitution to multiscopique, et correspondent à la projection de la scène virtuelle statique ou dynamique sur une pluralité de nxm zones de captation (ZC;) associée chacune à un centre optique (C;). Ce procédé est mis en oeuvre par au moins un système comportant des moyens (11) de traitement de données et des moyens (12) de mémorisation et/ou de communication interne ou externe 15 et/ou une interface (13) utilisateur, et comporte les étapes suivantes : • génération (41), par un module (22) de configuration, de données représentatives d'une configuration (25) de la captation, permettant une restitution avec un effet relief déterminé ou contrôlé, et représentatives des positionnements, par rapport à la scène, des nxm centres optiques 20 (C;) et des dimensions et positionnements, par rapport à la scène, des nxm zones de captation (ZC;) qui leurs sont associées, à partir au moins des données suivantes, provenant des moyens (12) de mémorisation et/ou de communication interne ou externe et/ou de l'interface (13) utilisateur : 25 - des données représentatives du positionnement, de l'orientation et de l'éventuelle conformation dans la scène d'au moins un repère (27) global de captation, - des données représentatives d'au moins un paramètre (23) de configuration, définissant une déformation souhaitée pour l'effet 30 relief et/ou une géométrie de captation, la captation étant réalisée par la projection de la scène virtuelle sur les nxm zones de captation (ZCi) au travers de nxm faisceaux optiques pyramidaux de captation appuyés sur une base rectangulaire (BC) commune aux nxm faisceaux optiques, disposée dans la scène, les faisceaux passant chacun par l'un des nxm centres optiques (Ci) alignés sur une ou plusieurs droites (LCi2) parallèles aux lignes de cette base commune (BC), les zones de captation (ZCi) correspondant à l'intersection de ces faisceaux optiques avec au moins un plan parallèle à cette base commune (BC), les axes de visée (AVi) ou lo axes principaux des nxm faisceaux optiques, passant par leur centre optique (Ci), convergeant tous vers le centre (PS) de la base commune (BC), des données représentatives de paramètres (21) de restitution, définissant ou permettant de déduire au moins les 15 dimensions d'une zone utile du dispositif de restitution choisi et les positions d'observation privilégiées supposées alignées, au moins par paires, sur une ou plusieurs droites (LOi2) parallèles aux lignes du dispositif de restitution. • captation virtuelle (42) de la scène par génération, par un module (MSI) 20 de synthèse d'images, de données (28) représentatives des nxm images ou séquences d'image virtuelles à partir desdites données (25) représentatives de ladite configuration et de données (24) représentatives soit de positionnements et de caractéristiques, statiques ou dynamiques, de constituants d'une scène virtuelle 25 tridimensionnelle, soit d'une suite d'instructions informatiques ou ordres graphiques permettant de définir cette même scène, ces données (24) provenant des moyens (12) de mémorisation et/ou de communication interne ou externe et/ou de l'interface (13) utilisateur. Dans certains modes de réalisation, l'étape de génération (42) des 30 données (28) représentatives des nxm images de synthèse, statiques ou correspondant au même pas de temps dans leur séquence respective, par le module (MSI) de synthèse d'image, comporte des étapes d'exécution (421 n) de multiples instances d'un logiciel de synthèse d'image (instances LSI). Dans d'autres modes de réalisation, cette étape de génération (42) comporte une étape d'exécution (422) d'une instance d'un logiciel de synthèse d'image agencé pour réaliser en parallèle plusieurs captations d'images en une même instance (instance LSI multi-traitement). Dans d'autres modes de réalisation intermédiaire, cette étape de génération (42) comporte des étapes d'exécution (421n) de multiples instances à multiples traitements. Il est en effet possible de combiner ~o l'exécution (421n) de multiples instances d'un logiciel de synthèse d'image et l'exécution (422) d'une instance d'un logiciel de synthèse d'image agencé pour réaliser en parallèle plusieurs captations d'images en une même instance. On notera que le procédé selon l'invention pourra, dans certains modes ts de réalisation, comporter diverses étapes permettant de réaliser les diverses fonctions décrites précédemment en relation avec le système de génération de la configuration et l'utilisation de la configuration pour la génération des nxm images ou séquences d'image, selon les diverses modalités décrites. Par exemple, comme représenté sur la figure 6, le procédé pourra 20 comporter au moins une étape (40) de saisie et/ou sélection et/ou édition et/ou consultation et/ou sauvegarde par l'opérateur grâce à l'interface (13) utilisateur. Cette étape (40) permet à l'opérateur de contrôler la mise en oeuvre des diverses étapes du procédé par le système (comme montré sur la figure 6). Le procédé pourra également comporter au moins une étape de 25 stockage/communication (43), soit de la configuration (25), soit des images générées, soit du résultat du mixage des images, grâce aux moyens (12) de mémorisation et/ou de communication interne ou externe. Le procédé pourra également comporter au moins une étape de mixage (44) des images, de façon à obtenir des images mixées utilisables par les dispositifs de 3o restitution, cette étape de mixage (44) pouvant être suivie d'une étape de stockage (43) ou d'une étape de transmission (45) du résultat du mixage vers au moins un dispositif de restitution. Le procédé peut donc comporter une étape de transmission (45) vers au moins un dispositif de restitution, soit des images générées par le système, soit du résultat du mixage. Dans certaines variantes, notamment lorsque le module de synthèse d'image (MSI) est implémenté dans un système informatique différent du système (1) de génération de la configuration (25), l'étape de transmission (45) pourra être mise en oeuvre de façon (non représentée) à transmettre la configuration (25) au module de synthèse d'image (MSI) pour qu'il génère les images à lo partir de cette configuration. L'homme de métier comprendra à la lecture de la description des diverses mises en relation des données représentatives des différents paramètres utilisés par le module de configuration, faite en référence au système (1) de génération et aux géométries de restitution et de captation, is que le procédé pourra comporter au moins une étape de mise en relation de paramètres (21, 27, 23a, 23b, 23c...) lors de l'étape de génération (41) de la configuration. On comprendra également que la génération des images (synthèse d'image) pouvant être faite à partir de configurations (25) déterminées au 20 préalable par un système (1) de génération de la configuration, utilisées par un système de génération d'images, l'invention prévoit également un procédé comportant une étape d'utilisation d'au moins une configuration provenant de moyens (12) de mémorisation et/ou de communication interne ou externe auxquels accède le module (MSI) de synthèse d'images pour 25 mettre en oeuvre l'étape de génération (42) des images (étape de synthèse d'images), la (ou les) configuration(s) ayant été générée(s) au préalable par au moins une étape de génération (41) de la configuration mise en oeuvre par un système (1) de génération de configuration et transmise(s) aux moyens (12) de mémorisation et/ou de communication interne ou externe. 3o L'homme de métier appréciera à la lecture de la présente demande les variations de configuration possibles pour les moyens de mémorisation et/ou de communication interne ou externe et les moyens de traitement de données (qui peuvent être associés au dispositif ou inclus dedans par exemple). Plusieurs aspects fonctionnels, notamment des modalités ou fonctions identifiées en détail, sont décrits dans la présente description comme étant supportés par des modules exécutés sur des moyens de traitement . On comprendra notamment à la lecture de la présente demande que les composants de la présente invention, comme généralement décrits et illustrés dans les figures, peuvent être arrangés et conçus selon une grande ~o variété de configurations différentes. Ainsi, la description de la présente invention et les figures afférentes ne sont pas prévues pour limiter la portée de l'invention mais représentent simplement des modes de réalisation choisis. Par exemple, les moyens de traitement peuvent comporter au moins un processeur ou au moins un circuit électronique, tel qu'un circuit intégré 15 par exemple ou d'autre types d'arrangement de composants, tels que par exemple des semi-conducteurs, des portes logiques, des transistors ou d'autres composants discrets. De tels moyens de traitement peuvent également supporter une ou plusieurs application(s) logicielle(s) ou portion(s) de code exécutable(s) au sein d'au moins un environnement logiciel. Les 20 modules décrits ici sont donc identifiés fonctionnellement car ils peuvent correspondre à des applications logicielles localisées ou distribuées ou être mis en oeuvre par divers types de moyens de traitement. Le module (22) de configuration pourra regrouper les diverses modalités ou fonctions décrites, ou requérir la coopération d'autres modules, sans que l'on s'éloigne de 25 l'esprit de l'invention. Les moyens (12) de mémorisation et/ou de communication interne ou externe pourront être co-localisés avec les moyens de traitement (11) ou être dans des systèmes informatiques différents. De même, le système de génération de la configuration pourra également comporter les moyens nécessaires pour former le système de 3o génération des images de synthèse ou ces deux systèmes pourront être formés physiquement par au moins deux systèmes informatiques différents. Les données représentatives de paramètres, de constituants ou de divers éléments et caractéristiques décrits ici pourront former des fichiers informatiques ou même, selon le cas n'être présentes que temporairement, par exemple dans une mémoire volatile, lorsque leur utilisation ne nécessite pas leur persistance dans le système, notamment dans les cas décrits de transmission des données entre divers processus d'un même système, via des moyens de communication interne, voire même dans le cas de transmission de données entre divers processus de systèmes différents.. Un ou plusieurs bloc(s) physique(s) ou logique(s) d'instructions machine peuvent, par exemple, être organisés en objet, procédé, ou fonction w (ou modalité). De plus, les routines et instructions utilisées par ces moyens de traitement n'ont pas besoin d'être physiquement localisés ensemble, mais peuvent comporter des instructions disparates stockées dans différents endroits qui, une fois réunis fonctionnellement et logiquement ensemble, forment le module et réalisent le but indiqué pour le module. En effet, une ts instruction simple de code exécutable, ou une pluralité d'instructions, peut en fait être distribuée parmi plusieurs différents segments de code ou parmi différents programmes et stockée dans plusieurs blocs de mémoires. De même, des données opérationnelles peuvent être identifiées et illustrées dans des moyens de traitement ou modules, et peuvent être incorporées 20 sous n'importe quelle forme appropriée et être organisées dans n'importe quel type approprié de structure de données. Les données opérationnelles peuvent être rassemblées ou peuvent être réparties sur différents endroits incluant différents dispositifs de stockage finis, et peuvent exister, au moins partiellement, simplement en tant que signaux électroniques sur un système 25 ou un réseau. On désigne ici le système comme comportant des moyens de traitement dans certains modes de réalisation, mais l'homme de métier comprendra qu'il peut en fait être associé à de tels moyens ou les inclure dans sa structure. Le système comporte des moyens de traitement de données permettant de réaliser les modalités ou fonctions décrites et pourra 30 donc comporter (ou être associé à) des circuits spécifiques réalisant ces modalités ou fonctions ou comporter (ou être associé à), d'une manière générale, des ressources informatiques permettant d'exécuter des instructions remplissant les fonctions (ou modalités) décrites précédemment. L'homme de métier comprendra que de nombreuses variantes de réalisation sont possibles. Ainsi, par exemple, les diverses données représentatives des paramètres décrits ici pourront être regroupées sous la forme d'un fichier par type de paramètre et le système pourra exécuter au moins un programme supportant tout ou partie des fonctions ou modalités décrites ici, présentant les informations pertinentes pour les choix de l'opérateur. Par exemple, les divers modes de réalisation décrits de l'invention pourront être implémentés ~o sous la forme d'un système informatique exécutant les modules décrits ici et utilisant des données relatives aux divers paramètres et au moins un algorithme au moins équivalent à au moins une des relations (équations) décrits de façon illustrative en détail dans la présente demande. Dans d'autres modes de réalisation, ce sont plusieurs systèmes informatiques, par ts exemple reliés en réseau qui supporteront tout ou partie des modes de réalisation de l'invention décrits ici. Le module (22) de configuration et celui de pilotage de l'interface (13) homme/machine pourront être distincts ou intégrés l'un à l'autre. Cette interface (13) a été décrite ici comme un ensemble de moyens de 20 saisie et d'affichage (écran tactile par exemple) permettant à l'opérateur d'interagir avec le système. L'homme de métier appréciera que selon le type de moyens de saisie et d'affichage mis en oeuvre, le module de pilotage de ces moyens devra varier, indépendamment du fait qu'il soit intégré ou distinct du module (22) de configuration. 25 D'une manière générale, l'agencement des modules et de l'interface pourra être réalisé de sorte que l'invention en fonctionnement, permette de présenter à l'opérateur, via l'interface, au moins un composant logiciel de choix de configuration (menu, onglets, ...) correspondant à au moins une des modalités du module (22) de configuration, en proposant des choix 30 relatifs à au moins un des paramètres disponibles dans cette modalité et/ou à des configurations de captation prédéterminées correspondant à cette modalité. Les sélections réalisées par l'opérateur, via l'interface, permettent au module (22) de configuration de déterminer la configuration à utiliser pour la captation. L'invention pourra prévoir des composants de choix (menus, onglets, ...) variables selon l'utilisation et l'opérateur, par exemple des composants dits expert et débutant , fixant ou non des limites pré-imposées pour les valeurs de paramètres (par exemple) et proposant ou non des variations pour les configurations prédéterminées. De même, l'utilisation pourra être guidée, par exemple, grâce à des représentations graphiques des résultats des sélections (comme mentionné précédemment) ~o ou des représentations graphiques des configurations de captation prédéterminées. De même, pour le module de synthèse d'image, l'invention peut permettre, via l'interface, de présenter à l'opérateur au moins un composant logiciel de choix comportant au moins une configuration de captation préalablement déterminée et/ou au moins une scène virtuelle à 15 capter , pour obtenir les images ou séquences d'images. L'utilisation pour le mixage pourra également être guidée par des composants logiciels de choix présentant à l'opérateur par exemple divers types de dispositifs de restitution. The invention therefore also relates to a method for generating a plurality of nxm images or image sequences of a virtual scene, static or dynamic, as shown in an illustrative and nonlimiting manner in the figure. 6. These nxm images or sequences of images being intended for restitution on at least one rendering device to multiscopic, and correspond to the projection of the static or dynamic virtual scene on a plurality of nxm capture areas (ZC) associated each at an optical center (C;). This method is implemented by at least one system comprising data processing means (11) and internal and external storage and / or communication means (12) and / or a user interface (13), and comprises the following steps: • generation (41), by a configuration module (22), of data representative of a configuration (25) of the capture, allowing a restitution with a determined or controlled relief effect, and representative of the positions, by nxm optical centers (C;) and the dimensions and positions, relative to the scene, of the nxm capture areas (ZC;) associated with them, based on at least the following data, from the means (12) for storing and / or communicating internally or externally and / or for the user interface (13): data representative of the positioning, the orientation and the possible conformation in the scene from to minus a mark re (27) overall capture, - data representative of at least one configuration parameter (23), defining a desired deformation for the relief effect and / or a capture geometry, the capture being achieved by the projection of the virtual scene on the nxm capture areas (ZCi) through nxm pyramidal optical beams of capture supported on a rectangular base (BC) common to the nxm optical beams, arranged in the scene, the beams each passing by one of the nxm optical centers (Ci) aligned on one or more lines (LCi2) parallel to the lines of this common base (BC), the capture areas (ZCi) corresponding to the intersection of these optical beams with at least one plane parallel to this base common (BC), the axes of sight (AVi) or the main axes of nxm optical beams, passing through their optical center (Ci), all converging towards the center (PS) of the common base (BC), representative data d e parameters (21) of restitution, defining or making it possible to deduce at least the dimensions of a useful area of the chosen restitution device and the preferred observation positions supposed to be aligned, at least in pairs, on one or more lines (LOi2 parallel to the lines of the rendering device. Virtual capture (42) of the scene by generation, by an image synthesis module (MSI) 20, of data (28) representative of the nxm images or virtual image sequences from said data (25) representative of said configuration and data (24) representative of either static or dynamic positioning and characteristics of constituents of a virtual three-dimensional scene, or of a series of computer instructions or graphic orders making it possible to define this same scene, these data (24) from the means (12) for storing and / or communicating internally or externally and / or the user interface (13). In some embodiments, the step of generating (42) the data (28) representative of the nxm synthetic images, static or corresponding to the same time step in their respective sequence, by the synthesis module (MSI) of image, comprises execution steps (421 n) of multiple instances of an image synthesis software (LSI instances). In other embodiments, this generation step (42) comprises a step of executing (422) an instance of an image synthesis software arranged to perform in parallel several image captures in one and the same time. instance (multi-processing LSI instance). In other intermediate embodiments, this generation step (42) includes execution steps (421n) of multiple multi-process instances. It is indeed possible to combine ~ o the execution (421n) of multiple instances of an image synthesis software and the execution (422) of an instance of an image synthesis software arranged to realize in parallel several captations of images in the same instance. It will be noted that the method according to the invention may, in certain embodiments, include various steps for performing the various functions described above in connection with the system for generating the configuration and the use of the configuration for the generation of the nxm images or image sequences, according to the various methods described. For example, as shown in FIG. 6, the method may comprise at least one step (40) of input and / or selection and / or editing and / or consultation and / or backup by the operator through the interface ( 13) user. This step (40) allows the operator to control the implementation of the various process steps by the system (as shown in Figure 6). The method may also comprise at least one storage / communication step (43), either of the configuration (25), or of the images generated, or of the result of the mixing of the images, thanks to the storage means (12) and / or internal or external communication. The method may also comprise at least one step of mixing (44) the images, so as to obtain mixed images that can be used by the reproduction devices 3o, this mixing step (44) being able to be followed by a storage step (43). ) or a step of transmitting (45) the result of the mixing to at least one playback device. The method may therefore include a step of transmitting (45) to at least one rendering device, either images generated by the system, or the result of the mixing. In certain variants, especially when the image synthesis module (MSI) is implemented in a computer system different from the system (1) for generating the configuration (25), the transmission step (45) can be implemented. in a manner (not shown) to transmit the configuration (25) to the image synthesis module (MSI) to generate the images from this configuration. Those skilled in the art will understand, on reading the description of the various connections between the data representative of the various parameters used by the configuration module, made with reference to the generation system (1) and the reproduction and capture geometries, is that the method may comprise at least one parameter setting step (21, 27, 23a, 23b, 23c ...) during the generation step (41) of the configuration. It will also be understood that the generation of images (image synthesis) can be made from configurations (25) previously determined by a system (1) for generating the configuration, used by an image generation system. the invention also provides a method comprising a step of using at least one configuration originating from means (12) for storing and / or communicating internally or externally to which the image synthesis module (MSI) for accessing implementation step (42) of the images (image synthesis step), the (or) configuration (s) having been generated (s) beforehand by at least one generation step (41) of the configuration implemented by a system (1) of configuration generation and transmitted (s) to the means (12) of storage and / or internal or external communication. 3o Those skilled in the art will appreciate on reading the present application the possible configuration variations for the storage means and / or internal or external communication and the data processing means (which may be associated with the device or included in it by example). Several functional aspects, including modalities or functions identified in detail, are described in this description as being supported by modules executed on processing means. It will be understood in particular from reading the present application that the components of the present invention, as generally described and illustrated in the figures, can be arranged and designed in a large variety of different configurations. Thus, the description of the present invention and the accompanying figures are not intended to limit the scope of the invention but merely represent selected embodiments. For example, the processing means may comprise at least one processor or at least one electronic circuit, such as an integrated circuit 15 for example or other types of arrangement of components, such as for example semiconductors, logic gates, transistors or other discrete components. Such processing means may also support one or more software application (s) or portion (s) executable code (s) within at least one software environment. The modules described here are therefore functionally identified because they may correspond to localized or distributed software applications or may be implemented by various types of processing means. The configuration module (22) can group the various modalities or functions described, or require the cooperation of other modules, without departing from the spirit of the invention. The means (12) of storage and / or internal or external communication may be co-located with the processing means (11) or be in different computer systems. Similarly, the system for generating the configuration may also include the means necessary to form the 30th generation system of the computer-generated images or these two systems may be physically formed by at least two different computer systems. Data representative of parameters, constituents or various elements and features described herein may form computer files or even, as the case may be present only temporarily, for example in a volatile memory, when their use does not require their persistence in the system, especially in the described cases of data transmission between various processes of the same system, via internal communication means, or even in the case of data transmission between different processes of different systems. One or more blocks ( s) physical (s) or logic (s) of machine instructions can, for example, be organized into an object, process, or function w (or modality). In addition, the routines and instructions used by these processing means do not need to be physically located together, but may comprise disparate instructions stored in different locations which, when functionally and logically joined together, form the module and realize the stated purpose for the module. Indeed, a ts simple executable code instruction, or a plurality of instructions, can actually be distributed among several different code segments or among different programs and stored in several memory blocks. Also, operational data may be identified and illustrated in processing means or modules, and may be incorporated into any suitable form and organized into any suitable type of data structure. The operational data may be collected or may be spread over different locations including different finished storage devices, and may exist, at least partially, simply as electronic signals on a system or network. The system is here referred to as having processing means in some embodiments, but one skilled in the art will appreciate that it may in fact be associated with such means or include them in its structure. The system comprises data processing means making it possible to carry out the modalities or functions described and may therefore include (or be associated with) specific circuits implementing these modalities or functions or include (or be associated with), in a general manner. , computer resources for executing instructions fulfilling the functions (or modalities) described above. Those skilled in the art will understand that many alternative embodiments are possible. Thus, for example, the various data representative of the parameters described here can be grouped in the form of a file by type of parameter and the system can execute at least one program supporting all or part of the functions or methods described here, presenting the information relevant for the operator's choices. For example, the various described embodiments of the invention may be implemented in the form of a computer system executing the modules described here and using data relating to the various parameters and at least one algorithm at least equivalent to at least one of the relationships (equations) described illustratively in detail in this application. In other embodiments, it is a plurality of computer systems, eg networked, that will support all or part of the embodiments of the invention described herein. The module (22) configuration and control of the interface (13) man / machine may be separate or integrated with each other. This interface (13) has been described here as a set of input and display means (touch screen for example) allowing the operator to interact with the system. Those skilled in the art will appreciate that depending on the type of input and display means implemented, the control module of these means will vary, regardless of whether it is integrated or separate from the module (22) configuration. In general, the arrangement of the modules and the interface may be designed so that the invention in operation enables the operator, via the interface, to present at least one software component of choice. configuration (menu, tabs, ...) corresponding to at least one of the modalities of the configuration module (22), by proposing choices relating to at least one of the parameters available in this modality and / or to predetermined capture configurations corresponding to this modality. The selections made by the operator, via the interface, allow the configuration module (22) to determine the configuration to be used for the capture. The invention may provide components of choice (menus, tabs, ...) that vary depending on the use and the operator, for example so-called expert and beginner components, setting or not pre-imposed limits for the parameter values. (for example) and offering or not variations for predetermined configurations. Likewise, the use may be guided, for example, by graphical representations of the results of the selections (as mentioned above) or graphic representations of the predetermined capture patterns. Similarly, for the image synthesis module, the invention may allow, via the interface, to present to the operator at least one software component of choice comprising at least one previously determined capture configuration and / or at least a virtual scene to capture, to obtain the images or sequences of images. The use for mixing may also be guided by software components of choice presenting the operator for example various types of playback devices.
20 Rappelons pour une bonne compréhension de l'invention que dans l'art antérieur un logiciel de synthèse d'image exploite des données représentatives de positionnements et de caractéristiques, statiques ou évolutifs, de constituants d'une scène, comme par exemple les informations d'un ou plusieurs fichier(s) de représentation des objets 3D d'une scène pour 25 produire une image destinée à être envoyée (en direct ou en différé, en local ou à distance) à un dispositif de restitution en vue de son affichage en perspective. Notons que cette production d'image de synthèse peut être obtenue directement par le logiciel de synthèse d'image (technologies de lancer de rayons ou de radiosité notamment) ou bien obtenue indirectement 30 (technologie de tampon de profondeur) par au moins un moyen matériel spécialisé (processeur graphique 3D) exécutant les instructions graphiques transmises par le logiciel à ce(s) moyen(s) matériel(s). Ceci explique la dualité de description de scène que permet cette invention en s'adaptant tant à des descriptions de scène explicites (ou amont : positions et caractéristiques des constituants) qu'implicites (ou aval : flot d'instructions graphiques transmis par un processus, éventuellement distinct de celui qui exécute l'invention, à au moins un processeur graphique 3D). II doit être évident pour les personnes versées dans l'art que la présente invention permet des modes de réalisation sous de nombreuses autres formes spécifiques sans l'éloigner du domaine d'application de l'invention comme revendiqué. Par conséquent, les présents modes de io réalisation doivent être considérés à titre d'illustration, mais peuvent être modifiés dans le domaine défini par la portée des revendications jointes, et l'invention ne doit pas être limitée aux détails donnés ci-dessus. It will be recalled for a good understanding of the invention that in the prior art an image synthesis software exploits data representative of static or evolutive positions and characteristics of constituents of a scene, such as, for example one or more file (s) for representing the 3D objects of a scene to produce an image to be sent (live or deferred, locally or remotely) to a rendering device for display in perspective. Note that this computer-generated image production can be obtained directly by the image synthesis software (ray tracing or radiosity technologies in particular) or obtained indirectly (depth buffer technology) by at least one material means. specialized computer (3D graphics processor) executing graphic instructions transmitted by the software to this medium (s) hardware (s). This explains the duality of scene description that this invention allows by adapting both to explicit scene descriptions (or upstream: positions and characteristics of the constituents) that implicit (or downstream: stream of graphical instructions transmitted by a process, possibly different from that which executes the invention, to at least one 3D graphics processor). It should be obvious to those skilled in the art that the present invention allows embodiments in many other specific forms without departing from the scope of the invention as claimed. Therefore, the present embodiments should be considered by way of illustration, but may be modified within the scope defined by the scope of the appended claims, and the invention should not be limited to the details given above.
Claims (17)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0901078A FR2942888B1 (en) | 2009-03-09 | 2009-03-09 | SYSTEM AND METHOD FOR SYNTHESIZING A PLURALITY OF IMAGES OF A VIRTUAL SCENE FOR ITS MULTISCOPIC RESTITUTION WITH CONTROLLED DEFORMATION BY APPROPRIATE PRIOR CONFIGURATION OF VIRTUAL SENSORS |
EP10707295.1A EP2406962B1 (en) | 2009-03-09 | 2010-03-09 | System and method adapted for capturing a plurality of images for multiscopic restitution with controlled deformation |
PCT/EP2010/052992 WO2010103012A1 (en) | 2009-03-09 | 2010-03-09 | System and method adapted for capturing a plurality of images for multiscopic restitution with controlled deformation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0901078A FR2942888B1 (en) | 2009-03-09 | 2009-03-09 | SYSTEM AND METHOD FOR SYNTHESIZING A PLURALITY OF IMAGES OF A VIRTUAL SCENE FOR ITS MULTISCOPIC RESTITUTION WITH CONTROLLED DEFORMATION BY APPROPRIATE PRIOR CONFIGURATION OF VIRTUAL SENSORS |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2942888A1 true FR2942888A1 (en) | 2010-09-10 |
FR2942888B1 FR2942888B1 (en) | 2011-07-22 |
Family
ID=41137184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0901078A Active FR2942888B1 (en) | 2009-03-09 | 2009-03-09 | SYSTEM AND METHOD FOR SYNTHESIZING A PLURALITY OF IMAGES OF A VIRTUAL SCENE FOR ITS MULTISCOPIC RESTITUTION WITH CONTROLLED DEFORMATION BY APPROPRIATE PRIOR CONFIGURATION OF VIRTUAL SENSORS |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2942888B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1089573A2 (en) * | 1999-09-15 | 2001-04-04 | Sharp Kabushiki Kaisha | Method of producing a stereoscopic image |
US20010033327A1 (en) * | 1995-06-29 | 2001-10-25 | Kenya Uomori | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
WO2005112474A2 (en) * | 2004-05-12 | 2005-11-24 | Setred Ab | 3d display method and apparatus |
-
2009
- 2009-03-09 FR FR0901078A patent/FR2942888B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010033327A1 (en) * | 1995-06-29 | 2001-10-25 | Kenya Uomori | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
EP1089573A2 (en) * | 1999-09-15 | 2001-04-04 | Sharp Kabushiki Kaisha | Method of producing a stereoscopic image |
WO2005112474A2 (en) * | 2004-05-12 | 2005-11-24 | Setred Ab | 3d display method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
FR2942888B1 (en) | 2011-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Park et al. | Recent progress in three-dimensional information processing based on integral imaging | |
US7643025B2 (en) | Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates | |
US6160909A (en) | Depth control for stereoscopic images | |
EP0661672B1 (en) | Picture processing process and device for building a target image from a source image with perspective change | |
Balram et al. | Light‐field imaging and display systems | |
EP0305274B1 (en) | Method and arrangement for generating stereoscopic images | |
Chang et al. | 360-degree color hologram generation for real 3D objects | |
US20130251241A1 (en) | Applying Perceptually Correct 3D Film Noise | |
TWI411870B (en) | Stereo image generating method and system | |
US20200137376A1 (en) | Method for generating a light-field 3d display unit image and a generating device | |
US20140198187A1 (en) | Camera with plenoptic lens | |
Xie et al. | Augmented reality three-dimensional display with light field fusion | |
EP1668919A1 (en) | Stereoscopic imaging | |
Itoh et al. | Gaussian light field: Estimation of viewpoint-dependent blur for optical see-through head-mounted displays | |
KR101208767B1 (en) | Stereoscopic image generation method, device and system using circular projection and recording medium for the same | |
JP2011199556A (en) | Stereoscopy imaging device, stereoscopic signal generator, and program | |
Rabia et al. | Orthoscopic elemental image synthesis for 3D light field display using lens design software and real-world captured neural radiance field | |
Ikeya et al. | Capturing method for integral three-dimensional imaging using multiviewpoint robotic cameras | |
JP2011081630A (en) | Image generating apparatus, image generating method, and program | |
EP2406962B1 (en) | System and method adapted for capturing a plurality of images for multiscopic restitution with controlled deformation | |
FR2942888A1 (en) | Image acquisition configuration generating system for e.g. multiscopic restitution device, has configuration module generating data represents positions of centers and acquisition zones using another data representing restitution parameters | |
Prevoteau et al. | Multiview shooting geometry for multiscopic rendering with controlled distortion | |
KR100937768B1 (en) | Apparatus and method for reconstructing 3D image | |
JP5086120B2 (en) | Depth information acquisition method, depth information acquisition device, program, and recording medium | |
Gurrieri et al. | Efficient panoramic sampling of real-world environments for image-based stereoscopic telepresence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 7 |
|
CA | Change of address |
Effective date: 20150917 |
|
CD | Change of name or company name |
Owner name: UNIVERSITE DE REIMS CHAMPAGNE ARDENNE, FR Effective date: 20150917 Owner name: ZAYO FRANCE, FR Effective date: 20150917 |
|
TQ | Partial transmission of property |
Owner name: ZAYO FRANCE, FR Effective date: 20150917 Owner name: UNIVERSITE DE REIMS CHAMPAGNE ARDENNE, FR Effective date: 20150917 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
TQ | Partial transmission of property |
Owner name: UNIVERSITE DE REIMS CHAMPAGNE ARDENNE, FR Effective date: 20170427 Owner name: OPEXMEDIA, FR Effective date: 20170427 |
|
PLFP | Fee payment |
Year of fee payment: 9 |
|
PLFP | Fee payment |
Year of fee payment: 10 |
|
PLFP | Fee payment |
Year of fee payment: 12 |
|
PLFP | Fee payment |
Year of fee payment: 13 |
|
PLFP | Fee payment |
Year of fee payment: 14 |
|
PLFP | Fee payment |
Year of fee payment: 15 |
|
PLFP | Fee payment |
Year of fee payment: 16 |