RU2123718C1 - Method for information input to computer - Google Patents

Method for information input to computer Download PDF

Info

Publication number
RU2123718C1
RU2123718C1 RU96119454A RU96119454A RU2123718C1 RU 2123718 C1 RU2123718 C1 RU 2123718C1 RU 96119454 A RU96119454 A RU 96119454A RU 96119454 A RU96119454 A RU 96119454A RU 2123718 C1 RU2123718 C1 RU 2123718C1
Authority
RU
Russia
Prior art keywords
color
control object
computer
spatial coordinates
coordinates
Prior art date
Application number
RU96119454A
Other languages
Russian (ru)
Other versions
RU96119454A (en
Inventor
В.А. Кузин
С.Н. Петров
Original Assignee
Кузин Виктор Алексеевич
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Кузин Виктор Алексеевич filed Critical Кузин Виктор Алексеевич
Priority to RU96119454A priority Critical patent/RU2123718C1/en
Priority to AU46402/97A priority patent/AU4640297A/en
Priority to PCT/RU1997/000295 priority patent/WO1998013746A1/en
Publication of RU96119454A publication Critical patent/RU96119454A/en
Application granted granted Critical
Publication of RU2123718C1 publication Critical patent/RU2123718C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Nitrogen And Oxygen Or Sulfur-Condensed Heterocyclic Ring Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

FIELD: computer engineering, in particular, training equipment, interactive computer games, remote input of three-dimensional information to computer, control of robot, manipulator, or another controlled object. SUBSTANCE: method involves scanning of space of expected position of controlling object by color TV cameras, generation of real optical images of scanned space, measuring of three- dimensional coordinates of controlling object, detection of values of its three-dimensional coordinates, inputting values of three-dimensional coordinates into computer. During this process method involves detection of regions of controlling object which correspond to reference points in its graphical image, assigning identification color to each of detected regions of controlling object. Said identification color differs from color of other objects and of background. In addition method involves labeling selected regions of controlling object with labels carrying colors selected for given regions. EFFECT: possibility to input complete and partial information about three-dimensional coordinates of controlling object into computer. 3 cl, 4 dwg

Description

Изобретение относится к области компьютерной техники, робототехники и может быть использовано в тренажерах, в интерактивных компьютерных играх для дистанционного ввода трехмерной информации в компьютер, а также для управления роботом, манипулятором или иным управляемым объектом. The invention relates to the field of computer technology, robotics and can be used in simulators, in interactive computer games for remote input of three-dimensional information into a computer, as well as for controlling a robot, manipulator or other controlled object.

Известен способ ввода информации в компьютер [1], при котором на голове и плечах оператора закрепляют оптические маркеры выполненные в виде активных или пассивных источников света. С помощью установленных у потолка и образующих многоугольник фотоэлектрических ячеек, непрерывно измеряют интенсивность света, исходящего от оптических маркеров. По изменению интенсивности света определяют текущие значения координат оптических маркеров, а следовательно и оператора в плане. Вводят текущие значения координат оператора в плане в качестве информации в компьютер. A known method of entering information into a computer [1], in which optical markers made in the form of active or passive light sources are fixed on the head and shoulders of the operator. With the help of photovoltaic cells installed at the ceiling and forming a polygon, the intensity of light emanating from optical markers is continuously measured. By changing the light intensity determine the current coordinates of the optical markers, and therefore the operator in the plan. Enter the current values of the coordinates of the operator in the plan as information in the computer.

Недостатком известного технического решения является невозможность ввода в компьютер информации о пространственных координатах отдельных частей управляющего объекта (оператора). A disadvantage of the known technical solution is the inability to enter into the computer information about the spatial coordinates of the individual parts of the control object (operator).

Наиболее близким по технической сущности, достигаемому эффекту и выбранным за прототип является способ ввода информации в компьютер [2], при котором осуществляют оптическое сканирование области расположения не перемещающегося в пространстве испытателя передающими камерами с взаимоперпендикулярными строительными осями, получают действительные оптические изображения сканируемой области, изменяют пространственные координаты отдельных частей тела испытателя с закрепленными на нем двумя источниками света, по проекциям источников света на действительных оптических изображениях определяют значения пространственных координат частей тела испытателя, вводят значения пространственных координат частей тела испытателя в качестве информации в компьютер. При осуществлении способами один источник света выполнен стационарным, а другой подвижным, при этом, используя разность координат между стационарным и подвижным источниками света, определяют функциональные возможности тела человека. The closest in technical essence, the achieved effect and chosen as a prototype is a method of entering information into a computer [2], in which optical scanning of the location area of the tester, which does not move in space, is carried out by transmitting cameras with mutually perpendicular building axes, real optical images of the scanned area are obtained, spatial the coordinates of individual parts of the body of the tester with two light sources fixed on it, according to the projections of the light sources and optical images on the actual values determined body parts spatial coordinates tester administered values of spatial coordinates tester body parts as information in the computer. In the implementation of the methods, one light source is stationary and the other mobile, while using the difference of coordinates between the stationary and mobile light sources, the functional capabilities of the human body are determined.

Прототип позволяет ввести в компьютер информацию о пространственных координатах отдельных частей тела испытателя, но не одновременно, а поочередно. The prototype allows you to enter into the computer information about the spatial coordinates of individual parts of the body of the tester, but not simultaneously, but alternately.

Недостатком прототипа является невозможность единовременного ввода в компьютер информации о пространственных координатах всех частей тела испытателя, которое в данном случае выполняет роль управляющего объекта. The disadvantage of the prototype is the impossibility of a one-time input into the computer of information about the spatial coordinates of all parts of the body of the tester, which in this case acts as a control object.

Целью изобретения является осуществление возможности единовременного ввода в компьютер информации о пространственных координатах, выполненного в виде объемного тела управляющего объекта как в целом, так и отдельных его частей. The aim of the invention is the implementation of the possibility of a one-time input into the computer of information about spatial coordinates, made in the form of a three-dimensional body of the control object as a whole, and its individual parts.

При реализации способа ввода информации в компьютер осуществляют сканирование пространства вероятного расположения управляющего передающими камерами, строительные оси которых параллельны осям ортогональной системы координат, причем строительные оси по крайней мере двух передающих камер перпендикулярны друг другу, получают действительные оптические изображения сканируемого пространства, изменяют пространственные координаты управляющего объекта, по проекциям управляющего объекта на действительных оптических изображениях определяют значения его пространственных координат, вводят значения пространственных координат управляющего объекта в качестве информации в компьютер. When implementing the method of entering information into a computer, they scan the space of the probable location of the control of the transmitting cameras, the construction axes of which are parallel to the axes of the orthogonal coordinate system, and the construction axes of at least two transmitting chambers are perpendicular to each other, receive real optical images of the scanned space, change the spatial coordinates of the control object , according to the projections of the control object on the actual optical images lyayut its spatial coordinate values, coordinate values of spatial administered control object as information in the computer.

В отличие от прототипа в процессе осуществления способа выделяют области управляющего объекта, соответствующие опорным точкам его графического изображения, присваивают каждой из выделенных областей управляющего объекта отдельный выбранный для нее цвет, не совпадающий с цветами, выбранными для других выделенных областей управляющего объекта, и цветами фона, вводят информацию "выделенная область управляющего объекта - выбранный для нее цвет" в компьютер, обозначают выделение области управляющего объекта метками выбранных для них цветов, при сканировании пространства вероятного расположения управляющего объекта передающими камерами используют цветные передающие камеры, действительные оптические изображения сканируемого пространства получают с проекциями на них цветных меток, определяют плоские координаты на приемниках цветных передающих камер для каждой из цветных меток и вводят их в компьютер, формируют по плоским координатам цветных меток от нескольких цветных передающих камер пространственные координаты каждой их цветных меток, определяют по информации "выбранная область управляющего объекта - выбранный для нее цвет" и по пространственным координатам каждой из цветных меток пространственные координаты выделенных областей управляющего объекта. In contrast to the prototype, in the process of implementing the method, the areas of the control object corresponding to the reference points of its graphic image are allocated, each of the selected areas of the control object is assigned a separate color selected for it that does not match the colors selected for the other selected areas of the control object, and background colors, enter the information "the selected area of the control object - the color selected for it" into the computer, indicate the selection of the area of the control object with the labels of the colors selected for them c, when scanning the space of the probable location of the control object by the transmitting cameras, color transmitting cameras are used, actual optical images of the scanned space are obtained with projections of color marks on them, flat coordinates are determined at the receivers of color transmitting cameras for each of the color marks and they are input into a computer, to the flat coordinates of color marks from several color transmitting cameras, the spatial coordinates of each of their color marks are determined from the early area of the control object - the color chosen for it "and the spatial coordinates of the selected areas of the control object according to the spatial coordinates of each of the color marks.

Термин "управляющий объект" обозначает объекты, пространственное перемещение которых управляет перемещением объектов ими управляемых, например, изображением этих объектов на экране дисплея или на проекционном экране. The term "control object" refers to objects whose spatial movement controls the movement of objects controlled by them, for example, the image of these objects on a display screen or on a projection screen.

В качестве управляющего объекта могут быть использованы как тела, отдельные части которых жестко зафиксированы друг относительно друга, так и тела, отдельные части которых имеют друг относительно друга некоторую степень свободы, например имеющие шарнирные соединения. В качестве первых может быть использована рапира фехтовальщика, а в качестве вторых - тело самого спортсмена. As a control object, both bodies, the individual parts of which are rigidly fixed relative to each other, and bodies, the individual parts of which have a certain degree of freedom relative to each other, for example, having articulated joints, can be used. The fencer’s rapier can be used as the former, and the athlete’s body can be used as the latter.

Опорными точками графического изображения рапиры, т.е. такими точками, по которым, зная ее размеры, можно всегда определить ее пространственное расположение, могут быть любые две расположенные на клинике и достаточно удаленные друг от друга точки, или две точки, одна из которых расположена на острие, а другая на рукоятке. The reference points of the graphic image of the rapier, i.e. such points by which, knowing its size, you can always determine its spatial location, can be any two points located at the clinic and quite distant from each other, or two points, one of which is located on the tip and the other on the handle.

В качестве выделенных областей для определения пространственного расположения как фехтовальщика в целом, так и отдельных частей его тела могут быть использованы верхняя часть головы, кисти рук и ступни ног, области локтевых, плечевых, коленных и тазобедренных суставов. Подобный выбор выделенных областей дает возможность, зная пространственные координаты этих областей, определить расположение тела фехтовальщика в пространстве при любых его перемещениях. As the selected areas for determining the spatial location of both the fencer as a whole and individual parts of his body, the upper part of the head, hands and feet, the elbow, shoulder, knee and hip joints can be used. Such a choice of the selected areas makes it possible, knowing the spatial coordinates of these areas, to determine the location of the fencer's body in space at any of its movements.

Цветные метки могут быть выполнены из материалов, обладающих диффузным отражением. Это позволит исключить влияние помех, характерных для зеркального отражения. Color marks can be made of materials with diffuse reflection. This will eliminate the influence of interference characteristic of specular reflection.

На фиг. 1 изображена блок-схема устройства, реализующего способ ввода информации в компьютер. In FIG. 1 shows a block diagram of a device that implements a method of entering information into a computer.

На фиг.2 изображены схемы обработки цветных сигналов. Figure 2 shows the processing circuit of color signals.

На фиг.3 иллюстрируется реализация способа вводы информации в компьютер. Figure 3 illustrates the implementation of the method of entering information into a computer.

На фиг. 4 иллюстрируется определение плоских координат центров цветных меток несколькими цветными передающими камерами. In FIG. 4 illustrates the determination of the plane coordinates of the centers of color marks by several color transmitting cameras.

Способ ввода информации в компьютер может быть реализован с помощью устройства, блок схема которого изображена на фиг. 1. The method of inputting information into a computer can be implemented using a device, a block diagram of which is shown in FIG. one.

Устройство содержит цветные передающие камеры 1a, 1b, 1c, которые располагают таким образом (фиг.3), что строительные оси камеры 1a и 1b параллельны оси OX ортогональной системы координат, а строительная ось камеры 1c параллельна оси OZ. Кроме того, устройство содержит схемы обработки цветных сигналов 2a, 2b, 2c, вычислитель пространственных координат 3, интерфейс связи 4, компьютер 5 и видеопроектор 6 с проекционным экраном 7. The device contains color transmitting chambers 1a, 1b, 1c, which are arranged in such a way (Fig. 3) that the building axes of the camera 1a and 1b are parallel to the OX axis of the orthogonal coordinate system, and the construction axis of the camera 1c is parallel to the OZ axis. In addition, the device includes a color signal processing circuitry 2a, 2b, 2c, a spatial coordinate calculator 3, a communication interface 4, a computer 5 and a video projector 6 with a projection screen 7.

Выходы цветных передающих камер 1a, 1b, 1c электрически соединены с входами соответственно схем обработки цветных сигналов 2a, 2b, 2c, выходы схем обработки цветных сигналов 2a, 2b, 2c электрически соединены соответственно с первым, вторым и третьим входами вычислителя пространственных координат 3, четвертый вход-выход вычислителя пространственных координат 3 электрически соединен с первым входом-выходом интерфейса 4. Второй вход-выход интерфейса 4 электрически соединен с первым входом-выходом компьютера 5, второй выход которого электрически соединен с входом видеопроектора 6. The outputs of the color transmitting chambers 1a, 1b, 1c are electrically connected to the inputs of the color signal processing circuits 2a, 2b, 2c, respectively, the outputs of the color signal processing circuits 2a, 2b, 2c are electrically connected respectively to the first, second and third inputs of the spatial coordinate calculator 3, fourth the input-output of the spatial coordinate calculator 3 is electrically connected to the first input-output of the interface 4. The second input-output of the interface 4 is electrically connected to the first input-output of the computer 5, the second output of which is electrically connected nen with video projector input 6.

В качестве управляющего объекта используют тело спортсмена 8 и рапиру 9, на которых закреплены, выполненные из материала, обладающего диффузным отражением, цветные метки 10. As the control object, the body of the athlete 8 and the rapier 9 are used, on which color marks 10 are made, made of a material having diffuse reflection.

Каждая их схем обработки цветных сигналов 2a, 2b, 2c содержит параллельно включенные друг относительно друга компараторы 111-1115, число которых равно числу цветных меток 10 (в нашем случае 15). Выходы компараторов 111-1115 электрически соединены с входами схемы фиксации момента обнаружения 12 цветных меток 10. Выход схемы фиксации момента обнаружения 12 цветных меток 10 является выходом схемы обработки цветных сигналов 2. В процессе осуществления способа с помощью видеопроектора 6 на проекционном экране 7 получают видеоизображение с управляемой виртуальной фигурой 13 спортсмена 8 и виртуальной фигурой противника 14. Видеопроектор 6 установлен перед проекционным экраном 7, не затрудняя визуального контакта спортсмена 8 с проекционным экраном 7.Each of the color signal processing circuits 2a, 2b, 2c contains comparators 11 1 -11 15 parallel connected to each other, the number of which is equal to the number of color labels 10 (in our case, 15). The outputs of the comparators 11 1 -11 15 are electrically connected to the inputs of the circuit for fixing the moment of detection of 12 color labels 10. The output of the circuit for fixing the moment of detection of 12 color labels 10 is the output of the circuit for processing color signals 2. In the process using the video projector 6 on the projection screen 7 receive video image with a controllable virtual figure 13 of the athlete 8 and a virtual figure of the opponent 14. The video projector 6 is installed in front of the projection screen 7, without complicating the visual contact of the athlete 8 with the projection screen by crane 7.

Способ ввода информации в компьютер 5 осуществляется следующим образом. The method of entering information into computer 5 is as follows.

В качестве выделенных областей управляющего объекта, соответствующих опорным точкам их графических изображений, принимают верхнюю часть головы, кисти рук и ступни ног, области локтевых, плечевых, коленных и тазобедренных суставов спортсменов 8. Вышеуказанные области тела спортсмена 8 выбраны потому, что по пространственным координатам этих областей всегда можно определить не только пространственное положение спортсмена 8 в целом, но и пространственное положение отдельных частей тела спортсмена 8 друг относительно друга. Цветные метки 10 закреплены на острие и рукоятке рапиры 8, а также на верхней части головы, кистях рук и ступнях ног, на областях локтевых, плечевых, коленных и тазобедренных суставов (15 цветных меток). As the selected areas of the control object corresponding to the reference points of their graphic images, take the upper part of the head, hands and feet, areas of the elbow, shoulder, knee and hip joints of athletes 8. The above-mentioned areas of the body of the athlete 8 are selected because the spatial coordinates of these areas, you can always determine not only the spatial position of the athlete 8 as a whole, but also the spatial position of the individual parts of the body of the athlete 8 relative to each other. The color marks 10 are fixed on the point and handle of the rapier 8, as well as on the upper part of the head, hands and feet, on the areas of the elbow, shoulder, knee and hip joints (15 color marks).

Каждой из выделенных областей тела спортсмена 8 присваивают отдельный выбранный только для нее цвет, не совпадающий с цветами выбранными для других выделенных областей тела спортсмена 8 и цветами фона. Each of the selected areas of the body of the athlete 8 is assigned a separate color selected only for it, which does not match the colors selected for the other selected areas of the body of the athlete 8 and the background colors.

Например, принимают что верхняя часть головы будет обозначена красным цветом, левое плечо - оранжевым цветом, правое плечо - желтым цветом, левый локоть - зеленым цветом, правый локоть - голубым цветом и т.д. For example, it is assumed that the upper part of the head will be marked in red, the left shoulder in orange, the right shoulder in yellow, the left elbow in green, the right elbow in blue, etc.

Затем вводят информацию "голова - красный цвет, левое плечо - оранжевый цвет, правое плечо - желтый цвет, левый локоть - зеленый цвет, правый локоть - голубой цвет и т.д." в компьютер 5. Then enter the information "head - red, left shoulder - orange, right shoulder - yellow, left elbow - green, right elbow - blue, etc." to computer 5.

Обозначают выделенные области тела спортсмена 8 цветными метками 10, выбранных для них цветов, для чего используют элементы одежды и нашивки (наклейки) на костюме спортсмена 8. Для обозначения верхней части головы спортсмена 8 используют шапочку, для обозначения кистей рук - перчатки, ступней ног - спортивные тапочки, локтевых, плечевых и тазобедренных суставов - нашивки или наклейки соответствующих цветов в соответствующих зонах костюма спортсмена 8. Цвет фона, т.е. цвет стен помещения и находящихся в помещении предметов, цвет костюма спортсмена 8 выбирается не совпадающим с цветами цветных меток 10. Designate the selected areas of the athlete’s body with 8 colored marks 10, the colors chosen for them, for which they use elements of clothing and stripes (stickers) on the athlete’s suit 8. To indicate the upper part of the athlete’s head 8, use a hat, to indicate the hands - gloves, feet - sports slippers, elbow, shoulder and hip joints - stripes or stickers of the corresponding colors in the corresponding areas of the athlete’s suit 8. Background color, i.e. the color of the walls of the room and the objects in the room, the color of the suit of the athlete 8 is selected not matching the colors of the color marks 10.

При осуществлении способа пространство вероятного расположения спортсмена 8 сканируют цветными передающими камерами 1a, 1b, 1c. В процессе ввода информации спортсмен 8 свободно перемещается в зоне действия цветных передающих камер 1a, 1b, 1c. When implementing the method, the space of the likely location of the athlete 8 is scanned with color transmitting cameras 1a, 1b, 1c. In the process of entering information, the athlete 8 moves freely in the coverage area of the color transmitting chambers 1a, 1b, 1c.

В процессе сканирования пространства вероятного расположения спортсмена 8 на приемниках цветных передающих камер 1a, 1b, 1c получают плоские проекции сканируемого пространства с проекциями на них цветных меток 10 в виде крупных цветовых пятен. In the process of scanning the space of the likely location of the athlete 8 at the receivers of the color transmitting chambers 1a, 1b, 1c, receive flat projections of the scanned space with the projections of the color marks 10 in the form of large color spots.

Видеосигнал с цветной передающей камеры 1a передается на вход схемы обработки цветного сигнала 2a, т.е. на входы компараторов 11a1-11a15, видеосигнал с цветной передающей камеры 1b передается на вход схемы обработки цветного сигнала 2b, т.е. на входы компараторов 11b1-11b15, а видеосигнал с цветной передающей камеры 1 c передается на вход схемы обработки цветного сигнала 2c, т.е. входы компараторов 11c1-11c15.The video signal from the color transmitting camera 1a is transmitted to the input of the color signal processing circuit 2a, i.e. to the inputs of the comparators 11 a1 -11 a15 , the video signal from the color transmitting camera 1b is transmitted to the input of the color signal processing circuit 2b, i.e. to the inputs of the comparators 11 b1 -11 b15 , and the video signal from the color transmitting camera 1 c is transmitted to the input of the color signal processing circuit 2c, i.e. inputs of comparators 11 c1 -11 c15 .

Каждый из компараторов 11an. 11bn. в цепях цветных передающих камер 1a, 1b, 1c настроен на срабатывание при одном определенном соотношении R, G и B цветов, т. е. на пропускание сигналов цветности элементов разложения отображающих n-ую цветную метку 10. Отношение R : G : B для срабатывающих компараторов 11an. 11bn. 11cn. должно укладываться в пределы (r + n Δ1):(g + n Δ2):(b + n Δ3).
При несовпадении сигналов цветности элементов разложения с настройкой одного из компараторов 11a1-11a15, 11b1-11b15, 11c1-11c15 (случай, когда элементы разложения кадра отображают фон, цвет которого не совпадает с цветом ни одной из цветных меток 10) на входах схем фиксации момента обнаружения 12a, 12b и 12c цветных меток 10 нет сигналов.
Each of the comparators is 11 an. 11 bn. in the chains of color transmitting chambers 1a, 1b, 1c it is configured to operate at one specific ratio of R, G and B colors, that is, to transmit color signals of decomposition elements displaying the nth color mark 10. R: G: B ratio for triggering comparators 11 an. 11 bn. 11 cn. must fall within the limits (r + n Δ 1 ) :( g + n Δ 2 ) :( b + n Δ 3 ).
If the color signals of the decomposition elements do not match the setting of one of the comparators 11 a1 -11 a15 , 11 b1 -11 b15 , 11 c1 -11 c15 (the case when the decomposition elements of the frame display a background whose color does not match the color of any of the color marks 10 ) at the inputs of the circuits for fixing the moment of detection 12a, 12b and 12c of color marks 10 there are no signals.

При совпадении сигналов цветности элементов разложения с настройкой n-х компараторов 11an. 11bn. 11cn. (случай, когда элементы разложения отображают n-ю цветную метку 10) сигналы проходят на входы схем фиксации момента обнаружения 12a, 12b и 12c цветных меток 10.If the color signals of the decomposition elements coincide with the tuning of the n-th comparators 11 an. 11 bn. 11 cn. (the case when the decomposition elements display the nth color mark 10), the signals pass to the inputs of the fixing circuits of the detection moment 12a, 12b and 12c of the color marks 10.

Схемы фиксации момента обнаружения 12a, 12b и 12c цветных меток 10 фиксируют номер (n) компараторов 11an. 11bn. 11cn., с которых пришел сигнал и время t прихода сигнала относительно строчного и кадрового синхроимпульсов и по времени t и номеру n вырабатывают сигналы, несущие информацию о плоских координатах, на приемниках цветных передающих камер 1a, 1b, 1c, например, i-го элемента разложения кадра (Xain, Yain, Xbin, Ybin, Xcin, Ycin), отображающего элемент проекции конкретной n-ой цветной метки 10. Сигналы со схем фиксации момента обнаружения 12a, 12b и 12c передаются на первый, второй и третий входы вычислителя пространственных координат 3.The timing detection circuits 12a, 12b and 12c of the color marks 10 fix the number (n) of the comparators 11 an. 11 bn. 11 cn. from which the signal came and the time t of the signal arrival relative to the horizontal and vertical sync pulses and according to the time t and number n, signals carrying information about the flat coordinates are generated at the receivers of the color transmitting cameras 1a, 1b, 1c, for example, the ith frame decomposition element (X ain , Y ain , X bin , Y bin , X cin , Y cin ), which displays the projection element of a particular nth color mark 10. Signals from the detection timing circuits 12a, 12b and 12c are transmitted to the first, second and third inputs spatial coordinate calculator 3.

Вычислитель пространственных координат 3 по координатам первого (Xlan, Ylan) и последнего (XKan, YMan) элементов разложения кадра, относящихся к проекциями n-ой из цветных меток 10 (фиг.4а) на приемнике передающей камеры 1a определяет плоские координаты центра (XOan, YOan) для каждой из цветных меток 10 по следующему алгоритму
XOan = (Xlan + XKan)/2, (1)
YOan = (Ylan + YMan)/2, (2)
Аналогичным образом определяются плоские координаты центров для каждой из цветных меток 10 (XObn, YObn, XOcn, YOcn) на приемниках передающих камер 1b и 1c (фиг.4б и фиг.4в).
The calculator of spatial coordinates 3 by the coordinates of the first (X lan , Y lan ) and last (X Kan , Y Man ) elements of the decomposition of the frame related to the projections of the n-th of the color marks 10 (figa) on the receiver of the transmitting camera 1a determines the flat coordinates center (X Oan , Y Oan ) for each of the color marks 10 according to the following algorithm
X Oan = (X lan + X Kan ) / 2, (1)
Y Oan = (Y lan + Y Man ) / 2, (2)
Similarly, the plane coordinates of the centers are determined for each of the color marks 10 (X Obn , Y Obn , X Ocn , Y Ocn ) at the receivers of the transmitting chambers 1b and 1c (Fig. 4b and Fig. 4c).

По плоским координатам центров цветных меток 10 от нескольких цветных передающих камер 1a, 1b, 1c (XOan, YOan, XObn, YObn, XOcn, YOcn) вычислитель пространственных координат 3 формирует пространственные координаты центра каждой из цветных меток 10 (XOn, YOn, ZOn). Using the flat coordinates of the centers of the color marks 10 from several color transmitting cameras 1a, 1b, 1c (X Oan , Y Oan , X Obn , Y Obn , X Ocn , Y Ocn ), the spatial coordinate calculator 3 generates the spatial coordinates of the center of each of the color marks 10 ( X On , Y On , Z On ).

Для случая изображенного на фиг.3 и 4, когда строительные оси передающих камер 1a и 1b параллельны оси OX, а строительная ось передающей камеры 1c параллельна оси OZ: XOn = YOcn, YOn = XOan = -XObn, ZOn = YOan = YObn.For the case of FIGS. 3 and 4, when the construction axes of the transfer chambers 1a and 1b are parallel to the OX axis, and the construction axis of the transfer chamber 1c is parallel to the OZ axis: X On = Y Ocn , Y On = X Oan = -X Obn , Z On = Y Oan = Y Obn .

Сформированные пространственные координаты центра каждой из цветных меток 10 (XOn, YOn, ZOn) с вычислителя пространственных координат 3 через интерфейс 4 передаются в компьютер 5.The generated spatial coordinates of the center of each of the color marks 10 (X On , Y On , Z On ) from the spatial coordinate calculator 3 via interface 4 are transmitted to computer 5.

Сопоставляя ранее введенную информацию "выбранная область управляющего объекта - выбранный для нее цвет" и полученные пространственные координаты центра каждой из цветных меток 9, компьютер 5 формирует пространственные координаты каждой из выделенных частей тела спортсмена 8. Comparing the previously entered information "the selected area of the control object - the color chosen for it" and the spatial coordinates of the center of each of the color labels 9, the computer 5 generates the spatial coordinates of each of the selected parts of the body of the athlete 8.

По полученным пространственным координатам центра каждой из выделенных частей тела спортсмена 8 на проекционном экране 7 программируемым образом формируется изображение управляемой виртуальной фигуры 13 спортсмена 8, перемещающейся синхронно с перемещением спортсмена 8. Программируемым образом сформированная управляемая виртуальная фигура 13 спортсмена 8 может взаимодействовать со средой, сформированной также программно на проекционном экране 7, например, с виртуальной фигурой противника 14. Based on the obtained spatial coordinates of the center of each of the selected parts of the body of the athlete 8, the image of the controlled virtual figure 13 of the athlete 8, moving synchronously with the movement of the athlete 8, is programmed in a programmed way on the projection screen 7. The programmed image of the controlled virtual figure 13 of the athlete 8 can interact with the environment also formed programmatically on the projection screen 7, for example, with a virtual enemy figure 14.

Таким образом, из вышесказанного следует, что данное изобретение позволит ввести в компьютер информацию о пространственных координатах частей управляющего объекта отдельно друг от друга, что значительно расширяет возможности оператора, например, в интерактивных компьютерных играх. Thus, from the foregoing, it follows that this invention will allow you to enter into the computer information about the spatial coordinates of the parts of the control object separately from each other, which greatly expands the capabilities of the operator, for example, in interactive computer games.

Применение изобретения. Application of the invention.

Следует иметь в виду, что вариант реализации изобретения, описанный выше и представленный на чертежах, не является единственным. Могут быть использованы и другие вариации выполнения изобретения в отношении исполнения способа ввода информации в компьютер. It should be borne in mind that the embodiment of the invention described above and presented in the drawings is not the only one. Can be used and other variations of the invention in relation to the execution of the method of entering information into a computer.

Источники информации
1. Патент США N 5086404, МКИ G 06 G 7/48, НКИ 364/559, публ. 04.02.1992.
Sources of information
1. US patent N 5086404, MKI G 06 G 7/48, NCI 364/559, publ. 02/04/1992.

2. Патент США N 4375674, МКИ A 61 B 5/05, НКИ 364/559, публ. 01.03.1983. 2. US patent N 4375674, MKI A 61 B 5/05, NCI 364/559, publ. 03/01/1983.

Claims (3)

1. Способ ввода информации в компьютер, в котором осуществляют сканирование пространства вероятного расположения управляющего объекта передающими камерами, строительные оси которых параллельны осям ортогональной системы координат, причем строительные оси по крайней мере двух передающих камер перпендикулярны друг другу, получают действительные оптические изображения сканируемого пространства, изменяют пространственные координаты управляющего объекта, по проекциям управляющего объекта на действительных оптических изображениях определяют значения его пространственных координат, вводят значения пространственных координат управляющего объекта в качестве информации в компьютер, отличающийся тем, что в процессе осуществления способа выделяют области управляющего объекта, соответствующие опорным точкам его графического изображения, присваивают каждой из выделенных областей управляющего объекта отдельный выбранный для нее цвет, не совпадающий с цветами, выбранными для других выделенных областей управляющего объекта, и цветами фона, вводят информацию "выделенная область управляющего объекта - выбранный для нее цвет" в компьютер, обозначают выделенные области управляющего объекта метками выбранных для них цветов, при сканировании пространства вероятного расположения управляющего объекта передающими камерами используют цветные передающие камеры, действительные оптические изображения сканируемого пространства получают с проекциями на них цветных меток, определяют плоские координаты на приемниках цветных передающих камер для каждой из цветных меток и вводят их в компьютер, формируют по плоским координатам цветных меток от нескольких цветных передающих камер пространственные координаты каждой из цветных меток, определяют по информации "выбранная область управляющего объекта - выбранный для нее цвет" и по пространственным координатам каждой из цветных меток пространственные координаты выделенных областей управляющего объекта. 1. The method of entering information into a computer in which the space of the probable location of the control object is scanned by transmitting cameras, the construction axes of which are parallel to the axes of the orthogonal coordinate system, and the building axes of at least two transmitting cameras are perpendicular to each other, obtain valid optical images of the scanned space, change spatial coordinates of the control object, according to the projections of the control object on the actual optical images op distribute the values of its spatial coordinates, enter the values of the spatial coordinates of the control object as information in a computer, characterized in that during the process, the areas of the control object corresponding to the reference points of its graphic image are allocated, each of the selected areas of the control object is assigned a separate color selected for it that does not match the colors selected for the other selected areas of the control object and the background colors enter the information "highlighted the area of the control object - the color selected for it “into the computer, the selected areas of the control object are designated by the labels of the colors selected for them, when scanning the space of the probable location of the control object by transmitting cameras, color transmitting cameras are used, actual optical images of the scanned space are obtained with projections of color marks on them, determine the flat coordinates on the receivers of the color transmitting cameras for each of the color marks and enter them into the computer, form on a plane to them the coordinates of color marks from several color transmitting cameras, the spatial coordinates of each of the color marks, are determined by the information "selected area of the control object - the color selected for it" and the spatial coordinates of each of the color marks the spatial coordinates of the selected areas of the control object. 2. Способ по п.1, отличающийся тем, что в качестве управляющего объекта используют тело оператора, причем в качестве выделенных областей используют верхнюю часть головы, кисти рук и ступни ног, области локтевых, плечевых, коленных и тазобедренных суставов. 2. The method according to claim 1, characterized in that the operator’s body is used as the control object, and the upper part of the head, hands and feet, the elbow, shoulder, knee and hip joints are used as the selected areas. 3. Способ по п.1 или 2, отличающийся тем, что цветные метки выполняют из материалов, обладающих диффузным отражением. 3. The method according to claim 1 or 2, characterized in that the color marks are made of materials having diffuse reflection.
RU96119454A 1996-09-27 1996-09-27 Method for information input to computer RU2123718C1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
RU96119454A RU2123718C1 (en) 1996-09-27 1996-09-27 Method for information input to computer
AU46402/97A AU4640297A (en) 1996-09-27 1997-09-26 Method for feeding information into a computer
PCT/RU1997/000295 WO1998013746A1 (en) 1996-09-27 1997-09-26 Method for feeding information into a computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU96119454A RU2123718C1 (en) 1996-09-27 1996-09-27 Method for information input to computer

Publications (2)

Publication Number Publication Date
RU96119454A RU96119454A (en) 1998-10-10
RU2123718C1 true RU2123718C1 (en) 1998-12-20

Family

ID=20186038

Family Applications (1)

Application Number Title Priority Date Filing Date
RU96119454A RU2123718C1 (en) 1996-09-27 1996-09-27 Method for information input to computer

Country Status (3)

Country Link
AU (1) AU4640297A (en)
RU (1) RU2123718C1 (en)
WO (1) WO1998013746A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001075569A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method
WO2001075578A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method
WO2009157792A1 (en) * 2008-06-24 2009-12-30 Rurin Oleg Stanislavovich Method for producing an effect on virtual objects
RU2451982C1 (en) * 2008-06-24 2012-05-27 Олег Станиславович Рурин Method for producing effect on virtual objects
RU2534941C2 (en) * 2009-01-30 2014-12-10 Майкрософт Корпорейшн Standard gestures
RU208666U1 (en) * 2021-09-22 2021-12-29 Николай Геннадьевич Оботнин FENCING SIMULATOR

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19917660A1 (en) * 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Method and input device for controlling the position of an object to be graphically represented in a virtual reality
JP4226550B2 (en) * 2002-07-25 2009-02-18 ソリューショニックス コーポレーション Three-dimensional measurement data automatic alignment apparatus and method using optical markers
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8972902B2 (en) 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8234578B2 (en) 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
US8432448B2 (en) 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8345920B2 (en) 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
WO2012172548A1 (en) * 2011-06-14 2012-12-20 Youval Nehmadi Method for translating a movement and an orientation of a predefined object into a computer generated data

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4375674A (en) * 1980-10-17 1983-03-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Kinesimetric method and apparatus
GB2157426B (en) * 1984-04-09 1988-02-10 Gec Avionics Angular position sensors
US4672562A (en) * 1984-12-11 1987-06-09 Honeywell Inc. Method and apparatus for determining location and orientation of objects
SU1355979A1 (en) * 1986-01-13 1987-11-30 Предприятие П/Я В-8719 Video signal digital former
US5086404A (en) * 1988-09-02 1992-02-04 Claussen Claus Frenz Device for simultaneous continuous and separate recording and measurement of head and body movements during standing, walking and stepping
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5297061A (en) * 1993-05-19 1994-03-22 University Of Maryland Three dimensional pointing device monitored by computer vision

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001075569A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method
WO2001075578A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method
WO2009157792A1 (en) * 2008-06-24 2009-12-30 Rurin Oleg Stanislavovich Method for producing an effect on virtual objects
RU2451982C1 (en) * 2008-06-24 2012-05-27 Олег Станиславович Рурин Method for producing effect on virtual objects
RU2534941C2 (en) * 2009-01-30 2014-12-10 Майкрософт Корпорейшн Standard gestures
RU208666U1 (en) * 2021-09-22 2021-12-29 Николай Геннадьевич Оботнин FENCING SIMULATOR

Also Published As

Publication number Publication date
AU4640297A (en) 1998-04-17
WO1998013746A1 (en) 1998-04-02

Similar Documents

Publication Publication Date Title
RU2123718C1 (en) Method for information input to computer
US6157368A (en) Control equipment with a movable control member
US20170274277A1 (en) System and method for determining orientation using tracking cameras and inertial measurements
EP0899690B1 (en) Apparatus and method for presenting mixed virtual reality shared among operators
US7750969B2 (en) Camera calibration system and three-dimensional measuring system
US4896962A (en) System for measuring the angular displacement of an object
EP0562327B1 (en) Subliminal image modulation projection and detection system
US6304286B1 (en) Stereoscopic display apparatus for generating images in accordance with an observer's viewing position
US5018854A (en) Three dimensional imaging device
US4274609A (en) Target and missile angle tracking method and system for guiding missiles on to targets
US6384907B1 (en) Optical target and apparatus and method for automatic identification thereof
EP2915025A1 (en) Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
PL176135B1 (en) System for incorporating images into a visual data stream
CN206833463U (en) For object positioning and the polychrome active light source of posture analysis
JPH11513483A (en) Method and apparatus for determining position and orientation
EP1015845A1 (en) System and method for determining spatial coordinates
WO2004097612A2 (en) A man-machine interface based on 3-d positions of the human body
CN110208947A (en) Display equipment and display methods based on human eye tracking
CN109618108A (en) Electronic equipment and mobile platform
RU96119454A (en) METHOD FOR ENTERING INFORMATION IN A COMPUTER
US20170363707A1 (en) Visual augmentation system effectiveness measurement apparatus and methods
WO1994015165A1 (en) Target acquisition training apparatus and method of training in target acquisition
WO2018139810A1 (en) Sensing apparatus for calculating position information of object in motion, and sensing method using same
CN111095168A (en) Visual and inertial motion tracking
JP2001338280A (en) Three-dimensional space information input device