RU2123718C1 - Method for information input to computer - Google Patents
Method for information input to computer Download PDFInfo
- Publication number
- RU2123718C1 RU2123718C1 RU96119454A RU96119454A RU2123718C1 RU 2123718 C1 RU2123718 C1 RU 2123718C1 RU 96119454 A RU96119454 A RU 96119454A RU 96119454 A RU96119454 A RU 96119454A RU 2123718 C1 RU2123718 C1 RU 2123718C1
- Authority
- RU
- Russia
- Prior art keywords
- color
- control object
- computer
- spatial coordinates
- coordinates
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Nitrogen And Oxygen Or Sulfur-Condensed Heterocyclic Ring Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
Изобретение относится к области компьютерной техники, робототехники и может быть использовано в тренажерах, в интерактивных компьютерных играх для дистанционного ввода трехмерной информации в компьютер, а также для управления роботом, манипулятором или иным управляемым объектом. The invention relates to the field of computer technology, robotics and can be used in simulators, in interactive computer games for remote input of three-dimensional information into a computer, as well as for controlling a robot, manipulator or other controlled object.
Известен способ ввода информации в компьютер [1], при котором на голове и плечах оператора закрепляют оптические маркеры выполненные в виде активных или пассивных источников света. С помощью установленных у потолка и образующих многоугольник фотоэлектрических ячеек, непрерывно измеряют интенсивность света, исходящего от оптических маркеров. По изменению интенсивности света определяют текущие значения координат оптических маркеров, а следовательно и оператора в плане. Вводят текущие значения координат оператора в плане в качестве информации в компьютер. A known method of entering information into a computer [1], in which optical markers made in the form of active or passive light sources are fixed on the head and shoulders of the operator. With the help of photovoltaic cells installed at the ceiling and forming a polygon, the intensity of light emanating from optical markers is continuously measured. By changing the light intensity determine the current coordinates of the optical markers, and therefore the operator in the plan. Enter the current values of the coordinates of the operator in the plan as information in the computer.
Недостатком известного технического решения является невозможность ввода в компьютер информации о пространственных координатах отдельных частей управляющего объекта (оператора). A disadvantage of the known technical solution is the inability to enter into the computer information about the spatial coordinates of the individual parts of the control object (operator).
Наиболее близким по технической сущности, достигаемому эффекту и выбранным за прототип является способ ввода информации в компьютер [2], при котором осуществляют оптическое сканирование области расположения не перемещающегося в пространстве испытателя передающими камерами с взаимоперпендикулярными строительными осями, получают действительные оптические изображения сканируемой области, изменяют пространственные координаты отдельных частей тела испытателя с закрепленными на нем двумя источниками света, по проекциям источников света на действительных оптических изображениях определяют значения пространственных координат частей тела испытателя, вводят значения пространственных координат частей тела испытателя в качестве информации в компьютер. При осуществлении способами один источник света выполнен стационарным, а другой подвижным, при этом, используя разность координат между стационарным и подвижным источниками света, определяют функциональные возможности тела человека. The closest in technical essence, the achieved effect and chosen as a prototype is a method of entering information into a computer [2], in which optical scanning of the location area of the tester, which does not move in space, is carried out by transmitting cameras with mutually perpendicular building axes, real optical images of the scanned area are obtained, spatial the coordinates of individual parts of the body of the tester with two light sources fixed on it, according to the projections of the light sources and optical images on the actual values determined body parts spatial coordinates tester administered values of spatial coordinates tester body parts as information in the computer. In the implementation of the methods, one light source is stationary and the other mobile, while using the difference of coordinates between the stationary and mobile light sources, the functional capabilities of the human body are determined.
Прототип позволяет ввести в компьютер информацию о пространственных координатах отдельных частей тела испытателя, но не одновременно, а поочередно. The prototype allows you to enter into the computer information about the spatial coordinates of individual parts of the body of the tester, but not simultaneously, but alternately.
Недостатком прототипа является невозможность единовременного ввода в компьютер информации о пространственных координатах всех частей тела испытателя, которое в данном случае выполняет роль управляющего объекта. The disadvantage of the prototype is the impossibility of a one-time input into the computer of information about the spatial coordinates of all parts of the body of the tester, which in this case acts as a control object.
Целью изобретения является осуществление возможности единовременного ввода в компьютер информации о пространственных координатах, выполненного в виде объемного тела управляющего объекта как в целом, так и отдельных его частей. The aim of the invention is the implementation of the possibility of a one-time input into the computer of information about spatial coordinates, made in the form of a three-dimensional body of the control object as a whole, and its individual parts.
При реализации способа ввода информации в компьютер осуществляют сканирование пространства вероятного расположения управляющего передающими камерами, строительные оси которых параллельны осям ортогональной системы координат, причем строительные оси по крайней мере двух передающих камер перпендикулярны друг другу, получают действительные оптические изображения сканируемого пространства, изменяют пространственные координаты управляющего объекта, по проекциям управляющего объекта на действительных оптических изображениях определяют значения его пространственных координат, вводят значения пространственных координат управляющего объекта в качестве информации в компьютер. When implementing the method of entering information into a computer, they scan the space of the probable location of the control of the transmitting cameras, the construction axes of which are parallel to the axes of the orthogonal coordinate system, and the construction axes of at least two transmitting chambers are perpendicular to each other, receive real optical images of the scanned space, change the spatial coordinates of the control object , according to the projections of the control object on the actual optical images lyayut its spatial coordinate values, coordinate values of spatial administered control object as information in the computer.
В отличие от прототипа в процессе осуществления способа выделяют области управляющего объекта, соответствующие опорным точкам его графического изображения, присваивают каждой из выделенных областей управляющего объекта отдельный выбранный для нее цвет, не совпадающий с цветами, выбранными для других выделенных областей управляющего объекта, и цветами фона, вводят информацию "выделенная область управляющего объекта - выбранный для нее цвет" в компьютер, обозначают выделение области управляющего объекта метками выбранных для них цветов, при сканировании пространства вероятного расположения управляющего объекта передающими камерами используют цветные передающие камеры, действительные оптические изображения сканируемого пространства получают с проекциями на них цветных меток, определяют плоские координаты на приемниках цветных передающих камер для каждой из цветных меток и вводят их в компьютер, формируют по плоским координатам цветных меток от нескольких цветных передающих камер пространственные координаты каждой их цветных меток, определяют по информации "выбранная область управляющего объекта - выбранный для нее цвет" и по пространственным координатам каждой из цветных меток пространственные координаты выделенных областей управляющего объекта. In contrast to the prototype, in the process of implementing the method, the areas of the control object corresponding to the reference points of its graphic image are allocated, each of the selected areas of the control object is assigned a separate color selected for it that does not match the colors selected for the other selected areas of the control object, and background colors, enter the information "the selected area of the control object - the color selected for it" into the computer, indicate the selection of the area of the control object with the labels of the colors selected for them c, when scanning the space of the probable location of the control object by the transmitting cameras, color transmitting cameras are used, actual optical images of the scanned space are obtained with projections of color marks on them, flat coordinates are determined at the receivers of color transmitting cameras for each of the color marks and they are input into a computer, to the flat coordinates of color marks from several color transmitting cameras, the spatial coordinates of each of their color marks are determined from the early area of the control object - the color chosen for it "and the spatial coordinates of the selected areas of the control object according to the spatial coordinates of each of the color marks.
Термин "управляющий объект" обозначает объекты, пространственное перемещение которых управляет перемещением объектов ими управляемых, например, изображением этих объектов на экране дисплея или на проекционном экране. The term "control object" refers to objects whose spatial movement controls the movement of objects controlled by them, for example, the image of these objects on a display screen or on a projection screen.
В качестве управляющего объекта могут быть использованы как тела, отдельные части которых жестко зафиксированы друг относительно друга, так и тела, отдельные части которых имеют друг относительно друга некоторую степень свободы, например имеющие шарнирные соединения. В качестве первых может быть использована рапира фехтовальщика, а в качестве вторых - тело самого спортсмена. As a control object, both bodies, the individual parts of which are rigidly fixed relative to each other, and bodies, the individual parts of which have a certain degree of freedom relative to each other, for example, having articulated joints, can be used. The fencer’s rapier can be used as the former, and the athlete’s body can be used as the latter.
Опорными точками графического изображения рапиры, т.е. такими точками, по которым, зная ее размеры, можно всегда определить ее пространственное расположение, могут быть любые две расположенные на клинике и достаточно удаленные друг от друга точки, или две точки, одна из которых расположена на острие, а другая на рукоятке. The reference points of the graphic image of the rapier, i.e. such points by which, knowing its size, you can always determine its spatial location, can be any two points located at the clinic and quite distant from each other, or two points, one of which is located on the tip and the other on the handle.
В качестве выделенных областей для определения пространственного расположения как фехтовальщика в целом, так и отдельных частей его тела могут быть использованы верхняя часть головы, кисти рук и ступни ног, области локтевых, плечевых, коленных и тазобедренных суставов. Подобный выбор выделенных областей дает возможность, зная пространственные координаты этих областей, определить расположение тела фехтовальщика в пространстве при любых его перемещениях. As the selected areas for determining the spatial location of both the fencer as a whole and individual parts of his body, the upper part of the head, hands and feet, the elbow, shoulder, knee and hip joints can be used. Such a choice of the selected areas makes it possible, knowing the spatial coordinates of these areas, to determine the location of the fencer's body in space at any of its movements.
Цветные метки могут быть выполнены из материалов, обладающих диффузным отражением. Это позволит исключить влияние помех, характерных для зеркального отражения. Color marks can be made of materials with diffuse reflection. This will eliminate the influence of interference characteristic of specular reflection.
На фиг. 1 изображена блок-схема устройства, реализующего способ ввода информации в компьютер. In FIG. 1 shows a block diagram of a device that implements a method of entering information into a computer.
На фиг.2 изображены схемы обработки цветных сигналов. Figure 2 shows the processing circuit of color signals.
На фиг.3 иллюстрируется реализация способа вводы информации в компьютер. Figure 3 illustrates the implementation of the method of entering information into a computer.
На фиг. 4 иллюстрируется определение плоских координат центров цветных меток несколькими цветными передающими камерами. In FIG. 4 illustrates the determination of the plane coordinates of the centers of color marks by several color transmitting cameras.
Способ ввода информации в компьютер может быть реализован с помощью устройства, блок схема которого изображена на фиг. 1. The method of inputting information into a computer can be implemented using a device, a block diagram of which is shown in FIG. one.
Устройство содержит цветные передающие камеры 1a, 1b, 1c, которые располагают таким образом (фиг.3), что строительные оси камеры 1a и 1b параллельны оси OX ортогональной системы координат, а строительная ось камеры 1c параллельна оси OZ. Кроме того, устройство содержит схемы обработки цветных сигналов 2a, 2b, 2c, вычислитель пространственных координат 3, интерфейс связи 4, компьютер 5 и видеопроектор 6 с проекционным экраном 7. The device contains
Выходы цветных передающих камер 1a, 1b, 1c электрически соединены с входами соответственно схем обработки цветных сигналов 2a, 2b, 2c, выходы схем обработки цветных сигналов 2a, 2b, 2c электрически соединены соответственно с первым, вторым и третьим входами вычислителя пространственных координат 3, четвертый вход-выход вычислителя пространственных координат 3 электрически соединен с первым входом-выходом интерфейса 4. Второй вход-выход интерфейса 4 электрически соединен с первым входом-выходом компьютера 5, второй выход которого электрически соединен с входом видеопроектора 6. The outputs of the
В качестве управляющего объекта используют тело спортсмена 8 и рапиру 9, на которых закреплены, выполненные из материала, обладающего диффузным отражением, цветные метки 10. As the control object, the body of the
Каждая их схем обработки цветных сигналов 2a, 2b, 2c содержит параллельно включенные друг относительно друга компараторы 111-1115, число которых равно числу цветных меток 10 (в нашем случае 15). Выходы компараторов 111-1115 электрически соединены с входами схемы фиксации момента обнаружения 12 цветных меток 10. Выход схемы фиксации момента обнаружения 12 цветных меток 10 является выходом схемы обработки цветных сигналов 2. В процессе осуществления способа с помощью видеопроектора 6 на проекционном экране 7 получают видеоизображение с управляемой виртуальной фигурой 13 спортсмена 8 и виртуальной фигурой противника 14. Видеопроектор 6 установлен перед проекционным экраном 7, не затрудняя визуального контакта спортсмена 8 с проекционным экраном 7.Each of the color signal processing circuits 2a, 2b, 2c contains comparators 11 1 -11 15 parallel connected to each other, the number of which is equal to the number of color labels 10 (in our case, 15). The outputs of the comparators 11 1 -11 15 are electrically connected to the inputs of the circuit for fixing the moment of detection of 12
Способ ввода информации в компьютер 5 осуществляется следующим образом. The method of entering information into computer 5 is as follows.
В качестве выделенных областей управляющего объекта, соответствующих опорным точкам их графических изображений, принимают верхнюю часть головы, кисти рук и ступни ног, области локтевых, плечевых, коленных и тазобедренных суставов спортсменов 8. Вышеуказанные области тела спортсмена 8 выбраны потому, что по пространственным координатам этих областей всегда можно определить не только пространственное положение спортсмена 8 в целом, но и пространственное положение отдельных частей тела спортсмена 8 друг относительно друга. Цветные метки 10 закреплены на острие и рукоятке рапиры 8, а также на верхней части головы, кистях рук и ступнях ног, на областях локтевых, плечевых, коленных и тазобедренных суставов (15 цветных меток). As the selected areas of the control object corresponding to the reference points of their graphic images, take the upper part of the head, hands and feet, areas of the elbow, shoulder, knee and hip joints of
Каждой из выделенных областей тела спортсмена 8 присваивают отдельный выбранный только для нее цвет, не совпадающий с цветами выбранными для других выделенных областей тела спортсмена 8 и цветами фона. Each of the selected areas of the body of the
Например, принимают что верхняя часть головы будет обозначена красным цветом, левое плечо - оранжевым цветом, правое плечо - желтым цветом, левый локоть - зеленым цветом, правый локоть - голубым цветом и т.д. For example, it is assumed that the upper part of the head will be marked in red, the left shoulder in orange, the right shoulder in yellow, the left elbow in green, the right elbow in blue, etc.
Затем вводят информацию "голова - красный цвет, левое плечо - оранжевый цвет, правое плечо - желтый цвет, левый локоть - зеленый цвет, правый локоть - голубой цвет и т.д." в компьютер 5. Then enter the information "head - red, left shoulder - orange, right shoulder - yellow, left elbow - green, right elbow - blue, etc." to computer 5.
Обозначают выделенные области тела спортсмена 8 цветными метками 10, выбранных для них цветов, для чего используют элементы одежды и нашивки (наклейки) на костюме спортсмена 8. Для обозначения верхней части головы спортсмена 8 используют шапочку, для обозначения кистей рук - перчатки, ступней ног - спортивные тапочки, локтевых, плечевых и тазобедренных суставов - нашивки или наклейки соответствующих цветов в соответствующих зонах костюма спортсмена 8. Цвет фона, т.е. цвет стен помещения и находящихся в помещении предметов, цвет костюма спортсмена 8 выбирается не совпадающим с цветами цветных меток 10. Designate the selected areas of the athlete’s body with 8
При осуществлении способа пространство вероятного расположения спортсмена 8 сканируют цветными передающими камерами 1a, 1b, 1c. В процессе ввода информации спортсмен 8 свободно перемещается в зоне действия цветных передающих камер 1a, 1b, 1c. When implementing the method, the space of the likely location of the
В процессе сканирования пространства вероятного расположения спортсмена 8 на приемниках цветных передающих камер 1a, 1b, 1c получают плоские проекции сканируемого пространства с проекциями на них цветных меток 10 в виде крупных цветовых пятен. In the process of scanning the space of the likely location of the
Видеосигнал с цветной передающей камеры 1a передается на вход схемы обработки цветного сигнала 2a, т.е. на входы компараторов 11a1-11a15, видеосигнал с цветной передающей камеры 1b передается на вход схемы обработки цветного сигнала 2b, т.е. на входы компараторов 11b1-11b15, а видеосигнал с цветной передающей камеры 1 c передается на вход схемы обработки цветного сигнала 2c, т.е. входы компараторов 11c1-11c15.The video signal from the
Каждый из компараторов 11an. 11bn. в цепях цветных передающих камер 1a, 1b, 1c настроен на срабатывание при одном определенном соотношении R, G и B цветов, т. е. на пропускание сигналов цветности элементов разложения отображающих n-ую цветную метку 10. Отношение R : G : B для срабатывающих компараторов 11an. 11bn. 11cn. должно укладываться в пределы (r
При несовпадении сигналов цветности элементов разложения с настройкой одного из компараторов 11a1-11a15, 11b1-11b15, 11c1-11c15 (случай, когда элементы разложения кадра отображают фон, цвет которого не совпадает с цветом ни одной из цветных меток 10) на входах схем фиксации момента обнаружения 12a, 12b и 12c цветных меток 10 нет сигналов.Each of the comparators is 11 an. 11 bn. in the chains of
If the color signals of the decomposition elements do not match the setting of one of the comparators 11 a1 -11 a15 , 11 b1 -11 b15 , 11 c1 -11 c15 (the case when the decomposition elements of the frame display a background whose color does not match the color of any of the color marks 10 ) at the inputs of the circuits for fixing the moment of detection 12a, 12b and 12c of
При совпадении сигналов цветности элементов разложения с настройкой n-х компараторов 11an. 11bn. 11cn. (случай, когда элементы разложения отображают n-ю цветную метку 10) сигналы проходят на входы схем фиксации момента обнаружения 12a, 12b и 12c цветных меток 10.If the color signals of the decomposition elements coincide with the tuning of the n-
Схемы фиксации момента обнаружения 12a, 12b и 12c цветных меток 10 фиксируют номер (n) компараторов 11an. 11bn. 11cn., с которых пришел сигнал и время t прихода сигнала относительно строчного и кадрового синхроимпульсов и по времени t и номеру n вырабатывают сигналы, несущие информацию о плоских координатах, на приемниках цветных передающих камер 1a, 1b, 1c, например, i-го элемента разложения кадра (Xain, Yain, Xbin, Ybin, Xcin, Ycin), отображающего элемент проекции конкретной n-ой цветной метки 10. Сигналы со схем фиксации момента обнаружения 12a, 12b и 12c передаются на первый, второй и третий входы вычислителя пространственных координат 3.The timing detection circuits 12a, 12b and 12c of the
Вычислитель пространственных координат 3 по координатам первого (Xlan, Ylan) и последнего (XKan, YMan) элементов разложения кадра, относящихся к проекциями n-ой из цветных меток 10 (фиг.4а) на приемнике передающей камеры 1a определяет плоские координаты центра (XOan, YOan) для каждой из цветных меток 10 по следующему алгоритму
XOan = (Xlan + XKan)/2, (1)
YOan = (Ylan + YMan)/2, (2)
Аналогичным образом определяются плоские координаты центров для каждой из цветных меток 10 (XObn, YObn, XOcn, YOcn) на приемниках передающих камер 1b и 1c (фиг.4б и фиг.4в).The calculator of spatial coordinates 3 by the coordinates of the first (X lan , Y lan ) and last (X Kan , Y Man ) elements of the decomposition of the frame related to the projections of the n-th of the color marks 10 (figa) on the receiver of the transmitting
X Oan = (X lan + X Kan ) / 2, (1)
Y Oan = (Y lan + Y Man ) / 2, (2)
Similarly, the plane coordinates of the centers are determined for each of the color marks 10 (X Obn , Y Obn , X Ocn , Y Ocn ) at the receivers of the transmitting chambers 1b and 1c (Fig. 4b and Fig. 4c).
По плоским координатам центров цветных меток 10 от нескольких цветных передающих камер 1a, 1b, 1c (XOan, YOan, XObn, YObn, XOcn, YOcn) вычислитель пространственных координат 3 формирует пространственные координаты центра каждой из цветных меток 10 (XOn, YOn, ZOn). Using the flat coordinates of the centers of the
Для случая изображенного на фиг.3 и 4, когда строительные оси передающих камер 1a и 1b параллельны оси OX, а строительная ось передающей камеры 1c параллельна оси OZ: XOn = YOcn, YOn = XOan = -XObn, ZOn = YOan = YObn.For the case of FIGS. 3 and 4, when the construction axes of the
Сформированные пространственные координаты центра каждой из цветных меток 10 (XOn, YOn, ZOn) с вычислителя пространственных координат 3 через интерфейс 4 передаются в компьютер 5.The generated spatial coordinates of the center of each of the color marks 10 (X On , Y On , Z On ) from the spatial coordinate calculator 3 via interface 4 are transmitted to computer 5.
Сопоставляя ранее введенную информацию "выбранная область управляющего объекта - выбранный для нее цвет" и полученные пространственные координаты центра каждой из цветных меток 9, компьютер 5 формирует пространственные координаты каждой из выделенных частей тела спортсмена 8. Comparing the previously entered information "the selected area of the control object - the color chosen for it" and the spatial coordinates of the center of each of the color labels 9, the computer 5 generates the spatial coordinates of each of the selected parts of the body of the
По полученным пространственным координатам центра каждой из выделенных частей тела спортсмена 8 на проекционном экране 7 программируемым образом формируется изображение управляемой виртуальной фигуры 13 спортсмена 8, перемещающейся синхронно с перемещением спортсмена 8. Программируемым образом сформированная управляемая виртуальная фигура 13 спортсмена 8 может взаимодействовать со средой, сформированной также программно на проекционном экране 7, например, с виртуальной фигурой противника 14. Based on the obtained spatial coordinates of the center of each of the selected parts of the body of the
Таким образом, из вышесказанного следует, что данное изобретение позволит ввести в компьютер информацию о пространственных координатах частей управляющего объекта отдельно друг от друга, что значительно расширяет возможности оператора, например, в интерактивных компьютерных играх. Thus, from the foregoing, it follows that this invention will allow you to enter into the computer information about the spatial coordinates of the parts of the control object separately from each other, which greatly expands the capabilities of the operator, for example, in interactive computer games.
Применение изобретения. Application of the invention.
Следует иметь в виду, что вариант реализации изобретения, описанный выше и представленный на чертежах, не является единственным. Могут быть использованы и другие вариации выполнения изобретения в отношении исполнения способа ввода информации в компьютер. It should be borne in mind that the embodiment of the invention described above and presented in the drawings is not the only one. Can be used and other variations of the invention in relation to the execution of the method of entering information into a computer.
Источники информации
1. Патент США N 5086404, МКИ G 06 G 7/48, НКИ 364/559, публ. 04.02.1992.Sources of information
1. US patent N 5086404, MKI G 06
2. Патент США N 4375674, МКИ A 61 B 5/05, НКИ 364/559, публ. 01.03.1983. 2. US patent N 4375674, MKI A 61 B 5/05, NCI 364/559, publ. 03/01/1983.
Claims (3)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU96119454A RU2123718C1 (en) | 1996-09-27 | 1996-09-27 | Method for information input to computer |
AU46402/97A AU4640297A (en) | 1996-09-27 | 1997-09-26 | Method for feeding information into a computer |
PCT/RU1997/000295 WO1998013746A1 (en) | 1996-09-27 | 1997-09-26 | Method for feeding information into a computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU96119454A RU2123718C1 (en) | 1996-09-27 | 1996-09-27 | Method for information input to computer |
Publications (2)
Publication Number | Publication Date |
---|---|
RU96119454A RU96119454A (en) | 1998-10-10 |
RU2123718C1 true RU2123718C1 (en) | 1998-12-20 |
Family
ID=20186038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU96119454A RU2123718C1 (en) | 1996-09-27 | 1996-09-27 | Method for information input to computer |
Country Status (3)
Country | Link |
---|---|
AU (1) | AU4640297A (en) |
RU (1) | RU2123718C1 (en) |
WO (1) | WO1998013746A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001075569A1 (en) * | 2000-04-04 | 2001-10-11 | Sviridenko Andrei Vladimirovic | Remote control method |
WO2001075578A1 (en) * | 2000-04-04 | 2001-10-11 | Sviridenko Andrei Vladimirovic | Remote control method |
WO2009157792A1 (en) * | 2008-06-24 | 2009-12-30 | Rurin Oleg Stanislavovich | Method for producing an effect on virtual objects |
RU2451982C1 (en) * | 2008-06-24 | 2012-05-27 | Олег Станиславович Рурин | Method for producing effect on virtual objects |
RU2534941C2 (en) * | 2009-01-30 | 2014-12-10 | Майкрософт Корпорейшн | Standard gestures |
RU208666U1 (en) * | 2021-09-22 | 2021-12-29 | Николай Геннадьевич Оботнин | FENCING SIMULATOR |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19917660A1 (en) * | 1999-04-19 | 2000-11-02 | Deutsch Zentr Luft & Raumfahrt | Method and input device for controlling the position of an object to be graphically represented in a virtual reality |
JP4226550B2 (en) * | 2002-07-25 | 2009-02-18 | ソリューショニックス コーポレーション | Three-dimensional measurement data automatic alignment apparatus and method using optical markers |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US9696808B2 (en) | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8589824B2 (en) | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8972902B2 (en) | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US8234578B2 (en) | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8432448B2 (en) | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US8139110B2 (en) | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8345920B2 (en) | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
WO2012172548A1 (en) * | 2011-06-14 | 2012-12-20 | Youval Nehmadi | Method for translating a movement and an orientation of a predefined object into a computer generated data |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4375674A (en) * | 1980-10-17 | 1983-03-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Kinesimetric method and apparatus |
GB2157426B (en) * | 1984-04-09 | 1988-02-10 | Gec Avionics | Angular position sensors |
US4672562A (en) * | 1984-12-11 | 1987-06-09 | Honeywell Inc. | Method and apparatus for determining location and orientation of objects |
SU1355979A1 (en) * | 1986-01-13 | 1987-11-30 | Предприятие П/Я В-8719 | Video signal digital former |
US5086404A (en) * | 1988-09-02 | 1992-02-04 | Claussen Claus Frenz | Device for simultaneous continuous and separate recording and measurement of head and body movements during standing, walking and stepping |
US5227985A (en) * | 1991-08-19 | 1993-07-13 | University Of Maryland | Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object |
US5297061A (en) * | 1993-05-19 | 1994-03-22 | University Of Maryland | Three dimensional pointing device monitored by computer vision |
-
1996
- 1996-09-27 RU RU96119454A patent/RU2123718C1/en active
-
1997
- 1997-09-26 AU AU46402/97A patent/AU4640297A/en not_active Abandoned
- 1997-09-26 WO PCT/RU1997/000295 patent/WO1998013746A1/en active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001075569A1 (en) * | 2000-04-04 | 2001-10-11 | Sviridenko Andrei Vladimirovic | Remote control method |
WO2001075578A1 (en) * | 2000-04-04 | 2001-10-11 | Sviridenko Andrei Vladimirovic | Remote control method |
WO2009157792A1 (en) * | 2008-06-24 | 2009-12-30 | Rurin Oleg Stanislavovich | Method for producing an effect on virtual objects |
RU2451982C1 (en) * | 2008-06-24 | 2012-05-27 | Олег Станиславович Рурин | Method for producing effect on virtual objects |
RU2534941C2 (en) * | 2009-01-30 | 2014-12-10 | Майкрософт Корпорейшн | Standard gestures |
RU208666U1 (en) * | 2021-09-22 | 2021-12-29 | Николай Геннадьевич Оботнин | FENCING SIMULATOR |
Also Published As
Publication number | Publication date |
---|---|
AU4640297A (en) | 1998-04-17 |
WO1998013746A1 (en) | 1998-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2123718C1 (en) | Method for information input to computer | |
US6157368A (en) | Control equipment with a movable control member | |
US20170274277A1 (en) | System and method for determining orientation using tracking cameras and inertial measurements | |
EP0899690B1 (en) | Apparatus and method for presenting mixed virtual reality shared among operators | |
US7750969B2 (en) | Camera calibration system and three-dimensional measuring system | |
US4896962A (en) | System for measuring the angular displacement of an object | |
EP0562327B1 (en) | Subliminal image modulation projection and detection system | |
US6304286B1 (en) | Stereoscopic display apparatus for generating images in accordance with an observer's viewing position | |
US5018854A (en) | Three dimensional imaging device | |
US4274609A (en) | Target and missile angle tracking method and system for guiding missiles on to targets | |
US6384907B1 (en) | Optical target and apparatus and method for automatic identification thereof | |
EP2915025A1 (en) | Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing | |
PL176135B1 (en) | System for incorporating images into a visual data stream | |
CN206833463U (en) | For object positioning and the polychrome active light source of posture analysis | |
JPH11513483A (en) | Method and apparatus for determining position and orientation | |
EP1015845A1 (en) | System and method for determining spatial coordinates | |
WO2004097612A2 (en) | A man-machine interface based on 3-d positions of the human body | |
CN110208947A (en) | Display equipment and display methods based on human eye tracking | |
CN109618108A (en) | Electronic equipment and mobile platform | |
RU96119454A (en) | METHOD FOR ENTERING INFORMATION IN A COMPUTER | |
US20170363707A1 (en) | Visual augmentation system effectiveness measurement apparatus and methods | |
WO1994015165A1 (en) | Target acquisition training apparatus and method of training in target acquisition | |
WO2018139810A1 (en) | Sensing apparatus for calculating position information of object in motion, and sensing method using same | |
CN111095168A (en) | Visual and inertial motion tracking | |
JP2001338280A (en) | Three-dimensional space information input device |