KR20150115508A - sensibility touch input device and method of generating sensibility touch information using the same - Google Patents
sensibility touch input device and method of generating sensibility touch information using the same Download PDFInfo
- Publication number
- KR20150115508A KR20150115508A KR1020140040683A KR20140040683A KR20150115508A KR 20150115508 A KR20150115508 A KR 20150115508A KR 1020140040683 A KR1020140040683 A KR 1020140040683A KR 20140040683 A KR20140040683 A KR 20140040683A KR 20150115508 A KR20150115508 A KR 20150115508A
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- time
- coordinate
- coordinate value
- sensing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 감성터치 입력장치 및 이를 이용한 감성터치정보 생성방법에 관한 것이다.
The present invention relates to a touch input device and a method of generating touch information using the touch input device.
일반적으로, 터치스크린이란 마우스를 사용하지 않고 스크린에 나타난 문자나 특정 위치에 사람의 손 또는 터치펜 등이 접촉되면 그 위치를 파악하여 저장된 응용프로그램에 의해 특정 처리를 할 수 있도록 한 것을 말하며, 터치스크린은 컴퓨터, 개인 휴대용단말기 등 사용자 입력 스크린으로 활용되고 있다.
Generally, a touch screen refers to a touch screen in which a person's hand or a touch pen touches a character or a specific position on a screen without using a mouse, The screen is used as a user input screen such as a computer or a personal portable terminal.
터치스크린은 구현원리와 동작방법에 따라 감압방식, 정전용량방식, IR 센서 방식, 카메라 방식 등으로 구분된다.
The touch screen is divided into the decompression method, the capacitance method, the IR sensor method, and the camera method depending on the principle and operation method of the touch screen.
감압방식은 터치스크린에 압력변화를 감지하는 방식으로 입력장치에 제한이 없다는 장점이 있으며, 정전용량방식은 신체에 흐르는 미세한 전류를 이용하여 터치를 감지하는 방식으로 멀티터치가 가능하고 반응속도가 빠르다는 장점이 있다. 그러나 감압방식과 정전용량방식은 비용 및 기술적인 문제로 대형화에 어려움이 있다. 한편, 적외선 방식이나 카메라 방식은 대형화면에 적합하고 오히려 소형화에 어려움이 있다.
The decompression method is a method of sensing the pressure change on the touch screen, and there is no restriction on the input device. The electrostatic capacity type is a touch sensing method using a minute current flowing in the body. . However, the decompression method and the electrostatic capacity method have difficulty in enlarging due to cost and technical problems. On the other hand, the infrared method and the camera method are suitable for a large screen and are rather difficult to miniaturize.
한편, 대한민국 공개특허 10-2011-0028834호에서는 터치 발생 시 상기 발생한 터치에 대한 터치 압력을 감지하여, 이를 인터페이스 입력에 반영하여 사용자 인터페이스를 효율적으로 운영하는 방법을 제시하고 있다.
Korean Patent Laid-Open Publication No. 10-2011-0028834 discloses a method of detecting a touch pressure on a touch generated when a touch occurs and reflecting the touch pressure to an interface input, thereby efficiently operating a user interface.
그러나, 이와 같은 종래기술에서는 단순히 터치 패널에 가해지는 압력을 감지하여 이를 입력 요소로 반영하므로, 사용자의 감성적인 의도를 정확히 반영할 수 없는 문제가 있었다. 즉, 동일한 압력의 터치입력인 경우에도 성인이 터치한 경우 부드러운 터치 입력 일 수 있고, 유아가 터치한 경우 강한 터치 입력 일 수도 있으나, 종래기술에서는 양자를 동일한 압력의 터치 입력으로 동일하게 처리하는 문제점이 있었다.
However, in such a conventional technology, there is a problem that the sensed intention of the user can not be accurately reflected because the pressure applied to the touch panel is simply sensed and reflected to the input element. In other words, even when the touch input is of the same pressure, it may be a soft touch input when the adult touches the touch input, or a strong touch input when the infant touches the touch input. However, .
또한, 터치 압력은 터치 패드와 전극과의 접촉에 따라 강도를 측정하는 것으로 터치 패드 패널사이의 전자기 외곡등으로 정밀하게 측정되기 어려운 문제점이 있었다.
In addition, there is a problem that the touch pressure is difficult to be precisely measured due to electromagnetic interference between the touch pad panels by measuring the strength in accordance with the contact between the touch pad and the electrode.
다른 종래기술로는 대형화면에 적합한 적외선 방식으로 발광(Light emitting)소자와 수광(Light detecting)소자가 마주하도록 배치하여 터치에 의해 차단된 지표를 인식하는 방식이 있다.
In another conventional technology, there is a method of disposing a light emitting element and a light detecting element facing each other in an infrared method suitable for a large screen and recognizing an indicator that is blocked by a touch.
그러나, 적외선 방식 기술분야에서는 속도 또는 좌표만을 감지할 뿐 속도와 좌표를 동시에 감지하는 기술이 없었으며, 터치면적이나 터치할 때의 충격량을 이용하여 입력명령에 반영하는 기술이 없어 사용자의 의도를 입체적으로 반영하기 힘든 문제점이 있었다.
However, in the field of infrared technology, there is no technology to simultaneously detect speed or coordinates but to detect velocity and coordinates at the same time. Since there is no technology to reflect the input command using the touch area or the amount of impact when touching, It is difficult to reflect such a problem.
또한, 속도를 감지하더라도 하나의 축에 적어도 2개 열을 가진 센서부가 필요하다는 문제점이 있었다.
Further, there is a problem in that a sensor unit having at least two rows in one axis is required even if the velocity is sensed.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 사용자의 터치속도, 터치면적 및 충격량 중 적어도 어느 하나를 반영하여 입력자의 입력의도(감성)를 파악하는 입력 인터페이스 장치를 제공하고자 함에 있다.
SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide an input device that receives at least one of a touch speed, a touch area, And an interface device.
상기의 목적을 달성하기 위해 광학식으로 터치를 감지하는 감성터치 입력장치에 있어서, 출력 내용을 표시하는 표시부; 상기 표시부에 인접하여 설치되고 제1좌표축을 감지하여 적어도 하나 이상의 제1좌표값(x_n)을 생성하는 제1센서부; 상기 제1센서부와 소정의 이격거리(L)를 갖도록 설치되고 제2좌표축을 감지하여 적어도 하나 이상의 제2좌표값(y_m)을 생성하는 제2센서부; 및 상기 제1센서부, 제2센서부 및 상기 표시부를 제어하며, 상기 제1센서부 및 상기 제2센서부로부터 상기 제1좌표값(x_n) 및 상기 제2좌표값(y_m)들을 제공받아 터치좌표 및 터치속도를 산출하고, 상기 터치좌표 및 상기 터치속도를 반영하여 감성터치정보를 생성하는 제어부;를 포함하는 것을 특징으로 하는 감성터치 입력장치를 제공할 수 있다.
In order to attain the above object, the present invention provides an emotional touch input device for optically sensing a touch, comprising: a display unit for displaying output contents; A first sensor unit installed adjacent to the display unit and sensing at least one first coordinate axis to generate at least one first coordinate value (x_n); A second sensor unit installed to have a predetermined distance L from the first sensor unit and sensing at least one second coordinate axis to generate at least one second coordinate value y_m; And controls the first sensor unit, the second sensor unit and the display unit to receive the first coordinate value (x_n) and the second coordinate value (y_m) from the first sensor unit and the second sensor unit And a control unit for calculating touch coordinates and a touch speed and generating sensible touch information by reflecting the touch coordinates and the touch speed.
바람직하게는, 상기 제어부는 상기 제1좌표값(x_n)이 제공된 시각인 제1감지시각(t1) 및 상기 제2좌표값(y_m)이 제공된 시각인 제2감지시각(t2)을 기록하고, 상기 터치속도는 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 이격거리(L)로부터 산출되는 것을 특징으로 하는 감성터치 입력장치를 제공할 수 있다.
The controller may record the first sensing time t1 at which the first coordinate value x_n is provided and the second sensing time t2 at which the second coordinate value y_m is provided, Wherein the touch speed is calculated from the first sensing time t1, the second sensing time t2, and the separation distance L.
바람직하게는, 상기 제어부는 터치면적을 더 산출하고, 상기 감성터치정보는 상기 터치좌표와 상기 터치속도 및 상기 터치면적 중 적어도 어느하나를 반영하여 생성하는 것을 특징으로 하는 감성터치 입력장치를 제공할 수 있다.
Preferably, the control unit further calculates the touch area, and the emotional touch information is generated by reflecting at least one of the touch coordinates, the touch speed, and the touch area .
바람직하게는, 상기 터치면적은 상기 제1좌표값(x_n)들 중 적어도 둘 이상의 제1좌표값(x_n)을 사용한 제1터치길이(x) 및 상기 제2좌표값(y_m)들 중 적어도 둘 이상의 제2좌표값(y_m)을 사용한 제2터치길이(y)로부터 산출하는 것을 특징으로 하는 감성터치 입력장치를 제공할 수 있다.
Preferably, the touch area includes at least two of the first touch length (x) and the second coordinate value (y_m) using at least two first coordinate values (x_n) among the first coordinate values (x_n) From the second touch length (y) using the second coordinate value (y_m) as described above.
바람직하게는, 상기 제어부는 터치면적을 더 산출하고, 상기 터치면적을 반영하여 충격량을 더 산출하고, 상기 감성터치정보는 상기 터치좌표와 상기 터치속도, 상기 터치면적 및 상기 충격량 중 적어도 어느하나를 반영하여 생성하는 것을 특징으로 하는 감성터치 입력장치를 제공할 수 있다.
Preferably, the control unit further calculates the touch area, further calculates the amount of impact by reflecting the touch area, and the emotional touch information includes at least one of the touch coordinates, the touch speed, the touch area, And the touch input device is generated by reflecting the touch input.
바람직하게는, 상기 제어부는 상기 제1좌표값(x_n)이 제공된 시각인 제1감지시각(t1), 상기 제2좌표값(y_m)이 제공된 시각인 제2감지시각(t2) 및 제2감지시각(t2)으로부터 감지가 해제될 때까지의 시간인 터치시간(t)을 기록하고, 상기 충격량은 상기 이격거리(L), 상기 터치면적, 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 터치시간(t)으로부터 산출되는 것을 특징으로 하는 감성터치 입력장치를 제공할 수 있다.
Preferably, the control unit includes a first sensing time t1 at which the first coordinate value x_n is provided, a second sensing time t2 at which the second coordinate value y_m is provided, The touch time t which is the time from the time t2 until the detection is released is recorded and the amount of the impact is calculated based on the distance L, the touch area, the first sensing time t1, Is calculated from the time (t2) and the touch time (t).
표시부, 상기 표시부에 인접하여 설치되고 제1좌표축을 감지하여 적어도 하나 이상의 제1좌표값(x_n)을 생성하는 제1센서부, 상기 제1센서와 소정의 이격거리(L)를 갖도록 설치되고 제2좌표축을 감지하여 적어도 하나 이상의 제2좌표값(y_m)을 생성하는 제2센서부 및 제어부를 포함하는 감성터치 입력장치가 감성터치정보를 생성하는 방법에 있어서, 상기 제어부가 제1좌표값(x_n) 생성여부를 판단하는 단계; 상기 제어부가 제1좌표값(x_n) 생성시각인 제1감지시각(t1)을 기록하는 단계; 상기 제어부가 제2좌표값(y_m) 생성여부를 판단하는 단계; 상기 제어부가 제2좌표값(y_m) 생성시각인 제2감지시각(t2)을 기록하는 단계; 및 상기 제어부가 상기 제1좌표값(x_n), 상기 제2좌표값(y_m), 상기 제1감지시각(t1) 및 제2감지시각(t2)을 이용하여 터치좌표 및 터치속도를 산출하는 단계; 및 상기 제어부가 상기 터치좌표 및 상기 터치속도를 반영하여 감성터치정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 감성터치정보를 생성하는 방법을 제공할 수 있다.
A first sensor unit installed adjacent to the display unit and sensing at least one first coordinate axis to generate at least one first coordinate value x_n, a second sensor unit installed at a predetermined distance L from the first sensor, A second sensor unit for sensing two coordinate axes to generate at least one second coordinate value y_m and a control unit, wherein the controller generates the first coordinate value determining whether or not to generate x_n; Recording the first detection time (t1) as the first coordinate value (x_n) generation time; Determining whether the controller generates a second coordinate value y_m; Recording the second sensing time (t2) as the second coordinate value (y_m) generation time; And the controller calculates the touch coordinates and the touch speed using the first coordinate value (x_n), the second coordinate value (y_m), the first sensing time (t1), and the second sensing time (t2) ; And generating the sensible touch information by reflecting the touch coordinates and the sensed touch speed to the controller.
상기 터치속도는 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 이격거리(L)로부터 산출되는 것을 특징으로 하는 감성터치정보를 생성하는 방법을 제공할 수 있다.
And the touch speed is calculated from the first sensing time t1, the second sensing time t2, and the separation distance L. The method of generating emotional touch information may further comprise:
상기 제어부는 터치면적을 더 산출하고, 상기 감성터치정보는 상기 터치좌표와 상기 터치속도 및 상기 터치면적 중 적어도 어느하나를 반영하여 생성하는 것을 특징으로 하는 감성터치정보를 생성하는 방법을 제공할 수 있다.
Wherein the control unit further calculates the touch area and generates the sensible touch information by reflecting at least one of the touch coordinates, the touch speed, and the touch area. have.
상기 터치면적은 상기 제1좌표값(x_n)들 중 적어도 둘 이상의 제1좌표값(x_n)을 사용한 제1터치길이(x) 및 상기 제2좌표값(y_m)들 중 적어도 둘 이상의 제2좌표값(y_m)을 사용한 제2터치길이(y)로부터 산출하는 것을 특징으로 하는 감성터치정보를 생성하는 방법을 제공할 수 있다.
Wherein the touch area includes a first touch length (x) using at least two first coordinate values (x_n) among the first coordinate values (x_n) and at least two second coordinates (y_m) among the second coordinate values Is calculated from the second touch length (y) using the value (y_m).
감성터치정보를 생성하는 방법은 상기 제어부가 제2좌표값(y_m) 생성이 해제되었는 지 여부를 판단하는 단계; 상기 제어부가 제2감지시각(t2)으로부터 감지가 해제될 때까지의 시간인 터치시간(t)을 기록하는 단계;를 더 포함하고, 상기 제어부는 상기 터치면적을 반영하여 충격량을 더 산출하고, 상기 감성터치정보는 상기 터치좌표와 상기 터치속도, 상기 터치면적 및 상기 충격량 중 적어도 어느하나를 반영하여 생성하는 것을 특징으로 하는 감성터치정보를 생성하는 방법을 제공할 수 있다.
The method of generating emotional touch information includes: determining whether the control unit has canceled generation of a second coordinate value (y_m); Further comprising the step of recording the touch time t, which is the time from when the control unit detects the second sensing time t2 until the sensing is released, wherein the control unit further calculates the amount of impact by reflecting the touch area, Wherein the sensible touch information is generated by reflecting at least one of the touch coordinates, the touch speed, the touch area, and the impulse amount.
상기 제어부는 터치면적을 더 산출하고, 상기 충격량은 상기 이격거리(L), 상기 터치면적, 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 터치시간(t)으로부터 산출되는 것을 특징으로 하는 감성터치정보를 생성하는 방법을 제공할 수 있다.
Wherein the control unit further calculates a touch area and the impact amount is calculated from the distance L, the touch area, the first sensing time t1, the second sensing time t2, and the touch time t And the touch-sensitive information can be generated.
전술한 바와 같이, 본 발명은 터치좌표, 터치속도, 터치면적 및 충격량을 산출하고 이를 반영하여 감성터치정보를 생성함으로써 입력자의 감성을 반영하여 수행명령에 반영할 수 있는 효과가 있다.
As described above, according to the present invention, the touch coordinates, the touch speed, the touch area, and the impact amount are calculated and the sensed touch information is generated by reflecting the sensed touch coordinates.
또한, 본 발명은 제1좌표축 및 제2좌표축에 해당하는 센서가 이격되어 설치됨으로서 각 좌표축 당 1개의 센서부만을 이용하여 터치속도 및 충격량을 산출할 수 있는 효과가 있다.
In addition, since the sensors corresponding to the first and second coordinate axes are spaced apart from each other, the present invention can calculate the touch speed and the impact amount using only one sensor unit per coordinate axis.
도 1은 본 발명의 일실시예에 의한 감성터치 입력장치를 도시한 블록도이다.
도 2는 본 발명의 일실시예에 의한 감성터치 입력장치를 나타낸 도면이다.
도 3은 본 발명의 일실시예에 의한 감성터치 입력장치의 제1센서부 및 제2센서부의 배치와 제1광신호 및 제2광신호의 방향을 나타낸 도면이다.
도 4은 본 발명의 다른 실시예에 의한 감성터치 입력장치의 제1센서부 및 제2센서부의 배치와 제1광신호 및 제2광신호의 방향을 나타낸 도면이다.
도 5는 본 발명의 또 다른 실시예에 의한 감성터치 입력장치의 제1광신호 및 제2광신호의 방향 및 관련변수를 나타낸 도면이다.
도 6는 본 발명의 일실시예에 의한 감성터치정보 생성방법을 나타낸 순서도이다.1 is a block diagram illustrating an emotional touch input apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a touch input device according to an exemplary embodiment of the present invention.
3 is a view showing the arrangement of the first sensor unit and the second sensor unit and the directions of the first and second optical signals of the emotional touch input apparatus according to an embodiment of the present invention.
4 is a view showing the arrangement of the first sensor unit and the second sensor unit and the directions of the first and second optical signals of the emotional touch input apparatus according to another embodiment of the present invention.
FIG. 5 is a diagram illustrating directions and related variables of a first optical signal and a second optical signal of the emotional touch input apparatus according to another embodiment of the present invention.
6 is a flowchart illustrating a method of generating emotional touch information according to an exemplary embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate a thorough understanding of the present invention, the same reference numerals are used for the same means regardless of the number of the drawings.
도 1은 본 발명의 일실시예에 의한 감성터치 입력장치(100)를 도시한 블록도이다.
FIG. 1 is a block diagram showing an emotional
도 1을 참조하면, 감성터치 입력장치(100)는 표시부(110), 제1센서부(120), 제2센서부(130) 및 제어부(140)를 포함한다.
Referring to FIG. 1, the emotional
표시부(110)는 상기 제어부(140)의 출력내용을 시각적으로 감지할 수 있도록 표시하는 장치로, LCD(Liquid Crystal Display), LED(Light Emitted Diode) 등 다양한 디스플레이 장치로 구성될 수 있다.
The
표시부(110)는 제어부(140)가 제공하는 감성터치정보(터치속도, 터치면적 및 충격량 중 적어도 어느 하나를 포함하는 정보)가 반영된 소정의 출력내용을 시각적으로 제공할 수 있다.
The
바람직하게는, 표시부(110)는 상기 제1센서부(120) 및 상기 제2센서부(130)가 용이하게 결합될 수 있도록 도 2에 도시한 바와 같이 브래킷(150)을 포함할 수 있다.
Preferably, the
제1센서부(120)는 상기 표시부(110)에 인접하여 설치되고 제1좌표축을 감지하여 적어도 하나 이상의 제1좌표값(x_n)을 생성한다.
The
여기서, n은 복수의 제1좌표값에 대한 인덱스(n=1,2,3...)이다.
Here, n is an index (n = 1, 2, 3, ...) for a plurality of first coordinate values.
제1센서부(120)는 소정의 감지수단을 통하여 제1좌표축상의 터치지점들을 제1좌표축상의 위치로 감지하여 1차원적인 x축 좌표값들인 제1좌표값(x_n)들을 얻는 것이다.
The
본 발명의 일 실시예에 따르면 상기 제1센서부(120)는 상기 표시부(110)의 측면에 설치된 상기 브래킷(150)의 일측면을 따라 소정의 간격으로 배치되어 제1광신호를 발신하는 다수의 제1발광소자(122) 및 상기 제1발광소자(122)에 대향되어 배치되고 상기 표시부의 측면을 따라 소정의 간격으로 배치되어 상기 제1광신호를 수신하는 다수의 제1수광소자(124)를 포함할 수 있다.
According to an embodiment of the present invention, the
사용자가 표시부를 터치하는 경우, 상기 제1수광소자(124)들 중 적어도 일부의 제1수광소자(124)는 상기 제1광신호의 수신이 단절된다. 이 때, 제1좌표값(x_n)은 상기 제1광신호의 수신이 단절된 제1수광소자(124)들의 위치에 따라 생성된다. 또한, 제1좌표값의 개수는 수신이 단절된 제1수광소자(124)들의 개수에 대응한다.
When the user touches the display unit, the first
제1센서부(120)는 생성된 상기 제1좌표값(x_n)을 제어부(140)에 제공한다.
The
본 발명의 일실시예에 따르면 제어부(140)는 상기 제1좌표값(x_n) 중 평균값을 터치좌표(x,y)의 x축좌표로 할 수 있다.
According to an embodiment of the present invention, the
제2센서부(130)는 상기 제1센서부와 소정의 이격거리(L)를 갖도록 설치되고 제2좌표축을 감지하여 적어도 하나 이상의 제2좌표값(y_m)을 생성한다.
The
여기서, n은 복수의 제2좌표값에 대한 인덱스(m=1,2,3...)이다.
Here, n is an index (m = 1, 2, 3 ...) for a plurality of second coordinate values.
제2센서부(120)는 소정의 감지수단을 통하여 제2좌표축상의 터치지점을 제2좌표축상의 위치로 감지하여 1차원적인 y축 좌표값인 제2좌표값(y_m)을 얻는 것이다.
The
본 발명의 일실시예에서는 제2센서부(130)는 상기 제1센서부(120)가 감지하는 제1좌표축과 제2좌표축이 서로 직교하도록 설치된다.
In an embodiment of the present invention, the
본 발명의 일 실시예에 따르면 상기 제2센서부(130)는 상기 표시부(110)의 측면에 설치된 상기 브래킷(150)의 타측면을 따라 소정의 간격으로 배치되고 상기 제1광신호와 직교하는 제2광신호를 발신하는 다수의 제2발광소자(132) 및 상기 제2발광소자(132)에 대향되어 배치되고 상기 표시부의 측면을 따라 소정의 간격으로 배치되어 상기 제2광신호를 수신하는 다수의 제2수광소자(134);를 포함할 수 있다.
According to an embodiment of the present invention, the
사용자가 표시부를 터치하는 경우, 상기 제2수광소자(134)들 중 적어도 일부의 제2수광소자(134)는 상기 제2광신호의 수신이 단절된다. 이 때, 제2좌표값(y_m)은 상기 제2광신호의 수신이 단절된 제2수광소자(134)들의 위치에 따라 생성된다. 또한, 제2좌표값의 개수는 수신이 단절된 제2수광소자(134)들의 개수에 대응한다.
When the user touches the display portion, at least a part of the second
제2센서부(130)는 생성된 상기 제2좌표값(y_m)을 제어부(140)에 제공한다.
The
본 발명의 일실시예에 따르면 제어부(140)는 상기 제2좌표값(y_m) 중 평균값을 터치좌표(x,y)의 y축좌표로 할 수 있다.
According to an embodiment of the present invention, the
도 3은 본 발명의 일실시예에 의한 감성터치 입력장치의 제1센서부 및 제2센서부의 배치와 제1광신호 및 제2광신호의 방향을 나타낸 도면이다.
3 is a view showing the arrangement of the first sensor unit and the second sensor unit and the directions of the first and second optical signals of the emotional touch input apparatus according to an embodiment of the present invention.
도 3을 참조하면, 제1발광소자(122)는 좌변, 제2발광소자(132)는 윗변, 제1수광소자는(124) 우변, 제2수광소자(134)는 밑변에 배치할 수 있으나 이에 제한되는 것은 아니다. 이 경우, 제1광신호 및 제2광신호는 직교한다.
3, the first
도 4은 본 발명의 다른 실시예에 의한 감성터치 입력장치의 제1센서부 및 제2센서부의 배치와 제1광신호 및 제2광신호의 방향을 나타낸 도면이다.
4 is a view showing the arrangement of the first sensor unit and the second sensor unit and the directions of the first and second optical signals of the emotional touch input apparatus according to another embodiment of the present invention.
도 4를 참조하면, 제1발광소자(122) 및 제2수광소자(134)는 제1좌표축인 밑변에 배치하고 제2발광소자(132) 및 제1수광소자(124)는 제2좌표축인 우변에 배치할 수 있다. 이 경우 제1광신호 및 제2광신호의 방향은 서로 평행하고, 제1좌표축 및 제2좌표축에 대해서는 일정 각도를 가진다.
4, the first
도 5는 본 발명의 또 다른 실시예에 의한 감성터치 입력장치의 제1광신호 및 제2광신호의 방향 및 관련변수를 나타낸 도면이다.
FIG. 5 is a diagram illustrating directions and related variables of a first optical signal and a second optical signal of the emotional touch input apparatus according to another embodiment of the present invention.
도 5를 참조하면, 제1광신호 방향 및 제2광신호 방향은 평행하지 않고, 제1좌표축 및 제2좌표축에 대해서도 일정 각도를 가진다.
Referring to FIG. 5, the first optical signal direction and the second optical signal direction are not parallel, but have a certain angle with respect to the first coordinate axis and the second coordinate axis.
이 경우, 제어부(140)는 도 5에 제시된 변수들을 이용하여 터치위치를 산출할 수 있다. 광신호의 수신이 단절된 수광소자들에 상응하는 발광소자들의 평균 위치를 x, y라고 하고, y축과 제1광신호의 방향이 이루는 각을 _1, x축과 제2광신호의 방향이 이루는 각을 _2라 할 때 터치좌표(x, y)은 하기 수학식1를 통하여 산출된다.
In this case, the
수학식 1Equation 1
제어부(140)는 상기 표시부(110), 제1센서부(120) 및 상기 제2센서부(130)를 제어한다.
The
제어부(140)는 상기 제1센서부(120) 및 상기 제2센서부(130)로부터 제공받은 상기 제1좌표값(x_n) 및 상기 제2좌표값(y_m)을 이용하여 2차원적인 터치좌표(x,y)를 산출한다.
The
한편, 제어부(140)는 상기 제1좌표값(x_n)이 제공된 시각인 제1감지시각(t1) 및 상기 제2좌표값(y_m)이 제공된 시각인 제2감지시각(t2)을 기록한다.
The
제어부(140)는 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 이격거리(L)에 따라 터치속도를 산출하며 본 발명의 일 실시예에 따르면 제어부(140)는 아래 수학식2로부터 터치속도 v를 산출한다.
The
수학식 2Equation 2
실시예에 따라, 제1센서부(120)에서 제1좌표값(x_n) 및 제1감지시각(t1)을 산출하여 제어부(140)에 제공하고, 제2센서부(120)에서 제2좌표값(y_m) 및 제2감지시각(t2)을 산출하여 제어부(140)에 제공할 수도 있다.
The
제어부(140)는 상기 터치좌표(x,y) 및 터치속도(v)를 반영하여 감성터치정보를 생성하고 다양한 입력처리를 수행할 수 있다.
The
상기 감성터치정보란 종래의 평면적인 터치위치만을 고려한 정보가 아닌 터치위치 및 터치속도를 종합적으로 고려한 정보를 말하는 것으로 이에 따라 다양한 입력처리의 수행이 가능하다.
The sensible touch information refers to information that considers not only the conventional planar touch position but also the touch position and the touch speed, so that various input processing can be performed accordingly.
예를 들어, 사용자가 감성터치 입력장치를 통해 음악을 재생하는 경우 상기 터치속도에 따라서 소리의 크기 또는 재생속도를 조절하도록 할 수도 있다.
For example, when the user reproduces music through the emotional touch input device, the user may adjust the size of the sound or the reproduction speed according to the touch speed.
본 발명의 다른 실시예에 따르면, 제어부(140)는 터치면적을 더 산출하고, 상기 터치좌표, 상기 터치속도 및 상기 터치면적을 반영하여 감성터치정보를 생성할 수 있다.
According to another embodiment of the present invention, the
상기 터치면적은 상기 제1좌표값(x_n)들 중 적어도 둘 이상의 제1좌표값(x_n)을 사용한 제1터치길이(x) 및 상기 제2좌표값(y_m)들 중 적어도 둘 이상의 제2좌표값(y_m)을 사용한 제2터치길이(y)로부터 산출할 수 있다.
Wherein the touch area includes a first touch length (x) using at least two first coordinate values (x_n) among the first coordinate values (x_n) and at least two second coordinates (y_m) among the second coordinate values Can be calculated from the second touch length (y) using the value (y_m).
본 발명의 일실시예에 따르면, 제1좌표값(x_n)의 처음과 끝의 값의 차이를 제1터치길이(x), 제2좌표값(y_m)의 처음과 끝의 값이 차이를 제2터치길이(y)로 할 수 있다. 이 때, 터치면적은 제1터치길이(x)와 제2터치길이(y)를 곱한 값으로 할 수 있다.
According to an embodiment of the present invention, a difference between a first coordinate value (x_n) and a first coordinate value (x_n) is determined as a difference between a first touch length (x) and a second coordinate value 2 touch length (y). At this time, the touch area may be a value obtained by multiplying the first touch length (x) by the second touch length (y).
예를 들어, 사용자가 감성터치 입력장치를 통해 손으로 화면에 선을 그리는 명령을 내리고 싶은 경우 선의 굵기를 상기 터치면적에 따라 다르게 하는 등 다양한 정보처리가 가능하다.
For example, when a user desires to make a command to draw a line on the screen by hand through the emotional touch input device, various information processing can be performed such that the thickness of the line varies according to the touch area.
본 발명의 또 다른 실시예에 따르면, 제어부(140)는 충격량을 더 산출하고, 상기 터치좌표, 상기 터치속도 및 상기 충격량을 반영하여 감성터치정보를 생성할 수 있다.
According to another embodiment of the present invention, the
제어부(140)는 상기 제1좌표값(x_n)이 제공된 시각인 제1감지시각(t1), 상기 제2좌표값(y_m)이 제공된 시각인 제2감지시각(t2) 및 제2감지시각(t2)으로부터 감지가 해제될 때까지의 터치시간(t)을 기록할 수 있다.
The
상기 충격량은 상기 이격거리(L), 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 터치시간(t)으로부터 산출될 수 있다.
The amount of impact may be calculated from the separation distance L, the first sensing time t1, the second sensing time t2, and the touch time t.
본 발명의 일 실시예에 따르면 상기 충격량은 아래 수학식3으로부터 산출할 수 있다.
According to an embodiment of the present invention, the impact amount can be calculated from the following equation (3).
수학식 3Equation 3
여기서 M은 손가락의 질량을 의미하는 것으로 기 설정되어 있을 수도 있고 사용자가 이미 입력한 값일 수도 있다.
Here, M means the mass of the finger, which may be preset or may be a value already input by the user.
바람직하게는, 상기 M은 터치면적에 비례한다. 일반적으로 유아는 터치면적이 작고 성인은 터치면적이 크기 때문이다.
Preferably, M is proportional to the touch area. Generally, infants have a small touch area and adults have a large touch area.
상기 산출한 충격량이 동일한 충격량이라도 유아와 터치한 경우 강한 터치에 해당하고 성인이 터치한 경우 부드러운 터치에 해당할 수 있다. 감성터치정보는 상기 사항을 고려하여 터치면적 및 충격량을 종합적으로 반영하여 생성할 수 있다.
Even if the calculated impulse amount is the same as the amount of the impact, it corresponds to a strong touch when touched with an infant, and corresponds to a soft touch when an adult touches. The sensible touch information can be generated by totally reflecting the touch area and the amount of the shock in consideration of the above-mentioned matters.
상기 살펴 본 바와 같이, 본 발명은 제1좌표축 및 제2좌표축에 해당하는 센서가 이격되어 설치됨으로서 각 좌표축 당 1개의 센서부만을 이용하여 터치속도 및 충격량을 산출할 수 있는 것이다.
As described above, according to the present invention, since the sensors corresponding to the first coordinate axis and the second coordinate axis are disposed apart from each other, the touch velocity and the impact amount can be calculated using only one sensor unit per coordinate axis.
도 6은 본 발명의 일실시예에 의한 감성터치정보 생성방법을 나타낸 순서도이다.
6 is a flowchart illustrating a method of generating emotional touch information according to an exemplary embodiment of the present invention.
도 6을 참조하면, S210단계에서 제어부(140)는 제1센서부(110)가 제1좌표값(x_n)을 생성하는 지 판단한다. 제1좌표값(x_n)이 생성되는 경우 S220단계로 진행하고, 제1좌표값(x_n)이 생성되지 않는 경우 S210단계를 반복한다.
Referring to FIG. 6, in step S210, the
S220단계에서 제어부(140)는 제1감지시각(t1)을 기록한다.
In step S220, the
S230단계에서 제어부(140)는 제2센서부(120)가 제2좌표값(y_m)을 생성하는 지 판단한다. 제2좌표값(y_m)이 생성되는 경우 S240단계로 진행하고 기 설정한 시간 이상 제2좌표값(y_m)이 생성되지 않는 경우 S210단계로 되돌아간다.
In step S230, the
S240단계에서 제어부(140)는 제2감지시각(t2)을 기록한다.
In step S240, the
S250단계에서 제어부(140)는 제2좌표값(y_m) 생성이 해제되었는 지 판단한다. 제2좌표값(y_m) 생성이 해제된 경우 S260단계로 진행하고 제2좌표값(y_m) 생성이 해제되지 않은 경우 S240단계를 반복한다.
In step S250, the
S260단계에서 제어부(140)는 제2감지시각(t2)으로부터 감지가 해제될 때까지의 시간인 터치시간(t)을 기록한다.
In step S260, the
S270단계에서 제어부(140)는 터치좌표와 터치속도, 터치면적 및 충격량 중 적어도 어느 하나를 산출한다.
In step S270, the
상기 터치속도는 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 이격거리(L)에 따라 산출되며, 본 발명의 일 실시예에 터치속도는 상기 수학식1로부터 산출된다.
The touch speed is calculated according to the first sensing time t1, the second sensing time t2, and the separation distance L. In one embodiment of the present invention, the touch speed is calculated from Equation 1 .
상기 터치면적은 상기 제1좌표값(x_n)들 중 적어도 둘 이상의 제1좌표값(x_n)을 사용한 제1터치길이(x) 및 상기 제2좌표값(y_m)들 중 적어도 둘 이상의 제2좌표값(y_m)을 사용한 제2터치길이(y)로부터 산출할 수 있다.
Wherein the touch area includes a first touch length (x) using at least two first coordinate values (x_n) among the first coordinate values (x_n) and at least two second coordinates (y_m) among the second coordinate values Can be calculated from the second touch length (y) using the value (y_m).
본 발명의 일실시예에 따르면, 제1좌표값(x_n)의 처음과 끝의 값의 차이를 제1터치길이(x), 제2좌표값(y_m)의 처음과 끝의 값이 차이를 제2터치길이(y)로 할 수 있다. 이 때, 터치면적은 제1터치길이(x)와 제2터치길이(y)를 곱한 값으로 할 수 있다.
According to an embodiment of the present invention, a difference between a first coordinate value (x_n) and a first coordinate value (x_n) is determined as a difference between a first touch length (x) and a second coordinate value 2 touch length (y). At this time, the touch area may be a value obtained by multiplying the first touch length (x) by the second touch length (y).
상기 충격량은 상기 이격거리(L), 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 터치시간(t)으로부터 산출될 수 있다.
The amount of impact may be calculated from the separation distance L, the first sensing time t1, the second sensing time t2, and the touch time t.
본 발명의 일 실시예에 따르면 상기 충격량은 상기 수학식3으로부터 산출할 수 있다.
According to an embodiment of the present invention, the impact amount can be calculated from Equation (3).
S280단계에서 제어부(140)는 상기 터치좌표와 상기 터치속도, 터치면적 및 상기 충격량 중 적어도 어느 하나를 이용하여 감성터치정보를 생성한다.
In step S280, the
본 발명의 권리는 이상에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 소양을 가진 자가 청구범위에 기재된 권리 범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.
It is to be understood that the invention is not limited to the embodiments described herein but is defined by the scope of the claims and that various changes and modifications can be made within the scope of the claims It is self-evident.
예를 들어, 본 발명의 실시예를 설명함에 있어, 발광소자 및 수광소자에 적용되는 광의 종류에 대하여 한정하여 설명하지는 않았다. 즉, 상기 광의 종류는 발명의 실시예에 적합한 광을 적용하는 것으로, 본 발명의 일실시예의 경우, 대형화면에 적합하고 직진성이 좋은 적외선 광을 이용한 발광소자 및 수광소자를 이용할 수 있다.
For example, in describing the embodiment of the present invention, the kind of light applied to the light emitting element and the light receiving element is not limited. That is, the light is adapted to the embodiment of the present invention. In one embodiment of the present invention, a light emitting element and a light receiving element using infrared light that is suitable for a large screen and has good linearity can be used.
100: 감성터치 입력장치
110: 표시부
120: 제1센서부
130: 제2센서부
140: 제어부
150: 브래킷100: Emotional touch input device
110:
120: first sensor unit
130: second sensor unit
140:
150: Bracket
Claims (12)
출력 내용을 표시하는 표시부;
상기 표시부에 인접하여 설치되고 제1좌표축을 감지하여 적어도 하나 이상의 제1좌표값(x_n)을 생성하는 제1센서부;
상기 제1센서부와 소정의 이격거리(L)를 갖도록 설치되고 제2좌표축을 감지하여 적어도 하나 이상의 제2좌표값(y_m)을 생성하는 제2센서부; 및
상기 제1센서부, 제2센서부 및 상기 표시부를 제어하며, 상기 제1센서부 및 상기 제2센서부로부터 상기 제1좌표값(x_n) 및 상기 제2좌표값(y_m)들을 제공받아 터치좌표 및 터치속도를 산출하고, 상기 터치좌표 및 상기 터치속도를 반영하여 감성터치정보를 생성하는 제어부;를 포함하는 것
을 특징으로 하는 감성터치 입력장치
A sensory touch input device for optically sensing a touch, comprising:
A display unit for displaying output contents;
A first sensor unit installed adjacent to the display unit and sensing at least one first coordinate axis to generate at least one first coordinate value (x_n);
A second sensor unit installed to have a predetermined distance L from the first sensor unit and sensing at least one second coordinate axis to generate at least one second coordinate value y_m; And
(X_n) and the second coordinate values (y_m) from the first sensor unit and the second sensor unit to control the first sensor unit, the second sensor unit, and the display unit, And a controller for calculating coordinates and a touch speed and generating emotional touch information by reflecting the touch coordinates and the touch speed
A touch-sensitive input device
상기 제어부는 상기 제1좌표값(x_n)이 제공된 시각인 제1감지시각(t1) 및 상기 제2좌표값(y_m)이 제공된 시각인 제2감지시각(t2)을 기록하고,
상기 터치속도는 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 이격거리(L)로부터 산출되는 것
을 특징으로 하는 감성터치 입력장치
The method according to claim 1,
The control unit records a first sensing time t1 at which the first coordinate value x_n is provided and a second sensing time t2 at which the second coordinate value y_m is provided,
The touch speed is calculated from the first sensing time t1, the second sensing time t2 and the separation distance L
A touch-sensitive input device
상기 제어부는 터치면적을 더 산출하고,
상기 감성터치정보는 상기 터치좌표와 상기 터치속도 및 상기 터치면적 중 적어도 어느하나를 반영하여 생성하는 것
을 특징으로 하는 감성터치 입력장치
The method according to claim 1,
Wherein the control unit further calculates a touch area,
Wherein the sensible touch information is generated by reflecting at least one of the touch coordinates, the touch velocity, and the touch area
A touch-sensitive input device
상기 터치면적은 상기 제1좌표값(x_n)들 중 적어도 둘 이상의 제1좌표값(x_n)을 사용한 제1터치길이(x) 및 상기 제2좌표값(y_m)들 중 적어도 둘 이상의 제2좌표값(y_m)을 사용한 제2터치길이(y)로부터 산출하는 것
을 특징으로 하는 감성터치 입력장치
The method of claim 3,
Wherein the touch area includes a first touch length (x) using at least two first coordinate values (x_n) among the first coordinate values (x_n) and at least two second coordinates (y_m) among the second coordinate values From the second touch length (y) using the value (y_m)
A touch-sensitive input device
상기 제어부는 터치면적을 더 산출하고,
상기 터치면적을 반영하여 충격량을 더 산출하고,
상기 감성터치정보는 상기 터치좌표와 상기 터치속도, 상기 터치면적 및 상기 충격량 중 적어도 어느하나를 반영하여 생성하는 것
을 특징으로 하는 감성터치 입력장치
The method of claim 3,
Wherein the control unit further calculates a touch area,
Further calculating an impulse amount reflecting the touch area,
Wherein the sensible touch information is generated by reflecting at least one of the touch coordinates, the touch speed, the touch area, and the impulse amount
A touch-sensitive input device
상기 제어부는 상기 제1좌표값(x_n)이 제공된 시각인 제1감지시각(t1), 상기 제2좌표값(y_m)이 제공된 시각인 제2감지시각(t2) 및 제2감지시각(t2)으로부터 감지가 해제될 때까지의 시간인 터치시간(t)을 기록하고,
상기 충격량은 상기 이격거리(L), 상기 터치면적, 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 터치시간(t)으로부터 산출되는 것
을 특징으로 하는 감성터치 입력장치
6. The method of claim 5,
The controller may be configured to determine a first detection time t1 that is the time when the first coordinate value x_n is provided, a second detection time t2 that is the time when the second coordinate value y_m is provided, (T), which is the time from detection of the touch to release of the sensing,
The impact amount is calculated from the distance L, the touch area, the first sensing time t1, the second sensing time t2, and the touch time t
A touch-sensitive input device
상기 제어부가 제1좌표값(x_n) 생성여부를 판단하는 단계;
상기 제어부가 제1좌표값(x_n) 생성시각인 제1감지시각(t1)을 기록하는 단계;
상기 제어부가 제2좌표값(y_m) 생성여부를 판단하는 단계;
상기 제어부가 제2좌표값(y_m) 생성시각인 제2감지시각(t2)을 기록하는 단계; 및
상기 제어부가 상기 제1좌표값(x_n), 상기 제2좌표값(y_m), 상기 제1감지시각(t1) 및 제2감지시각(t2)을 이용하여 터치좌표 및 터치속도를 산출하는 단계; 및
상기 제어부가 상기 터치좌표 및 상기 터치속도를 반영하여 감성터치정보를 생성하는 단계;를 포함하는 것
을 특징으로 하는 감성터치정보를 생성하는 방법
A first sensor unit installed adjacent to the display unit and sensing at least one first coordinate axis to generate at least one first coordinate value x_n, a second sensor unit installed at a predetermined distance L from the first sensor, A second sensor unit for sensing two coordinate axes to generate at least one second coordinate value y_m, and a controller, the method comprising the steps of:
Determining whether the control unit generates a first coordinate value (x_n);
Recording the first detection time (t1) as the first coordinate value (x_n) generation time;
Determining whether the controller generates a second coordinate value y_m;
Recording the second sensing time (t2) as the second coordinate value (y_m) generation time; And
Calculating the touch coordinates and the touch speed using the first coordinate value (x_n), the second coordinate value (y_m), the first sensing time (t1), and the second sensing time (t2); And
And the control unit generating the emotional touch information by reflecting the touch coordinates and the touch speed
A method for generating emotional touch information
상기 터치속도는 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 이격거리(L)로부터 산출되는 것
을 특징으로 하는 감성터치정보를 생성하는 방법
8. The method of claim 7,
The touch speed is calculated from the first sensing time t1, the second sensing time t2 and the separation distance L
A method for generating emotional touch information
상기 제어부는 터치면적을 더 산출하고,
상기 감성터치정보는 상기 터치좌표와 상기 터치속도 및 상기 터치면적 중 적어도 어느하나를 반영하여 생성하는 것
을 특징으로 하는 감성터치정보를 생성하는 방법
8. The method of claim 7,
Wherein the control unit further calculates a touch area,
Wherein the sensible touch information is generated by reflecting at least one of the touch coordinates, the touch velocity, and the touch area
A method for generating emotional touch information
상기 터치면적은 상기 제1좌표값(x_n)들 중 적어도 둘 이상의 제1좌표값(x_n)을 사용한 제1터치길이(x) 및 상기 제2좌표값(y_m)들 중 적어도 둘 이상의 제2좌표값(y_m)을 사용한 제2터치길이(y)로부터 산출하는 것
을 특징으로 하는 감성터치정보를 생성하는 방법
10. The method of claim 9,
Wherein the touch area includes a first touch length (x) using at least two first coordinate values (x_n) among the first coordinate values (x_n) and at least two second coordinates (y_m) among the second coordinate values From the second touch length (y) using the value (y_m)
A method for generating emotional touch information
감성터치정보를 생성하는 방법은
상기 제어부가 제2좌표값(y_m) 생성이 해제되었는 지 여부를 판단하는 단계;
상기 제어부가 제2감지시각(t2)으로부터 감지가 해제될 때까지의 시간인 터치시간(t)을 기록하는 단계;를 더 포함하고,
상기 제어부는 상기 터치면적을 반영하여 충격량을 더 산출하고,
상기 감성터치정보는 상기 터치좌표와 상기 터치속도, 상기 터치면적 및 상기 충격량 중 적어도 어느하나를 반영하여 생성하는 것
을 특징으로 하는 감성터치정보를 생성하는 방법
10. The method of claim 9,
The method of generating emotional touch information
Determining whether the second coordinate value (y_m) generation is released;
And recording the touch time (t), which is the time from when the control unit detects the second detection time (t2) to when the detection is canceled,
Wherein the control unit further calculates the amount of impact by reflecting the touch area,
Wherein the sensible touch information is generated by reflecting at least one of the touch coordinates, the touch speed, the touch area, and the impulse amount
A method for generating emotional touch information
상기 제어부는 터치면적을 더 산출하고,
상기 충격량은 상기 이격거리(L), 상기 터치면적, 상기 제1감지시각(t1), 상기 제2감지시각(t2) 및 상기 터치시간(t)으로부터 산출되는 것
을 특징으로 하는 감성터치정보를 생성하는 방법
12. The method of claim 11,
Wherein the control unit further calculates a touch area,
The impact amount is calculated from the distance L, the touch area, the first sensing time t1, the second sensing time t2, and the touch time t
A method for generating emotional touch information
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140040683A KR20150115508A (en) | 2014-04-04 | 2014-04-04 | sensibility touch input device and method of generating sensibility touch information using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140040683A KR20150115508A (en) | 2014-04-04 | 2014-04-04 | sensibility touch input device and method of generating sensibility touch information using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150115508A true KR20150115508A (en) | 2015-10-14 |
Family
ID=54357643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140040683A KR20150115508A (en) | 2014-04-04 | 2014-04-04 | sensibility touch input device and method of generating sensibility touch information using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20150115508A (en) |
-
2014
- 2014-04-04 KR KR1020140040683A patent/KR20150115508A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10901556B2 (en) | Instrument detection with an optical touch sensitive device | |
KR101648143B1 (en) | Detecting touch input force | |
JP5832784B2 (en) | Touch panel system and electronic device using the same | |
KR101811636B1 (en) | Display apparatus and Method for displaying object thereof | |
US10963089B2 (en) | Tactile sensation providing apparatus and tactile sensation providing method | |
US20110109577A1 (en) | Method and apparatus with proximity touch detection | |
US20120188285A1 (en) | Enhanced pointing interface | |
KR20080005990A (en) | Touch location determination using bending mode sensors and multiple detection techniques | |
KR20160087846A (en) | Touch systems and methods employing force direction determination | |
AU2013212629B2 (en) | User interface for a touch screen | |
US20140111478A1 (en) | Optical Touch Control Apparatus | |
KR20110063985A (en) | Display apparatus and touch sensing method | |
KR20160089717A (en) | 3d hovering digitizer system using pen tilt | |
KR20150115508A (en) | sensibility touch input device and method of generating sensibility touch information using the same | |
CN103809913A (en) | Method and device for determining sliding operation on touch screen and terminal | |
CN103941922A (en) | Optical touch system, touch detection method and computer program product | |
KR100444074B1 (en) | Touch screen system | |
JP6014370B2 (en) | Touch panel device, detection method, and program | |
CN102750051B (en) | Position detection device and position detection method | |
TW201310298A (en) | Touch system with track detecting function and method thereof | |
TW201629719A (en) | Electronic apparatus and mode controlling method and touch sensing method thereof | |
KR101456834B1 (en) | Apparatus and method for interface sensing of touch speed | |
JPH1115594A (en) | Three-dimensional pointing device | |
KR101222134B1 (en) | system for controlling a point of view in virtual reality and method for controlling a point of view using the same | |
KR101069992B1 (en) | Apparatus for inputting digital data using laser |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |