JP7171727B2 - Augmented reality display system - Google Patents

Augmented reality display system Download PDF

Info

Publication number
JP7171727B2
JP7171727B2 JP2020531465A JP2020531465A JP7171727B2 JP 7171727 B2 JP7171727 B2 JP 7171727B2 JP 2020531465 A JP2020531465 A JP 2020531465A JP 2020531465 A JP2020531465 A JP 2020531465A JP 7171727 B2 JP7171727 B2 JP 7171727B2
Authority
JP
Japan
Prior art keywords
display device
frame
waveguide
hinge
personal display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020531465A
Other languages
Japanese (ja)
Other versions
JP2021507277A (en
Inventor
トラバース,ポール
ポーター,タイラー
ロバート シュルツ,
グレゴリー モエンズ,
コナー ハック,
レイエス, アダルベルト ペレツ
ケビン ロイド,
ポール エー. ボリス,
ダブリュー. グレイ,ロバート
マーク ジェイ. クロルツィク,
マイケル ジェイ. テレック,
アレクサンダー ケリー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vuzix Corp
Original Assignee
Vuzix Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vuzix Corp filed Critical Vuzix Corp
Publication of JP2021507277A publication Critical patent/JP2021507277A/en
Priority to JP2022156455A priority Critical patent/JP7526239B2/en
Application granted granted Critical
Publication of JP7171727B2 publication Critical patent/JP7171727B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0013Means for improving the coupling-in of light from the light source into the light guide
    • G02B6/0023Means for improving the coupling-in of light from the light source into the light guide provided by one optical element, or plurality thereof, placed between the light guide and the light source, or around the light source
    • G02B6/0026Wavelength selective element, sheet or layer, e.g. filter or grating
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0033Means for improving the coupling-out of light from the light guide
    • G02B6/005Means for improving the coupling-out of light from the light guide provided by one optical element, or plurality thereof, placed on the light output side of the light guide
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0075Arrangements of multiple light guides
    • G02B6/0076Stacked arrangements of multiple light guides of the same or different cross-sectional area
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0081Mechanical or electrical aspects of the light guide and light source in the lighting device peculiar to the adaptation to planar light guides, e.g. concerning packaging
    • G02B6/0086Positioning aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0081Mechanical or electrical aspects of the light guide and light source in the lighting device peculiar to the adaptation to planar light guides, e.g. concerning packaging
    • G02B6/0093Means for protecting the light guide
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C5/00Constructions of non-optical parts
    • G02C5/22Hinges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C5/00Constructions of non-optical parts
    • G02C5/12Nose pads; Nose-engaging surfaces of bridges or rims
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C9/00Attaching auxiliary optical parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Eyeglasses (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)

Description

本開示は、拡張現実眼鏡(augmented reality eyewear)のディスプレイシステムのための装置および方法に関する。 The present disclosure relates to apparatus and methods for display systems in augmented reality eyewear.

ヘッドマウントディスプレイ(HMD)は、軍事、商業、産業、消防、エンターテイメントなど、さまざまな用途向けに開発されている。これらのアプリケーションの多くでは、HMD利用者の視野にある実際の画像に視覚的に重ね合わせることができるバーチャル像を形成することに特別な価値がある。光学画像光ガイドは、利用者への画像担持光を狭い空間において伝送し、バーチャル像を利用者の瞳孔に向け、上記重ね合わせ機能を可能にする。 Head-mounted displays (HMDs) are being developed for a variety of applications, including military, commercial, industrial, firefighting, and entertainment. In many of these applications there is particular value in creating a virtual image that can be visually superimposed on the real image in the HMD user's field of view. Optical image light guides transmit image-bearing light to a user in a narrow space, direct a virtual image to the user's pupil, and enable the overlay function described above.

現在、HMDにはHMDの有効性を低下させる多くの問題がある。たとえば、HMDは非常に高価で、発熱の問題があり、導波路の周囲に凝縮液が発生することがある。 Currently, HMDs have many problems that reduce their effectiveness. For example, HMDs are very expensive, have heat issues, and can form condensation around the waveguide.

有利なことに、本開示の実施形態は、バーチャル像を形成する光学イメージング装置を提供することができる。このバーチャル像は、光学イメージング装置の利用者が少なくとも1つの目で光学イメージング装置を通して見たときに知覚する現実世界のビューに、重ねられる。本開示はさらに、複数の人工知能(AI)システムとコーディネートし交流して、利用者および利用者の環境を監視し、フィードバック情報を利用者に提供することができる。このフィードバック情報は、部分的に、過去の利用者の行動(オンラインでの行動および現実世界での行動を含む)に基づいている。これにより、利用者の安全性が高められ、実行されるタスク、意思決定、エンターテイメントの効率が高められる。 Advantageously, embodiments of the present disclosure can provide an optical imaging device that forms a virtual image. This virtual image is superimposed on the view of the real world that a user of the optical imaging device perceives when looking through the optical imaging device with at least one eye. The present disclosure can further coordinate and interact with multiple artificial intelligence (AI) systems to monitor the user and the user's environment and provide feedback information to the user. This feedback information is based, in part, on past user behavior, including online behavior and real-world behavior. This increases user safety and efficiency in the tasks, decisions, and entertainment performed.

したがって、拡張現実ディスプレイシステムのコストを削減しながら、利用者をより効果的に支援する拡張現実ディスプレイシステムが求められている。 Accordingly, there is a need for an augmented reality display system that more effectively assists users while reducing the cost of the augmented reality display system.

本開示は、バーチャル像を着用者に表示するための個人用ディスプレイ装置を提供する。個人用ディスプレイ装置は、右側テンプル部、左側テンプル部、右後部、左後部を有するフレームと、前記フレームに連結され、着用者に画像を投射する投射ディスプレイデバイスと、前記フレームに連結された少なくとも1つの導波路スタックモジュールと、を備え、前記少なくとも1つの導波路スタックモジュールは、その長さに沿って画像担持光ビームを伝送するものであり、前記投射ディスプレイデバイスからの画像を受け取るように構成され、インカップリング回折光学素子とアウトカップリング回折光学素子を含み、前記インカップリング光学素子は、前記少なくとも1つの導波路スタックモジュールに沿って形成されており、前記投射ディスプレイデバイスからの画像担持光ビームを、前記少なくとも1つの導波路スタックモジュール内へと回折して、前記画像担持光ビームを角度的にエンコードされた形態で前記少なくとも1つの導波路スタックモジュールの長さに沿って伝送させ、前記アウトカップリング回折光学素子は、前記インカップリング回折光学素子から前記少なくとも1つの導波路スタックモジュールの長さに沿って離間しており、前記投射ディスプレイデバイスからの画像を見るために、前記少なくとも1つの導波路スタックモジュールからの前記画像担持光ビームを、角度的にデコードされた形態で回折し、さらに、前記投射ディスプレイデバイスに接続されたプロセッサと、前記プロセッサに接続されたタッチパッドと、前記プロセッサに接続された少なくとも1つのマイクとを備え、前記プロセッサは、画像を前記投射ディスプレイデバイスと前記少なくとも1つの導波路スタックモジュールに提供するように構成され、前記タッチパッドは、着用者のタッチ動作を感知し、入力タッチパッド信号を前記プロセッサに提供するように構成され、前記入力タッチパッド信号は個人用ディスプレイ装置の少なくとも1つの状態を変化させ、前記タッチパッドによる着用者の動作の感知は、着用者のタッチ動作の方向の感知を含み、少なくとも1つのマイクは、着用者からコマンドを受信し、入力マイク信号を前記プロセッサに提供するようにさらに構成され、前記入力マイク信号は、個人用ディスプレイ装置の少なくとも1つの状態を変化させる。 The present disclosure provides a personal display device for displaying virtual images to a wearer. The personal display device comprises a frame having a right temple portion, a left temple portion, a right rear portion, and a left rear portion; a projection display device coupled to said frame for projecting an image onto a wearer; and two waveguide stack modules, the at least one waveguide stack module transmitting an image-bearing light beam along its length and configured to receive an image from the projection display device. , an in-coupling diffractive optical element and an out-coupling diffractive optical element, said in-coupling optical element being formed along said at least one waveguide stack module for receiving image-bearing light from said projection display device. diffracting the beam into the at least one waveguide-stacked module to transmit the image-bearing light beam in angularly-encoded form along the length of the at least one waveguide-stacked module; An out-coupling diffractive optical element is spaced along the length of the at least one waveguide stack module from the in-coupling diffractive optical element for viewing an image from the projection display device, for viewing an image from the projection display device. a processor connected to the projection display device; a touchpad connected to the processor; at least one microphone connected to the processor, the processor configured to provide an image to the projection display device and the at least one waveguide stack module; sensing and providing an input touchpad signal to the processor, the input touchpad signal changing at least one state of the personal display device, sensing movement of the wearer with the touchpad, the at least one microphone is further configured to receive commands from the wearer and provide an input microphone signal to the processor, the input microphone signal being a personal display device; change the state of at least one of

さらに次の構成が開示されている。
個人用ディスプレイ装置は、前記プロセッサに接続されたバイブレータをさらに備え、前記バイブレータは、前記プロセッサから入力バイブレータ信号を受信して、着用者に触覚フィードバックを提供するように構成されている。
前記インカップリング回折光学素子と前記アウトカップリング回折光学素子は、前面および背面を有し、前記インカップリング回折光学素子の前面は、前記インカップリング回折光学素子の背面と平行であり、前記アウトカップリング回折光学素子の前面は、前記アウトカップリング回折光学素子の背面と平行である。
個人用ディスプレイ装置は、前記右目シースルー部と前記左目シースルー部との間で前記フレームに取り外し可能に取り付けられた鼻梁アセンブリをさらに備えている。
個人用ディスプレイ装置は、周囲光の変化を検出するために前記フレームに配置され前記プロセッサに接続された周囲光センサーをさらに備えている。前記周囲光センサーが前記プロセッサに信号を提供するように構成されている。前記プロセッサは、前記周囲光センサーによって提供される信号に基づいて、前記投射ディスプレイデバイスによって伝送される画像を変更するように構成されている。
前記導波路スタックモジュールは、導波路ハウジングをさらに含み、前記導波路ハウジングは、前記インカップリング回折光学素子および前記アウトカップリング回折光学素子を収容するように構成されている。
前記導波路スタックモジュールが、前記インカップリング回折光学素子を通過する前記投射ディスプレイデバイスからの過剰な光を吸収するための黒化材料を含む。前記黒化材料は、コモト、カーボンフェザー、アクタール、および黒色塗料のうちの少なくとも1つから作られる。
前記導波路ハウジングは、前記導波路ハウジングと前記フレームとを位置合わせするための導波路・フレームアライナを含む。前記導波路スタックモジュールは、前記インカップリング回折光学素子と前記アウトカップリング回折光学素子を前記導波路ハウジング内に封止するための外カバーと内カバーをさらに含む。前記外カバーと前記内カバーは、前記外カバーと前記内カバーの周囲を囲むガスケットを含み、前記ガスケットは、前記外カバーと前記内カバーを前記導波路ハウジングに封止する。
前記投射ディスプレイデバイスは、プロジェクタ、プロジェクタ取付フレーム、およびディスプレイ接続モジュールを含む。前記プロジェクタ取付フレームは、アライメントピンとプロジェクタ・フレームアライナとを含み、前記プロジェクタ・フレームアライナは、前記プロジェクタ取付フレームと前記フレームとを位置合わせする。
前記導波路スタックモジュールが導波路ハウジングをさらに含み、前記導波路ハウジングが、前記導波路ハウジングと前記フレームとを位置合わせするための導波路・フレームアライナを含み、前記投射ディスプレイデバイスがプロジェクタ取付フレームを含み、前記プロジェクタ取付フレームが、前記プロジェクタ取付フレームと前記フレームとを位置合わせするためのプロジェクタ・フレームアライナを含み、前記フレームは、前記導波路・フレームアライナと前記プロジェクタ・フレームアライナを前記フレームに位置合わせするためのプロジェクタ・導波路・フレームアライナを含む。
個人用表示装置は、前記フレームの前記左側テンプル部と前記左後部との間に配置された左側ヒンジシステムと、前記フレームの右側テンプル部と前記右後部の間に配置された右側ヒンジシステムとをさらに備えている。前記左側ヒンジシステムと前記右側ヒンジシステムは、可撓性ケーブル、ヒンジ、ヒンジハウジング、およびヒンジピンを含む。前記ヒンジは、第1ハーフヒンジと第2ハーフヒンジを含み、前記第1ハーフヒンジと前記第2ハーフヒンジは、前記ヒンジピンによって回動可能に接続されるように構成されている。前記可撓性ケーブルが少なくとも6つの屈曲点を含み、前記可撓性ケーブルの少なくとも6つの屈曲点のうちの4つが前記ヒンジピンを取り囲むように構成されている。
Furthermore, the following configuration is disclosed.
The personal display device further comprises a vibrator coupled to the processor, the vibrator configured to receive an input vibrator signal from the processor and provide tactile feedback to the wearer.
The in-coupling diffractive optical element and the out-coupling diffractive optical element have a front surface and a back surface, the front surface of the in-coupling diffractive optical element is parallel to the back surface of the in-coupling diffractive optical element, and the The front surface of the outcoupling diffractive optical element is parallel to the back surface of said outcoupling diffractive optical element.
The personal display device further comprises a nose bridge assembly removably attached to the frame between the right eye see-through portion and the left eye see-through portion.
The personal display device further comprises an ambient light sensor located on the frame and connected to the processor for detecting changes in ambient light. The ambient light sensor is configured to provide a signal to the processor. The processor is configured to modify an image transmitted by the projection display device based on signals provided by the ambient light sensor.
The waveguide stack module further includes a waveguide housing, the waveguide housing configured to house the in-coupling diffractive optical element and the out-coupling diffractive optical element.
The waveguide stack module includes a blackened material for absorbing excess light from the projection display device that passes through the incoupling diffractive optical element. The blackening material is made from at least one of comoto, carbon feather, actar, and black paint.
The waveguide housing includes a waveguide-frame aligner for aligning the waveguide housing and the frame. The waveguide stack module further includes an outer cover and an inner cover for sealing the in-coupling diffractive optical element and the out-coupling diffractive optical element within the waveguide housing. The outer cover and the inner cover include a gasket surrounding the outer cover and the inner cover, the gasket sealing the outer cover and the inner cover to the waveguide housing.
The projection display device includes a projector, a projector mounting frame, and a display connection module. The projector mounting frame includes alignment pins and a projector frame aligner, the projector frame aligner aligning the projector mounting frame and the frame.
The waveguide stack module further includes a waveguide housing, the waveguide housing includes a waveguide and frame aligner for aligning the waveguide housing and the frame, and the projection display device includes a projector mounting frame. wherein the projector mounting frame includes a projector frame aligner for aligning the projector mounting frame and the frame, the frame positioning the waveguide frame aligner and the projector frame aligner to the frame. Includes projector, waveguide and frame aligner for alignment.
The personal display device comprises a left hinge system positioned between the left temple portion and the left rear portion of the frame and a right hinge system positioned between the right temple portion of the frame and the right rear portion. I have more. The left hinge system and the right hinge system include flexible cables, hinges, hinge housings, and hinge pins. The hinge includes a first half hinge and a second half hinge, and the first half hinge and the second half hinge are configured to be rotatably connected by the hinge pin. The flexible cable includes at least six bending points, and four of the at least six bending points of the flexible cable are configured to surround the hinge pin.

添付の図面は、本明細書に開示される本発明のさらなる理解を提供するために含まれ、本明細書に組み込まれ、本明細書の一部を構成しており、本発明の態様を表し、記述とともに本発明の原理を説明するのに役立つ。 The accompanying drawings, which are included to provide a further understanding of the invention disclosed herein, are incorporated in and constitute a part of this specification, and represent aspects of the invention. , together with the description serve to explain the principles of the invention.

拡張現実眼鏡の斜視図である。1 is a perspective view of augmented reality glasses; FIG.

拡張現実眼鏡の底面図である。Fig. 10 is a bottom view of the augmented reality glasses;

拡張現実眼鏡の平断面図である。1 is a cross-sectional plan view of augmented reality glasses; FIG.

拡張現実眼鏡の側面図である。Fig. 2 is a side view of augmented reality glasses;

拡張現実眼鏡の背面図である。FIG. 11 is a rear view of the augmented reality glasses;

拡張現実眼鏡によって伝送される第1のバーチャル像である。1 is a first virtual image transmitted by augmented reality glasses;

拡張現実眼鏡によって伝送される第2のバーチャル像である。Fig. 2 is a second virtual image transmitted by augmented reality glasses;

拡張現実眼鏡の導波路スタックモジュールの斜視図である。FIG. 11 is a perspective view of the waveguide stack module of the augmented reality glasses;

拡張現実眼鏡の導波路スタックモジュールに含まれる構成要素の分解図である。FIG. 4 is an exploded view of the components included in the waveguide stack module of the augmented reality glasses;

拡張現実眼鏡の導波路スタックモジュールの導波路ハウジングおよび黒化材料を示す拡大背面図である。FIG. 12 is an enlarged rear view showing the waveguide housing and blackening material of the waveguide stack module of the augmented reality glasses;

導波路スタックモジュールの導波路アセンブリに含まれる構成要素の分解図である。FIG. 4 is an exploded view of the components included in the waveguide assembly of the waveguide stack module;

ガスケットを含む導波路スタックモジュールの平断面図である。FIG. 4 is a top cross-sectional view of a waveguide stack module including a gasket;

拡張現実眼鏡の投射ディスプレイデバイスの斜視図である。1 is a perspective view of a projection display device for augmented reality glasses; FIG.

拡張現実眼鏡の投射ディスプレイデバイスに含まれる構成要素の分解図である。1 is an exploded view of the components included in the projection display device of the augmented reality glasses; FIG.

拡張現実眼鏡の投射ディスプレイデバイスの側面図である。Fig. 3 is a side view of the projection display device of the augmented reality glasses;

拡張現実眼鏡の導波路スタックモジュールおよびプロジェクタモジュールの斜視図である。FIG. 10 is a perspective view of the waveguide stack module and projector module of the augmented reality glasses;

拡張現実眼鏡の導波路スタックモジュールおよびプロジェクタモジュールの拡大斜視図である。FIG. 12 is an enlarged perspective view of the waveguide stack module and projector module of the augmented reality glasses;

導波路スタックモジュールを受け入れる拡張現実眼鏡のハウジングの内部領域とプロジェクタモジュールを示す斜視図である。FIG. 10 is a perspective view showing the interior area of the housing of the augmented reality glasses that receives the waveguide stack module and the projector module.

拡張現実眼鏡のヒンジシステムを含む構成要素の分解図である。1 is an exploded view of the components including the hinge system of the augmented reality glasses; FIG.

拡張現実眼鏡の最上層の一部が省かれた構成要素の分解図である。FIG. 2 is an exploded view of the components of the augmented reality glasses with some of the top layer omitted;

拡張現実眼鏡のヒンジシステムの構成要素の分解図である。FIG. 3 is an exploded view of the components of the hinge system of the augmented reality glasses;

拡張現実眼鏡のヒンジシステムを断面にして示す斜視図である。1 is a perspective view showing a hinge system of augmented reality glasses in cross section; FIG.

拡張現実眼鏡のヒンジシステムの内部を示す斜視図である。FIG. 3 is a perspective view showing the inside of the hinge system of the augmented reality glasses;

第1の位置にあるヒンジシステムの内部を示す斜視図である。Fig. 3 is a perspective view showing the interior of the hinge system in the first position;

第2の位置にあるヒンジシステムを断面にして示す斜視図である。Fig. 10 is a perspective view showing the hinge system in a second position in cross section;

拡張現実眼鏡の放熱システムの断面図である。Fig. 2 is a cross-sectional view of the heat dissipation system of the augmented reality glasses;

ある取得モードでの拡張現実眼鏡を用いた画像である。Fig. 4 is an image with augmented reality glasses in one acquisition mode; 異なる取得モードでの拡張現実眼鏡を用いた画像である。Images with augmented reality glasses in different acquisition modes.

人工知能および無線通信を利用する拡張現実ニアアイディスプレイシステムの斜視図である。1 is a perspective view of an augmented reality near-eye display system that utilizes artificial intelligence and wireless communication; FIG.

人工知能および無線通信を利用する拡張現実ヘッドマウントディスプレイの斜視図である。1 is a perspective view of an augmented reality head-mounted display that utilizes artificial intelligence and wireless communications; FIG.

以下に記載される詳細な説明は、本発明の様々な構成の説明として意図されており、本発明が実施可能な唯一の構成を示すことは意図されていない。当業者には、本発明が本明細書に記載された特定の詳細な構成に限定されず、当該特定の構成なしでも実施できることが明らかであろう。 The detailed descriptions set forth below are intended as illustrations of various configurations of the invention, and are not intended to represent the only configurations in which the invention can be practiced. It will be apparent to those skilled in the art that the present invention is not limited to the specific details of construction described herein and may be practiced without such specific constructions.

本明細書において、「第1」、「第2」などの用語は、必ずしも順序、順次、または優先順位の関係を示すものではなく、特に指定のない限り、単に1つの要素または要素の集合を他の要素または要素の集合から明確に区別するために使用される。 As used herein, terms such as “first,” “second,” and the like do not necessarily imply an order, sequential, or priority relationship, and unless otherwise specified, merely refer to an element or set of elements. Used to distinguish clearly from other elements or sets of elements.

「例示的」の用語は、「一例」であることを意味し、任意の好ましいまたは理想的な実施形態を示唆することを意図しない。 The word "exemplary" means "an example," and is not intended to suggest any preferred or ideal embodiment.

本明細書で使用される「集合」という用語は、要素やメンバーの集まりの概念として初等数学で広く理解されているように、空でない集合を指す。
「部分集合」という用語は、特に明記しない限り、本明細書では空ではない適切な部分集合、つまり1つまたは複数の要素を有する、より大きな集合における部分集合を指すために使用される。
集合Sの場合、部分集合は完全な集合Sを含むことができる。しかしながら、集合Sの「適切な部分集合」は、集合Sに厳密に含まれ、集合Sの少なくとも1つの要素を除外する。
The term "set" as used herein refers to a non-empty set, as widely understood in elementary mathematics as the concept of a collection of elements or members.
The term "subset" is used herein to refer to a non-empty proper subset, ie, a subset of a larger set that has one or more members, unless otherwise stated.
For a set S, a subset can contain the complete set S. However, a "proper subset" of set S is exactly included in set S and excludes at least one member of set S.

本開示において、用語「波長帯域」および「波長範囲」は均等であり、カラー画像化の当業者によって使用される標準的な意味を有し、多色画像を表すために使用される光波長の連続範囲を指す。通常のカラー画像化アプリケーションでは、原色の赤、緑、青など、異なる波長帯域が異なるカラーチャネルを通るように方向付けられる。 For the purposes of this disclosure, the terms "wavelength band" and "wavelength range" are equivalent and have the standard meaning used by those skilled in the art of color imaging, representing the range of light wavelengths used to represent a multicolor image. Refers to a continuous range. In typical color imaging applications, different wavelength bands, such as the primary colors red, green, and blue, are directed through different color channels.

本開示において、「結合された(カップル;coupled)」という用語は、2つ以上の構成要素間の物理的な関連付け、接続、関係、または連結を示すことを意図しており、1つの構成要素の配置が、これと結合される構成要素の空間的配置に影響を与える。
機械的結合の場合、2つの構成要素を直接接触させる必要はなく、1つ以上の中間構成要素を介して連結してもよい。
光結合(光学的カップリング;optical coupling)のための構成要素は、光エネルギーが光学装置に入力したり、光学装置から出力したりするのを可能にする。
As used in this disclosure, the term "coupled" is intended to indicate a physical association, connection, relationship, or linkage between two or more components, and is intended to indicate a single component influences the spatial arrangement of the components with which it is associated.
In the case of mechanical coupling, the two components need not be in direct contact, but may be connected through one or more intermediate components.
Components for optical coupling allow optical energy to enter and exit optical devices.

「ビーム拡大器」および「瞳拡大器」という用語は同義であると考えられ、本明細書では互換的に使用される。これらの用語は、本明細書では一般に、後で説明するように、バーチャル像を形成するために使用される回折格子付きの平面導波路を示すために使用される。 The terms "beam expander" and "pupil expander" are considered synonymous and are used interchangeably herein. These terms are generally used herein to denote a grating planar waveguide used to form a virtual image, as will be explained later.

本質的に平面の光導波路(例えば、平行板導波路)は、導波路の1つの領域から他の領域へと画像担持光を伝送するために用いることができる物理的構造である。このような画像伝送導波路の典型的な用途は、ヘッドマウント式の単眼または両眼のディスプレイシステムである。 An essentially planar optical waveguide (eg, parallel-plate waveguide) is a physical structure that can be used to transmit image-bearing light from one region of the waveguide to another. A typical application for such image transmission waveguides is in head-mounted monocular or binocular display systems.

「剛性」および「剛性連結」という用語は、機械的に剛性を有するまたは堅い構成要素を示すために使用される。
すべての剛性を有する機械材料およびシステムは、さまざまな程度に破壊することなく変形する能力を有することを理解されたい。
The terms "rigid" and "rigid connection" are used to denote mechanically rigid or rigid components.
It should be understood that all rigid mechanical materials and systems have the ability to deform to varying degrees without breaking.

「可撓性電子回路」、「可撓性ケーブル」、および「可撓性回路」という用語は、基端から先端に1つ以上の電気信号または光信号を伝送することができる可撓性材料を示すために使用される。さらに、電気及び/又は光のエネルギーが、前記基端から前記先端へと伝送されてもよい。さらに、前記信号及び/又はパワーが前記先端から前記基端へと逆に伝送されてもよいことは、理解されるべきである。 The terms "flexible electronic circuit," "flexible cable," and "flexible circuit" refer to a flexible material capable of transmitting one or more electrical or optical signals from its proximal end to its distal end. used to indicate Additionally, electrical and/or optical energy may be transmitted from the proximal end to the distal end. Additionally, it should be understood that the signal and/or power may be transmitted in reverse from the distal end to the proximal end.

「画像を表示する」、「バーチャル像を表示する」、「画像を投射する」、「バーチャル像を投射する」、「画像を提示」、「バーチャル像を提示」という用語は、本明細書で開示する拡張現実ディスプレイシステムの視覚的機能を説明するために使用される。拡張現実ディスプレイシステムは、実際の画像ではなく、バーチャル像を生成して利用者の目に提示することを理解されたい。 The terms “displaying an image”, “displaying a virtual image”, “projecting an image”, “projecting a virtual image”, “presenting an image”, “presenting a virtual image” are used herein to Used to describe the visual features of the disclosed augmented reality display system. It should be appreciated that augmented reality display systems generate and present virtual images to the user's eyes, rather than actual images.

「利用者」および「着用者」という用語は、本明細書で開示される「拡張現実ディスプレイシステム」または「ニアアイディスプレイシステム」とも呼ばれる光学イメージングシステムを利用する人を、同義に使用する場合がある。 The terms "user" and "wearer" may be used interchangeably to describe a person who utilizes an optical imaging system, also called an "augmented reality display system" or "near-eye display system", as disclosed herein. be.

図1~25には、拡張現実ディスプレイシステム100が示されている。拡張現実ディスプレイシステム100は、右側Rおよび左側Lを有するフレーム10を備えている。拡張現実ディスプレイシステム100はさらに、右目シースルー部(see-through section)20、左目シースルー部22、および右目シースルー部20と左目シースルー部22との間に配置された鼻梁部24を含んでいる。フレーム10は、右側テンプル部30、左側テンプル部32、右後部34、および左後部36を含むことができる。右後部34は、右側テンプル部30に連結され、右側テンプル部30は、右側シースルー部20に連結されている。左後部36は、左側テンプル部32に連結され、左側テンプル部32は、左側シースルー部22に連結される。 An augmented reality display system 100 is shown in FIGS. 1-25. The augmented reality display system 100 comprises a frame 10 having a right side R and a left side L. As shown in FIG. The augmented reality display system 100 further includes a right-eye see-through section 20 , a left-eye see-through section 22 , and a nose bridge section 24 positioned between the right-eye see-through section 20 and the left-eye see-through section 22 . Frame 10 may include right temple portion 30 , left temple portion 32 , right rear portion 34 , and left rear portion 36 . The right rear portion 34 is connected to the right temple portion 30 , and the right temple portion 30 is connected to the right see-through portion 20 . The left rear portion 36 is connected to the left temple portion 32 , and the left temple portion 32 is connected to the left see-through portion 22 .

拡張現実ディスプレイシステム100はさらに、右側通過ヒンジ(pass-through hinge)40と左側通過ヒンジ42を含む。右後部34は右側通過ヒンジ40に連結され、この右側通過ヒンジ40は右側テンプル部30に連結される。左後部36は左側通過ヒンジ42に連結され、この左側通過ヒンジ42は左側テンプル部32に連結される。右側通過ヒンジ40および左側通過ヒンジ42については、以下でさらに説明する。 Augmented reality display system 100 further includes right pass-through hinge 40 and left pass-through hinge 42 . The right rear portion 34 is connected to a right pass-through hinge 40 , which is connected to the right temple portion 30 . The left rear portion 36 is connected to a left pass-through hinge 42 , which is connected to the left temple portion 32 . Right pass-through hinge 40 and left pass-through hinge 42 are further described below.

拡張現実ディスプレイシステム100の右後部34は、右側リアバッテリー50、右側振動デバイス52、および右側可撓性ケーブル(図示せず)を含むことができる。右側可撓性ケーブルは、電気ケーブル、または意図された目的に適しており当業者によって理解される任意の他のコネクタとすることができる。右側可撓性ケーブルは、右側リアバッテリー50と右側振動デバイス52を接続することができる。右側可撓性ケーブルは、右後部34および右側通過ヒンジ40を通過し、右側回路基板64に接続することができる。別の可撓性ケーブル(図示せず)は、右側テンプル部30内の右側回路基板64に接続し、右眼シースルー部20、鼻梁部24、および左目シースルー部22を通過して、拡張現実ディスプレイシステム100の左側テンプル部32内に配置されたプロセッサ54に接続することができる。プロセッサ54は、quad core ARM A53、または意図された目的に適しており当業者によって理解される他の任意のプロセッサとすることができる。 The right rear 34 of the augmented reality display system 100 may include a right rear battery 50, a right vibration device 52, and a right flexible cable (not shown). The right flexible cable can be an electrical cable or any other connector suitable for the intended purpose and understood by those skilled in the art. A right flexible cable may connect the right rear battery 50 and the right vibration device 52 . The right flex cable passes through the right rear portion 34 and the right pass-through hinge 40 and can be connected to the right circuit board 64 . Another flexible cable (not shown) connects to the right circuit board 64 in the right temple portion 30 and passes through the right eye see-through portion 20, nose bridge portion 24, and left eye see-through portion 22 to the augmented reality display. It can be connected to a processor 54 located in the left temple portion 32 of the system 100 . Processor 54 may be a quad core ARM A53, or any other processor suitable for the intended purpose and understood by those skilled in the art.

拡張現実ディスプレイシステム100の左後部36は、左側リアバッテリー56、左側振動デバイス58、および左側可撓性ケーブル(図示せず)を含む。左側可撓性ケーブルは、電気ケーブル、または意図された目的に適しており当業者によって理解される任意の他のコネクタとすることができる。左側可撓性ケーブルは、左側リアバッテリー56と左側振動デバイス58を接続することができる。左側可撓性ケーブルは、左後部36および左側通過ヒンジ42を通過し、拡張現実ディスプレイシステム100のプロセッサ54に接続することができる。 Left rear 36 of augmented reality display system 100 includes left rear battery 56, left vibration device 58, and left flexible cable (not shown). The left flexible cable can be an electrical cable or any other connector suitable for the intended purpose and understood by those skilled in the art. A left flexible cable may connect the left rear battery 56 and the left vibrating device 58 . A left flexible cable may pass through the left rear portion 36 and the left pass-through hinge 42 and connect to the processor 54 of the augmented reality display system 100 .

拡張現実ディスプレイシステム100の右側テンプル部30は、投射ディスプレイデバイス70およびタッチパッド72をさらに含むことができる。投射ディスプレイデバイス70およびタッチパッド72は、拡張現実ディスプレイシステム100のプロセッサ54に接続することができる。投射ディスプレイデバイス70については、以下でさらに説明する。 Right temple portion 30 of augmented reality display system 100 may further include projection display device 70 and touchpad 72 . Projection display device 70 and touchpad 72 may be connected to processor 54 of augmented reality display system 100 . Projection display device 70 is further described below.

タッチパッド72は、利用者が拡張現実ディスプレイシステム100と相互作用(交流)して、投射ディスプレイデバイス70によって投射される画像を変更することを可能にする。利用者は、スワイプ(例えば、上向き、下向き、横向き、対角線方向、またはタップのよう内側方向に指をスワイプ)して、プロセッサ54に信号を送り、投射ディスプレイデバイス70によって投射される画像を変更し、及び/又は拡張現実ディスプレイシステム100の状態を変更する。タッチパッド72はまた、利用者の圧力の変化(例えば、利用者がタッチパッド72を押しつける)を感知して、投射ディスプレイデバイス70によって投写される画像を変更し、及び/又は拡張現実ディスプレイシステム100の状態を変更する。タッチパッド72からの信号及び/又はデータは、以下の動作をなすために構成することができる。
1)拡張現実ディスプレイシステム100のメモリ(図示せず)に格納されたソフトウェアの起動を開始する。
2)サードパーティ(外部;third party)のデバイス(図示しない)のソフトウエアを、拡張現実ディスプレイシステムと直接通信で(例えば有線通信で)、またはリモート通信で(例えば無線通信で; WiFi及び/又はBluetoothで)、開始する。
3)サードパーティのデバイスとのネットワーク通信を開始または終了する。
4)拡張現実ディスプレイシステム100に組み込まれたデバイスまたはサブシステム(例えば、カメラ、ビデオ記録、マイク、バイブレータ、投射システム、センサー、他のデバイス又はサブシステム)を開始または終了する。
Touchpad 72 allows a user to interact with augmented reality display system 100 to change the image projected by projection display device 70 . A user swipes (e.g., swiping a finger in an upward, downward, sideways, diagonal, or inward direction such as a tap) to signal processor 54 to change the image projected by projection display device 70. , and/or change the state of the augmented reality display system 100 . The touchpad 72 also senses changes in user pressure (eg, a user pressing on the touchpad 72) to alter the image projected by the projection display device 70 and/or augmented reality display system 100. change the state of Signals and/or data from the touchpad 72 can be configured to perform the following actions.
1) Initiate activation of software stored in the memory (not shown) of the augmented reality display system 100;
2) the software of a third party device (not shown) in direct (e.g. wired) or remote (e.g. wireless) communication with the augmented reality display system; WiFi and/or over Bluetooth), to start.
3) initiate or terminate network communications with third party devices;
4) Start or stop devices or subsystems (eg, cameras, video recordings, microphones, vibrators, projection systems, sensors, other devices or subsystems) incorporated into the augmented reality display system 100;

拡張現実ディスプレイシステム100の右側シースルー部20は、右側外カバー76、右側内カバー78、および導波路スタックモジュール80を含むことができる。右側外カバー76、右側内カバー78、および導波路スタックモジュール80については、以下でさらに説明する。 The right see-through portion 20 of the augmented reality display system 100 may include a right outer cover 76 , a right inner cover 78 and a waveguide stack module 80 . The right outer cover 76, right inner cover 78, and waveguide stack module 80 are further described below.

拡張現実ディスプレイシステム100の左側テンプル部32は、プロセッサ54に接続することができる左側テンプルバッテリー60を含む。左側テンプルバッテリー60は、プロセッサ54に接続されて、拡張現実ディスプレイシステム100に追加の電力を提供することができる。 The left temple portion 32 of the augmented reality display system 100 includes a left temple battery 60 that can be connected to the processor 54 . Left temple battery 60 may be connected to processor 54 to provide additional power to augmented reality display system 100 .

拡張現実ディスプレイシステム100の左シースルー部22は、左側外カバー82と左側内カバー84を含むことができる。右側外カバー76、右側内カバー78、左側外カバー82、および左側内カバー84は、保護カバー、または意図される目的に適しており当業者によって理解される他の任意のカバーとすることができる。 The left see-through portion 22 of the augmented reality display system 100 may include a left outer cover 82 and a left inner cover 84 . Right outer cover 76, right inner cover 78, left outer cover 82, and left inner cover 84 may be protective covers or any other covers suitable for the intended purpose and understood by those skilled in the art. .

右側外カバー76と左側外カバー82は、プロセッサ54に電気的に結合することができる。プロセッサ54は、右リアバッテリー50、左リアバッテリー56、および左テンプルバッテリー60に電気的に結合することができる。これらバッテリーは拡張現実ディスプレイシステム100内に配置することができる。 Right outer cover 76 and left outer cover 82 may be electrically coupled to processor 54 . Processor 54 may be electrically coupled to right rear battery 50 , left rear battery 56 , and left temple battery 60 . These batteries can be placed within the augmented reality display system 100 .

右側外カバー76と左側外カバー82は、少なくともエレクトロクロミック材料、フォトクロミック材料、または意図される目的に適しており当業者によって理解される他の任意の材料を含むことができる。エレクトロクロミック材料またはフォトクロミック材料は、右側外カバー76と右側内カバー78の間、および左側外カバー82と左側内カバー84の間に配置されてもよい。エレクトロクロミック材料またはフォトクロミック材料は、右側外カバー76の外面および左側外カバー82の外面に配置されてもよい。エレクトロクロミック材料またはフォトクロミック材料は、右側外カバー76と左側外カバー82が、利用者の目から見て導波路スタックモジュール80の最も離れた面となるように、右側外カバー76および左側外カバー82の手前に配置された導波路スタックモジュール80の追加の表面であってもよい。 Right outer cover 76 and left outer cover 82 may comprise at least an electrochromic material, a photochromic material, or any other material suitable for the intended purpose and understood by those skilled in the art. Electrochromic or photochromic materials may be disposed between right outer cover 76 and right inner cover 78 and between left outer cover 82 and left inner cover 84 . An electrochromic or photochromic material may be disposed on the outer surface of the right outer cover 76 and the outer surface of the left outer cover 82 . The electrochromic or photochromic material is applied to the right outer cover 76 and the left outer cover 82 such that the right outer cover 76 and the left outer cover 82 are the farthest surfaces of the waveguide stack module 80 from the user's perspective. may be an additional surface of the waveguide stack module 80 positioned in front of the .

拡張現実ディスプレイシステム100の右目シースルー部20は、右側外カバー76と導波路アセンブリ89との間に配置される偏光子(polarizer;図示せず)をさらに含むことができる。偏光子は、導波路アセンブリ89と右側内カバー78との間に配置されてもよい。偏光子は、円形の偏光子であってもよい。偏光子は、右側外カバー76の内面からの反射光が導波路アセンブリ89に戻るのを阻止し、ひいては、利用者の目に入るのを阻止するよう、拡張現実ディスプレイシステム100を助けることができる。 The right-eye see-through portion 20 of the augmented reality display system 100 may further include a polarizer (not shown) disposed between the right outer cover 76 and the waveguide assembly 89 . A polarizer may be placed between the waveguide assembly 89 and the right inner cover 78 . The polarizer may be a circular polarizer. The polarizer can help the augmented reality display system 100 block reflected light from the inner surface of the right outer cover 76 from returning to the waveguide assembly 89 and thus from entering the user's eyes. .

拡張現実ディスプレイシステム100の鼻梁部24は、鼻梁アッセンブリ90を含むことができる。鼻梁アセンブリ90は、取り外し可能であっても、固定であってもよい。鼻梁アセンブリ90は、オプションの度付きレンズを鼻梁部24に固定するためのレンズ固定アセンブリ(図示せず)を含むことができる。オプションの度付きレンズは、例えば拡張現実ディスプレイシステム100の右側内カバー78および左側内カバー84の前など、利用者の目の近くに配置することができる。 The nose bridge portion 24 of the augmented reality display system 100 may include a nose bridge assembly 90 . The nose bridge assembly 90 may be removable or fixed. The nose bridge assembly 90 may include a lens fixation assembly (not shown) for securing optional prescription lenses to the nose bridge portion 24 . The optional prescription lenses may be placed near the user's eyes, such as in front of the right inner cover 78 and left inner cover 84 of the augmented reality display system 100 .

拡張現実ディスプレイシステム100は、カメラアセンブリ12をさらに含むことができる。カメラアセンブリ12は、カメラ(図示せず)および周囲光センサー(図示せず)を含むことができる。カメラアセンブリ12は、拡張現実ディスプレイシステム100のプロセッサ54に接続することができる。カメラは、プロセッサ54にデータを提供して、拡張現実ディスプレイシステム100の投射ディスプレイデバイス70によって表示される画像を変更することができる。カメラは、毎秒30フレーム(FPS)で1080pの解像度、または意図する目的に適しており当業者によって理解される任意の他の解像度および速度で、画像を取得するように構成することができる。 Augmented reality display system 100 may further include camera assembly 12 . Camera assembly 12 may include a camera (not shown) and an ambient light sensor (not shown). Camera assembly 12 may be connected to processor 54 of augmented reality display system 100 . The camera can provide data to processor 54 to modify the image displayed by projection display device 70 of augmented reality display system 100 . The camera can be configured to acquire images at 1080p resolution at 30 frames per second (FPS), or any other resolution and speed suitable for the intended purpose and understood by those skilled in the art.

複数のカメラを互いに離れて配置し、立体画像や正面、側面、背面の画像の取得などの追加の利点を提供することもできる。カメラアセンブリ12は、右目シースルー部20内に配置することができる。追加のカメラも、左眼シースルー部22および右眼シースルー部20のそれぞれの中に配置することができる。鼻梁部24内に別のカメラを配置することもできる。他のカメラを、右後部34、左後部36、右側テンプル部30、左側テンプル部32、右目シースルー部20、左目シースルー部22および鼻梁部24の少なくとも1つに配置してもよい。 Multiple cameras can also be spaced apart from each other to provide additional benefits such as stereo imagery and front, side and back image acquisition. Camera assembly 12 may be positioned within right eye see-through portion 20 . Additional cameras may also be placed in each of left eye see-through portion 22 and right eye see-through portion 20 . A separate camera can also be positioned within the nose bridge 24 . Other cameras may be positioned at least one of right rear 34 , left rear 36 , right temple 30 , left temple 32 , right eye see-through 20 , left eye see-through 22 and nose bridge 24 .

少なくとも1つのカメラは、赤外線カメラ及び/又は紫外線カメラとすることができる。少なくとも別のカメラは、サポートソフトウェアと共に、セルフフォーカス機能やズーム機能を備えていてもよい。「ズーム機能」カメラは、カメラの光パワーを変更する機能を有するカメラアセンブリ12のカメラを含むことができる。 At least one camera may be an infrared camera and/or an ultraviolet camera. At least another camera may have self-focus and zoom capabilities along with supporting software. A "zoom capable" camera may include a camera of camera assembly 12 that has the ability to change the optical power of the camera.

プロセッサ54は、周囲光センサーからデータを受信して、投射ディスプレイデバイス70によって投射される画像を変更するように構成することができる。例えば、周囲光が明るい場合(例えば、明るい部屋や晴れた日の屋外など)に投射ディスプレイデバイス70により表示されるコントラスト比や色は、周辺光が明るくない場合(例えば薄暗い部屋、曇った日の屋外、夜の屋外など)に表示されるコントラスト比や色と異ならせることができる。周囲光センサーからのデータを使用して、右側外カバー76及び/又は左側外カバー82の不透明度のレベルを調整することもできる。 Processor 54 may be configured to receive data from the ambient light sensor to modify the image projected by projection display device 70 . For example, the contrast ratios and colors displayed by projection display device 70 when the ambient light is bright (e.g., a bright room, outdoors on a sunny day, etc.) may vary when the ambient light is not bright (e.g., a dim room, cloudy day, etc.). outdoors, outdoors at night, etc.). Data from the ambient light sensor may also be used to adjust the level of opacity of right outer cover 76 and/or left outer cover 82 .

拡張現実ディスプレイシステム100は、環境照明機能を提供して、困難な照明条件の期間において利用者が透明ディスプレイをより見やすくすることができる。環境照明機能は、環境照明条件に基づいて、異なる状態(例えば「テーマ」など)の間で利用者の視覚体験を調整することができる。 The augmented reality display system 100 can provide an ambient lighting feature to make the transparent display more visible to the user during difficult lighting conditions. The ambient lighting feature can adjust the user's visual experience between different states (eg, "themes," etc.) based on ambient lighting conditions.

周囲光センサーからのデータが利用者定義の閾値に達すると、プロセッサ54は利用者に表示される視覚的体験を変えることができる。拡張現実ディスプレイシステム100は、変化する照明条件に対処することができる導波路スタックモジュール80に、様々なテーマを表示することができる。拡張現実ディスプレイシステム100にとって、「テーマ」は、プロセッサ54によって適用され得る様々な色、アイコン、および透過率を含むことができる。 When the data from the ambient light sensor reaches a user-defined threshold, processor 54 can change the visual experience displayed to the user. The augmented reality display system 100 can display various themes on the waveguide stack module 80 that can accommodate changing lighting conditions. For augmented reality display system 100 , a “theme” can include various colors, icons, and transparencies that can be applied by processor 54 .

たとえば、図6Aおよび図6Bは、導波路スタックモジュール80に表示され及び/又は伝送される、周囲光センサーを利用した「テーマ」の例である。図6Aは、暗い環境照明で用いられる、より透明な「カラーリング」スキームを含む「暗いテーマ」である。これは、低照明設定にあるときに、投射ディスプレイデバイス70から過度の明るさで利用者の視界を圧倒することを防ぐことができる。図6Bは、明るい環境で用いられる、高コントラストの「カラーリング」スキームを提供する「明るいテーマ」である。図6A、図6Bに関して、黒色は、拡張現実ディスプレイシステム100の表示画像の透明部分である。 For example, FIGS. 6A and 6B are examples of “themes” utilizing ambient light sensors displayed and/or transmitted to waveguide stack module 80 . FIG. 6A is a "dark theme" that includes a more transparent "coloring" scheme used in dark ambient lighting. This can prevent the projection display device 70 from overwhelming the user's view with excessive brightness when in low lighting settings. FIG. 6B is a 'bright theme' that provides a high contrast 'coloring' scheme for use in bright environments. 6A, 6B, the black color is the transparent portion of the displayed image of the augmented reality display system 100. In FIG.

拡張現実ディスプレイシステム100は、利用者による選択可能なオプションではなく、環境照明機能を自動的に利用してもよい。さらに、「テーマ」の設定は、常に暗い、常に明るい、または自動がある。利用者定義の閾値設定は、テーマの変更をトリガーする可能性のある周辺光レベルの範囲として定義できる。利用者定義の閾値には、プロセッサがテーマの変更をトリガーする前に、検知されたデータが環境光レベルの閾値を上回った時間の長さ又は下回った時間の長さも含むことができる。たとえば、突然「閃光」が発生し、利用者定義のしきい値を超えた場合、「閃光」の持続時間が短いため、テーマの切り替えは実行されない。周囲の閾値の変化が定義された期間継続している場合、導波路スタックモジュール80によって表示されるテーマは切り替えられる。 The augmented reality display system 100 may automatically utilize ambient lighting features rather than user selectable options. Additionally, the "Theme" settings include Always Dark, Always Light, or Auto. A user-defined threshold setting can be defined as the range of ambient light levels that can trigger a theme change. User-defined thresholds may also include the length of time sensed data is above or below the ambient light level threshold before the processor triggers a theme change. For example, if a "flash" suddenly occurs and exceeds a user-defined threshold, the "flash" is of short duration and the theme switch is not performed. The theme displayed by the waveguide stack module 80 is switched if the ambient threshold change continues for a defined period of time.

拡張現実ディスプレイシステム100は、第3の可撓性ケーブル(図示せず)をさらに含むことができる。この第3の可撓性ケーブルは、プロセッサ54を投射ディスプレイシステム70に接続することができ、左目シースルー部22、鼻ブリッジ部24、および右目シースルー部20の空洞(図示せず)を通過することができる。第3の可撓性ケーブルは、電気ケーブル、または意図された目的に適しており当業者によって理解される任意の他のケーブルであってよい。 Augmented reality display system 100 may further include a third flexible cable (not shown). This third flexible cable can connect the processor 54 to the projection display system 70 and pass through cavities (not shown) in the left eye see-through portion 22, the nose bridge portion 24, and the right eye see-through portion 20. can be done. The third flexible cable may be an electrical cable or any other cable suitable for the intended purpose and understood by those skilled in the art.

追加の可撓性ケーブル(図示せず)を右側テンプル部30に配置し、右目シースルー部20、鼻梁部24、左目シースルー部22、および左側テンプル部32を通過させることができる。追加の可撓性ケーブルは、拡張現実ディスプレイシステム100の右側Rに配置された1つまたは複数の構成要素を左側Lの1つまたは複数の構成要素に接続することができる。 Additional flexible cables (not shown) can be placed in the right temple portion 30 and passed through the right eye see-through portion 20 , nose bridge portion 24 , left eye see-through portion 22 and left temple portion 32 . Additional flexible cables may connect one or more components located on the right side R of the augmented reality display system 100 to one or more components on the left side L. FIG.

拡張現実ディスプレイシステム100はさらに、メモリカードスロット18、メモリカードスロットカバー19、内部メモリ(図示せず;例えば4GBフラッシュメモリ)、システムRAM(図示せず;例えば512MB)、およびアクセスポート44(例えば、マイクロUSBアクセスポート)を含むことができる。このアクセスポート44は、プロセッサ54への外部接続(例えば、USB 2.0高速接続)を確立するためのものである。メモリカードスロット18は、セキュアデジタル(SD)カード、MiniSDカード、コンパクトフラッシュカード、メモリースティック、xD-ピクチャーカード、または意図された目的に適しており当業者によって理解されている他の任意の記憶媒体を受け入れるように構成されている。メモリカードスロットカバー19は、メモリカードスロット18への密閉されたアクセスを提供することができる。例えば、メモリカードスロットカバー19は、防水性または耐水性とすることができる。 Augmented reality display system 100 further includes memory card slot 18, memory card slot cover 19, internal memory (not shown; e.g. 4 GB flash memory), system RAM (not shown; e.g. 512 MB), and access port 44 (e.g. micro USB access port). This access port 44 is for establishing an external connection (eg, a USB 2.0 high speed connection) to the processor 54 . Memory card slot 18 accepts a Secure Digital (SD) card, MiniSD card, CompactFlash card, Memory Stick, xD-Picture card, or any other storage medium suitable for the intended purpose and understood by those skilled in the art. configured to accept. A memory card slot cover 19 can provide sealed access to the memory card slot 18 . For example, memory card slot cover 19 can be waterproof or water resistant.

拡張現実ディスプレイシステム100の左側テンプル部32は、外向きマイクポート(図示せず)および内向きマイクポート(図示せず)をさらに含むことができる。これらマイクポートは、投射ディスプレイデバイス70によって表示される画像を変更するために利用される。すなわち、投射ディスプレイデバイス70によって表示される画像を変更し得るデータをプロセッサ54に送信することができる。例えば、利用者は、「次へ」と言うと、投射ディスプレイデバイス70によって表示される画像を次の画像に変更することができる。 Left temple portion 32 of augmented reality display system 100 may further include an outward facing microphone port (not shown) and an inward facing microphone port (not shown). These microphone ports are used to modify the image displayed by projection display device 70 . That is, data may be sent to processor 54 that may alter the image displayed by projection display device 70 . For example, the user can say "next" to change the image displayed by projection display device 70 to the next image.

マイクポートが利用可能な場合、関連するマイクは、マイクポートに配置され、電源(例えば、左側テンプルバッテリー60)およびプロセッサ54に接続することができる。プロセッサ54は、関連するマイクから電気音声信号を受信することができる。関連するマイクは、主にマイクポートを介して音声を受ける。 If a mic port is available, an associated mic can be placed in the mic port and connected to a power source (eg, left temple battery 60) and processor 54. Processor 54 can receive electrical audio signals from an associated microphone. An associated microphone receives audio primarily through the microphone port.

1つまたは複数のマイクポートおよび関連するマイクをさらに、右側テンプル部30に配置することができる。1つまたは複数のマイクポートおよび関連するマイクの他の位置は、鼻梁部24、右後部34、左後部36、右目シースルー部20、および左目シースルー部22を含むことができる。複数のマイクをバックグラウンドおよび環境ノイズを除去するために使用することができ、潜在的な環境の危険を着用者に警告するために使用することもできる。 One or more microphone ports and associated microphones may also be located on the right temple portion 30 . Other locations for one or more mic ports and associated mics may include bridge portion 24 , right rear portion 34 , left rear portion 36 , right eye see-through portion 20 , and left eye see-through portion 22 . Multiple microphones can be used to filter out background and environmental noise, and can also be used to warn the wearer of potential environmental hazards.

利用者からの音声コマンドはまた、拡張現実ディスプレイシステム100に格納されたソフトウェア及び/又は拡張現実ディスプレイシステム100と直接通信または遠隔通信する外部(サードパーティ)のデバイスのソフトウェアを、開始することができる。音声コマンドは、拡張現実ディスプレイシステム100に組み込まれたデバイスやサブシステム(例えば、カメラアセンブリ12のカメラまたは投射ディスプレイデバイス70のプロジェクタ)の状態を変更したり、拡張現実ディスプレイシステム100の電源をオン/オフすることができる。音声コマンドはまた、拡張現実ディスプレイシステム100の状態を変更するか、または拡張現実ディスプレイシステム100の状態の変更を開始することができる。例えば、マイクが「オン」である場合、音声コマンドは、マイクを初期化して、データをプロセッサ54に提供し、それによって拡張現実ディスプレイシステム100の状態を変更することができる。音声コマンドにより拡張現実ディスプレイシステム100の状態を変更する他の例は、導波路スタックモジュール80によって表示される画像の変更、およびカメラアセンブリ12による画像の取得を含むことができる。 Voice commands from the user can also initiate software stored in the augmented reality display system 100 and/or software on external (third party) devices that communicate directly or remotely with the augmented reality display system 100. . Voice commands may change the state of devices or subsystems incorporated into augmented reality display system 100 (eg, cameras in camera assembly 12 or projectors in projection display device 70), or power on/on augmented reality display system 100. can be turned off. A voice command may also change the state of the augmented reality display system 100 or initiate a change of the state of the augmented reality display system 100 . For example, if the microphone is "on," the voice command may initialize the microphone and provide data to processor 54 to change the state of augmented reality display system 100 . Other examples of changing the state of augmented reality display system 100 via voice commands may include changing the image displayed by waveguide stack module 80 and capturing an image by camera assembly 12 .

拡張現実ディスプレイシステム100の左側テンプル部32は、拡張現実ディスプレイシステム100を作動させるためのインジケータポート14(例えば、LEDインジケータポート)および電源ボタン16をさらに含むことができる。インジケータポート14は、電力レベル、状態、または意図された目的に適しており当業者によって理解される他の任意の情報を表示することができる。 Left temple portion 32 of augmented reality display system 100 may further include indicator port 14 (eg, LED indicator port) and power button 16 for operating augmented reality display system 100 . Indicator port 14 can display power levels, status, or any other information suitable for the intended purpose and understood by those skilled in the art.

拡張現実ディスプレイシステム100の回路基板62は、プロセッサ54、ボードメモリモジュール、方位センサー、加速度センサー、磁気センサー、音声符号化モジュール、無線モジュール、チップアンテナモジュール、カメラコネクタ、気圧センサー、近接センサーなどを含むことができる。 The circuit board 62 of the augmented reality display system 100 includes the processor 54, board memory module, orientation sensor, acceleration sensor, magnetic sensor, audio encoding module, wireless module, chip antenna module, camera connector, barometric pressure sensor, proximity sensor, etc. be able to.

図25は、左側テンプル部32の断面背面図を示す。左側テンプル部32は、左側テンプル部外面300と、内部空洞304を形成する左側テンプル部内面302を有している。左側テンプル部32は、プロセッサ54によって生成された熱を左側テンプル部内面302に分配するために利用される放熱システム310を含むことができる。放熱システム310は、左側テンプル部32に配置された電気構成要素(例えば、プロセッサ54、左側テンプルバッテリー60、または回路基板62上の他の構成要素)を損傷する可能性がある1つ以上の局所的なホットスポットの発生を防止する。放熱システム310はまた、拡張現実ディスプレイシステム100の着用者に対する局所的なホットスポットによって引き起こされる不快感を防止することができる。 25 shows a cross-sectional rear view of the left temple portion 32. FIG. The left temple portion 32 has a left temple portion outer surface 300 and a left temple portion inner surface 302 that defines an internal cavity 304 . Left temple portion 32 may include a heat dissipation system 310 that is utilized to distribute heat generated by processor 54 to left temple portion inner surface 302 . Heat dissipation system 310 provides one or more localized heat dissipation that may damage electrical components located on left temple portion 32 (eg, processor 54, left temple battery 60, or other components on circuit board 62). prevent hot spots from occurring. The heat dissipation system 310 can also prevent discomfort caused by localized hot spots for the wearer of the augmented reality display system 100 .

放熱システム310は、回路基板62の少なくとも一部と左側テンプル部内面302との間に配置された第1の伝熱シート312を含むことができる。第1の伝熱シート312は、左側テンプル部内面302と熱的及び/又は物理的に接触していてもよい。放熱システム310はまた、回路基板62の少なくとも一部と左側テンプルバッテリー60の一部との間に配置された第2の伝熱シート314を有してもよい。第2の伝熱シート314は、左側テンプル部の内面302の一部と熱的及び/又は物理的に接触していてもよい。 The heat dissipation system 310 can include a first heat transfer sheet 312 positioned between at least a portion of the circuit board 62 and the left temple inner surface 302 . The first heat transfer sheet 312 may be in thermal and/or physical contact with the left temple inner surface 302 . The heat dissipation system 310 may also include a second heat transfer sheet 314 positioned between at least a portion of the circuit board 62 and a portion of the left temple battery 60 . The second heat transfer sheet 314 may be in thermal and/or physical contact with a portion of the inner surface 302 of the left temple.

放熱システム310はまた、第2の伝熱シート314と左側テンプルバッテリー60との間に配置された断熱材316を有してもよい。断熱材316は、エアロゲル、ゴム、または意図される目的に適しており当業者によって理解される他の任意の材料から構成することができる。放熱システム310はまた、左側テンプルバッテリー60と左側テンプル部内面302との間に配置された第3の伝熱シート318を有してもよい。第3の伝熱シート318は、左側テンプル部内面302と熱的及び/又は物理的に接触していてもよい。第3の伝熱シート318はまた、左側テンプルバッテリー60の少なくとも一部と熱的及び/又は物理的に接触していてもよい。 The heat dissipation system 310 may also have a heat insulator 316 positioned between the second heat transfer sheet 314 and the left temple battery 60 . Insulation 316 may be composed of airgel, rubber, or any other material suitable for the intended purpose and understood by those skilled in the art. The heat dissipation system 310 may also include a third heat transfer sheet 318 positioned between the left temple battery 60 and the left temple inner surface 302 . The third heat transfer sheet 318 may be in thermal and/or physical contact with the left temple inner surface 302 . The third heat transfer sheet 318 may also be in thermal and/or physical contact with at least a portion of the left temple battery 60 .

第1の伝熱シート312、第2の伝熱シート314、および第3の伝熱シート318は、互いに熱的及び/又は物理的に接触していてもよい。第1の伝熱シート312、第2の伝熱シート314、および第3の伝熱シート318は、銅、銀、金、スズ、アルミニウム、純材料または複合材料、または意図する目的に適しており当業者によって理解される他の任意の材料で構成することができる。 The first heat transfer sheet 312, the second heat transfer sheet 314, and the third heat transfer sheet 318 may be in thermal and/or physical contact with each other. The first heat transfer sheet 312, the second heat transfer sheet 314, and the third heat transfer sheet 318 may be copper, silver, gold, tin, aluminum, pure or composite materials, or suitable for the intended purpose. It can be constructed of any other material understood by those skilled in the art.

導波路スタックモジュール waveguide stack module

図7~図11に示すように、拡張現実ディスプレイシステム100の導波路スタックモジュール80は、環境に対してシールすることができる。湿気、汚れ、および他の粒子が導波路スタックモジュール80の内部に入り込み、投射ディスプレイデバイス70によって提供される画像が台無しになるのを防ぐためである。例えば、導波路スタックモジュール80は、気密シールされてもよい。拡張現実ディスプレイシステム100の導波路スタックモジュール80は、導波路ハウジング86、導波路・フレームアライナ87、黒化材料88(黒色材料;blackening material)、および導波路アセンブリ89をさらに含むことができる。 As shown in FIGS. 7-11, the waveguide stack module 80 of the augmented reality display system 100 can be sealed to the environment. This is to prevent moisture, dirt, and other particles from getting inside waveguide stack module 80 and ruining the image provided by projection display device 70 . For example, waveguide stack module 80 may be hermetically sealed. The waveguide stack module 80 of the augmented reality display system 100 may further include a waveguide housing 86 , a waveguide and frame aligner 87 , a blackening material 88 , and a waveguide assembly 89 .

拡張現実ディスプレイシステム100の右側外カバー76はまた、望ましくない反射の低減を助けるために反射防止コーティングを含むことができる。これにより、より高品質な画像を利用者に表示できる。右側外カバー76は、ごみが導波路スタックモジュール80に入ることを防ぐために、導波路ハウジング86との全周シールを含むことができる。例えば、にかわや接着剤を右側外カバー76の周囲に塗布して、右側外カバー76を導波路ハウジング86にシールすることができる。 The right outer cover 76 of the augmented reality display system 100 may also include an anti-reflective coating to help reduce unwanted reflections. As a result, a higher quality image can be displayed to the user. Right outer cover 76 may include a full perimeter seal with waveguide housing 86 to prevent debris from entering waveguide stack module 80 . For example, glue or adhesive may be applied around right outer cover 76 to seal right outer cover 76 to waveguide housing 86 .

導波路スタックモジュール80の導波路ハウジング86は、拡張現実ディスプレイシステム100内の他のモジュールを積み重ねることを可能にし、それによって拡張現実ディスプレイシステム100における積み重ね公差を低減することができる。導波路ハウジング86は、プラスチック、ポリカーボネート、ポリマー、または意図された目的に適しており当業者によって理解されている他の任意の材料で形成することができる。 The waveguide housing 86 of the waveguide stack module 80 allows stacking of other modules within the augmented reality display system 100 , thereby reducing stacking tolerances in the augmented reality display system 100 . Waveguide housing 86 may be formed of plastic, polycarbonate, polymer, or any other material suitable for the intended purpose and understood by those skilled in the art.

導波路スタックモジュール80の黒化材料88は、導波路アセンブリ89を通過する投射ディスプレイデバイス70からの過剰な光を吸収することができ、これにより過剰な光が反射して導波路アセンブリ89内に戻らないようにする。黒化材料88は、コモト、カーボンフェザー、アクタール、黒色塗料、および意図された目的に適しており、当業者によって理解されている他の任意の材料でできていてもよい。黒化材料88は、導波路アセンブリ89に対して垂直な角度に配置することができる。 The blackened material 88 of the waveguide stack module 80 can absorb excess light from the projection display device 70 passing through the waveguide assembly 89 , thereby reflecting the excess light back into the waveguide assembly 89 . don't go back. The blackening material 88 may be made of comoto, carbon feather, actar, black paint, and any other material suitable for the intended purpose and understood by those skilled in the art. Blackening material 88 may be placed at a normal angle to waveguide assembly 89 .

導波路スタックモジュール80の導波路アセンブリ89は、少なくとも1つの導波路92を含むことができる。導波路スタックモジュール80の導波路アセンブリ89はまた、2つの導波路92、96(または意図される目的に適しており当業者によって理解される任意の他の材料/光学素子)および紫外線活性化材料94(UV light activated material)を含むことができる。2つの導波路92、96は、導波路アセンブリ89の光学性能に適した平行を維持しながら、紫外線活性化材料94によって分離されている。平行性が高まると、画像の色分解が殆どまたは全く無くなる。2つの導波路92、96はまた平行な前面および背面を有することができ、これら面に1つまたは複数の回折格子を配置することができる。2つの導波路92、96および紫外線活性化材料94の縁は、光の吸収を助けるために黒くすることができる。紫外線活性化材料94はまた、2つの導波路92、96の周囲またはその近くに塗布された紫外線硬化接着剤とすることができる。紫外線活性化材料94は、導波路アセンブリ89の2つの導波路92、96の間に空洞を提供することができる。 Waveguide assembly 89 of waveguide stack module 80 may include at least one waveguide 92 . The waveguide assembly 89 of the waveguide stack module 80 also includes two waveguides 92, 96 (or any other material/optical element suitable for the intended purpose and understood by those skilled in the art) and a UV activated material. 94 (UV light activated material). The two waveguides 92 , 96 are separated by a UV activated material 94 while maintaining parallelism suitable for the optical performance of the waveguide assembly 89 . Increased parallelism results in little or no color separation in the image. The two waveguides 92, 96 can also have parallel front and back surfaces, and one or more diffraction gratings can be placed in these surfaces. The edges of the two waveguides 92, 96 and the UV activated material 94 can be blackened to help absorb light. The UV activated material 94 can also be a UV curable adhesive applied around or near the two waveguides 92,96. UV activated material 94 may provide a cavity between the two waveguides 92 , 96 of waveguide assembly 89 .

2つの導波路92、96は、インカップリング回折光学素子およびアウトカップリング回折光学素子を有することができる。導波路スタックモジュール80の導波路アセンブリ89の2つの導波路92、96は、さらに、インカップリング回折光学素子とアウトカップリング回折光学素子との間に配置された少なくとも1つの回転回折格子を含むことができる。インカップリング回折光学素子、アウトカップリング回折光学素子、及び/又は回転回折格子は、回折格子、ホログラフィック光学素子、体積ホログラム、フォトニック結晶、光屈折結晶、ポリマー、重クロム酸ゼラチン、および感光性ガラスを含むことができる。 The two waveguides 92, 96 can have an in-coupling diffractive optical element and an out-coupling diffractive optical element. The two waveguides 92, 96 of the waveguide assembly 89 of the waveguide stack module 80 further include at least one rotating grating positioned between the in-coupling diffractive optical element and the out-coupling diffractive optical element. be able to. In-coupling diffractive optical elements, out-coupling diffractive optical elements, and/or rotating diffraction gratings include diffraction gratings, holographic optical elements, volume holograms, photonic crystals, photorefractive crystals, polymers, gelatin dichromates, and photosensitive tempered glass.

導波路スタックモジュール80の右側内カバー78は、反射防止コーティングおよび「汚れ」防止コーティングを含むことができる。異なるタイプのコーティングが、右側内カバー78のいずれかの側に適用されてもよい。汚れまたは油が2つの導波路92、96に直接存在する場合、導波路スタックモジュール80に表示される画像は劣化する。右側内カバー78は、画像の品質が環境の影響を受けにくくすることができる。 The right inner cover 78 of waveguide stack module 80 may include an anti-reflection coating and an anti-“dirt” coating. Different types of coatings may be applied to either side of right inner cover 78 . If dirt or oil is directly present on the two waveguides 92, 96, the image displayed on the waveguide stack module 80 will be degraded. The right inner cover 78 can make the image quality less sensitive to the environment.

導波路スタックモジュール80はまた、右側内カバー78と接触することができるガスケット98(例えば、定位置ガスケット)を含むことができる。このガスケット98は、導波路スタックモジュール80とのより良好なシールを可能にする。ガスケットの利点は、導波路アセンブリ89に直接過剰な圧力を加えないことである。ガスケット98は、Dymax GA 142ガスケット材料、または意図される目的に適しており当業者によって理解される他の任意の材料から作ることができる。 Waveguide stack module 80 may also include a gasket 98 (eg, a place gasket) that may contact right inner cover 78 . This gasket 98 allows for a better seal with waveguide stack module 80 . An advantage of the gasket is that it does not apply excessive pressure directly to waveguide assembly 89 . Gasket 98 may be made from Dymax GA 142 gasket material, or any other material suitable for the intended purpose and understood by those skilled in the art.

一般に、導波路(例えば、平行板導波路)は、導波路材料内の光の反射を含む全内部反射率(TIR)に関与している。平行板導波路の表面が汚れている場合、または導波路材料に圧力点がある場合、TIRが乱れる可能性がある。反射防止コーティングを有する右側内カバー78は、追加の保護層を提供する。右側内カバー78に汚れがある場合、導波路アセンブリ89が直接汚れる場合ほどTIRに影響を与えない。これにより、ガスケット98を介して導波路アセンブリ89に圧力を加えることもできる。ガスケット98は、ごみ、湿気、および他の不要な粒子が光路に入り、拡張現実ディスプレイシステム100の画像を劣化させないように、環境シールの作成を助ける。ガスケット98は、環境シールを維持しながらのフレーム10の屈曲を可能にする。 Generally, waveguides (eg, parallel-plate waveguides) are associated with total internal reflectance (TIR), which involves reflection of light within the waveguide material. If the surface of the parallel-plate waveguide is dirty or if there are pressure points in the waveguide material, the TIR can be disturbed. A right inner cover 78 having an anti-reflective coating provides an additional layer of protection. Contamination of the right inner cover 78 does not affect the TIR as much as direct contamination of the waveguide assembly 89 . This also allows pressure to be applied to waveguide assembly 89 through gasket 98 . Gasket 98 helps create an environmental seal to keep dirt, moisture, and other unwanted particles from entering the optical path and degrading the image of augmented reality display system 100 . Gasket 98 allows flexing of frame 10 while maintaining an environmental seal.

投射ディスプレイデバイス projection display device

図12~14に示すように、拡張現実ディスプレイ装置100の投射ディスプレイデバイス70は、プロジェクタ取付フレーム112、プロジェクタ114、アライメントピン116、およびアライメント穴118を含むことができる。プロジェクタ114は、Vuzix Cobra 2プロジェクタまたは意図された目的に適しており当業者によって理解される任意の他のプロジェクタであってもよい。アライメント穴118は、プロジェクタ114をプロジェクタ取付フレーム112に位置決めするために、アライメントピン116を受け入れるようになっている。 As shown in FIGS. 12-14, the projection display device 70 of the augmented reality display apparatus 100 can include a projector mounting frame 112, a projector 114, alignment pins 116, and alignment holes 118. As shown in FIG. Projector 114 may be a Vuzix Cobra 2 projector or any other projector suitable for the intended purpose and understood by those skilled in the art. Alignment holes 118 are adapted to receive alignment pins 116 to position projector 114 on projector mounting frame 112 .

投射ディスプレイデバイス70は、この投射ディスプレイデバイス70を導波路スタックモジュール80に接続するディスプレイ接続モジュール110をさらに含むことができる。ディスプレイ接続モジュール110は、投射ディスプレイデバイス70を導波路スタックモジュール80に接続することができる光学接続モジュールとすることができる。一実施形態では、ディスプレイ接続モジュール110は、プリズムアセンブリとすることができる。プリズムアセンブリは、投影ディスプレイシステム70を導波路スタックモジュール80に光学的に接続することができる。プリズムアセンブリはまた、投射ディスプレイシステム70からの光の方向を変え、これにより、光が導波路スタックモジュール80の平行板導波路のインカップリング回折格子に当たった時に、光が正しいインカップリング角を有することを保証する。 Projection display device 70 may further include a display connection module 110 that connects projection display device 70 to waveguide stack module 80 . The display connection module 110 can be an optical connection module that can connect the projection display device 70 to the waveguide stack module 80 . In one embodiment, display connection module 110 can be a prism assembly. A prism assembly can optically connect the projection display system 70 to the waveguide stack module 80 . The prism assembly also redirects light from the projection display system 70 so that when the light hits the incoupling gratings of the parallel-plate waveguides of the waveguide stack module 80, the light is at the correct incoupling angle. guarantee to have

プロジェクタ取付フレーム112は、ディスプレイ接続モジュール110およびプロジェクタ114をプロジェクタ取付フレーム112にアライメントさせるために、プリズムアライメントエッジ120とプロジェクタアライメントエッジ122を含むことができる。プロジェクタ114は、プロジェクタ取付フレーム112のプロジェクタアライメントエッジ122にぴたっと着座することができる。プロジェクタ取付フレーム112はまた、プロジェクタ・フレームアライナ124を含むことができる。 Projector mounting frame 112 may include prism alignment edge 120 and projector alignment edge 122 to align display connection module 110 and projector 114 to projector mounting frame 112 . The projector 114 can sit flush against the projector alignment edge 122 of the projector mounting frame 112 . Projector mounting frame 112 may also include projector frame aligner 124 .

光学アセンブリと位置合わせ Optical assembly and alignment

図15~図17に示されるように、拡張現実ディスプレイシステム100のフレーム10は、拡張現実ディスプレイシステム100内の許容誤差の積み重ねを低減するために、プロジェクタ・導波路・フレームアライナ126を含むことができる。このアライナ126は、投射ディスプレイデバイス70および導波路スタックモジュール80のための基準面となる。導波路・フレームアライナ87およびプロジェクタ・フレームアライナ124は、プロジェクタ・導波路・フレームアライナ126に当接して、拡張現実ディスプレイシステム100における全体の許容誤差の積み重ねを低減することができる。 As shown in FIGS. 15-17, the frame 10 of the augmented reality display system 100 may include a projector-waveguide-frame aligner 126 to reduce tolerance stack-up within the augmented reality display system 100. can. This aligner 126 provides a reference surface for the projection display device 70 and waveguide stack module 80 . Waveguide-to-frame aligner 87 and projector-to-frame aligner 124 may abut projector-to-waveguide-to-frame aligner 126 to reduce the overall tolerance stack in augmented reality display system 100 .

ヒンジシステム hinge system

図18~図24に示されるように、拡張現実ディスプレイシステム100はまた、ヒンジシステム200を含むことができる。ヒンジシステム200は、可撓性ケーブル210、ヒンジ220、ヒンジハウジング230、およびヒンジピン240を含むことができる。可撓性眼鏡のヒンジシステムを設計する場合、多くの課題がある。その課題には、眼鏡のテンプル部に適合するほど小さく、利用者からの酷使に耐えるのに十分な強度を維持しながら、可撓性電子回路を通過できるヒンジシステムが含まれる。 The augmented reality display system 100 can also include a hinge system 200, as shown in FIGS. 18-24. Hinge system 200 may include flexible cable 210 , hinge 220 , hinge housing 230 and hinge pin 240 . There are many challenges when designing a hinge system for flexible eyeglasses. The challenges include a hinge system that can pass through flexible electronic circuits while remaining small enough to fit in the temples of eyeglasses and strong enough to withstand abuse from the user.

拡張現実ディスプレイシステム100のヒンジシステム200は、その設計によって上記課題を克服し、可撓性を維持し十分な強度を有しながら、眼鏡に収まるほど十分に小さい。ヒンジシステム200のヒンジ220は、一対の金属射出成形品からなるヒンジピースを含むことができ、各ヒンジピースは、拡張現実ディスプレイシステム100のフレーム10にインサート成形されている。これにより、ヒンジ220をフレーム10内で十分に小さくすることができ、拡張現実ディスプレイシステム100に必要な強度を提供することもできる。 The hinge system 200 of the augmented reality display system 100 overcomes the above problems with its design, remaining flexible and strong enough, yet small enough to fit in glasses. The hinge 220 of the hinge system 200 can include a pair of metal injection molded hinge pieces, each insert molded into the frame 10 of the augmented reality display system 100 . This allows the hinge 220 to be sufficiently small within the frame 10 and also provides the necessary strength for the augmented reality display system 100 .

ヒンジ220の形状は、可撓性ケーブル210がヒンジ220を通過できるようにする一方で、可撓性ケーブル210およびフレーム10の右後部34及び/又は左後部36が、第1の位置から第2の位置へと回転する間、可撓性ケーブル210を覆って保護することができるという点で独特である。ヒンジ220は、ヒンジピン240によって回動可能に接続され、回転可能なままで維持できる内側ヒンジ部222と外側ヒンジ部224を含むことができる。ヒンジ220の内側ヒンジ部222および外側ヒンジ部224の形状は、内側ヒンジ部222および外側ヒンジ部224が互いに重なり合うことを可能にする(例えば、内側ヒンジ部222が保護タブ226を含み、外側ヒンジ部224が保護タブ受部228を含む)とともに、ヒンジピン240を中心に回動可能でありながら、可撓性ケーブル210を覆い隠すように係合することを可能にする。 The shape of hinge 220 allows flex cable 210 to pass through hinge 220 while allowing flex cable 210 and right rear 34 and/or left rear 36 of frame 10 to move from a first position to a second position. It is unique in that it can cover and protect the flexible cable 210 while it is rotated to the position. Hinge 220 can include an inner hinge portion 222 and an outer hinge portion 224 that are pivotally connected by hinge pin 240 and can remain rotatable. The shape of inner hinge portion 222 and outer hinge portion 224 of hinge 220 allows inner hinge portion 222 and outer hinge portion 224 to overlap each other (e.g., inner hinge portion 222 includes protective tabs 226 and outer hinge portion 224 includes protective tabs 226). 224 includes protective tab receivers 228 ) to allow flexible cable 210 to be engaged in an obscuring manner while still being pivotable about hinge pin 240 .

図23では、ヒンジ220が第1の位置で示されている。この第1位置では内側ヒンジ部222と外側ヒンジ部224はしっかりした係止位置(ソリッドストップ位置;solid stop position)を形成することができる。外側ヒンジ部224は外側係止タブ232を含み、内側ヒンジ部222は内側係止タブ234を含むことができる。第1の位置では、ヒンジ220の内側ヒンジ部分222および外側ヒンジ部分224は、フレーム10と一直線になるように互いに実質的に平行になる。第1の位置では、拡張現実ディスプレイシステム100は、「開いた」位置にある。ヒンジ220の一部は環境に露出しており、ヒンジ220に、配置及び/又は位置合わせのために押し付けられるフレーム10の堅固な壁を提供することができる。 In FIG. 23, hinge 220 is shown in the first position. In this first position, inner hinge portion 222 and outer hinge portion 224 can form a solid stop position. Outer hinge portion 224 may include outer locking tabs 232 and inner hinge portion 222 may include inner locking tabs 234 . In the first position, inner hinge portion 222 and outer hinge portion 224 of hinge 220 are substantially parallel to each other in alignment with frame 10 . In a first position, augmented reality display system 100 is in an "open" position. A portion of the hinge 220 is exposed to the environment and can provide the hinge 220 with a rigid wall of the frame 10 against which it can be placed and/or aligned.

可撓性ケーブル210は、ヒンジシステム200の結合位置でヒンジ220によって覆うことができる。可撓性ケーブル210はまた、フレーム10とヒンジハウジング230により、いずれかの側で支持することができる。拡張現実ディスプレイシステム100のフレーム10とヒンジハウジング230は、ヒンジピン240に回動可能に接続してもよい。 Flexible cable 210 may be covered by hinge 220 at the joint location of hinge system 200 . Flexible cable 210 can also be supported on either side by frame 10 and hinge housing 230 . Frame 10 and hinge housing 230 of augmented reality display system 100 may be pivotally connected to hinge pin 240 .

図24では、ヒンジシステム200が第2の位置で示されている。ヒンジシステム200の第2の位置は、折り曲げ位置または傾斜位置である。可撓性ケーブル210は、左後部36からヒンジピン240の軸線の近くのギャップを通過し、ヒンジピン240の周りを曲がり、拡張現実ディスプレイシステム100の左側テンプル部32に入る。可撓性ケーブル210はまた、拡張現実ディスプレイシステム100の左側回路基板62に取り付けることができる。拡張現実ディスプレイシステム100の左側回路基板62は、左側テンプル部32に配置されている。拡張現実ディスプレイシステム100の右側回路基板64は、右側テンプル部30に配置されている。フレーム10、ヒンジ220、およびヒンジハウジング230は、可撓性ケーブル210を封入し、可撓性ケーブル210が環境に露出するのを防ぐことができる。 In FIG. 24, hinge system 200 is shown in a second position. A second position of hinge system 200 is a folded or tilted position. Flexible cable 210 passes from left rear 36 through a gap near the axis of hinge pin 240 , bends around hinge pin 240 , and enters left temple portion 32 of augmented reality display system 100 . Flexible cable 210 may also be attached to left circuit board 62 of augmented reality display system 100 . The left circuit board 62 of the augmented reality display system 100 is located on the left temple portion 32 . The right circuit board 64 of the augmented reality display system 100 is located on the right temple portion 30 . Frame 10, hinge 220, and hinge housing 230 may enclose flexible cable 210 and prevent exposure of flexible cable 210 to the environment.

図18~図24は、拡張現実ディスプレイシステム100の左側Lのヒンジシステム200を示すが、ヒンジシステム200の同様の「鏡像」が、拡張現実ディスプレイシステム100の右側Rに存在してもよい。 18-24 show the hinge system 200 on the left side L of the augmented reality display system 100, a similar “mirror image” of the hinge system 200 may exist on the right side R of the augmented reality display system 100. FIG.

ソフトウェア機能 Software function

拡張現実ディスプレイシステム100はまた、利用者がアプリケーションを開始したり起動したりせずに、ライブデータを含むアプリケーションの情報を表示することができる。 The augmented reality display system 100 can also display application information, including live data, without the user having to start or launch the application.

図6Aおよび図6Bに示すように、拡張現実ディスプレイシステム100の投射ディスプレイデバイス70と導波路スタックモジュール80は、「レール(rail)」内のアイコンがアクティブアイコン位置にフォーカス/選択されている間、アプリケーションのライブビューを自動的に利用者に提供することができる。拡張現実ディスプレイシステム100の「レール」は、アイコンのビューを提供し得る画像の一部とすることができる(例えば、アイコンは、垂直または水平の列にすることができる)。アイコンがアクティブアイコン位置にある場合、アプリケーションのウィジェットは、表示された画面(ホーム画面など)のウィジェット領域に自動的に表示され、アプリケーションで利用できる読み取り専用の情報を提供することができる。 As shown in FIGS. 6A and 6B, the projection display device 70 and waveguide stack module 80 of the augmented reality display system 100 can be configured to display a A live view of the application can be automatically provided to the user. A "rail" of the augmented reality display system 100 can be a portion of the image that can provide a view of the icons (eg, the icons can be in vertical or horizontal columns). When the icon is in the active icon position, the application's widgets are automatically displayed in the widget area of the displayed screen (such as the home screen) and can provide read-only information available to the application.

拡張現実ディスプレイシステム100は、フレーム10内に配置される少なくとも1つの誘導充電コイル回路(図示せず)をさらに含むことができる。誘導充電コイル回路は、左側回路基板62および少なくとも1つのバッテリ(例えば、右側リアバッテリー50)に電気的に接続することができる。誘導充電コイル回路は、拡張現実ディスプレイシステム100の1つ以上のバッテリーを充電するために使用することができる。誘導充電コイル回路は、右目シースルー部20及び/又は左目シースルー部22の内周に巻き付けられる導電性材料のいくつかのループを含むことができる。誘導充電コイル回路は、右側テンプル部30、左側テンプル部32、右後部34、および左後部36の少なくとも1つの中に配置することもできる。 Augmented reality display system 100 may further include at least one inductive charging coil circuit (not shown) disposed within frame 10 . The inductive charging coil circuit may be electrically connected to the left circuit board 62 and at least one battery (eg, right rear battery 50). An inductive charging coil circuit can be used to charge one or more batteries of the augmented reality display system 100 . The inductive charging coil circuit may include several loops of conductive material wrapped around the inner perimeter of right eye see-through portion 20 and/or left eye see-through portion 22 . The inductive charging coil circuit may also be located in at least one of the right temple portion 30, the left temple portion 32, the right rear portion 34, and the left rear portion 36.

本開示は、拡張現実ディスプレイシステム100の実施形態を参照して説明されている。拡張現実ディスプレイシステム100の構成要素の位置は、左側Lから右側Rへ、および右側Rから左側Lへと、拡張現実ディスプレイシステム100の構成要素の形状の適切な鏡像変換を伴って、交換可能であることが理解される。例えば、本開示では、投射ディスプレイデバイス70および導波路スタックモジュール80を、拡張現実ディスプレイシステム100の右側にあるものとして説明している。しかし、本開示はまた、利用者の左目にバーチャル像を提供するために、投射ディスプレイデバイス70と導波路スタックモジュール80および再配向を達成するために必要な他の対応する構成要素が、拡張現実ディスプレイシステム100の左側にあることも想定している。 This disclosure has been described with reference to an embodiment of an augmented reality display system 100 . The positions of the components of the augmented reality display system 100 are interchangeable from left L to right R and right R to left L, with appropriate mirroring of the shapes of the augmented reality display system 100 components. One thing is understood. For example, this disclosure describes projection display device 70 and waveguide stack module 80 as being on the right side of augmented reality display system 100 . However, the present disclosure also provides that the projection display device 70 and waveguide stack module 80 and other corresponding components necessary to achieve reorientation are used to provide a virtual image to the left eye of the user. It is also assumed to be on the left side of display system 100 .

人工知能システム artificial intelligence system

人工知能システムを、拡張現実ディスプレイシステム100に利用してもよい。人工知能システムは、顔認識、ゲームプレイ(例えば、囲碁、チェスなど)、医療診断、ロボット操作、および実世界の対象との相互作用に利用できる。さらに、ディープラーニングシステム(人工知能の一種)は、利用者のオンライン交流(オンラインストアからのショッピング、ソーシャルメディアウエブサイト、電子メールシステムなどを含む)から収集されたデータに基づいて利用者の好みや行動を分析することができる。 Artificial intelligence systems may be utilized in the augmented reality display system 100 . Artificial intelligence systems can be used for facial recognition, game play (eg, Go, chess, etc.), medical diagnosis, robot manipulation, and interaction with real-world objects. In addition, deep learning systems (a type of artificial intelligence) can monitor users' preferences and preferences based on data collected from their online interactions (including shopping from online stores, social media websites, email systems, etc.). Behavior can be analyzed.

複数の人工知能システムとの接続と相互作用を同時に管理するように構成されたヘッドマウントディスプレイの拡張現実システムは、利用者に利益をもたらす。このようなシステムは、利用者の環境、行動、健康および良好な生活状況を監視し、利用者の情報、認識および安全を強化するために利用者にフィードバックを提供する。これらのシステムは、利用者の行動や好みを監視および学習し、学習した利用者の好みや行動に基づいて応答することにより、利用者に個別の支援を提供できる。 A head-mounted display augmented reality system configured to simultaneously manage connections and interactions with multiple artificial intelligence systems benefits users. Such systems monitor a user's environment, behavior, health and well-being and provide feedback to the user to enhance user information, awareness and safety. These systems can provide personalized assistance to users by monitoring and learning user behavior and preferences and responding based on the learned user preferences and behaviors.

拡張現実ディスプレイシステム100は、回路基板62及び/又は回路基板64に配置される追加のセンサーを含むことができる。追加のセンサーとして、近接センサー(着用者に向かって内側、及び/又は着用者が居る環境に向かって外側)、周囲光輝度センサー、音声マイク、温度センサー、湿度センサー、GPS位置要素、磁力計、加速度計、頭部方向センサー(例:傾斜と先端の方向)、着用者の視線方向センサーなどがあるが、これらに限定されない。センサーからのデータは、プロセッサ54およびこのプロセッサ54で実行されるアプリケーションによって収集することができる。データは編成されフォーマット化され、拡張現実ディスプレイシステム100の着用者の視野内の現実世界のシーンと重なるバーチャル像の一部として、着用者に表示される。フォーマット化しバーチャル像の一部として表示するために、追加の情報およびデータ(例えば、着用者の視線のコンパス方向、GPS位置、環境温度、着用者の視野内の対象物の名称など)を、他の外部デバイスやネットワークとの通信プロトコル(例えば ブルートゥース(Bluetooth;登録商標)、Wi-Fi、その他の通信プロトコル)を介して取得することができる。 Augmented reality display system 100 may include additional sensors located on circuit board 62 and/or circuit board 64 . Additional sensors include proximity sensors (inward towards the wearer and/or outward towards the environment the wearer is in), ambient light intensity sensors, audio microphones, temperature sensors, humidity sensors, GPS location elements, magnetometers, These include, but are not limited to, accelerometers, head orientation sensors (eg, tilt and tip orientation), and wearer gaze orientation sensors. Data from the sensors can be collected by the processor 54 and applications running on the processor 54 . The data is organized, formatted, and displayed to the wearer as part of a virtual image that overlays the real-world scene within the wearer's field of view of the augmented reality display system 100 . Additional information and data (e.g., compass direction of the wearer's line of sight, GPS location, ambient temperature, names of objects within the wearer's field of view, etc.) may be provided to others in order to be formatted and displayed as part of the virtual image. can be obtained via a communication protocol (e.g., Bluetooth, Wi-Fi, or other communication protocol) with an external device or network.

図26Aは、図1の拡張現実ディスプレイシステム100の画像取得モードの図である。カメラアセンブリ12とプロセッサ54は、画像を取り込むための異なる動作モードを提供することができる。1つの動作モードでは、カメラアセンブリ12は、図26Aに示されるようにシーンの静止画像を取得することができる。別の動作モードでは、画像の連続ストリームを、カメラアセンブリ12およびプロセッサ54によって取得することができる。さらに別の動作モードでは、プロセッサ54は、データを着用者の2つの目のうちの少なくとも1つに現実世界のシーンに重ねられたバーチャル像として表示することができる。この情報としては、着用者の視線方向、環境温度、GPS位置などを含むセンサーからのデータは勿論のこと、着用者の視野に現れる対象物の対象物識別データなどがある。カメラアセンブリ12およびプロセッサ54は、カメラアセンブリ12によって取得された現実世界の画像と、着用者にバーチャル像として表示されたデータとを組み合わせて、将来の検索及び/又は他のデバイスへの送信のために記憶される最終的な取得画像を得ることができる。 FIG. 26A is a diagram of the image acquisition mode of the augmented reality display system 100 of FIG. Camera assembly 12 and processor 54 may provide different modes of operation for capturing images. In one mode of operation, camera assembly 12 can capture still images of a scene as shown in FIG. 26A. In another mode of operation, a continuous stream of images can be acquired by camera assembly 12 and processor 54 . In yet another mode of operation, the processor 54 can display the data in at least one of the wearer's two eyes as a virtual image superimposed on the real world scene. This information includes object identification data for objects appearing in the wearer's field of view, as well as data from sensors including the wearer's gaze direction, ambient temperature, GPS location, and the like. Camera assembly 12 and processor 54 combine real-world images captured by camera assembly 12 with data displayed as virtual images to the wearer for future retrieval and/or transmission to other devices. A final acquired image stored in .

図26Bは、現実世界のカメラ取得画像を示す。このカメラ取得画像は、最終的な取得画像を形成するために重ねられたデータのバーチャル像を含んでいる。別のモードでは、カメラアセンブリ12およびプロセッサ54は、連続的な動画取込み(video capture)を提供するように動作することができる。この動画取込みは、カメラアセンブリ12の視野内の現実世界の画像を、取得された現実世界の画像に重ね合わされるバーチャル像と組み合わせて、最終的な取得動画を形成する。 FIG. 26B shows a camera-captured image of the real world. This camera acquired image contains a virtual image of the data superimposed to form the final acquired image. In another mode, camera assembly 12 and processor 54 can operate to provide continuous video capture. This video capture combines the real world images within the field of view of the camera assembly 12 with a virtual image that is superimposed on the captured real world images to form the final captured video.

図27は、拡張現実(AR)ニアアイディスプレイ装置352を含むヘッドマウントディスプレイ拡張現実(HMD AR)のニアアイディスプレイシステム350を示す。ARニアアイディスプレイ装置352は、ARニアアイディスプレイ装置352内のハードウェア及び/又はソフトウェアで実装される少なくとも1つの内部人工知能(AI)システムを含むことができる。少なくとも1つの内部AIシステムは、部分的にまたは全体的に、エキスパートシステム、機械学習システム、深層学習(ディープラーニング)システム、ニューラルネットワークベースのシステム、及び/又は意図された目的に適しており当業者によって理解される他のタイプのシステムのうちの1つまたは複数を含み、及び/又は、これらシステムの1つまたは複数と組み合わすことができる。ARニアアイディスプレイ装置352は、GPSセンサー、頭部方向センサー及び/又は視線方向センサーなどのセンサーを含むとともに、Bluetooth、WiFi及び /又は他の通信プロトコルを含むネットワークおよびデバイス間通信モジュールを含むことができる。さらに、ARニアアイディスプレイ装置352は、少なくとも1つのカメラおよび少なくとも1つの音声マイクを含むことができる。ARニアアイディスプレイ装置352は、着用者の視野の少なくとも一部の現実世界のビューに重ねられるバーチャル像を着用者に伝えるためのディスプレイをさらに含むことができる。少なくとも1つの内部AIシステムは、ARニアアイディスプレイ装置352における少なくとも1つの内部AIシステムの一部と、1つ以上の通信プロトコルを利用してネットワークを介して外部デバイスとアクセス可能な少なくとも1つの内部AIシステムの一部と、を有するように分配されていてもよい。後者は、例えば、クラウドサービスに配置される少なくとも1つの内部AIシステムに関連するデータベースである。このデータベースへの音声コマンドAIインターフェースはARニアアイディスプレイ装置352に配置される。 FIG. 27 shows a head-mounted display augmented reality (HMD AR) near-eye display system 350 that includes an augmented reality (AR) near-eye display device 352 . AR near-eye display device 352 may include at least one internal artificial intelligence (AI) system implemented in hardware and/or software within AR near-eye display device 352 . The at least one internal AI system may be partially or wholly expert systems, machine learning systems, deep learning systems, neural network-based systems, and/or suitable for the intended purpose. may include and/or be combined with one or more of the other types of systems understood by . The AR near-eye display device 352 includes sensors such as GPS sensors, head direction sensors and/or gaze direction sensors, and may include network and inter-device communication modules including Bluetooth, WiFi and/or other communication protocols. can. Additionally, the AR near-eye display device 352 can include at least one camera and at least one audio microphone. The AR near-eye display device 352 may further include a display for conveying to the wearer a virtual image superimposed on the real-world view of at least a portion of the wearer's field of view. The at least one internal AI system is part of the at least one internal AI system in the AR near-eye display device 352 and at least one internal AI system accessible to the external device via a network using one or more communication protocols. part of the AI system. The latter is for example a database associated with at least one internal AI system located in the cloud service. A voice command AI interface to this database is located in the AR near-eye display device 352 .

少なくとも1つの内部AIシステムは、ARニアアイディスプレイ装置352の少なくとも1つの音声マイクを利用する自然言語処理システムとすることができる。自然言語処理システムは、ARニアアイディスプレイ装置352の着用者が音声コマンドを発することによって、ARニアアイディスプレイ装置352の1つまたは複数の動作パラメータを変更するコマンドを開始することを可能にする。 At least one internal AI system can be a natural language processing system that utilizes at least one audio microphone of AR near-eye display device 352 . The natural language processing system enables the wearer of the AR near-eye display device 352 to initiate commands to change one or more operating parameters of the AR near-eye display device 352 by issuing voice commands.

ARニアアイディスプレイ装置352は、Bluetooth及び/又はWiFi通信モジュールを利用して、外部ネットワーク、インターネット、クラウドアプリケーションなどと通信することができる。ARニアアイディスプレイ装置352の着用者は、AIシステムの内部の自然言語処理システムを介して、外部AIアプリケーションと通信することができる。着用者は、利用者の活動を強化及び/又は支援するために、内部および外部の両方のAIシステムと交流することができる。GPSセンサーと画像取り込みを利用するとともに、対象物識別のために画像を処理する内部および外部AIシステムを利用することにより、利用者は、着用者の環境にある対象物例えば修理が必要な装置などを識別することができる。内部及び/又は外部のAIシステムと通信することにより、着用者が破損した装置を修理するのを助けることができる。例えば、装置の場所と装置の画像に部分的に基づいて装置を識別した後、少なくとも1つの内部AIシステムが装置の製造元とモデルを決定し、装置についての追加のデータのために、他のネットワーク、データベース、AIシステムへの問い合わせを開始する。追加のデータとして、例えば、装置が最後の保守サービスを受けたのはいつか、このタイプの装置で知られる一般的な故障、装置の現在の問題を解消する方法などがある。内部および外部のAIシステムは、着用者と対話し、装置の障害と装置の修正方法を決定するための指示を着用者に提供する。ARニアアイディスプレイ装置352からの音声データとビジュアルデータの両方を1つまたは複数のAIシステムに送信して、装置の修正を支援することができる。 The AR near-eye display device 352 can utilize Bluetooth and/or WiFi communication modules to communicate with external networks, the Internet, cloud applications, and the like. A wearer of the AR near-eye display device 352 can communicate with external AI applications via a natural language processing system internal to the AI system. The wearer can interact with both internal and external AI systems to enhance and/or assist the user's activities. By utilizing GPS sensors and image capture, as well as internal and external AI systems that process images for object identification, the user can identify objects in the wearer's environment, such as devices in need of repair. can be identified. Communicating with internal and/or external AI systems can help the wearer repair damaged devices. For example, after identifying a device based in part on its location and image of the device, at least one internal AI system determines the make and model of the device and, for additional data about the device, retrieves information from other networks. , databases, and AI systems. Additional data may include, for example, when the device was last serviced, common failures known for this type of device, and how to remedy current problems with the device. Internal and external AI systems interact with the wearer and provide instructions to the wearer to determine device faults and how to fix the device. Both audio and visual data from the AR near-eye display device 352 can be sent to one or more AI systems to help modify the device.

図28は、少なくとも1つのARスマートグラス410と少なくとも1つのAIシステム430を含むHMDのARディスプレイシステム400を示す。少なくとも1つのAIシステム430は、自然の(例えば、人間の)知能、推論、1つ以上のトピックの知識、計画、学習、自然言語処理(例えば、記述の言語及び/又は音声言語)、空間認識、顔認識などのうちの1つ以上を処理及び/又は表示できるハードウェア及び/又はソフトウェアを含むことができる。ARスマートグラス410は、利用者及び/又は環境の相互作用の少なくとも2つの異なるカテゴリ、すなわち、1)データ取得と2)フィードバックを含むことができる。 FIG. 28 shows an HMD AR display system 400 including at least one AR smart glasses 410 and at least one AI system 430 . At least one AI system 430 may include natural (e.g., human) intelligence, reasoning, knowledge of one or more topics, planning, learning, natural language processing (e.g., written language and/or spoken language), spatial recognition. , facial recognition, etc., may include hardware and/or software capable of processing and/or displaying one or more. AR smart glasses 410 can include at least two different categories of user and/or environment interaction: 1) data acquisition and 2) feedback.

データ取得は以下を含むことができる
1)1つ以上のタッチパッド及び/又はタッチボタンからのタッチ取得。
2)1つ以上のカメラからの画像取得。
3)着用者の声及び/又は環境からの音を捕捉するために用いられる音声取得。
4)ARスマートグラス410と他のWiFi装置及び/又はネットワークとの間の通信を可能にするWiFiデータ取得。
5)ARスマートグラス410と他のブルートゥース装置及び/又はネットワークとの間の通信を可能にするブルートゥースデータ取得。
6)GPS、磁力計、加速度計、気圧計、温度センサー、心拍数センサー、視線方向センサー、方位センサー、モーションセンサーなどのセンサーを含むその他のデータ取得。
Data acquisition can include: 1) Touch acquisition from one or more touchpads and/or touch buttons.
2) Image acquisition from one or more cameras.
3) Voice acquisition used to capture the wearer's voice and/or sounds from the environment.
4) WiFi data acquisition to enable communication between the AR smart glasses 410 and other WiFi devices and/or networks.
5) Bluetooth data acquisition to enable communication between the AR smart glasses 410 and other Bluetooth devices and/or networks.
6) Other data acquisition including sensors such as GPS, magnetometer, accelerometer, barometer, temperature sensor, heart rate sensor, gaze direction sensor, orientation sensor, motion sensor.

ARスマートグラス410の着用者へのフィードバックは、触覚、音声、視覚、及び/又は嗅覚のいずれか1つまたはそれらの組み合わせを含むことができる。 Feedback to the wearer of the AR smart glasses 410 can include any one or a combination of tactile, audio, visual, and/or olfactory.

ARディスプレイシステム400は、コーディネーションシステム420をさらに含むことができる。コーディネーションシステム420は、少なくとも1つのAIシステム430の一部とすることができ、少なくとも1つのAIシステム430にコーディネートおよびインターフェースプロトコルを提供することができる。コーディネーションシステム420は、他のネットワークシステム、例えば、モノのインターネット(IoT)432へのコーディネートおよびインターフェースも提供することができる。IoT432は、物理的対象物に組み込まれた演算装置、ソフトウェア、センサー、及び/又はアクチュエーターがデータを送受信できるようにインターネットを介して接続された相互接続ネットワークである。コーディネーションシステム420は、ARスマートグラス410のハードウェア及び/又はソフトウェア内に組み込まれ又は搭載されていてもよい。コーディネーションシステム420は、ブルートゥース及び/又はWiFi接続を介してARスマートグラス410によってアクセス可能なクラウドコンピューティングアプリケーションであってもよい。コーディネーションシステム420は、スマートフォン412に部分的に組み込まれ又は搭載されていてもよい。スマートフォン412は、ブルートゥース、WiFi、他の無線通信プロトコルを介して、ARスマートグラス410と通信してもよく、及び/又は少なくとも1つのワイヤケーブルを介してARスマートグラス410に物理的に接続されていてもよい。コーディネーションシステム420は、ハードウェア及び/又はソフトウェアを含むことができる。コーディネーションシステム420は、ARスマートグラス410、スマートフォン412、及び/又はクラウドアプリケーションに部分的に分散してもよい。 AR display system 400 may further include coordination system 420 . Coordination system 420 may be part of at least one AI system 430 and may provide coordination and interface protocols to at least one AI system 430 . Coordination system 420 can also provide coordination and interfaces to other network systems, such as the Internet of Things (IoT) 432 . IoT 432 is an interconnection network that is connected via the Internet so that computing devices, software, sensors, and/or actuators embedded in physical objects can send and receive data. Coordination system 420 may be embedded or mounted within the hardware and/or software of AR smart glasses 410 . Coordination system 420 may be a cloud computing application accessible by AR smart glasses 410 via Bluetooth and/or WiFi connectivity. Coordination system 420 may be partially embedded in or onboard smartphone 412 . Smartphone 412 may communicate with AR smart glasses 410 via Bluetooth, WiFi, other wireless communication protocols, and/or is physically connected to AR smart glasses 410 via at least one wire cable. may Coordination system 420 may include hardware and/or software. Coordination system 420 may be partially distributed across AR smart glasses 410, smartphone 412, and/or cloud applications.

ARスマートグラス410は、静止画像及び/又は画像のストリーム(例えば、ビデオ)をコーディネーションシステム420に提供する画像取得のための少なくとも1つのカメラを含むことができる。コーディネーションシステム420は、顔認識、現実空間の対象物識別などのために画像を処理することができる。コーディネーションシステム420は、画像を少なくとも1つのAIシステム430に渡すことにより、画像及び/又はビデオの処理を開始することができる。一例では、コーディネーションシステム420は、処理を開始し、画像を、顔認識のために少なくとも1つのAIシステム430のAIシステムに画像を渡し、対象物識別のために空間認識AIに渡し、そして文字認識及び/又は言語翻訳のために言語処理AIに渡すことができる。そのような、場合によっては複数のAI処理から得られる情報は、コーディネーションシステム420によって受信される。コーディネーションシステム420は、受信された情報を、1つまたは複数の適切な形式(例えば、触覚、音声、視覚、及び/又は嗅覚)にコーディネートしてARスマートグラス410の着用者に提示することができる。 AR smart glasses 410 may include at least one camera for image acquisition that provides still images and/or a stream of images (eg, video) to coordination system 420 . The coordination system 420 can process the images for face recognition, real-space object identification, and the like. Coordination system 420 may initiate image and/or video processing by passing the images to at least one AI system 430 . In one example, the coordination system 420 initiates processing, passing images to an AI system of at least one AI system 430 for face recognition, passing images to a spatial recognition AI for object identification, and character recognition. and/or passed to a language processing AI for language translation. Information resulting from such possibly multiple AI processes is received by coordination system 420 . Coordination system 420 can coordinate and present the received information in one or more appropriate formats (eg, tactile, audio, visual, and/or olfactory) to the wearer of AR smart glasses 410. .

ARディスプレイシステム400は、少なくとも1つのAIシステム430の1つである個人嗜好AIシステムを含むことができる。このAIシステムは、着用者の習慣及び/又は嗜好を学習するのに適している。そのような学習のデータは、ARスマートグラス410の着用者の利用の履歴データ、FacebookやTwitterなどのソーシャルメディアWebサイトの利用、アマゾンなどのオンラインショッピングWebサイト、Linkedlnなどの専門ウェブサイトの少なくとも1つから取得できる。さらに、個人嗜好AIシステムは、着用者の好みや習慣を学習するのに適したデータを、時計、カレンダー、GPSセンサー、音声コマンドなどの複数のセンサーやデータソースから、受信することができる。着用者の習慣を学習することにより、例えば、着用者がいつ仕事に行くか、旅行中に着用者がどのタイプの音楽を聴くことを好むかを学習することによって、個人嗜好AIシステムは、同様の音楽を着用者に提供し、ニュース及び/又は広告をフィルタリングして利用者が興味を持っている可能性のある情報を提示する。これらは、行動および嗜好のデータに基づいている。学習のための他のデータは、ARスマートグラス410の着用者を特定しない人々の行動を監視する他のAIシステムから取得することができる。人間の行動は、部分的には、多数の人々が関わる人間の行動データ(ショッピングデータ、オンラインソーシャルメディアデータ、投票記録、調査など)の統計や他の分析によって学習できる。このようなデータの利用は、個人嗜好AIシステムの一部とすることができる。 AR display system 400 may include a personal preference AI system, which is one of at least one AI system 430 . This AI system is suitable for learning the wearer's habits and/or preferences. Such learning data may include at least one of historical data of the wearer's usage of the AR smart glasses 410, usage of social media websites such as Facebook and Twitter, online shopping websites such as Amazon, and specialized websites such as LinkedIn. can be obtained from Additionally, the Personal Preference AI system can receive data suitable for learning the wearer's preferences and habits from multiple sensors and data sources, such as clocks, calendars, GPS sensors, and voice commands. By learning the wearer's habits, for example when the wearer goes to work or what type of music the wearer prefers to listen to while traveling, personal preference AI systems can music to the wearer and filter news and/or advertisements to present information that may be of interest to the user. These are based on behavioral and preference data. Other data for learning can be obtained from other AI systems that monitor the behavior of unidentified people wearing AR smart glasses 410 . Human behavior can be learned, in part, through statistics and other analyzes of human behavioral data involving large numbers of people (shopping data, online social media data, voting records, surveys, etc.). Use of such data can be part of a personal preference AI system.

少なくとも1つのAIシステム430のうちの別のAIシステム、または少なくとも1つのAIシステム430のうちの1つ以上のAIシステムの組み合わせは、画像処理、空間認識および対象物認識を含むことができる。少なくとも1つのAIシステム430のうちのさらに別のAIシステムは、着用者及び/又は他の人々の手のジェスチャーを認識するのに適している。少なくとも1つのAIシステム430の別のAIシステムは、会話認識に適している。少なくとも1つのAIシステム430のさらに別のAIシステムは、翻訳に適している。少なくとも1つのAIシステム430の別のAIシステムは、植物学に適している。コーディネーションシステム420は、例えば、特定の木を指しているときに着用者によって提起された「その木の名前は」と言う質問に答えるよう、静的または動的に構成されている。空間認識AIを利用して、「その木はどれくらい遠くにありますか 」または「その木の高さは」といった質問が着用者により提起され、ARスマートグラス410を介して回答することができる。「動的に」とは、コーディネーションシステム420が、少なくとも1つのAIシステム430のうち、着用者によって提起された質問を理解して答えるのに必要な全てのAIシステムと即時に又は一定の通信を行なわず、少なくとも1つのAIシステム430のうち、質問に答えるのに適したAIシステムとの通信を開始する知識と能力を有することとして、定義することができる。そして、質問への回答が完了すると、少なくとも1つのAIシステム430の特定のAIシステムと通信する必要がなくなる。次に、コーディネーションシステム420は、少なくとも1つのAIシステム430の特定のAIシステムとの通信を停止ことができる。 Another AI system of the at least one AI system 430, or a combination of one or more AI systems of the at least one AI system 430, can include image processing, spatial recognition, and object recognition. Still other AI systems of the at least one AI system 430 are suitable for recognizing hand gestures of the wearer and/or other people. Another AI system of at least one AI system 430 is suitable for speech recognition. Still another AI system of the at least one AI system 430 is suitable for translation. Another AI system of at least one AI system 430 is suitable for botany. Coordination system 420 may be statically or dynamically configured, for example, to answer the question "What is the name of that tree" posed by the wearer while pointing at a particular tree. Using spatially aware AI, questions such as 'how far is that tree?' or 'how tall is that tree?' “Dynamically” means that the coordination system 420 is in immediate or constant communication with at least one AI system 430, all of which are necessary to understand and answer questions posed by the wearer. It can be defined as having the knowledge and ability to initiate communication with at least one AI system 430 that is suitable for answering a question. And once the question has been answered, there is no need to communicate with the particular AI system of the at least one AI system 430 . Coordination system 420 can then stop at least one AI system 430 from communicating with a particular AI system.

少なくとも1つのAIシステム430の手ジェスチャーAIシステムを利用して、手話ジェスチャー(例えば、アメリカの手話)を認識することもできる。手ジェスチャーAIシステムを利用して、コーディネーションシステム420へのコマンドまたはARスマートグラス410の他の構成要素、例えば、タッチパッド72へのコマンドを認識することができる。 A hand gesture AI system of at least one AI system 430 can also be utilized to recognize sign language gestures (eg, American Sign Language). A hand gesture AI system can be utilized to recognize commands to the coordination system 420 or other components of the AR smart glasses 410 , such as the touchpad 72 .

少なくとも1つのAIシステム430のうちのAIシステムの1つは、着用者がいる環境を知る空間認識AIとすることができる。空間認識AIは、着用者のGPS位置を取得するためのGPS位置デバイスを含むことができる。ARスマートグラス410のブルートゥースセンサーは、着用者の身近な環境におけるBluetoothビーコンを特定するために使用することができる。Bluetoothビーコンは、識別情報を送信するハードウェア送信機を含む。したがって、たとえば、企業は、企業を識別するためにBluetoothビーコンを設置することができる。ARスマートグラス410の着用者がBluetoothビーコンの範囲に入ると、コーディネーションシステム420は、Bluetoothビーコンに警告を受け、少なくとも1つのAIシステム430の他のAIシステムへのコマンドを開始して、追加の情報とフォーマットを取得し、フォーマットされた情報を着用者に提示することができる。例えば、コーディネーションシステム420は、特定のBluetoothビーコンに関連する企業についてのさらなる情報について、IoT、他のネットワーク、及び/又はデータベースに問い合わせることができる。コーディネーションシステム420はさらに、個人嗜好AIシステムに問い合わせて、着用者が企業に興味があるかどうかを判断することができる。着用者が興味を持ちそうな場合、コーディネーションシステム420は、空間認識AIに企業までの距離および方向を問い合わせることができる。次に、コーディネーションシステム420は、着用者に、企業が着用者の現在の場所にどれだけ近いか、企業にどのようにして到達するか、及び/又は企業によって提供されるアイテムの短いリスト(例えば、視覚または音声による)を、警告する。さらに、コーディネーションシステム420は、インターネットにさらに問い合わせて、企業の営業時間および可能性のある特別販売情報を決定することができる。 One of the AI systems in the at least one AI system 430 can be a spatially aware AI that knows the environment in which the wearer is. A spatially aware AI can include a GPS location device to obtain the wearer's GPS location. The Bluetooth sensor in the AR smart glasses 410 can be used to identify Bluetooth beacons in the wearer's immediate environment. A Bluetooth beacon contains a hardware transmitter that transmits identification information. So, for example, a company can install Bluetooth beacons to identify the company. When the wearer of the AR smart glasses 410 comes within range of the Bluetooth beacon, the coordination system 420 is alerted to the Bluetooth beacon and initiates commands to at least one AI system 430 to other AI systems to obtain additional information. and format, and present the formatted information to the wearer. For example, coordination system 420 can query IoT, other networks, and/or databases for additional information about companies associated with a particular Bluetooth beacon. Coordination system 420 can also query a personal preference AI system to determine if the wearer is interested in the company. If the wearer is likely to be interested, the coordination system 420 can query the spatially aware AI for the distance and direction to the enterprise. Coordination system 420 then tells the wearer how close the business is to the wearer's current location, how to reach the business, and/or a short list of items offered by the business (e.g. , visual or audible) to warn. In addition, the coordination system 420 can also query the Internet to determine business hours and possible special sales information.

少なくとも1つのAIシステム430のうちの位置認識AIは、気象条件、予想される気象条件、及び/又は警報(例えば、竜巻警報)を着用者に提供することができる。さらに、位置認識AIは、ソーシャルメディアや電子メールを介して交流している知人、及び/又は直接会っている知人が近くにいると判断し、知人が着用者に近いことを着用者に警告することもできる。次に、着用者は、面会を要求することにより、知人と連絡を取るようにコーディネーションシステム420に指示することができる。さらに、コーディネーションシステム420は、知人に指示を与えることができる。あるいは、着用者は、知人に関するさらなる情報を遮断するようにコーディネーションシステム420に命令することができる。 The location-aware AI of at least one AI system 430 can provide weather conditions, forecast weather conditions, and/or warnings (eg, tornado warnings) to the wearer. In addition, location-aware AI determines that acquaintances interacting via social media, email, and/or in person are nearby and alerts the wearer that acquaintances are close to the wearer. can also The wearer can then direct the coordination system 420 to contact the acquaintance by requesting a visitation. Additionally, the coordination system 420 can provide direction to acquaintances. Alternatively, the wearer can instruct the coordination system 420 to block further information about the acquaintance.

コーディネーションシステム420は、要求された情報が、以前に別の人によって取得されておりインターネットまたは他の何らかのアクセス可能なネットワークにおいて利用可能であると判断することができる。そのような場合、コーディネーションシステム420は必要な情報を算定するために少なくとも1つのAIシステム430との通信を開始するのではなく、利用可能な情報を用いることを選択できる。 Coordination system 420 may determine that the requested information has been previously obtained by another person and is available on the Internet or some other accessible network. In such cases, coordination system 420 may choose to use available information rather than initiate communication with at least one AI system 430 to calculate the necessary information.

コーディネーションシステム420は、着用者の直接の環境のマッピングを開始することができ、そのような環境情報を他の利用者が利用できるようにしてもよい。このようにして着用者は、着用者が移動した特定の環境の最新データを、同様のARディスプレイシステムの他の着用者及び/又は他のAIシステムに、提供することができる。 Coordination system 420 can initiate mapping of the wearer's immediate environment and may make such environmental information available to other users. In this way, the wearer can provide up-to-date data of the particular environment in which the wearer has moved to other wearers of similar AR display systems and/or other AI systems.

少なくとも1つのAIシステム430の行動AIシステムは、着用者が着用者自身の行動を修正するのを支援することもできる。たとえば、行動AIシステムは、着用者が1日のうちにどれだけの運動を行うかを監視し、健康AIの推奨に従って着用者のために追加の運動を計画することができる。さらに、行動AIシステムは、少なくとも1つのAIシステム430の食事/栄養AIシステムと結合して、着用者がすでに食べた以前の食事に基づき食事を推奨することができる。行動AIシステムは、着用者に代替を提案することにより、「喫煙」などの「悪い」習慣の修正において着用者を支援することができる。 The behavioral AI system of at least one AI system 430 can also assist the wearer in modifying his or her own behavior. For example, a behavioral AI system can monitor how much exercise a wearer does in a day and plan additional exercises for the wearer according to health AI recommendations. Additionally, the behavioral AI system can be coupled with the diet/nutrition AI system of at least one AI system 430 to recommend meals based on previous meals the wearer has already eaten. Behavioral AI systems can assist the wearer in modifying "bad" habits such as "smoking" by suggesting alternatives to the wearer.

少なくとも1つのAIシステム430の空間認識AIシステムは、着用者の環境における危険、例えば着用者が通りを横断する時に近づいてくる車を、識別し着用者に通知するのを支援することができる。さらに、コーディネーションシステム420は、ARスマートグラス410のセンサー及び/又はカメラアセンブリ12からのデータをコーディネートすることができる。着用者の環境における化学的危険、環境中の危険な物(たとえば、野放しの動物、有毒なヘビやクモなど)、地面の穴、および環境の廃棄物を含む危険について着用者の環境を監視するために、コーディネーションシステム420はさらに、ARスマートグラス410からのデータを、少なくとも1つのAIシステム430にデータを渡すことにより、着用者の環境における他のセンサーとコーディネートすることができる。 The spatially aware AI system of at least one AI system 430 can help identify and notify the wearer of hazards in the wearer's environment, such as oncoming vehicles as the wearer crosses a street. Additionally, coordination system 420 may coordinate data from sensors and/or camera assemblies 12 of AR smart glasses 410 . Monitors the wearer's environment for hazards including chemical hazards, environmental hazards (e.g., wild animals, poisonous snakes and spiders, etc.), holes in the ground, and environmental waste To that end, the coordination system 420 can further coordinate data from the AR smart glasses 410 with other sensors in the wearer's environment by passing the data to at least one AI system 430 .

現在の好ましい実施形態を特に参照して本発明を詳細に説明してきたが、本発明の精神および範囲内で変更および修正を行うことができることが理解されよう。したがって、現在開示されている実施形態は、すべての点で例示的であり、限定的ではないと見なされる。本発明の範囲は、添付の特許請求の範囲によって示され、その均等物の意味および範囲内にあるすべての変更は、その中に含まれることが意図されている。 Although the invention has been described in detail with particular reference to presently preferred embodiments, it will be understood that variations and modifications can be effected within the spirit and scope of the invention. Accordingly, the presently disclosed embodiments are considered in all respects to be illustrative and not restrictive. The scope of the invention is indicated by the appended claims, and all changes that come within the meaning and range of equivalents thereof are intended to be embraced therein.

明確にするため別個の実施形態で説明されている本発明の特徴は、単一の実施形態に組み合わせて提供することもできることは理解できるであろう。逆に、簡潔にするために単一の実施形態で説明されている本発明の様々な特徴は、別々にまたは任意の適切な組み合わせで提供することもできる。
It will be appreciated that features of the invention, which are for clarity described in separate embodiments, may also be provided in combination in a single embodiment. Conversely, various features of the invention, which are, for brevity, described in a single embodiment, may also be provided separately or in any appropriate combination.

Claims (21)

着用者にバーチャル像を表示するための個人用ディスプレイ装置であって、
右側テンプル部、左側テンプル部、右後部、左後部、右目シースルー部、および左目シースルー部を有するフレームと、
前記フレームに連結され、画像担持光ビームを投射するように動作可能な投射ディスプレイデバイスと、
前記フレームに連結された少なくとも1つの導波路スタックモジュールと、
を備え、
前記少なくとも1つの導波路スタックモジュールは、その長さに沿って画像担持光ビー
ムを伝送するように動作可能であり、前記投射ディスプレイデバイスからの前記画像担持光ビームを受け取るように構成され、インカップリング回折光学素子とアウトカップリング回折光学素子を含み、
前記インカップリング光学素子は、前記少なくとも1つの導波路スタックモジュールに
沿って形成されており、前記投射ディスプレイデバイスからの画像担持光ビームの少なくとも一部を角度的にエンコードされた形態で、前記少なくとも1つの導波路スタックモジ
ュール内へと回折するように作動可能であり、
前記アウトカップリング回折光学素子は、前記インカップリング回折光学素子から前記少なくとも1つの導波路スタックモジュールの長さに沿って離間しており、前記投射ディスプレイデバイスからの前記画像担持光ビームを見るために、前記少なくとも1つの導波路スタックモジュールからの前記画像担持光ビームの少なくとも一部を、角度的にデコードされた形態で回折するように動作可能であり、
さらに、前記投射ディスプレイデバイスに接続されたプロセッサと、前記フレームに直接固定されるとともに前記プロセッサに接続されたタッチパッドと、前記プロセッサに接続された少なくとも1つのマイクとを備え、
前記プロセッサは画像を前記投射ディスプレイデバイスに提供するように構成され、
前記タッチパッドは、着用者のタッチ動作を感知し、入力タッチパッド信号を前記プロセッサに提供するように構成され、前記入力タッチパッド信号は個人用ディスプレイ装置の少なくとも1つの状態を変化させるように動作可能であり、前記タッチパッドによる着用者の動作の感知は、着用者のタッチ動作の方向の感知を含み、
少なくとも1つのマイクは、着用者からコマンドを受信し、さらに入力マイク信号を前記プロセッサに提供するように構成され、前記入力マイク信号は、個人用ディスプレイ装置の少なくとも1つの状態を変化させるように動作可能であり、
前記少なくとも1つの導波路スタックモジュールが導波路ハウジングを含み、前記導波路ハウジングが、前記導波路ハウジングと個人用ディスプレイ装置の前記フレームとを位置合わせするように動作可能な導波路・フレームアライナを含み、
前記投射ディスプレイデバイスがプロジェクタ・フレームアライナを含み、前記プロジェクタ・フレームアライナが、前記投射ディスプレイデバイスと個人用ディスプレイ装置の前記フレームとを位置合わせし、
個人用ディスプレイ装置の前記フレームは、前記導波路・フレームアライナと前記プロジェクタ・フレームアライナを個人用ディスプレイ装置の前記フレームに位置合わせするためのプロジェクタ・導波路・フレームアライナを含み、前記導波路・フレームアライナと前記プロジェクタ・フレームアライナが、前記プロジェクタ・導波路・フレームアライナに当接する、個人用ディスプレイ装置。
A personal display device for displaying a virtual image to a wearer, comprising:
a frame having a right temple portion, a left temple portion, a right rear portion, a left rear portion, a right eye see-through portion, and a left eye see-through portion;
a projection display device coupled to the frame and operable to project an image-bearing light beam;
at least one waveguide stack module coupled to the frame;
with
The at least one waveguide stack module is operable to transmit an image-bearing light beam along its length and is configured to receive the image-bearing light beam from the projection display device; including a ring diffractive optical element and an out-coupling diffractive optical element;
The in-coupling optical element is formed along the at least one waveguide stack module to convert at least a portion of an image-bearing light beam from the projection display device into angularly encoded form in the at least operable to diffract into one waveguide stack module;
The out-coupling diffractive optical element is spaced from the in-coupling diffractive optical element along the length of the at least one waveguide stack module for viewing the image-bearing light beam from the projection display device. and operable to diffract at least a portion of the image-bearing light beam from the at least one waveguide stack module into an angularly decoded form;
a processor connected to the projection display device, a touchpad directly fixed to the frame and connected to the processor, and at least one microphone connected to the processor;
the processor is configured to provide an image to the projection display device;
The touchpad is configured to sense a wearer's touch motion and provide an input touchpad signal to the processor, the input touchpad signal operating to change at least one state of the personal display device. A possibility, wherein sensing a wearer's motion with the touchpad includes sensing a direction of the wearer's touch motion;
The at least one microphone is configured to receive commands from the wearer and to provide an input microphone signal to the processor, the input microphone signal operating to change at least one state of the personal display device. is possible and
The at least one waveguide stack module includes a waveguide housing, the waveguide housing including a waveguide and frame aligner operable to align the waveguide housing and the frame of the personal display device. ,
said projection display device including a projector frame aligner, said projector frame aligner aligning said projection display device and said frame of a personal display device;
The frame of the personal display device includes a waveguide-frame aligner and a projector-waveguide-frame aligner for aligning the projector-frame aligner with the frame of the personal display device, the waveguide-frame. A personal display device , wherein an aligner and said projector-frame aligner abut said projector-waveguide-frame aligner .
前記プロセッサに接続されたバイブレータをさらに備え、前記バイブレータは、前記プロセッサから入力バイブレータ信号を受信して、着用者に触覚フィードバックを提供するように構成されている、請求項1に記載の個人用ディスプレイ装置。 2. The personal display of claim 1, further comprising a vibrator connected to said processor, said vibrator configured to receive an input vibrator signal from said processor and provide tactile feedback to a wearer. Device. 前記インカップリング回折光学素子と前記アウトカップリング回折光学素子は、前面および背面を有し、前記インカップリング回折光学素子の前面は、前記インカップリング回折光学素子の背面と平行であり、前記アウトカップリング回折光学素子の前面は、前記アウトカップリング回折光学素子の背面と平行である、請求項1に記載の個人用ディスプレイ装置。 The in-coupling diffractive optical element and the out-coupling diffractive optical element have a front surface and a back surface, the front surface of the in-coupling diffractive optical element is parallel to the back surface of the in-coupling diffractive optical element, and the 2. The personal display device of Claim 1, wherein a front surface of an outcoupling diffractive optical element is parallel to a back surface of said outcoupling diffractive optical element. 前記右目シースルー部と前記左目シースルー部との間で前記フレームに取り外し可能に取り付けられた鼻梁アセンブリをさらに備える、請求項1に記載の個人用ディスプレイ装置。 2. The personal display device of Claim 1, further comprising a nose bridge assembly removably attached to said frame between said right eye see-through portion and said left eye see-through portion. 周囲光の変化を検出するために前記フレームに配置され前記プロセッサに接続された周囲光センサーをさらに備える、請求項1に記載の個人用ディスプレイ装置。 2. The personal display device of claim 1, further comprising an ambient light sensor located on said frame and connected to said processor for detecting changes in ambient light. 前記周囲光センサーが前記プロセッサに信号を提供するように構成されている、請求項5に記載の個人用ディスプレイ装置。 6. The personal display device of claim 5, wherein said ambient light sensor is configured to provide a signal to said processor. 前記プロセッサは、前記周囲光センサーによって提供される信号に基づいて、前記投射ディスプレイデバイスによって伝送される画像を変更するように構成されている、請求項6に記載の個人用ディスプレイ装置。 7. The personal display apparatus of Claim 6, wherein the processor is configured to modify images transmitted by the projection display device based on signals provided by the ambient light sensor. 前記導波路スタックモジュールが黒化材料を含み、前記黒化材料は、前記インカップリング回折光学素子を通過する前記投射ディスプレイデバイスからの過剰な光の少なくとも一部を吸収するように動作可能である、請求項1に記載の個人用ディスプレイデバイス。 The waveguide stack module includes a blackening material operable to absorb at least a portion of excess light from the projection display device that passes through the incoupling diffractive optical element. , the personal display device of claim 1. 前記黒化材料は、コモト、カーボンフェザー、アクタール、および黒色塗料のうちの少なくとも1つから作られる、請求項に記載の個人用ディスプレイ装置。 9. The personal display device of claim 8 , wherein the blackened material is made from at least one of como, carbon feather, actar, and black paint. 前記導波路スタックモジュールは、前記インカップリング回折光学素子と前記アウトカップリング回折光学素子を前記導波路ハウジング内に封止するように動作可能な外カバーと内カバーをさらに含む、請求項に記載の個人用ディスプレイ装置。 2. The waveguide stack module of claim 1 , further comprising an outer cover and an inner cover operable to seal the in-coupling diffractive optical element and the out-coupling diffractive optical element within the waveguide housing. Personal display device as described. 前記外カバーは、前記外カバーの略周縁に配置されたシールを含み、前記シールが前記外カバーを前記導波路ハウジングに封止し、
前記内カバーは、前記内カバーを前記導波路ハウジングに封止するガスケットを含む、請求項10に記載の個人用ディスプレイ装置。
the outer cover includes a seal disposed about a periphery of the outer cover, the seal sealing the outer cover to the waveguide housing;
11. The personal display device of claim 10 , wherein said inner cover includes a gasket sealing said inner cover to said waveguide housing.
前記投射ディスプレイデバイスは、プロジェクタ、プロジェクタ取付フレーム、およびディスプレイ接続モジュールを含む、請求項1に記載の個人用ディスプレイ装置。 The personal display apparatus of Claim 1, wherein said projection display device comprises a projector, a projector mounting frame, and a display connection module. 前記プロジェクタ取付フレームは、アライメントピンと前記プロジェクタ・フレームアライナとを含み、前記プロジェクタ・フレームアライナは、前記プロジェクタ取付フレームと個人用ディスプレイ装置の前記フレームとを位置合わせするように動作可能であり、前記プロジェクタは、前記アライメントピンを受け入れるように構成されたアラインメント穴を含む、請求項12に記載の個人用ディスプレイ装置。 The projector mounting frame includes alignment pins and the projector frame aligner, the projector frame aligner operable to align the projector mounting frame and the frame of the personal display device , and the projector 13. The personal display device of claim 12 , wherein includes alignment holes configured to receive said alignment pins. 前記プロジェクタ・導波路・フレームアライナが、前記投射ディスプレイデバイスと前記少なくとも1つの導波路スタックモジュールのための基準面を備えている、請求項1に記載の個人用ディスプレイ装置。 2. The personal display apparatus of claim 1, wherein the projector-waveguide-frame aligner comprises a reference plane for the projection display device and the at least one waveguide stack module. 前記フレームの前記左側テンプル部と前記左後部との間に配置された左側ヒンジシステムと、前記フレームの右側テンプル部と前記右後部の間に配置された右側ヒンジシステムとをさらに備えた、請求項1に記載の個人用ディスプレイ装置。 4. The claim further comprising a left hinge system positioned between the left temple portion and the left rear portion of the frame, and a right hinge system positioned between the right temple portion of the frame and the right rear portion. 2. The personal display device according to claim 1. 前記左側ヒンジシステムと前記右側ヒンジシステムは、可撓性ケーブル、ヒンジ、ヒンジハウジング、およびヒンジピンを含む、請求項15に記載の個人用ディスプレイ装置。 16. The personal display device of claim 15 , wherein the left hinge system and the right hinge system comprise flexible cables, hinges, hinge housings and hinge pins. 前記ヒンジは、第1ハーフヒンジと第2ハーフヒンジを含み、前記第1ハーフヒンジと前記第2ハーフヒンジは、前記ヒンジピンによって回動可能に接続されるように構成れ、前記第1ハーフヒンジはタブを有し、前記第2ハーフヒンジはタブ受部を有し、これにより、前記第2ハーフヒンジが前記第1ハーフヒンジに対して回動したときに、前記可撓性ケーブルが隠される、請求項16に記載の個人用ディスプレイ装置。 The hinge includes a first half hinge and a second half hinge, the first half hinge and the second half hinge are configured to be rotatably connected by the hinge pin, and the first half hinge has a tab and the second half-hinge has a tab-receiving portion that conceals the flexible cable when the second half-hinge is pivoted relative to the first half-hinge. 17. The personal display device of claim 16. 前記可撓性ケーブルが前記ヒンジピンの周りで曲がるように構成され、前記可撓性ケーブルが少なくとも、前記フレームの前記左後部または前記右後部に配置されたバッテリと、前記左側テンプル部または前記右側テンプル部に配置された回路基板を接続する、請求項16に記載の個人用ディスプレイ装置。 a battery, wherein the flexible cable is configured to bend about the hinge pin, the flexible cable being positioned at least at the left rear portion or the right rear portion of the frame; and the left temple portion or the right temple. 17. The personal display device of claim 16 , connecting a circuit board located in the unit. 前記インカップリング回折光学素子と前記アウトカップリング回折光学素子との間に配置された少なくとも1つの回転回折格子をさらに備えた、請求項1に記載の個人用ディスプレイ装置。 2. The personal display device of Claim 1, further comprising at least one rotating diffraction grating positioned between said in-coupling diffractive optical element and said out-coupling diffractive optical element. 前記ディスプレイ接続モジュールがプリズムアセンブリである、請求項12に記載の個人用ディスプレイ装置。 13. The personal display device of claim 12 , wherein said display connection module is a prism assembly. 前記フレームの右後部に固定された第1バッテリーと、前記フレームの左後部に固定さ
れた第2バッテリーとをさらに備えた、請求項1に記載の個人用ディスプレイ装置。
The personal display device of claim 1, further comprising a first battery fixed to the right rear portion of the frame and a second battery fixed to the left rear portion of the frame.
JP2020531465A 2017-12-20 2018-12-18 Augmented reality display system Active JP7171727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022156455A JP7526239B2 (en) 2017-12-20 2022-09-29 Augmented Reality Display System

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762608222P 2017-12-20 2017-12-20
US62/608,222 2017-12-20
US201862626356P 2018-02-05 2018-02-05
US62/626,356 2018-02-05
PCT/US2018/066240 WO2019126175A1 (en) 2017-12-20 2018-12-18 Augmented reality display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022156455A Division JP7526239B2 (en) 2017-12-20 2022-09-29 Augmented Reality Display System

Publications (2)

Publication Number Publication Date
JP2021507277A JP2021507277A (en) 2021-02-22
JP7171727B2 true JP7171727B2 (en) 2022-11-15

Family

ID=66993860

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020531465A Active JP7171727B2 (en) 2017-12-20 2018-12-18 Augmented reality display system
JP2022156455A Active JP7526239B2 (en) 2017-12-20 2022-09-29 Augmented Reality Display System

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022156455A Active JP7526239B2 (en) 2017-12-20 2022-09-29 Augmented Reality Display System

Country Status (5)

Country Link
US (2) US11921289B2 (en)
EP (1) EP3701316A4 (en)
JP (2) JP7171727B2 (en)
CN (1) CN111512211B (en)
WO (1) WO2019126175A1 (en)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111742254B (en) * 2018-02-09 2022-09-02 伊奎蒂公司 Image light guide with circular polarizer
TWI761685B (en) * 2019-06-24 2022-04-21 緯創資通股份有限公司 Wearable disply device
USD1019747S1 (en) * 2019-09-09 2024-03-26 Amazon Technologies, Inc. Wearable device
CN210626813U (en) * 2019-11-22 2020-05-26 中科海微(北京)科技有限公司 Sitting posture correcting glasses
WO2021138607A1 (en) * 2020-01-03 2021-07-08 Digilens Inc. Modular waveguide displays and related applications
CN211263977U (en) * 2020-01-10 2020-08-14 芋头科技(杭州)有限公司 Mirror leg structure of buckling and including its intelligent glasses
US11543679B2 (en) 2020-02-18 2023-01-03 Snap Inc. Hyperextending hinge having cosmetic trim for eyewear
JP7526802B2 (en) 2020-02-18 2024-08-01 マジック リープ, インコーポレイテッド MULTI-DOF HINGE SYSTEM AND EYEWEAR DEVICE COMPRISING SUCH HINGE SYSTEM - Patent application
US11880093B2 (en) 2020-02-18 2024-01-23 Snap Inc. Hyperextending hinge for wearable electronic device
US11378817B2 (en) * 2020-02-18 2022-07-05 Snap Inc. Hyperextending hinge having FPC service loops for eyewear
US11604367B2 (en) * 2020-04-08 2023-03-14 Facense Ltd. Smartglasses with bendable temples
US12007810B2 (en) * 2020-04-23 2024-06-11 Apple Inc. Electronic devices with antennas and optical components
US11202043B1 (en) * 2020-08-25 2021-12-14 Facebook Technologies, Llc Self-testing display device
CN115826245A (en) * 2020-08-26 2023-03-21 宁波舜宇光电信息有限公司 Augmented reality device
USD1019748S1 (en) * 2020-09-01 2024-03-26 Vuzix Corporation Smart glasses
CN112198663B (en) * 2020-09-21 2023-09-01 Oppo广东移动通信有限公司 Lens assembly, manufacturing method and intelligent glasses
CN112415751B (en) * 2020-11-30 2023-06-13 歌尔科技有限公司 VR equipment shell and manufacturing method thereof, and VR equipment
CN112558328A (en) * 2020-12-23 2021-03-26 桂林医学院 Health detection intelligent glasses
CN117043709A (en) * 2021-02-08 2023-11-10 视域电脑有限公司 Augmented reality for productivity
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
WO2022170222A1 (en) * 2021-02-08 2022-08-11 Multinarity Ltd Content sharing in extended reality
JP2024507749A (en) 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド Content sharing in extended reality
KR20230144042A (en) 2021-02-08 2023-10-13 사이트풀 컴퓨터스 리미티드 Extended Reality for Productivity
US11532873B2 (en) * 2021-03-15 2022-12-20 Meta Platforms Technologies, Llc Wearable device antenna shields and related systems and methods
CN113176669B (en) 2021-04-22 2022-07-22 歌尔股份有限公司 Display system, display glasses and display system control method
IT202100014759A1 (en) * 2021-06-07 2022-12-07 Matteo Sozzi METHOD AND SYSTEM FOR OPTIMIZING THE EFFICIENCY OF A FOOD PRODUCT DISTRIBUTION SERVICE
IT202100014753A1 (en) * 2021-06-07 2022-12-07 Matteo Sozzi METHOD AND SYSTEM FOR ASSISTING THE DISTRIBUTION OF FOOD PRODUCTS
KR20220166107A (en) * 2021-06-09 2022-12-16 삼성전자주식회사 Electronic device including heat radiating structure
GB2608186A (en) * 2021-06-25 2022-12-28 Thermoteknix Systems Ltd Augmented reality system
US11940627B2 (en) * 2021-07-09 2024-03-26 Realwear, Inc. Opaque waveguide optical engine assembly for head-mounted device
US11852822B2 (en) 2021-07-09 2023-12-26 Realwear, Inc. Convertible waveguide optical engine assembly for head-mounted device
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
EP4336245A4 (en) * 2021-09-29 2024-08-28 Samsung Electronics Co Ltd Wearable electronic device comprising sealing structure
TW202326232A (en) * 2021-11-17 2023-07-01 美商元平台技術有限公司 Frame bending compensation in smart glasses for immersive reality applications
CN114280789B (en) * 2021-12-29 2024-02-27 Oppo广东移动通信有限公司 Near-eye display optical system and near-eye display optical apparatus
US11829312B2 (en) * 2021-12-31 2023-11-28 Snap Inc. Debug access of eyewear having multiple socs
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US11758319B2 (en) * 2022-02-04 2023-09-12 Meta Platforms Technologies, Llc Microphone port architecture for mitigating wind noise
US12032171B1 (en) 2022-02-04 2024-07-09 Meta Platforms Technologies, Llc Thermal hinge system
TW202339602A (en) * 2022-02-04 2023-10-01 美商元平台技術有限公司 Thermal hinge system
USD1028069S1 (en) * 2022-02-15 2024-05-21 Christian Dior Couture Spectacles
WO2024015266A1 (en) * 2022-07-11 2024-01-18 Meta Platforms Technologies, Llc Optical assemblies, head-mounted displays, and related methods
TWI840005B (en) * 2022-08-10 2024-04-21 宏達國際電子股份有限公司 Head mounted display device
US20240077729A1 (en) * 2022-09-06 2024-03-07 Meta Platforms Technologies, Llc Apparatuses, systems, and methods for aligning display projector assemblies included in head-mounted displays
US12099696B2 (en) 2022-09-30 2024-09-24 Sightful Computers Ltd Displaying virtual content on moving vehicles
USD1020856S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020849S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020858S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020852S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc Smartglasses
USD1020857S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020850S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1019750S1 (en) * 2023-02-09 2024-03-26 Innovative Eyewear, Inc. Smartglasses
USD1020855S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020863S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1019746S1 (en) * 2023-02-09 2024-03-26 Innovative Eyewear, Inc. Smartglasses
USD1020854S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1024177S1 (en) * 2023-02-09 2024-04-23 Innovative Eyewear, Inc. Smartglasses
USD1020851S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020853S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1023123S1 (en) * 2023-02-13 2024-04-16 Innovative Eyewear, Inc. Smartglasses temples

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065310A (en) 2007-09-05 2009-03-26 Konica Minolta Holdings Inc Image display unit and face piece unit
JP2014224847A (en) 2013-05-15 2014-12-04 セイコーエプソン株式会社 Virtual image display device
JP2015125222A (en) 2013-12-26 2015-07-06 セイコーエプソン株式会社 Virtual image display device
JP2015184560A (en) 2014-03-25 2015-10-22 ソニー株式会社 Light guide device, image display device, and display device
WO2015170555A1 (en) 2014-05-09 2015-11-12 アルプス電気株式会社 Glasses-type electronic device
US20160077338A1 (en) 2014-09-16 2016-03-17 Steven John Robbins Compact Projection Light Engine For A Diffractive Waveguide Display
JP2016126188A (en) 2015-01-05 2016-07-11 コニカミノルタ株式会社 Voice information display device
US20170017083A1 (en) 2015-03-16 2017-01-19 Magic Leap, Inc. Methods and systems for providing augmented reality content for treating color blindness
JP2017120302A (en) 2015-12-28 2017-07-06 セイコーエプソン株式会社 Display device, display system, control method of display device, and program
JP2017120384A (en) 2015-12-25 2017-07-06 セイコーエプソン株式会社 Virtual image display device
WO2017120341A1 (en) 2016-01-06 2017-07-13 Vuzix Corporation Double-sided imaging light guide

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790230A (en) * 1996-02-16 1998-08-04 Sved; Robert Combination eyeglass assembly of sport or safety glasses with detachable prescription lenses
JP3908342B2 (en) * 1997-08-13 2007-04-25 株式会社タバタ Underwater glasses
TWI249271B (en) * 2004-08-27 2006-02-11 Adv Flexible Circuits Co Ltd Signal transmission cable assembly suitable for passing through revolving shaft mechanism
WO2007141588A1 (en) 2006-06-02 2007-12-13 Nokia Corporation Split exit pupil expander
US8605008B1 (en) * 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
US20100045928A1 (en) * 2008-08-25 2010-02-25 Tri-Specs, Inc. Fashion eyewear frame that houses circuitry to effect wireless audio communication while providing extraneous background noise cancellation capability
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US7942521B2 (en) * 2009-03-16 2011-05-17 Brent Sheldon Glasses with reflective frames
KR101698229B1 (en) * 2009-12-22 2017-01-19 니폰샤신인사츠가부시키가이샤 Touch panel and portable device using same
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8164886B1 (en) * 2010-04-22 2012-04-24 Lockheed Martin Corporation Ruggedized display enclosure
KR20140066258A (en) * 2011-09-26 2014-05-30 마이크로소프트 코포레이션 Video display modification based on sensor input for a see-through near-to-eye display
US9442305B2 (en) * 2012-06-14 2016-09-13 Mitsui Chemicals, Inc. Electronic eyeglasses and methods of manufacturing
JP5887026B2 (en) 2012-09-03 2016-03-16 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH Head mounted system and method for computing and rendering a stream of digital images using the head mounted system
JP2016032485A (en) * 2012-12-27 2016-03-10 国立大学法人 東京医科歯科大学 Endoscopic surgery support system and image control method
US8873149B2 (en) 2013-01-28 2014-10-28 David D. Bohn Projection optical system for coupling image light to a near-eye display
KR102153599B1 (en) 2013-11-18 2020-09-08 삼성전자주식회사 Head mounted display apparatus and method for changing a light transmittance
DE102013223964B3 (en) 2013-11-22 2015-05-13 Carl Zeiss Ag Imaging optics and display device with such imaging optics
WO2015079610A1 (en) * 2013-11-26 2015-06-04 ソニー株式会社 Head-mounted display
US20160286203A1 (en) 2015-03-27 2016-09-29 Osterhout Group, Inc. See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9725939B2 (en) * 2014-03-28 2017-08-08 Hurco Companies, Inc. Rotatable hinge
CN106462743A (en) 2014-05-09 2017-02-22 谷歌公司 Systems and methods for using eye signals with secure mobile communications
WO2015196021A1 (en) * 2014-06-19 2015-12-23 M-I Drilling Fluids U.K. Ltd. Intrinsically safe safety goggles with data display, user input and data communication
US20160019423A1 (en) 2014-07-15 2016-01-21 Luis M. Ortiz Methods and systems for wearable computing device
US20160070343A1 (en) 2014-09-09 2016-03-10 Beijing Lenovo Software Ltd. Information processing method and electronic device
US9686338B1 (en) 2014-10-24 2017-06-20 Amazon Technologies, Inc. Streaming content adjustment based on camera feedback
US20160216792A1 (en) * 2015-01-26 2016-07-28 Seiko Epson Corporation Head mounted display, and control method and control program for head mounted display
CN107405213A (en) * 2015-01-27 2017-11-28 阿巴米纳博实验室有限责任公司 Suitable for the goggles for the replaceable lens for preventing from hazing
US9482883B1 (en) * 2015-04-15 2016-11-01 Snapchat, Inc. Eyewear having linkage assembly between a temple and a frame
JP2017120336A (en) 2015-12-28 2017-07-06 株式会社テレパシージャパン Head-mounted image display device
AU2017224004B2 (en) * 2016-02-24 2021-10-28 Magic Leap, Inc. Polarizing beam splitter with low light leakage
US10042187B2 (en) * 2016-02-29 2018-08-07 Snap Inc. Heat management for electronic devices
TWM528439U (en) * 2016-06-03 2016-09-11 You-Bang Wang Lens slot structure for eyeglasses side frame
US10168555B1 (en) 2016-06-30 2019-01-01 Google Llc Wiring in a head-mountable device
WO2018175652A1 (en) * 2017-03-21 2018-09-27 Magic Leap, Inc. Methods, devices, and systems for illuminating spatial light modulators
JP2017146619A (en) 2017-05-01 2017-08-24 セイコーエプソン株式会社 Virtual image display device
US11095873B2 (en) * 2017-09-22 2021-08-17 Sony Interactive Entertainment Inc. Head-mounted display
KR102662955B1 (en) * 2017-12-21 2024-05-02 스냅 아이엔씨 wearable devices
JP2020071299A (en) * 2018-10-30 2020-05-07 セイコーエプソン株式会社 Head-mounted display device
US11150480B1 (en) * 2018-11-06 2021-10-19 Facebook Technologies, Llc Systems and methods for translation of optical components

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065310A (en) 2007-09-05 2009-03-26 Konica Minolta Holdings Inc Image display unit and face piece unit
JP2014224847A (en) 2013-05-15 2014-12-04 セイコーエプソン株式会社 Virtual image display device
JP2015125222A (en) 2013-12-26 2015-07-06 セイコーエプソン株式会社 Virtual image display device
JP2015184560A (en) 2014-03-25 2015-10-22 ソニー株式会社 Light guide device, image display device, and display device
WO2015170555A1 (en) 2014-05-09 2015-11-12 アルプス電気株式会社 Glasses-type electronic device
US20160077338A1 (en) 2014-09-16 2016-03-17 Steven John Robbins Compact Projection Light Engine For A Diffractive Waveguide Display
JP2016126188A (en) 2015-01-05 2016-07-11 コニカミノルタ株式会社 Voice information display device
US20170017083A1 (en) 2015-03-16 2017-01-19 Magic Leap, Inc. Methods and systems for providing augmented reality content for treating color blindness
JP2017120384A (en) 2015-12-25 2017-07-06 セイコーエプソン株式会社 Virtual image display device
JP2017120302A (en) 2015-12-28 2017-07-06 セイコーエプソン株式会社 Display device, display system, control method of display device, and program
WO2017120341A1 (en) 2016-01-06 2017-07-13 Vuzix Corporation Double-sided imaging light guide

Also Published As

Publication number Publication date
WO2019126175A1 (en) 2019-06-27
EP3701316A1 (en) 2020-09-02
US20210103146A1 (en) 2021-04-08
CN111512211A (en) 2020-08-07
EP3701316A4 (en) 2021-08-04
JP2021507277A (en) 2021-02-22
JP2022188158A (en) 2022-12-20
US11921289B2 (en) 2024-03-05
US20240369840A1 (en) 2024-11-07
CN111512211B (en) 2022-06-21
JP7526239B2 (en) 2024-07-31

Similar Documents

Publication Publication Date Title
JP7171727B2 (en) Augmented reality display system
US11654074B2 (en) Providing enhanced images for navigation
JP6632979B2 (en) Methods and systems for augmented reality
EP2981058B1 (en) Head mounted display device for displaying image and method thereof
JP2020523628A (en) Detachable augmented reality system for eyewear
US11275250B2 (en) Optical alignment for head-mountable device
KR102321362B1 (en) Method for displayin image by head mounted display device and head maounted display device thereof
CN103999445A (en) Head-mounted display
CN112285928B (en) Head-mounted device
KR20220100143A (en) Wearable electoronic device and input structure using motion sensor in the same
KR20220068431A (en) Augmented reality wearable electronic device
CN113302548B (en) Optical system with authentication and privacy capabilities
US20240242442A1 (en) Supplementing user perception and experience with augmented reality (ar), artificial intelligence (ai), and machine-learning (ml) techniques utilizing an artificial intelligence (ai) agent
US20240012246A1 (en) Methods, Apparatuses And Computer Program Products For Providing An Eye Tracking System Based On Flexible Around The Lens Or Frame Illumination Sources
KR20240153873A (en) An augmented reality device and method for preventing clare or augmented reality service image
KR20240097656A (en) Wearable device for switching screen based on biometric data obtained from external electronic device and method thereof
KR20240097658A (en) Wearable device for displaying multimedia content provided by external electronic device and method thereof
KR20240090096A (en) A wearable device outputting sound for object of interest and method for controlling the same
CN115704969A (en) Intelligent glasses

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220627

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221102

R150 Certificate of patent or registration of utility model

Ref document number: 7171727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150