JP7314238B2 - 共有された音声対応デバイスにおける電話の処理 - Google Patents

共有された音声対応デバイスにおける電話の処理 Download PDF

Info

Publication number
JP7314238B2
JP7314238B2 JP2021179423A JP2021179423A JP7314238B2 JP 7314238 B2 JP7314238 B2 JP 7314238B2 JP 2021179423 A JP2021179423 A JP 2021179423A JP 2021179423 A JP2021179423 A JP 2021179423A JP 7314238 B2 JP7314238 B2 JP 7314238B2
Authority
JP
Japan
Prior art keywords
voice
call
utterance
user
enabled device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021179423A
Other languages
English (en)
Other versions
JP2022019745A (ja
Inventor
ヴィン・クォック・リ
ラウナック・シャー
オカン・コーラック
デニズ・ビネイ
ティエンユ・ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2022019745A publication Critical patent/JP2022019745A/ja
Priority to JP2023113934A priority Critical patent/JP2023138512A/ja
Application granted granted Critical
Publication of JP7314238B2 publication Critical patent/JP7314238B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42008Systems for anonymous communication between parties, e.g. by use of disposal contact identifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • H04L61/45Network directories; Name-to-address mapping
    • H04L61/4594Address books, i.e. directories containing contact information about correspondents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1096Supplementary features, e.g. call forwarding or call holding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42025Calling or Called party identification service
    • H04M3/42034Calling party identification service
    • H04M3/42059Making use of the calling party identifier
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephonic Communication Services (AREA)

Description

関連出願の相互参照
本出願は、2017年5月16日に出願した、「HANDLING PERSONAL TELEPHONE CALLS USING VOICE CONTROL」と題した米国特許仮出願第62/506,805号の利益を主張するものであり、この米国特許仮出願は、参照によりその全体が本明細書に組み込まれる。
概して、本明細書は、自然言語処理に関する。
音声対応デバイスは、ユーザからの発話に応答してアクションを実行する可能性がある。たとえば、ユーザが、「オーケー、コンピュータ。今日は雨が降る?」と言う可能性があり、音声対応デバイスが、「一日中晴れます」と聞こえるように応答する可能性がある。音声対応デバイスを使用することの恩恵は、音声対応デバイスとインタラクションすることが概してハンズフリーであり得ることである。たとえば、ユーザが質問をするとき、音声対応デバイスは、ユーザがユーザの手を使用していかなる物と物理的にインタラクションすることも必要とせずに、聞き取ることができる答えを提供する可能性がある。しかし、よくある音声対応デバイスは、サポートされるインタラクションの種類を限定される。
音声対応デバイスが、音声電話を掛けるために使用される可能性がある。たとえば、ジョン・ドゥが、音声対応デバイスに電話番号(555) 555-5555への電話を掛けさせるために「オーケー、コンピュータ。(555) 555-5555に電話を掛けて」と言う可能性がある。通常、アウトバウンドコール(outbound call)は、発信者を特定するために使用され得る発信者番号に関連付けられる。たとえば、ジョン・ドゥが自分の電話を使用して(555) 555-5555に電話を掛けるとき、電話を受ける電話は、電話がジョン・ドゥの電話に関連する電話番号から来ていることを示す可能性がある。
発信者番号を電話と関連付けることは、電話の受話者が電話に答えるべきかどうかを判断するために発信者番号を使用し、さらに、受話者が折り返し電話をはける必要がある場合に発信者番号を使用する可能性があるので有用である可能性がある。しかし、通常の電話とは異なり、一部の音声対応デバイスは、電話のための発信者番号として使用され得る電話番号に関連付けられない可能性がある。
電話を掛けるときに発信者番号を提供するために、音声対応デバイスは、発話者のパーソナルボイス番号(personal voice number)を発信者番号として使用しようと試みる可能性がある。パーソナルボイス番号は、ユーザに電話を掛けるために使用される番号である可能性がある。たとえば、ジョンが「オーケー、コンピュータ。(555) 555-5555に電話を掛けて」と言うとき、音声対応デバイスは、ジョン・ドゥの電話番号(555) 999-9999を発信者番号として使用する可能性がある。音声対応デバイスが発話者のパーソナルボイス番号を決定することができない場合、音声対応デバイスは、その代わりに、電話が折り返し電話を掛けるために使用され得るボイス番号(voice number)に関連付けられないように非通知で電話を掛ける可能性がある。たとえば、そのような電話は、「不明な番号(Unknown Number)」または「非公開番号(Private Number)」を発信者番号として示す可能性がある。
場合によっては、電話が緊急サービスへのものである場合、電話は、音声対応デバイスに折り返し電話を掛けるために受話者が使用することができる仮番号を使用して掛けられる可能性がある。たとえば、そのような電話は、音声対応デバイスに折り返し電話を掛けるためにその後2時間使用される可能性がある電話番号(555) 888-8888を示す可能性がある。
追加的にまたは代替的に、音声対応デバイスは、電話を掛けるべきボイス番号を決定するために発話者のアイデンティティ(identity)を使用する可能性がある。たとえば、ジョンが「オーケー、コンピュータ。父さんに電話を掛けて」と言うとき、音声対応デバイスは、ジョンを認識するかまたはそうでなければ認証し、それから、「父さん」に関する電話番号を決定するためにジョンの連絡先のレコードにアクセスする可能性がある。別の例において、ジェーンが「オーケー、コンピュータ。父さんに電話を掛けて」と言う場合、音声対応デバイスは、音声認識またはその他の認証技術によってジェーンをジョンと区別し、その後、「父さん」に関する電話番号を決定するためにジェーンの連絡先のレコードにアクセスする可能性がある。さらに別の例において、ゲストが「オーケー、コンピュータ。父さんに電話を掛けて」と言うとき、音声対応デバイスは、音声(またはその他の認証技術)によってゲストを認識せず、「父さん」に関する電話番号を決定するためにいかなるユーザの連絡先のレコードにもアクセスしない可能性がある。したがって、これらの3つの例に見られるように、「オーケー、コンピュータ。父さんに電話を掛けて」は、発話者のアイデンティティに基づいて異なる結果を有する可能性がある。
追加的にまたは代替的に、音声対応デバイスは、音声対応デバイスによって掛けられた音声電話中にユーザからの発話に応答する可能性がある。たとえば、電話中に、音声対応デバイスは、「オーケー、コンピュータ。電話を切って」、「オーケー、コンピュータ。スピーカーのボリュームを上げて」、「オーケー、コンピュータ。今日の天気はどう」というコマンドに応答する可能性がある。音声電話中の発話に応答して、音声対応デバイスは、受話者からの発話の少なくとも一部をブロックする可能性がある。たとえば、ユーザが「オーケー、コンピュータ。スピーカーのボリュームを上げて」と言うとき、音声対応デバイスは、スピーカーのボリュームを上げ、受話者が「オーケー、コンピュータ」のみを聞くように「スピーカーのボリュームを上げて」をブロックする可能性がある。別の例において、音声対応デバイスは、受話者に音声を提供する際にレイテンシーがある可能性があり、したがって、発話が「オーケー、コンピュータ」で始まるときに発話全体が受話者によって聞かれることをブロックする可能性がある。
したがって、一部の実装において、利点は、複数のユーザによって共有された音声対応デバイスが、ユーザが電話を掛けることを依然として可能にし、ユーザのモバイルコンピューティングデバイスのボイス番号である、受話者の電話上で発呼番号(calling number)に見える番号を有する可能性があることであり得る。概して人々は認識されない番号からの電話を取らない可能性があるので、これは、音声対応デバイスを使用して掛けられた電話が答えられる見込みを高める可能性がある。加えて、電話は、電話を掛けられている人がユーザに関連するボイス番号の使用に基づいて誰が掛けてきているのかを既に知っている可能性があるとき、より効率的である可能性がある。同時に、音声対応デバイスが発話者の語りに一致するボイス番号を使用するので、ユーザが音声対応デバイスのいかなるその他のユーザのボイス番号も使用しない可能性があるという点で、セキュリティが提供される可能性がある。
一部の実装における別の利点は、ユーザがボイス番号の数字を言う代わりに連絡先の名前を迅速に言うことができる可能性があるので、音声対応デバイス上の連絡先の使用を可能にすることが、ユーザが電話をより迅速に掛けることを可能にする可能性があることであり得る。音声対応デバイスは、複数のユーザの間で連絡先の曖昧さを取り除くこともできる可能性がある。たとえば、異なるユーザは、異なる電話番号に関連付けられている同じ名前「母さん」を有するそれぞれの連絡先のエントリを有する可能性がある。使用される連絡先が発話者の語りに一致する連絡先であることを音声対応デバイスが保証する可能性があるので、ユーザが音声対応デバイスのその他のユーザの連絡先を使用しない可能性があるという点で、セキュリティがやはり提供される可能性がある。
一部の実装におけるさらに別の利点は、音声電話中の問い合わせの処理を可能にすることが、電話に関してより優れたハンズフリー体験を可能にする可能性があることであり得る。たとえば、ユーザは、発信者が特定の番号の押下によって応答するように要求する自動音声応答機能(automated attendant)に応答して仮想的に数字を押すことができる可能性がある。問い合わせが処理されている間は両方向とも保留にし、問い合わせが解決されると両方向の保留を自動的に終了させるという点で、セキュリティがやはり提供される可能性がある。加えて、両方向の保留は、音声対応仮想アシスタントからの問い合わせに対する応答が相手からの音声によって不明瞭にされないことを保証する可能性がある。たとえば、両方向とも保留にしないと、相手が、音声対応仮想アシスタントからの応答が出力されるのと同時にしゃべる可能性がある。
一部の態様において、本明細書に記載の対象は、音声電話を要求する発話を受け取るアクションと、発話を特定の知られているユーザによって言われたものとして分類するアクションと、特定の知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定するアクションと、特定の知られているユーザがパーソナルボイス番号に関連付けられているとの判定に応じて、パーソナルボイス番号を用いて音声電話を開始するアクションとを含む可能性がある方法に具現化される可能性がある。
一部の実装において、発話を特定の知られているユーザによって言われたものとして分類するアクションは、発話の中の語りが特定の知られているユーザに対応する語りと一致するかどうかを判定することを含む。特定の実装において、発話を特定の知られているユーザによって言われたものとして分類するアクションは、発話者の少なくとも一部の視覚的画像が特定の知られているユーザに対応する視覚的情報と一致するかどうかを判定することを含む。一部の実装において、特定の知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定するアクションは、特定の知られているユーザのアカウント情報にアクセスすることと、ユーザのアカウント情報が特定の知られているユーザに関するボイス番号を記憶するかどうかを判定することとを含む。
特定の実装において、特定の知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定するアクションは、特定の知られているユーザの指示および発話の表現をサーバに提供することと、特定の知られているユーザのパーソナルボイス番号、電話を掛けるべきボイス番号、および音声電話を掛ける命令をサーバから受け取ることとを含む。一部の実装において、特定の知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定するアクションは、特定の知られているユーザのアカウントにアクセスすることと、ユーザのアカウントが電話を示すかどうかを判定することと、電話が音声対応デバイスに接続されていると判定することとを含む。
特定の実装において、パーソナルボイス番号を用いて音声電話を開始するアクションは、音声対応デバイスに接続された電話によって音声電話を開始することを含む。一部の実装においては、特定の知られているユーザがパーソナルボイス番号に関連付けられているとの判定に応じて、パーソナルボイス番号を用いて音声電話を開始するアクションは、ボイスオーバインターネットプロトコル電話プロバイダ(Voice over Internet Protocol call provider)を通じて音声電話を開始することを含む。
一部の態様において、本明細書に記載の対象は、音声電話を要求する発話を受け取るアクションと、発話を特定の知られているユーザによって言われたものとして分類するアクションと、発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザに関する連絡先に基づいて電話を掛けるべき受話者のボイス番号を決定するアクションと、受話者のボイス番号への音声電話を開始するアクションとを含む可能性がある方法に具現化される可能性がある。
一部の実装においては、発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザによって作成された連絡先のエントリを取得することは、発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザの連絡先のエントリが利用可能であると判定することと、特定の知られているユーザの連絡先のエントリが利用可能であるとの判定に応じて、特定の知られているユーザによって作成された連絡先のエントリを取得することとを含む。特定の実装においては、発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザに関する音声連絡先(voice contact)に基づいて電話を掛けるべき受話者のボイス番号を決定するアクションは、発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザによって作成された連絡先のエントリを取得することと、連絡先のエントリの中から特定の連絡先のエントリを特定することであって、特定の連絡先のエントリが、発話に一致する名前を含む、特定することと、特定の連絡先のエントリによって示されたボイス番号を受話者のボイス番号として決定することとを含む。
一部の実装において、連絡先のエントリの中から特定の連絡先のエントリを特定することであって、特定の連絡先のエントリが、発話に一致する名前を含む、特定することは、発話の文字に起こされたものを生成することと、文字に起こされたものが名前を含むと判定することとを含む。特定の実装において、発話を特定の知られているユーザによって言われたものとして分類するアクションは、発話の中の語りが特定の知られているユーザに対応する語りに一致すると音声対応デバイスによって判定されたという指示を取得することを含む。一部の実装において、発話を特定の知られているユーザによって言われたものとして分類するアクションは、発話の中の語りが特定の知られているユーザに対応する語りと一致するかどうかを判定することを含む。特定の実装において、受話者のボイス番号への音声電話を開始するアクションは、受話者のボイス番号と、受話者のボイス番号への音声電話を開始する命令とを音声対応デバイスに与えることを含む。
一部の実装において、アクションは、第2の音声電話を要求する第2の発話を受け取ることと、第2の発話を音声対応デバイスのいかなる知られているユーザによっても言われていないものとして分類することと、第2の発話を音声対応デバイスのいかなる知られているユーザによっても言われていないものとする分類に応じて、音声対応デバイスのいかなる知られているユーザに関する音声連絡先にもアクセスせずに第2の音声電話を開始することとを含む。
一部の態様において、本明細書に記載の対象は、第一者(first party)が第一者と第二者(second party)との間の音声電話中に音声対応仮想アシスタントへの問い合わせを言ったと判定するアクションと、第一者が第一者と第二者との間の音声電話中に音声対応仮想アシスタントへの問い合わせを言ったとの判定に応じて、第一者と第二者との間の音声電話を保留にするアクションと、音声対応仮想アシスタントが問い合わせを解決したと判定するアクションと、音声対応仮想アシスタントが問い合わせを処理したとの判定に応じて、第一者と第二者との間の音声電話の保留を解除するアクションとを含む可能性がある方法に具現化される可能性がある。
一部の実装において、第一者が第一者と第二者との間の音声電話中に音声対応仮想アシスタントへの問い合わせを言ったと判定するアクションは、音声電話中に第一者によってホットワード(hotword)が言われたと音声対応デバイスによって判定することを含む。特定の実装において、第一者と第二者との間の音声電話を保留にするアクションは、音声電話を保留にする命令を音声コールプロバイダに与えることを含む。一部の実装において、第一者と第二者との間の音声電話を保留にするアクションは、マイクロフォンからの音声をボイスサーバではなく音声対応仮想アシスタントにルーティングすることと、ボイスサーバからの音声ではなく音声対応仮想アシスタントからの音声をスピーカーにルーティングすることとを含む。
特定の実装において、音声対応仮想アシスタントが問い合わせを解決したと判定するアクションは、問い合わせ、および音声電話が音声対応デバイス上で継続中であるという指示を音声対応仮想アシスタントに与えることと、問い合わせへの応答および問い合わせが解決されるという指示を音声対応仮想アシスタントから受け取ることとを含む。一部の実装において、問い合わせへの応答および問い合わせが解決されるという指示を音声対応仮想アシスタントから受け取ることは、問い合わせに対する応答として出力されるべき音声、および問い合わせが解決されるかどうかを示す値を有する2進フラグを受け取ることを含む。特定の実装において、音声対応仮想アシスタントは、問い合わせに対応するコマンドを特定し、コマンドが音声電話中に実行され得ると判定し、コマンドが音声電話中に実行され得るとの判定に応じて、コマンドに対する答えを示すための応答を決定するように構成される。
一部の実装において、音声対応仮想アシスタントは、問い合わせに対応するコマンドを特定し、コマンドが音声電話中に実行され得ないと判定し、コマンドが音声電話中に実行され得ないとの判定に応じて、コマンドが実行され得ないことを示すための応答を決定するように構成される。特定の実装において、コマンドが音声電話中に実行され得ないと判定することは、音声電話中に通常実行され得るコマンドのリストを取得することと、特定されたコマンドがコマンドのリストに載っていないと判定することとを含む。一部の実装において、コマンドが音声電話中に実行され得ないと判定することは、音声電話中に通常実行され得ないコマンドのリストを取得することと、特定されたコマンドがコマンドのリストに載っていると判定することとを含む。
特定の実装においては、音声対応仮想アシスタントが問い合わせを処理したとの判定に応じて、第一者と第二者との間の音声電話の保留を解除するアクションは、音声電話の保留を解除する命令を音声コールプロバイダに与えることを含む。一部の実装において、音声対応仮想アシスタントが問い合わせを処理したとの判定に応じて、第一者と第二者との間の音声電話の保留を解除するアクションは、マイクロフォンからの音声を音声対応仮想アシスタントではなくボイスサーバにルーティングすることと、音声対応仮想アシスタントからの音声ではなくボイスサーバからの音声をスピーカーにルーティングすることとを含む。特定の実装においては、音声対応仮想アシスタントが問い合わせを処理したとの判定に応じて、第一者と第二者との間の音声電話の保留を解除するアクションは、デュアルトーンマルチ周波数信号を生成する命令を音声対応仮想アシスタントから受け取ることと、デュアルトーンマルチ周波数信号を生成する命令を音声対応仮想アシスタントから受け取ったことに応じて、音声電話の保留を解除する命令を音声コールプロバイダに与えた後、デュアルトーンマルチ周波数信号を生成する第2の命令を音声コールプロバイダに与えることとを含む。一部の実装において、音声対応アシスタントサーバは、問い合わせが1つまたは複数のデュアルトーンマルチ周波数信号を生成するコマンドおよび1つまたは複数のデュアルトーンマルチ周波数信号に対応する1つまたは複数の数を示すと判定するように構成される。
この態様およびその他の態様のその他の実装は、コンピュータ記憶装置上に符号化された方法のアクションを実行するように構成された対応するシステム、装置、およびコンピュータプログラムを含む。1つまたは複数のコンピュータのシステムが、動作中にシステムにアクションを実行させるシステムにインストールされたソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せによってそのように構成され得る。1つまたは複数のコンピュータプログラムが、データ処理装置によって実行されるときに装置にアクションを実行させる命令を有することによってそのように構成され得る。
本明細書に記載の対象の1つまたは複数の実装の詳細が、添付の図面および以下の説明に記載されている。対象のその他の特徴、態様、および潜在的な利点は、説明、図面、および請求項から明らかになるであろう。
電話を掛ける音声対応デバイスとの例示的なインタラクションを示すブロック図である。 電話を掛ける音声対応デバイスとの例示的なインタラクションを示すブロック図である。 電話を掛ける音声対応デバイスとの例示的なインタラクションを示すブロック図である。 電話を掛ける音声対応デバイスとの例示的なインタラクションを示すブロック図である。 電話を掛けるためのプロセスの例を示す流れ図である。 電話を掛けるべきボイス番号を決定するためのプロセスの例を示す流れ図である。 電話中の音声対応デバイスとの例示的なインタラクションを示すブロック図である。 電話を掛ける音声対応デバイスとインタラクションするためのシステムの例を示すブロック図である。 発信者番号を決定するためのプロセスの例を示す流れ図である。 電話を掛けるべき受話者の番号を決定するためのプロセスの例を示す流れ図である。 音声電話中に問い合わせを処理するためのプロセスの例を示す流れ図である。 コンピューティングデバイスの例の図である。
様々な図面における同様の参照番号および参照指示は、同様の要素を示す。
図1A~図1Dは、システム100における異なる例示的なインタラクションを示すブロック図である。システム100は、ユーザ110にタッチによってシステム100と物理的にインタラクションをさせることなく、受話者155に電話を掛けるためにユーザ110によって使用され得る音声対応デバイス125を含む。
一部の実装において、音声対応デバイス125は、音声対応デバイス125に呼びかけるためにユーザが言うホットワードとも呼ばれる予め決められた語句を含む発話の検出に応じてアクションを実行する可能性がある。たとえば、ホットワードは、ユーザが音声対応デバイス125に言う任意の要求の直前にユーザが言わなければならない「オーケー、コンピュータ」またはその他の語句である可能性がある。
発信者番号を用いて電話を掛けるために、音声対応デバイス125は、発話を特定の知られているユーザによって言われたものとして分類し、特定の知られているユーザの発信者番号を用いて電話を掛ける可能性がある。知られているユーザは、システム100のユーザとして登録されているユーザである可能性があり、ゲストユーザは、システム100のユーザとして登録されていないユーザである可能性がある。たとえば、「母さん」が、音声対応デバイス125の知られているユーザとして登録する可能性があり、音声対応デバイス125は、発話が知られているユーザ「母さん」によって言われるかどうかを後で分類する可能性がある。
たとえば、図1Aは、音声対応デバイス125が発話「オーケー、コンピュータ。店Xに電話を掛けて」を受け取り、発話者を知られている発話者「マット」として分類し、「マット」に関する記憶された電話番号を用いて店Xに電話を掛けることを示す。別の例において、図1Bは、音声対応デバイス125が発話「オーケー、コンピュータ。店Xに電話を掛けて」を受け取り、発話者を知られている発話者「父さん」として分類し、店Xに非通知電話を掛けることを示す。さらに別の例において、図1Cは、音声対応デバイス125が発話「オーケー、コンピュータ。店Xに電話を掛けて」を受け取り、発話者をゲスト発話者として分類し、店Xに非通知電話を掛けることを示す。
さらに別の例において、図1Dは、発話者をゲスト発話者として分類し、仮番号を用いて緊急サービスに電話を掛ける発話「オーケー、コンピュータ。緊急電話を掛けて」を音声対応デバイス125が受け取ることを示す。仮番号は、緊急サービスが少なくとも特定の継続時間、たとえば、1時間、2時間、24時間などの間に音声対応デバイス125に折り返し電話を掛けるために使用することができるボイス番号である可能性がある。仮番号は、仮番号が緊急事態の間に折り返し電話を掛けるために緊急サービスによって使用されることのみ可能であるように発話者には知られていない可能性がある。
より詳細には、音声対応デバイス125は、1つまたは複数のマイクロフォンおよび1つまたは複数のスピーカーを含む可能性がある。音声対応デバイス125は、1つまたは複数のマイクロフォンを使用して発話を受け取り、1つまたは複数のスピーカーを通じて発話に対する聞き取ることができる応答を出力する可能性がある。
音声対応デバイス125は、音声対応デバイス125のそれぞれの知られているユーザに関するユーザアカウント情報を記憶する可能性がある。たとえば、音声対応デバイス125は、知られているユーザ「母さん」に関するユーザアカウント情報の第1の組132と、知られているユーザ「父さん」に関するユーザアカウント情報の第2の組134と、知られているユーザ「マット」に関するユーザアカウント情報の第3の組136とを記憶する可能性がある。
ユーザのユーザアカウント情報は、ユーザが電話を掛けるときに発信者番号として使用される可能性があるボイス番号を示す可能性がある。たとえば、「母さん」に関するユーザアカウント情報の第1の組132は、(555) 111-1111である第1の電話番号140を記憶する可能性があり、「父さん」に関するユーザアカウント情報の第2の組134は、空白である可能性があり(つまり、記憶された電話番号はない)、「マット」に関するユーザアカウント情報の第3の組136は、(555) 222-2222である第2の電話番号142を記憶する可能性がある。特定の実施形態において、ユーザに関するユーザアカウント情報は、「自宅」、「職場」、「モバイル」などの複数の番号を記憶する可能性がある。
ユーザのユーザアカウント情報は、発話者がユーザであるかどうかを認識するために使用される可能性がある発話者識別の特徴を示す可能性がある。たとえば、「母さん」に関するユーザアカウント情報の第1の組132は、事前にホットワードを複数回言うユーザ「母さん」を表す特徴ベクトルを集合的に形成し得るメル周波数ケプストラム係数(MFCC)の特徴を記憶する可能性がある。
一部の実装において、ユーザは、モバイルコンピューティングデバイス上の付随アプリケーションを通じて知られているユーザとして登録する可能性があり、モバイルコンピューティングデバイスは、ローカルワイヤレス接続を介して音声対応デバイス125と通信する。たとえば、ユーザ「母さん」は、ユーザの電話上の付随アプリケーションを通じてユーザのアカウントにログインし、そして、ユーザが音声対応デバイス125の知られているユーザとして登録したいことを付随アプリケーション内で示し、それから、ユーザの電話にホットワードを複数回言う可能性がある。
登録の一部として、またはその後で、ユーザは、音声対応デバイス125を使用してユーザが掛ける電話のための発信者番号として使用するためのボイス番号をユーザが関連付けたいかどうかを示す可能性がある。たとえば、ユーザ「母さん」は、ユーザが音声対応デバイス125によってユーザの電話が掛けられるようにしたいことを示し、発信者番号がユーザの電話の電話番号であることを示す可能性がある。別の例において、ユーザ「母さん」は、ユーザの電話が、たとえば、Bluetooth(登録商標)接続を通じて音声対応デバイス125に接続されるときに、音声対応デバイス125によって掛けられたユーザの電話がユーザの電話を通過させられるようにしたいことを示す可能性がある。
音声対応デバイス125は、複数の種類のコールプロバイダを通じて電話を掛ける可能性がある。たとえば、音声対応デバイス125は、インターネット接続を有し、ボイスオーバインターネットプロトコル(VoIP)を使用して電話を掛ける可能性がある。別の例において、音声対応デバイス125は、セルラーネットワークと通信し、セルラーネットワークを使用して電話を掛ける可能性がある。さらに別の例において、音声対応デバイス125は、セルラー(または固定)電話と通信し、電話を通じて電話を掛ける可能性があり、したがって、ユーザは、音声対応デバイス125に話し、音声対応デバイス125を聞くが、電話は、電話を通じて確立される。
一部の実装において、ユーザは、ユーザが使用したいコールプロバイダを選択することに基づいて、音声対応デバイス125を使用してユーザが掛ける電話のための発信者番号として使用するボイス番号を示す可能性がある。たとえば、「母さん」は、「母さん」が電話番号(555) 111-1111を使用して電話を受け取ることも可能である第1のコールプロバイダ、たとえば、セルラーネットワークプロバイダを通じて「母さん」の電話が掛けられるようにしたいことを示し、その後、代わりに、「母さん」が電話番号(555) 111-2222を使用して電話を受け取ることが可能である第2のコールプロバイダ、たとえば、VoIPプロバイダを通じて「母さん」の電話が掛けられるようにしたいことを示す可能性がある。
一部の実装において、音声対応デバイス125は、コンテキスト情報(contextual information)に基づいて発話を特定のユーザによって言われたものとして分類する可能性がある。コンテキスト情報は、聴覚的、視覚的、またはその他の情報のうちの1つまたは複数を含む可能性がある。聴覚的情報に関して、音声対応デバイス125は、知られているユーザの1つまたは複数の発話の発話者識別の特徴(たとえば、特徴ベクトルを集合的に形成し得るメル周波数ケプストラム係数(MFCC)の特徴)に基づいて発話を分類する可能性がある。たとえば、音声対応デバイス125は、「オーケー、コンピュータ」と言う知られているユーザの各々に関する発話者識別の特徴を記憶する可能性がある。今受け取られた発話の発話者識別の特徴の「オーケー、コンピュータ」と言う知られているユーザ「父さん」の記憶された発話者識別の特徴との十分な一致に応じて、音声対応デバイス125は、発話を知られているユーザ「父さん」によって言われたものとして分類する可能性がある。
別の例において、音声対応デバイス125は、発話の音声全体に基づいて発話を分類する可能性がある。たとえば、音声対応デバイス125は、受け取られた発話全体の中の語りが知られているユーザ「父さん」に対応する語りに一致するかどうかを判定する可能性がある。
視覚的情報に関して、音声対応デバイス125は、発話者の少なくとも一部の1つまたは複数の画像を受け取り、1つまたは複数の画像に基づいて発話者を認識しようと試みる可能性がある。たとえば、音声対応デバイス125は、カメラを含み、カメラの視野内の発話者が音声対応デバイス125が知られているユーザ「父さん」に対応する顔に一致すると分類する顔を有すると判定する可能性がある。その他の例において、音声対応デバイス125は、発話者の指紋、網膜スキャン、顔認識、姿勢、別のデバイスの共存、または別のデバイスもしくはソフトウェアの要素からのアイデンティティの確認のうちの1つまたは複数をマッチングしようと試みる可能性がある。
音声対応デバイス125は、遠隔のサーバと協力して電話を掛けるローカルのフロントエンドデバイスである可能性がある。たとえば、音声対応デバイス125が発話「オーケー、コンピュータ。店Xに電話を掛けて」を受け取るとき、音声対応デバイス125は、発話者がホットワード「オーケー、コンピュータ」と言うときを検出し、発話「オーケー、コンピュータ」の中の発話者識別の特徴に基づいてユーザを「母さん」として分類し、「店Xに電話を掛けて」という表現と、発話者が「母さん」であるという指示とをサーバに与える可能性がある。サーバは、それから、「店Xに電話を掛けて」を文字に起こし、テキスト「店Xに電話を掛けて」が電話を掛けるアクションに対応し、店Xが電話番号(555) 999-9999を有し、発信者番号(555) 111-1111を有する「母さん」のVoIPアカウントを通じて「母さん」の電話が掛けられるべきであることを「母さん」が示したと判定する可能性がある。そして、サーバは、「VoIPアカウント(555) 111-1111を用いて(555) 999-9999に電話を掛ける」命令を音声対応デバイス125に送信する可能性がある。その他の実装において、音声対応デバイス125は、遠隔のサーバとは独立して、遠隔のサーバによって示されたアクションを実行する可能性がある。
一部の実装において、音声対応デバイス125は、聴覚的情報および視覚的情報に加えてその他の情報に基づいて発話を分類する可能性がある。特に、音声対応デバイス125は、話したユーザのアイデンティティを認めるために、発話者識別の特徴およびユーザからの確認に基づいて発話を分類する可能性がある。加えて、音声対応デバイス125は、話したユーザのアイデンティティを認めるために、発話者の少なくとも一部の1つまたは複数の受け取られた画像およびユーザからの確認に基づいて発話を分類する可能性がある。たとえば、上述のように、音声対応デバイス125は、話したユーザからの1つまたは複数の発話を受け取る可能性がある。音声対応デバイス125は、1つまたは複数の受け取られた発話の中の発話者識別の特徴が「オーケー、コンピュータ」と言う知られているユーザ「父さん」の記憶された発話者識別の特徴と十分に一致すると判定する可能性がある。それに応じて、音声対応デバイス125は、「父さんが話していますか?」とユーザに尋ねることによって、話しているユーザが「父さん」であるという判定を確認する可能性がある。発話者は、音声対応デバイス125の確認を認めるために「はい」または「いいえ」と答えることによって応答することができる。発話者が「いいえ」と答えたならば、音声対応デバイス125は、「話している方の名前は何ですか?」などの追加の質問をして、名前が音声対応デバイス125に記憶された知られているユーザ名と一致するかどうかを判定する可能性がある。
図2は、電話を掛けるためのプロセス200の例を示す流れ図である。プロセス200の動作は、図1A~図1Dのシステム100などの1つまたは複数のコンピューティングシステムによって実行される可能性がある。
プロセス200は、発話を受け取ること(210)を含む。たとえば、音声対応デバイス125は、「オーケー、コンピュータ。(555) 999-9999に電話を掛けて」という発話を受け取る可能性がある。
プロセス200は、電話が緊急サービスへのものであるかどうかを判定すること(212)を含む。たとえば、音声対応デバイス125は、(555) 999-9999がいかなる緊急サービスとも関連付けられていないので、番号への電話が緊急サービスへの電話ではないと判定する可能性がある。別の例において、音声対応デバイス125は、番号「911」が緊急サービスに関連付けられているので、番号「911」への電話が緊急電話であると判定する可能性がある。
プロセス200が電話が緊急サービスへのものであると判定する場合、プロセス200は、仮番号を用いて電話を開始すること(214)を含む。たとえば、音声対応デバイス125は、コールプロバイダが音声対応デバイスに折り返し電話をするために24時間使用され得る電話番号を生成し、それから、緊急サービスへの電話を開始し、仮番号を発信者番号として示すことを要求する可能性がある。
プロセス200が電話が緊急サービスへのものでないと判定する場合、プロセス200は、発話の発話者が知られているユーザであるかどうかを判定すること(216)を含む。たとえば、音声対応デバイス125は、発話者を知られているユーザ「マット」とする分類に応じて、「オーケー、コンピュータ。(555) 999-9999に電話を掛けて」の発話者が知られているユーザであると判定する可能性がある。別の例において、音声対応デバイス125は、発話者を知られているユーザ「父さん」とする分類に応じて、発話者が知られているユーザであると判定する可能性がある。さらに別の例において、音声対応デバイス125は、発話者をゲストユーザとする分類に応じて、発話者が知られているユーザでないと判定する可能性がある。
一部の実装において、発話の発話者が知られているユーザであるかどうかを判定することは、発話の中の語りが特定の知られているユーザに対応する語りと一致するかどうかを判定することを含む。たとえば、音声対応デバイス125は、発話者が「オーケー、コンピュータ」と言った言い方が知られているユーザ「マット」が「オーケー、コンピュータ」と言う言い方と一致すると判定し、それに応じて、発話者を知られているユーザ「マット」として分類する可能性がある。別の例において、音声対応デバイス125は、発話者が「オーケー、コンピュータ」と言った言い方が知られているユーザ「父さん」が「オーケー、コンピュータ」と言う言い方と一致すると判定し、それに応じて、発話者を知られているユーザ「父さん」として分類する可能性がある。追加的にまたは代替的に、発話の発話者が知られているユーザであるかどうかを判定することは、発話者の少なくとも一部の視覚的画像が特定の知られているユーザに対応する視覚的情報と一致するかどうかを判定することを含む。
プロセス200が発話の発話者が知られているユーザであると判定する場合、プロセス200は、知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定すること(218)を含む。たとえば、音声対応デバイス125は、音声対応デバイス125を通じて電話を掛けるときに知られているユーザが使用したいコールプロバイダを示すアカウント情報を知られているユーザ「マット」が有すると判定し、それに応じて、知られているユーザが個人電話番号(personal phone number)に関連付けられていると判定する可能性がある。別の例において、音声対応デバイス125は、音声対応デバイス125を通じて電話を掛けるときに知られているユーザが使用したいコールプロバイダを示すアカウント情報を知られているユーザ「父さん」が持たないと判定し、それに応じて、知られているユーザが個人電話番号に関連付けられていないと判定する可能性がある。
プロセス200が知られているユーザがパーソナルボイス番号に関連付けられていると判定する場合、プロセス200は、パーソナルボイス番号を用いて電話を開始すること(220)を含む。たとえば、音声対応デバイス125は、「マット」のアカウント情報によって示されるコールプロバイダに連絡し、「マット」のために電話番号(555) 999-9999に電話が掛けられることを要求する可能性がある。
218に戻って、プロセス200が知られているユーザがパーソナルボイス番号に関連付けられていないと判定する場合、プロセスは、非通知電話を開始すること(222)を含む。たとえば、音声対応デバイス125は、コールプロバイダが(555) 999-9999に非通知電話を掛けることを要求する可能性がある。
216に戻って、プロセス200が発話の発話者が知られているユーザでないと判定する場合、プロセス200は、222のために上述のように非通知電話を開始すること(222)を含む。
電話が緊急サービスへのものであるかどうかを判定すること(212)がプロセス200に最初に示されるが、プロセス200は、異なる可能性がある。たとえば、プロセス200は、その代わりに最初に、(216)において上述されたように発話者が知られているユーザであると判定し、それから、(218)において上述されたように知られているユーザがパーソナルボイス番号に関連付けられていると判定し、次に、(212)において上述されたように電話が緊急サービスへのものであると判定し、そして、知られているユーザのパーソナルボイス番号を使用する可能性がある。音声対応デバイス125に関する仮番号の代わりに知られているユーザのパーソナルボイス番号を緊急時対応要員(emergency responder)に提供する1つの理由は、そのとき、知られているユーザが音声対応デバイス125の近くにいるか否かにかかわらず緊急時対応要員が知られているユーザに連絡することができることである。
図3は、電話を掛けるべきボイス番号を決定するためのプロセス300の例を示す流れ図である。プロセス300の動作は、図1A~図1Dのシステム100などの1つまたは複数のコンピューティングシステムによって実行される可能性がある。
プロセス300は、電話を要求する発話を受け取ること(310)を含む。たとえば、音声対応デバイス125は、「オーケー、コンピュータ。おばあちゃんに電話を掛けて」のような電話を要求するユーザ110に関する発話を受け取る可能性がある。
プロセス300は、発話の発話者が知られているユーザであるかどうかを判定すること(312)を含む。たとえば、音声対応デバイス125は、発話者を知られているユーザ「母さん」として分類する可能性がある。
プロセス300が発話の発話者が知られているユーザであると判定する場合、プロセス300は、知られているユーザに関して個人の連絡先が利用可能であるかどうかを判定すること(314)を含む。たとえば、音声対応デバイス125は、音声対応デバイス125が知られているユーザ「母さん」に関する連絡先のレコードにアクセスすることができると判定することに基づいて、知られているユーザ「母さん」に関して個人の連絡先が利用可能であると判定する可能性がある。知られているユーザに関する個人の連絡先は、知られているユーザに関して作成された電話連絡先のエントリを指す可能性がある。たとえば、知られているユーザは、新しい電話連絡先のエントリを作成するためのインターフェースを開き、電話番号「(123) 456-7890」および連絡先名「ジョン・ドゥ」を打ち込み、それから、名前「ジョン・ドゥ」によってラベル付けされ、電話番号「(123) 456-7890」を示す電話のエントリを作成することを選択することによって知られているユーザに関する電話連絡先のエントリを作成する可能性がある。知られているユーザの連絡先リストが、知られているユーザに関するすべての個人の連絡先によって形成される可能性がある。たとえば、知られているユーザに関する連絡先リストは、「ジョン・ドゥ」に関する連絡先のエントリと、知られているユーザによって作成されたその他の連絡先のエントリとを含む可能性がある。
プロセス300が知られているユーザに関して個人の連絡先が利用可能であると判定する場合、プロセス300は、個人の連絡先を使用して受話者に関連する番号を決定すること(316)を含む。たとえば、音声対応デバイス125は、知られているユーザ「母さん」の連絡先のレコードから受話者「おばあちゃん」に関する個人の連絡先リストをスキャンし、「おばあちゃん」に関連する番号を取り出す。
314に戻って、プロセス300が、そうではなく、知られているユーザに関する個人の連絡先が利用可能でないと判定する場合、プロセス300は、知られているユーザに関連する個人の連絡先なしに受話者の番号を決定すること(318)を含む。たとえば、音声対応デバイス125は、受話者の番号に関してインターネットを検索する可能性がある。この例において、音声対応デバイス125は、地理的位置特定サービスを使用して知られているユーザの近くにいる可能性がある「おばあちゃん」に対応する受話者の番号に関してインターネットを検索し、受話者の番号を特定することができず、「連絡先の番号が見つかりません」と言う音声メッセージを知られているユーザに与える可能性がある。受話者の番号が見つからない場合、音声対応デバイス125は、電話を掛けるべきボイス番号を言うように発話者に促し、そして、その番号に電話を掛ける可能性がある。
312に戻って、プロセス300が、そうではなく、発話の発話者が知られているユーザではないと判定する場合、プロセス300は、上述のように個人の連絡先なしに受話者の番号を決定すること(318)を含む。
図4は、電話中の音声対応デバイスとの例示的なインタラクションを示すブロック図である。図4は、示された順序または別の順序で実行され得る段階(A)から(C)までの様々な動作を示す。
一部の実装において、音声対応デバイス125は、電話中に音声対応デバイス125に呼びかけるためにユーザが言うホットワードのような予め決められた語句を含む発話の検出に応じてアクションを実行する可能性がある。たとえば、図4は、音声対応デバイス125が発話「オーケー、コンピュータ。店Xに電話を掛けて」を受け取り、発話者を知られている発話者「マット」として分類し、「マット」に関する記憶された電話番号を用いて店Xに電話を掛けることを示す。加えて、発話者「マット」は、受話者155に聞こえないコマンドを電話中に音声対応デバイス125に伝える可能性がある。電話中のコマンドに応答して、音声対応デバイス125は、受話者からの発話の少なくとも一部をブロックすることができる。
段階(A)の間に、音声対応デバイス125は、発話120「オーケー、コンピュータ。店Xに電話を掛けて」を受け取る。発話120を受け取ったことに応じて、音声対応デバイス125は、上述の方法のうちの1つを使用して発話者を知られている発話者「マット」として分類し、「あなたの番号を使って店Xに電話を掛けています」と言う応答を「マット」に返す。応答は、発話者を分類し、コマンドに関連するアクションを行い、「マット」に関連する番号を使用することによって音声対応デバイス125が発話を理解したことをユーザ110に示す。段階(B)の間に、音声対応デバイス125は、受話者155、たとえば、店Xへの電話を開始する。たとえば、音声対応デバイス125は、ユーザ110と受話者155との間の電話を開始する。音声対応デバイス125は、ユーザ110に折り返し電話を掛けるために受話者155によって使用され得るユーザ110の番号を使用して受話者155に電話を掛ける。受話者155は、「はい」と言うことによって電話に答える。それに応じて、ユーザ110は、音声対応デバイス125を介して受話者155に「もしもし、お店屋さん。開いていますか?」と言う。受話者155は、「ええ。午後10時閉店です」と応答する。
段階(B)の間に、音声対応デバイス125は、受話者155との電話中にユーザ110からのコマンドからホットワードを検出する。たとえば、音声対応デバイス125は、「オーケー、コンピュータ。今何時」と言うコマンドをユーザ110から得る。電話中に受け取られた発話に応じて、音声対応デバイス125は、ユーザ110が言うホットワード「オーケー、コンピュータ」を送信するが、それから、ホットワードの後のコマンドはブロックし、したがって、受話者155は、「オーケー、コンピュータ」を聞くが、「今何時」は聞かない。音声対応デバイス125は、「午後9時です」と言ってユーザ110にだけ応答し、したがって、受話者155は、応答を聞かない。代替的に、ホットワードを電話の一部として受話者にブロードキャストする前に音声対応デバイス125がホットワードを検出することを可能にするために、通信にある量のレイテンシーが導入され得る。このようにして、ホットワードに関連する命令だけでなくホットワード自体が、電話の一部として受話者に配信されることをブロックされ得る。
一部の実装において、音声対応デバイス125は、ユーザ110がホットワードを言うことを検出した後、ユーザ110と受話者155との間を両方向とも保留(2-way hold)にすることによって、受話者155がユーザ110と音声対応デバイス125との間のコミュニケーションを聞くことを防止する可能性がある。両方向とも保留にしている間、受話者155およびユーザ110は、互いに聞くことができない可能性がある。たとえば、発話「オーケー、コンピュータ。今何時」を受け取ったことに応じて、音声対応デバイス125は、「オーケー、コンピュータ」の直後および「今何時」の前に両方向とも保留を開始する可能性があり、したがって、店Xの受話者155は、「オーケー、コンピュータ」のみを聞く。
音声対応デバイス125は、音声対応デバイス125がユーザからのコマンドが解決されたと判定すると両方向とも保留することやめる可能性がある。たとえば、音声対応デバイス125は、応答「午後9時です」がユーザの質問「今何時」に答えると判定し、それに応じて、両方向とも保留することをやめる可能性がある。別の例において、音声対応デバイス125は、「オーケー、コンピュータ。アラームを午後7時にセットして」と言うユーザ110に応じて、「何曜日の午後7時にアラームをセットしますか」と応答し、ユーザ110が曜日を与えるために両方向とも保留し続ける可能性がある。その他の実施形態において、ユーザ110は、たとえば、「オーケー、コンピュータ。電話を保留にして」と言うことによって音声対応デバイス125に電話を保留にするように要求する可能性がある。音声対応デバイス125は、たとえば、「オーケー、コンピュータ。電話を再開して」と言うことによってユーザが保留をやめるように要求するまで電話を保留し続ける可能性がある。
一部の実装において、音声対応デバイス125は、ユーザ110と長いインタラクションをするコマンドをブロックする可能性がある。たとえば、音声対応デバイス125は、音楽、ニュース、またはポッドキャストなどのメディアを再生すること、日報(daily brief)を再生すること、第三者の会話アクション、追加の電話を掛けること、および雑学クイズなどのゲームをすることに関連する特徴をブロックする可能性がある。音声対応デバイス125は、これらの機能をブロックするときにエラーを出し、たとえば、「すみません。電話中に音楽は再生できません」と出力するか、またはこれらのタスクのうちの1つに関連するいずれのコマンドも無視し、電話を続ける可能性がある。
段階(C)の間に、音声対応デバイス125は、店Xの受話者155との電話中にユーザ110からの別のコマンドからホットワードを検出する。たとえば、音声対応デバイス125は、「オーケー、コンピュータ。電話を切って」と言うコマンドをユーザ110から得る。電話中に受け取られた発話に応じて、音声対応デバイス125は、「電話が終了しました」と言って、または非言語的な音声の合図を出して、ユーザ110に応答する。加えて、音声対応デバイス125は、店Xの受話者155に応答「電話が終了しました」または非言語的な音声の合図を送信しない。
図5は、電話を掛ける音声対応デバイスとインタラクションするためのシステム500の例を示すブロック図である。システム500は、音声対応デバイス125、アシスタントサーバ502、連絡先データベース504、ボイスサーバ506、クライアントデバイス510、ネットワーク508、ならびに通信回線512および514を含む。
一部の実装において、音声対応デバイス125は、1つまたは複数のコンピュータを含むことができ、複数の地理的位置に分散されたコンピュータを含む可能性がある。音声対応デバイス125は、1つまたは複数のクライアントデバイス510、アシスタントサーバ502、およびボイスサーバ506と通信する。
一部の実装において、アシスタントサーバ502およびボイスサーバ506は、それぞれ、1つまたは複数のコンピュータを含むことができ、複数の地理的位置に分散されたコンピュータを含む可能性がある。アシスタントサーバ502は、音声対応デバイス125および連絡先データベース504と通信する。ボイスサーバ506は、音声対応デバイス125および店Xなどの1つまたは複数の受話者と通信する。
クライアントデバイス510は、たとえば、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ウェアラブルコンピュータ、セルラー電話、スマートフォン、音楽プレーヤー、電子ブックリーダ、ナビゲーションシステム、または任意のその他の適切なコンピューティングデバイスであることが可能である。ネットワーク508は、有線、またはワイヤレス、またはこれら両方の組合せであることが可能であり、インターネットを含むことができる。
一部の実装において、音声対応デバイス125は、Bluetooth(登録商標)、WiFi、またはその他の近距離通信プロトコルなどの近距離通信プロトコルを使用して通信回線512を介してクライアントデバイス510に接続する可能性がある。たとえば、音声対応デバイス125は、それぞれ関連する通信回線512によって最大7つの異なるクライアントデバイス510をペアリングし、接続する可能性がある。一部の実装において、音声対応デバイス125は、任意の所与の時間にクライアントデバイス510のうちの1つからの音声をルーティングする可能性がある。
一部の実装において、音声対応デバイス125は、ユーザ110から発話「オーケー、コンピュータ。店Xに電話を掛けて」を受け取る可能性がある。音声対応デバイス125は、さらに、発話者(ユーザ110)を知られている発話者「マット」として分類する可能性がある。たとえば、音声対応デバイス125は、「マット」に関連するユーザアカウント情報に含まれる発話者識別の特徴をユーザ110によって言われた受け取られたホットワードと比較する可能性がある。音声対応デバイス125は、比較に応じてユーザ110が「マット」であると判定する可能性がある。一部の実装において、音声対応デバイス125は、それから、発話の音声表現を、さらに処理するためにアシスタントサーバ502に問い合わせとして送信する可能性がある。
一部の実装において、音声対応デバイス125は、ユーザ110が電話を掛けることを要求するときに様々なイベントを停止する可能性がある。たとえば、音声対応デバイス125は、ユーザが「オーケー、コンピュータ。店Xに電話を掛けて」と言うと音楽の再生またはアラームを停止する可能性がある。ユーザ110が電話を掛けることを要求するときに様々なイベントを停止するために、音声対応デバイス125は、ユーザが電話を掛けることを要求しているときに停止されるべき特定の種類のイベントを記憶し、ユーザが電話を掛けていることの検出に応じて、それらの記憶された特定の種類のイベントを終了する可能性がある。たとえば、音声対応デバイス125は、ユーザが電話を掛けるときに停止されるべき音楽再生およびアラームのイベントを記憶し、ユーザが電話を掛けていることの検出に応じて、音楽再生およびアラームのいずれのイベントも終了するが、その他のイベントは継続する可能性がある。
一部の実装において、音声対応デバイス125は、電話を掛ける前に任意のイベントを無効化するようにユーザ110に要求する可能性がある。たとえば、音声対応デバイス125は、現在、音楽を再生しているか、またはアラームもしくはタイマーが原因で鳴っている可能性がある。音声対応デバイス125は、ユーザ110が音楽またはアラームもしくはタイマーの音をとめるまでユーザ110がいかなる電話を掛けることも許さない可能性がある。一部の実装において、ユーザ110は、それぞれ、「オーケー、コンピュータ。音楽をとめて」または「オーケー、コンピュータ。アラームをとめて」と言うことによって音楽またはアラームもしくはタイマーの音を無効化する可能性がある。その他の実装において、ユーザ110は、音声対応デバイス125上のインタラクティブボタンをタップすることによって音楽またはアラームもしくはタイマーの音を無効化する可能性がある。たとえば、音声対応デバイス125は、ユーザが電話を掛けることを要求するときに無効化するためのユーザインタラクションを必要とする特定のイベントを記憶する可能性がある。ユーザが電話を掛けることを要求し、特定のイベントのうちの少なくとも1つが発生していることの検出に応じて、音声対応デバイス125は、「電話を掛ける前にイベントを無効化してください」と言う警告メッセージをユーザに言い、電話を掛ける要求を無視する可能性がある。ユーザが音声対応デバイス125に音声コマンドを送信するかまたは音声対応デバイス125上のインタラクティブボタンをタップすることによって特定のイベントを無効化するように音声対応デバイス125に命じると、ユーザは、電話を掛けるように音声対応デバイス125に要求する可能性がある。
一部の実装において、音声対応デバイス125は、電話を掛けるコマンドをユーザ110から受け取ったことに応じてユーザ110にやがて起こるアラームを警告する可能性がある。たとえば、ユーザ110は、アラームを午後6:30に音声対応デバイス125上で鳴るように設定する可能性がある。ユーザ110は、午後6:29に音声対応デバイス125に発話「オーケー、コンピュータ。店Xに電話を掛けて」と言う可能性がある。発話を受け取ったこと応じて、音声対応デバイス125は、ユーザに対して出力し、「電話を掛ける前にアラームを無効化してください」または「アラームが1分後の午後6:30に設定されています。電話を掛ける前にこのアラームを無効化したいですか?」と言う可能性がある。その後、ユーザ110は、音声対応デバイス125を用いて電話を掛ける前にアラームを無効化するかまたはアラームを聞き流す可能性がある。
一部の実装において、音声対応デバイス125は、アラームが掛けられている電話の予め決められた長さの時間、たとえば、1分、5分、15分、または何らかのその他の長さの時間以内に鳴るように設定されているかどうかを判定することに基づいて、ユーザ110にやがて起こるアラームを警告する可能性がある。たとえば、音声対応デバイス125は、午後6:29に電話を掛ける要求を受け取り、午後6:29から5分以内の、午後6:30にアラームが設定されていると判定し、アラームが午後6:29から5分以内に設定されているとの判定に応じて、ユーザ110にやがて起こるアラームの警告を与える可能性がある。
一部の実装において、アシスタントサーバ502は、要求516を取得する。たとえば、音声対応デバイス125は、ユーザ110から受け取られた発話の音声表現を示す検索要求を含むデータを送信する可能性がある。データは、特定された知られている発話者「マット」、発話「オーケー、コンピュータ。店Xに電話を掛けて」120の音声表現、音声対応デバイス125に関連する一意ID、および特定された知られている発話者「マット」に関連する個人結果ビット(personal results bit)を示す可能性がある。音声対応デバイス125に関連する一意IDは、応答をどこに送信すべきかをアシスタントサーバ502に示す。たとえば、一意IDは、音声対応デバイス125に関連するIPアドレス、URL、またはMACアドレスである可能性がある。
一部の実装において、アシスタントサーバ502は、取得された要求516を処理する。特に、アシスタントサーバ502は、発話に関連するコマンドを決定するために取得された要求516を解析する。たとえば、アシスタントサーバ502は、発話の音声表現を発話のテキスト表現に変換することによって取得された要求516を処理する可能性がある。変換に応じて、アシスタントサーバ502は、ホットワードに続くコマンド「店Xに電話を掛けて」に関するテキスト表現を解析する。一部の実装において、アシスタントサーバ502は、テキストのコマンドに関連するアクションを決定する。たとえば、アシスタントサーバ502は、テキストのアクション「電話を掛ける」を記憶されたテキストのアクションと比較することによって取得された要求516からのアクションが「店Xに電話を掛ける」ことであると決定する。
加えて、アシスタントサーバ502は、連絡先データベース504にアクセスすることによって受話者「店X」に関する番号を解決する。一部の実装において、アシスタントサーバ502は、知られているユーザに関連する連絡先を取り出すために連絡先データベース504にアクセスする。連絡先データベース504は、連絡先に関連する知られているユーザ名によって連絡先をインデックス付けすることによって連絡先を記憶する。たとえば、連絡先データベース504は、「マット」に関連する個人の連絡先をさらに含む「マット」に関するエントリを含む。個人の連絡先は、「母さん」-(555)111-1111、「父さん」-(555)222-2222、および「店X」-(555)333-3333などの名前および関連する番号を含む。
加えて、アシスタントサーバ502は、取得された要求516内で受け取られた個人結果ビットが有効化されるときにのみ受話者に関する番号を解決する可能性がある。個人結果ビットが有効化されていないまたは「0」である場合、アシスタントサーバ502は、「コンピュータに個人の連絡先へのアクセスを許可してください」と言うメッセージをユーザ110に中継するように音声対応デバイス125に示すためにアクションメッセージ518内で識別子を送信する。個人結果ビットが有効化されているまたは「1」である場合、アシスタントサーバ502は、特定された知られている発話者の個人の連絡先に関して連絡先データベース504にアクセスする。一部の実装において、アシスタントサーバ502は、特定された知られている発話者の個人の連絡先の中の受話者に関連する番号を取り出す。この例において、アシスタントサーバ502は、店Xに関する番号(555) 333-3333を取り出す。その他の実装において、受話者の番号は、ホットワードに続くコマンドに関するテキスト表現に含まれる可能性がある。たとえば、コマンドは、「オーケー、コンピュータ。555-333-3333に電話を掛けて」を含む可能性がある。
一部の実装において、アシスタントサーバ502は、連絡先データベース504内の特定された知られている発話者の個人の連絡先の中に見つからない取得された要求516内の受話者を特定する可能性がある。たとえば、アシスタントサーバ502は、「おばあちゃんに電話を掛けて」を含む取得された要求516からのホットワードに続くコマンドのテキスト表現を決定する可能性がある。しかし、「マット」に関連する連絡先データベース504からの個人の連絡先は、「おばあちゃん」に関するエントリを含まない。もっと正確に言えば、連絡先は、「母さん」、「父さん」、および「店X」を含む。受話者「おばあちゃん」に関する番号を解決するために、アシスタントサーバ502は、「おばあちゃん」に関する番号を見つけるためにその他のデータベースおよび/またはインターネットを検索する可能性がある。
その他のデータベースおよび/またはインターネットを検索する際、アシスタントサーバ502は、ナレッジグラフ内を検索する可能性がある。たとえば、アシスタントサーバ502は、「X社カスタマーサービス」をユーザの個人の連絡先の中のいかなるレコードともマッチングせず、そして、名前「X社カスタマーサービス」を有するエンティティに関してナレッジグラフを検索し、そのエンティティに関してナレッジグラフに記憶された電話番号を特定する可能性がある。
一部の実装において、コマンドは、音声対応デバイス125と地理的に近い会社に電話を掛けることを含む可能性がある。アシスタントサーバ502は、音声対応デバイス125に最も近い会社に関連するボイス番号に関してインターネットを検索する可能性がある。しかし、アシスタントサーバ502が要求された受話者に関連する番号を発見しないならば、アシスタントサーバ502は、「連絡先が見つかりません」と言うメッセージをユーザ110に中継するように音声対応デバイス125に示すためにアクションメッセージ518内で識別子を送信する可能性がある。たとえば、アシスタントサーバ502は、個人の連絡先のレコードまたはナレッジグラフ内で「店X」に関する電話番号を見つけることができない場合、「店X」の名前を有する近くの地元の会社に関して地図データベース内を検索する可能性がある。
一部の実装において、アシスタントサーバ502は、コマンドに含まれる番号がサポートされないボイス番号である可能性があると判定する可能性がある。たとえば、番号が、123-4567のように7桁しか含まない可能性がある。それに応じて、アシスタントサーバ502は、「サポートされない電話番号です」と言うメッセージをユーザ110に中継するように音声対応デバイス125に示すためにアクションメッセージ518内で識別子を送信する可能性がある。
受話者に関連する連絡先の番号の決定に応じて、アシスタントサーバ502は、音声対応デバイス125へのアクションメッセージ518を生成する。特に、アクションメッセージ518は、連絡先の番号および電話をトリガするためのアクションを含む可能性がある。たとえば、アクションメッセージ518は、「店X」に関する電話番号を555-333-3333として含み、「店X」にすぐに電話を掛けるように音声対応デバイス125に命じるアクションを含む可能性がある。一部の実装において、アシスタントサーバ502は、コマンドのコンテキスト(context)に基づいて使用すべき発信番号(outbound number)をアクションメッセージ518に含める可能性がある。たとえば、コマンドが緊急サービスへの電話を含む場合、アシスタントサーバ502は、受話者155が音声対応デバイス125に折り返し電話するために時間の特定の期間使用することができる番号をアクションメッセージ518に含める可能性がある。たとえば、電話番号(555) 888-8888が、音声対応デバイス125に折り返し電話を掛けるためにその後2時間使用される可能性がある。
一部の実装において、音声対応デバイス125は、アシスタントサーバ502からアクションメッセージ518を得る。アクションメッセージ518の取得に応じて、音声対応デバイス125は、アクションメッセージ518に対するアクションを起こす。たとえば、アクションメッセージは、示された電話番号555-333-3333を使用して「店X」に電話を掛けるように音声対応デバイス125に示す。
一部の実装において、音声対応デバイス125は、ユーザ110のプリファレンスに基づいてボイスサーバ506または関連するクライアントデバイス510を使用して、アシスタントサーバ502によって示されたように受話者に電話を掛ける可能性がある。特に、ユーザ110のプリファレンスは、音声対応デバイス125に記憶される可能性がある。たとえば、音声対応デバイス125は、ユーザ110のプリファレンスが任意のアウトバウンドコールのためにボイスサーバ506またはボイスオーバIP(VoIP)を使用することであると判定する可能性がある。したがって、音声対応デバイス125は、受話者に電話を掛けるためにボイスサーバ506に指示を送信する。一部の実装において、ボイスサーバ506は、アウトバウンドコールのために関連する番号を使用する可能性がある。一部の実装において、音声対応デバイス125は、ユーザが複数の異なるVoIPプロバイダの中からVoIPプロバイダを使用することを選択することを可能にし、そして、そのユーザが今後電話を開始するときにそのVoIPプロバイダを使用する可能性がある。
一部の実装において、音声対応デバイス125は、ユーザ110が音声対応デバイス125の近くにいるとの判定に応じて、緊急サービスに電話を掛けるためにボイスサーバ506に関連する番号を使用する可能性がある。たとえば、音声対応デバイス125は、クライアントデバイス510のうちの1つが音声対応デバイス125に接続されているとの判定に応じて、ボイスサーバ506に関連する番号を使用して緊急サービスに電話を掛ける可能性がある。クライアントデバイス510と音声対応デバイス125との間の接続を保証することにより、音声対応デバイス125は、ユーザ110が音声対応デバイス125の近くにいることを保証し得る。
代替的に、音声対応デバイス125は、ユーザ110の補助的なプリファレンスが受話者にアウトバウンドコールをするために既存のクライアントデバイス510を使用することであると判定する可能性がある。ユーザ110の補助的なプリファレンスが関連するクライアントデバイス510を使用して受話者に電話を掛けることであると音声対応デバイス125が判定する場合、音声対応デバイス125は、クライアントデバイス510への通信回線512を検証する。たとえば、音声対応デバイス125は、クライアントデバイス510へのBluetooth(登録商標)接続を検証する可能性がある。音声対応デバイス125がクライアントデバイス510へのBluetooth(登録商標)接続をすることができない場合、音声対応デバイス125は、「あなたのBluetooth(登録商標)接続が有効になっているかどうか確かめてください」と言うメッセージをユーザ110に中継する可能性がある。Bluetooth(登録商標)接続が確立されると、音声対応デバイス125は、受話者に電話を掛けるためにクライアントデバイス510に指示を送信する。その他の実施形態において、音声対応デバイス125が近距離通信プロトコルのいずれの手段によってもクライアントデバイス510を発見することができないならば、音声対応デバイス125は、受話者に対してボイスサーバ506によって非公開番号を使用して受話者に電話を掛ける可能性がある。
一部の実装において、音声対応デバイス125は、受話者の電話への接続に応じて、ユーザ110が聞くための聞き取ることができる音声を再生する可能性がある。たとえば、音声対応デバイス125は、受話者の電話が答えるために利用可能である場合、聞き取ることができる呼び出し音を再生する可能性がある。別の例において、音声対応デバイス125は、受話者の電話が答えるために利用可能でない場合、話中信号音を再生する可能性がある。別の例において、音声対応デバイス125は、受話者の電話番号が無効である場合、「サポートされない電話番号です」などの音声メッセージをユーザに与える可能性がある。その他の実施形態において、ユーザ110は、受話者の電話に電話をつなごうと試みる間に、受話者の電話への電話を切断するために音声対応デバイス125上のインタラクティブボタンをタップする可能性がある。
一部の実装において、音声対応デバイス125は、ユーザ110によって掛けられた一番最近の電話をリダイヤルする可能性がある。たとえば、ユーザ110は、番号を言わずに「オーケー、コンピュータ。リダイヤルして」と言うことができ、音声対応デバイス125は、電話を掛けられた最後の受話者の番号をリダイヤルする。一部の実装においては、音声対応デバイス125が一番最近の電話をリダイヤルするために、音声対応デバイス125は、それぞれの電話の後に一番最近の電話に関連する設定をメモリに記憶する。メモリ内の一番最近の電話に関連する設定は、電話を掛けるユーザ、電話を掛けるために使用された番号、および受話者の番号を含む。
一部の実装において、音声対応デバイス125は、音声自動応答システムをナビゲートするためのデュアルトーンマルチ周波数(Dual Tone Multiple Frequencies)(DTMF)トーンを受け取る可能性がある。たとえば、ユーザ110は、「オーケー、コンピュータ。Nを押して」と言うことができ、Nは、*キー、#キー、または0から9までの数字である。それに応じて、音声対応デバイス125は、「オーケー、コンピュータ」を検出した後、両方向とも保留にし、受話者155に送信される数字Nに関するダイヤルトーンを生成し、両方向とも保留することをやめる可能性がある。
一部の実装において、音声対応デバイス125は、ユーザ110にステータスライトを提供する可能性がある。たとえば、ステータスライトは、音声対応デバイス125のステータスを示すためのLEDライトであることが可能である。ステータスライトは、電話をつなげること、電話がつながったこと、電話が終了したこと、ユーザから音声コマンドを受け取ること、およびユーザ110にメッセージを与えることを示すための色、点滅の継続時間、または明るさを変化させる可能性がある。
一部の実装において、ユーザ110は、特定の音声コマンドによって電話を終了させる可能性がある。たとえば、ユーザ110は、「オーケー、コンピュータ。電話をやめて」、「オーケー、コンピュータ。電話を切って」、または「オーケー、コンピュータ。電話を切断して」と言うことができる。一部の実装においては、受話者が、電話を終了する可能性がある。電話が終了された後、音声対応デバイス125は、聞き取ることができる話中音を再生し、音声対応デバイス125を電話をつなぐ前の以前の状態に戻す可能性がある。たとえば、音声対応デバイス125を以前の状態に戻すことは、電話が開始されたときに歌などのメディアが停止した時点のメディアの再生を続けることを含む可能性がある。
一部の実装において、音声対応デバイス125は、着信が受け取られるときを示す可能性がある。たとえば、音声対応デバイス125は、音声対応デバイス125が電話を受け取っていることを示すためにLEDを光らせるか、鳴り響く音を聞こえるように出力するか、または「着信です」と聞こえるように出力する可能性がある。それに応答して、ユーザ110は、着信に対してアクションを起こす可能性がある。たとえば、ユーザ110は、いくつか例を挙げるとすれば、以下、すなわち、「オーケー、コンピュータ。電話を取って」、「オーケー、コンピュータ。答えて」、「オーケー、コンピュータ。受け取って」、または「オーケー、コンピュータ。いいよ」のうちの1つを言うことによって電話に答える可能性がある。別の例において、ユーザ110は、いくつか例を挙げるとすれば、以下、すなわち、「オーケー、コンピュータ。ダメだ」、「オーケー、コンピュータ。受け取らないで」、または「オーケー、コンピュータ。電話を切って」のうちの1つを言うことによって電話を拒否し、接続の試みを切断する可能性がある。
一部の実装において、音声対応デバイス125は、仮番号によって掛けられた着信のみを受け入れる可能性がある。特に、音声対応デバイス125は、緊急サービスへの発信をするために使用された仮番号への電話から着信が受け取られるときにのみ鳴る可能性がある。たとえば、音声対応デバイス125は、緊急サービスにダイヤルするためにアウトバウンドコール用の仮番号として番号(555) 555-5555を使用する可能性があり、番号(555) 555-5555への着信のみを受け入れる可能性がある。
一部の実装において、ユーザ110は、スピーカーフォンとして使用するために、別のデバイス上の着信を音声対応デバイス125に転送する可能性がある。ユーザ110は、電話が鳴っている間にまたは電話中に電話を転送する可能性がある。たとえば、ユーザ110は、「オーケー、コンピュータ。私の電話からあなたに電話を転送して」と言う可能性がある。一部の実装において、音声対応デバイス125は、電話を転送するために近距離通信プロトコルを使用してその別のデバイスと通信する可能性がある。たとえば、音声対応デバイス125は、たとえば、音声対応デバイス125のスピーカーに現在の電話をルーティングするように別のデバイスに命じるためにBluetooth(登録商標)またはWiFiを使用して別のデバイスに接続する可能性がある。
一部の実装において、ユーザ110は、音声対応デバイス125からクライアントデバイス510に電話を転送する可能性がある。特に、ユーザ110は、電話が鳴っている間にまたは電話中に電話を転送する可能性がある。これは、クライアントデバイス510がBluetooth(登録商標)などの近距離通信プロトコルのうちの少なくとも1つを使用して音声対応デバイス125に接続される場合に実行される可能性がある。たとえば、ユーザ110は、「オーケー、コンピュータ。私の電話に電話を転送して」と言う可能性がある。さらに、ユーザ110は、ある音声対応デバイス125から別室に置かれた別の音声対応デバイス125に電話を転送する可能性がある。たとえば、ユーザ110は、「オーケー、コンピュータ。寝室のコンピュータに電話を転送して」と言う可能性がある。クライアントデバイス510または別の音声対応デバイス125が電源が入っていないかまたは音声対応デバイス125に接続されていない場合、音声対応デバイス125は、「接続を確立するためにデバイスをオンにしてください」と言う可能性がある。
図6は、発信者番号を決定するためのプロセス600の例を示す流れ図である。プロセス600の動作は、システム500などの1つまたは複数のコンピューティングシステムによって実行される可能性がある。
プロセス600は、音声電話を要求する発話を受け取ること(610)を含む。たとえば、音声対応デバイス125は、ユーザが「オーケー、コンピュータ。(123) 456-7890に電話を掛けて」と言うときに発話を受け取る可能性があり、そのとき、音声対応デバイス125のマイクロフォンが、発話に対応する音声データを生成する。一部の実装において、音声電話は、音声のみを含む電話を指す可能性がある。その他の実装において、音声電話は、音声のみを含むのではない電話、たとえば、音声と映像との両方を含むテレビ会議電話を指す可能性がある。
プロセス600は、発話を特定の知られているユーザによって言われたものとして分類すること(620)を含む。たとえば、音声対応デバイス125は、発話「オーケー、コンピュータ。(123) 456-7890に電話を掛けて」を特定の知られているユーザ「マット」によって言われたものとして分類する可能性がある。別の例において、音声対応デバイス125は、発話「オーケー、コンピュータ。(123) 456-7890に電話を掛けて」を音声対応デバイスに知られていないユーザによって言われたものとして分類する可能性がある。
発話を特定の知られているユーザによって言われたものとして分類することは、発話の中の語りが特定の知られているユーザに対応する語りと一致するかどうかを判定することを含む可能性がある。たとえば、上述のように、音声対応デバイス125は、事前にホットワード「オーケー、コンピュータ」を言う知られているユーザ「マット」に対応するMFCCを記憶し、今受け取られた発話の中のホットワード「オーケー、コンピュータ」からのMFCCを決定し、それから、発話からのMFCCが知られているユーザ「マット」に関して記憶されたMFCCに一致すると判定し、それに応じて、発話を知られているユーザ「マット」によって言われたものとして分類する可能性がある。別の例において、音声対応デバイス125は、事前にホットワード「オーケー、コンピュータ」を言う知られているユーザ「マット」に対応するMFCCを記憶し、今受け取られた発話の中のホットワード「オーケー、コンピュータ」からのMFCCを決定し、それから、発話からのMFCCが知られているユーザ「マット」に関して記憶されたMFCCに一致しないと判定し、それに応じて、発話を知られているユーザ「マット」によって言われたものとして分類しない可能性がある。
発話を特定の知られているユーザによって言われたものとして分類することは、発話者の少なくとも一部の視覚的画像が特定の知られているユーザに対応する視覚的情報と一致するかどうかを判定することを含む可能性がある。たとえば、上述のように、音声対応デバイス125は、カメラを含み、カメラによって撮影された発話者の顔の画像を取得し、画像内の発話者の顔が知られているユーザ「マット」の顔を示す情報と一致すると判定し、その判定に応じて、発話者を知られているユーザ「マット」として分類する可能性がある。別の例において、音声対応デバイス125は、カメラを含み、カメラによって撮影された発話者の顔の画像を取得し、画像内の発話者の顔が知られているユーザ「マット」の顔を示す情報と一致しないと判定し、その判定に応じて、発話者を知られているユーザ「マット」ではないものとして分類する可能性がある。一部の実装においては、発話が特定の知られているユーザによって言われたかどうかを分類するために、視覚的画像および語りが、組み合わせて考慮される可能性がある。
プロセス600は、特定の知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定すること(630)を含む。たとえば、音声対応デバイス125は、知られているユーザ「マット」が個人電話番号(555) 222-2222に関連付けられていると判定する可能性がある。別の例において、音声対応デバイス125は、特定の知られているユーザ「父さん」が個人の番号に関連付けられていないと判定する可能性がある。
特定の知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定することは、特定の知られているユーザのアカウント情報にアクセスすることと、ユーザのアカウント情報が特定の知られているユーザに関するボイス番号を記憶するかどうかを判定することとを含む可能性がある。たとえば、音声対応デバイス125は、音声対応デバイス125に記憶された知られているユーザ「マット」のアカウント情報にアクセスし、アカウント情報が個人電話番号(555) 222-2222を含むと判定し、それに応じて、知られているユーザ「マット」が個人の番号に関連付けられていると判定する可能性がある。別の例において、音声対応デバイス125は、音声対応デバイス125に記憶された知られているユーザ「父さん」のアカウント情報にアクセスし、アカウント情報が個人電話番号を含まないと判定し、それに応じて、知られているユーザ「父さん」が個人の番号に関連付けられていないと判定する可能性がある。
追加的にまたは代替的に、特定の知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定することは、特定の知られているユーザの指示および発話の表現をサーバに提供することと、特定の知られているユーザのパーソナルボイス番号、電話を掛けるべきボイス番号、および音声電話を掛ける命令をサーバから受け取ることとを含む可能性がある。たとえば、一部の実装において、音声対応デバイス125は、個人電話番号を記憶しない可能性があり、アシスタントサーバ502が、個人電話番号を記憶する可能性がある。したがって、音声対応デバイス125は、発話「オーケー、コンピュータ。(123)456-7890に電話を掛けて」の音声表現を、発話者が知られているユーザ「マット」であるという指示と一緒にアシスタントサーバ502に提供する可能性がある。そして、アシスタントサーバ502は、発話を文字に起こし、文字に起こされたものの中の「電話を掛けて」から、発話が電話を開始することを要求していると判定し、文字に起こされたものから、「(123) 456-7890」が電話を掛けるべき番号であると判定し、発話が電話を要求しているとの判定に応じて、知られているユーザ「マット」に関する記憶されたアカウント情報にアクセスし、知られているユーザ「マット」に関する記憶されたアカウントがパーソナルボイス番号(555) 222-2222を含むと判定し、それに応じて、番号(123) 456-7890に電話を掛ける命令を音声対応デバイス125に与え、(555) 222-2222を電話を開始している電話番号として示す可能性がある。
特定の知られているユーザがパーソナルボイス番号に関連付けられているかどうかを判定することは、特定の知られているユーザのアカウントにアクセスすることと、ユーザのアカウントが電話を示すかどうかを判定することと、電話が音声対応デバイスに接続されていると判定することとを含む可能性がある。たとえば、音声対応デバイス125が発話を知られているユーザ「マット」によって話されたものとして分類した後、音声対応デバイス125は、特定の電話が知られているユーザ「マット」に関連するものとして示されるかどうかを判定するために記憶されたアカウント情報にアクセスし、アカウントが特定の電話を示すとの判定に応じて、特定の電話が、たとえば、Bluetooth(登録商標)(登録商標)によって接続されているかどうかを判定し、特定の電話が接続されているとの判定に応じて、特定の電話によって電話を開始する可能性がある。
プロセス600は、パーソナルボイス番号を用いて音声電話を開始すること(640)を含む。たとえば、音声対応デバイス125は、個人の番号「(555) 222-2222」を使用して「(123) 456-7890」への電話を開始する命令をボイスサーバ506に与える可能性がある。一部の実装において、パーソナルボイス番号を用いて電話を開始することは、VoIPコールプロバイダを通じて電話を開始することを含む可能性がある。たとえば、ボイスサーバ506が、VoIPプロバイダである可能性があり、音声対応デバイス125が、ボイスサーバ506が電話を開始することを要求する可能性がある。別の例において、音声対応デバイス125は、音声対応デバイスに接続されていると判定された知られているユーザ「マット」に関連する電話に電話を開始する命令を与える可能性がある。
図7は、電話を掛けるべき受話者の番号を決定するためのプロセスの例を示す流れ図である。プロセス600の動作は、システム500などの1つまたは複数のコンピューティングシステムによって実行される可能性がある。
プロセス700は、音声電話を要求する発話を受け取ること(710)を含む。たとえば、アシスタントサーバ502は、「おばあちゃんに電話を掛けて」という発話の表現と、発話が知られているユーザ「マット」によって言われたものとして音声対応デバイス125によって判定されたという指示とを音声対応デバイス125から受け取る可能性がある。指示は、その他のユーザのアカウントからマットのアカウントを一意に特定する英数字の値、または発話の発話者が英数字の値によって特定されたアカウントに関連付けられているかどうかを示す英数字の値に関連する2進値の包含である可能性がある。
プロセスは、発話を特定の知られているユーザによって言われたものとして分類すること(720)を含む。たとえば、アシスタントサーバ502は、発話を知られているユーザ「マット」によって話されたものとして分類する可能性がある。発話を特定の知られているユーザによって言われたものとして分類することは、発話の中の語りが特定の知られているユーザに対応する語りに一致すると音声対応デバイスによって判定されたという指示を取得することを含む可能性がある。たとえば、アシスタントサーバ502は、発話「おばあちゃんに電話を掛けて」の発話者に一致するものとして知られているユーザ「マット」のアカウントを一意に特定する値「854978」を音声対応デバイス125が提供したと判定し、それに応じて、発話を知られているユーザ「マット」によって言われたものとして分類する可能性がある。
追加的にまたは代替的に、発話を特定の知られているユーザによって言われたものとして分類することは、発話の中の語りが特定の知られているユーザに対応する語りと一致するかどうかを判定することを含む可能性がある。たとえば、アシスタントサーバ502は、発話の音声表現からMFCCを生成し、発話からのMFCCが知られているユーザ「マット」に関して記憶されたMFCCに一致するかどうかを判定し、MFCCが一致するとの判定に応じて、発話を知られているユーザ「マット」によって言われたものとして分類する可能性がある。
プロセス700は、発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザに関する連絡先に基づいて電話を掛けるべき受話者のボイス番号を決定すること(730)を含む。たとえば、「おばあちゃんに電話を掛けて」を知られているユーザ「マット」によって言われたものとする分類に応じて、アシスタントサーバ502は、知られているユーザ「マット」に関して記憶された電話連絡先に基づいて電話を掛けるべき受話者の番号「(987) 654-3210」を決定する可能性がある。別の例においては、「おばあちゃんに電話を掛けて」を知られているユーザ「父さん」によって言われたものとする分類に応じて、アシスタントサーバ502は、知られているユーザ「父さん」に関して記憶された電話連絡先に基づいて電話を掛けるべき受話者の番号「(876) 543-2109」を決定する可能性がある。
特定の知られているユーザによって作成された連絡先のエントリを取得することは、発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザの連絡先のエントリが利用可能であると判定することと、特定の知られているユーザの連絡先のエントリが利用可能であるとの判定に応じて、特定の知られているユーザによって作成された連絡先のエントリを取得することとを含む可能性がある。たとえば、発話を知られているユーザ「マット」によって言われたものとする分類に応じて、アシスタントサーバ502は、知られているユーザ「マット」に関する電話連絡先のエントリが利用可能であると判定し、それに応じて、知られているユーザ「マット」の電話連絡先のエントリにアクセスする可能性がある。
特定の知られているユーザの連絡先のエントリが利用可能であると判定することは、特定の知られているユーザがパーソナライズされた結果が欲しいことを特定の知られているユーザが事前に示したかどうかを判定することを含む可能性がある。たとえば、アシスタントサーバ502は、発話と一緒に、音声対応デバイス125からパーソナライズされた結果ビットを受け取り、パーソナライズされた結果ビットが知られているユーザ「マット」がパーソナライズされた結果が欲しいことを示す値に設定されていると判定し、それに応じて、知られているユーザ「マット」の電話連絡先のエントリが利用可能であると判定する可能性がある。別の例において、アシスタントサーバ502は、発話と一緒に、音声対応デバイス125からパーソナライズされた結果ビットを受け取り、パーソナライズされた結果ビットが知られているユーザ「父さん」がパーソナライズされた結果が欲しくないことを示す値に設定されていると判定し、それに応じて、知られているユーザ「父さん」の電話連絡先のエントリが利用可能でないと判定する可能性がある。
発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザに関する連絡先に基づいて電話を掛けるべき受話者のボイス番号を決定することは、発話を特定の知られているユーザによって言われたものとする分類に応じて、特定の知られているユーザによって作成された連絡先のエントリを取得することと、連絡先のエントリの中から特定の連絡先のエントリを特定することであって、特定の連絡先のエントリが、発話に一致する名前を含む、特定することと、特定の連絡先のエントリによって示されたボイス番号を受話者のボイス番号として決定することとを含む可能性がある。たとえば、発話「おばあちゃんに電話を掛けて」を知られているユーザ「マット」によって言われたものとする分類に応じて、アシスタントサーバ502は、知られているユーザ「マット」によって作成された電話連絡先のエントリを取得し、電話連絡先のエントリのうちの1つが発話の中の「おばあちゃん」に一致する「おばあちゃん」と名付けられ、番号「(987) 654-3210」を有することを特定し、受話者の電話番号が番号「(987) 654-3210」であると決定する可能性がある。
連絡先のエントリの中から特定の連絡先のエントリを特定することであって、特定の連絡先のエントリが、発話に一致する名前を含む、特定することは、発話の文字に起こされたものを生成することと、文字に起こされたものが名前を含むと判定することとを含む可能性がある。たとえば、アシスタントサーバ502は、発話「おばあちゃんに電話を掛けて」の文字に起こされたものを生成し、文字に起こされたものからの「おばあちゃん」が知られているユーザ「マット」の電話連絡先のエントリに関する名前「おばあちゃん」と同一であると判定し、それに応じて、「おばあちゃん」と名付けられた連絡先のエントリを特定する可能性がある。
プロセス700は、受話者のボイス番号への音声電話を開始すること(740)を含む。たとえば、アシスタントサーバ502は、「おばあちゃん」と名付けられた知られているユーザの電話連絡先から取得された受話者の電話番号「(987) 654-3210」への電話を開始する可能性がある。受話者のボイス番号への音声電話を開始することは、受話者のボイス番号と、受話者のボイス番号への音声電話を開始する命令とを音声対応デバイスに与えることを含む可能性がある。たとえば、アシスタントサーバ502は、番号(555) 222-2222を用いて番号(987) 654-3210への電話を開始する命令を音声対応デバイス125に与える可能性がある。
一部の実装において、プロセス700は、第2の音声電話を要求する第2の発話を受け取ることと、第2の発話を音声対応デバイス125のいかなる知られているユーザによっても言われていないものとして分類することと、第2の発話を音声対応デバイスのいかなる知られているユーザによっても言われていないものとする分類に応じて、音声対応デバイスのいかなる知られているユーザに関する連絡先にもアクセスせずに第2の音声電話を開始することとを含む可能性がある。たとえば、アシスタントサーバ502は、第2の発話「店Xに電話を掛けて」を受け取り、第2の発話を音声対応デバイス125のいかなる知られているユーザによっても言われていないものとして分類し、発話の中の「店X」が電話番号ではないと判定し、第2の発話を音声対応デバイスのいかなる知られているユーザによっても言われていないものとして分類し、発話の中の「店X」が電話番号ではないとの分類に応じて、「店X」の名前を有する近くの地元の会社に関して地図データベースを検索し、名前「店X」および電話番号「(765) 432-1098」を有する単一の近くの地元の会社を特定し、それに応じて、音声対応デバイスのいかなる知られているユーザに関する電話連絡先にもアクセスせずに(765) 432-1098への第2の電話を開始する可能性がある。
図8は、音声電話中に問い合わせを処理するためのプロセスの例を示す流れ図である。プロセス800の動作は、システム500などの1つまたは複数のコンピューティングシステムによって実行される可能性がある。
プロセス800は、第一者が第一者と第二者との間の音声電話中に音声対応仮想アシスタントへの問い合わせを言ったと判定すること(810)を含む。たとえば、音声対応デバイス125は、ユーザがユーザと別の人との間の電話中にアシスタントサーバ502への問い合わせを言ったと判定する可能性がある。第一者が第一者と第二者との間の電話中に音声対応仮想アシスタントへの問い合わせを言ったと判定することは、電話中に第一者によってホットワードが言われたと音声対応デバイスによって判定することを含む可能性がある。たとえば、音声対応デバイス125は、電話が音声対応デバイス125によって継続中である間にホットワード「オーケー、コンピュータ」が言われたと判定する可能性がある。電話は、別の人へのユーザからの語りを拾い、ユーザへの別の人の語りを出力するために音声対応デバイス125のマイクロフォンおよびスピーカーが使用されているときに、音声対応デバイス125によって継続中であると考えられる可能性がある。
プロセス800は、第一者が第一者と第二者との間の電話中に音声対応仮想アシスタントへの問い合わせを言ったとの判定に応じて、第一者と第二者との間の音声電話を保留にすること(810)を含む。たとえば、第一者が第一者と第二者との間の電話中に音声対応仮想アシスタントへの問い合わせ「オーケー、コンピュータ。私の次の予定は何?」を言ったとの判定に応じて、音声対応デバイス125は、電話を両方向とも保留にする可能性がある。音声電話は、別の人がユーザから音声対応仮想アシスタントへの問い合わせを聞かない可能性があり、問い合わせに対する音声対応仮想アシスタントからの応答を聞かない可能性があるように両方向とも保留にされる可能性がある。
プロセス800は、音声電話を保留にすること(820)を含む。たとえば、音声対応デバイス125は、電話を両方向とも保留にする可能性がある。第一者と第二者との間の音声電話を保留にすることは、音声電話を保留にする命令を音声コールプロバイダに与えることを含む可能性がある。たとえば、音声対応デバイス125は、継続中の電話を保留にするようにボイスサーバ506に命じる可能性がある。追加的にまたは代替的に、第一者と第二者との間の音声電話を保留にすることは、マイクロフォンからの音声をボイスサーバではなく音声対応仮想アシスタントにルーティングすることと、ボイスサーバからの音声ではなく音声対応仮想アシスタントからの音声をスピーカーにルーティングすることとを含む可能性がある。たとえば、音声対応デバイス125は、音声対応デバイス125のマイクロフォンからの音声をボイスサーバ506ではなくアシスタントサーバ502にルーティングし、ボイスサーバ506からの音声ではなくアシスタントサーバ502からの音声を音声対応デバイス125のスピーカーにルーティングする可能性がある。
プロセス800は、音声対応仮想アシスタントが問い合わせを解決したと判定すること(830)を含む。たとえば、音声対応デバイス125は、アシスタントサーバ502が問い合わせ「オーケー、コンピュータ。私の次の予定は何」を解決したと判定する可能性がある。音声対応仮想アシスタントが問い合わせを解決したと判定することは、問い合わせ、および音声電話が音声対応デバイス上で継続中であるという指示を音声対応仮想アシスタントに与えることと、問い合わせへの応答および問い合わせが解決されるという指示を音声対応仮想アシスタントから受け取ることとを含む可能性がある。たとえば、音声対応デバイス125は、問い合わせ「オーケー、コンピュータ。私の次の予定は何」の表現および「継続中の電話=True(Ongoing call=True)」という指示を与え、それに応じて、「あなたの次の予定は午後3:30の『コーヒーブレイク』です」という合成された語りの表現を問い合わせに対する応答として受け取り、「問い合わせ解決済み=True(Query resolved=True)」という指示を受け取る。
一部の実装において、音声対応仮想アシスタントは、問い合わせに対応するコマンドを特定し、コマンドが音声電話中に実行され得ると判定し、コマンドが音声電話中に実行され得るとの判定に応じて、コマンドに対する答えを示すための応答を決定するように構成される可能性がある。たとえば、アシスタントサーバ502は、発話「オーケー、コンピュータ。私の次の予定は何」の表現を受け取り、発話の表現から文字に起こされたものからコマンド「次の予定を特定して」を特定し、コマンド「次の予定を特定して」が電話中に実行され得ると判定し、コマンドが電話中に実行され得るとの判定に応じて、「あなたの次の予定は午後3:30の『コーヒーブレイク』です」という答えを示すための応答を決定する可能性がある。
一部の実装において、音声対応仮想アシスタントは、問い合わせに対応するコマンドを特定し、コマンドが音声電話中に実行され得ないと判定し、コマンドが音声電話中に実行され得ないとの判定に応じて、コマンドが実行され得ないことを示すための応答を決定するように構成される可能性がある。たとえば、アシスタントサーバ502は、発話「オーケー、コンピュータ。何か音楽をかけて」の表現を受け取り、発話の表現から文字に起こされたものからコマンド「音楽をかけて」を特定し、コマンド「音楽をかけて」が電話中に実行され得ないと判定し、コマンドが電話中に実行され得ないとの判定に応じて、「すみません。電話中は音楽を再生することができません」という答えを示すための応答を決定する可能性がある。
一部の実装において、コマンドが音声電話中に実行され得ないと判定することは、音声電話中に通常実行され得るコマンドのリストを取得することと、特定されたコマンドがコマンドのリストに載っていないと判定することとを含む。たとえば、アシスタントサーバ502は、「次の予定を特定して」を含み、「音楽をかけて」を含まない、実行され得るコマンドのリストを取得し、コマンド「音楽をかけて」がリスト内で特定されないと判定し、それに応じて、コマンド「音楽をかけて」が電話中に通常実行され得ないと判定する可能性がある。
一部の実装において、コマンドが音声電話中に実行され得ないと判定することは、音声電話中に通常実行され得ないコマンドのリストを取得することと、特定されたコマンドがコマンドのリストに載っていると判定することとを含む。たとえば、アシスタントサーバ502は、「音楽をかけて」を含み、「次の予定を特定して」を含まない、実行され得ないコマンドのリストを取得し、コマンド「音楽をかけて」がリスト内で特定されると判定し、それに応じて、コマンド「音楽をかけて」が電話中に通常実行され得ないと判定する可能性がある。
プロセス800は、音声対応仮想アシスタントが問い合わせを処理したとの判定に応じて、第一者と第二者との間の音声電話の保留を解除すること(840)を含む。たとえば、音声対応デバイス125は、電話を再開する可能性がある。音声対応仮想アシスタントが問い合わせを処理したとの判定に応じて、第一者と第二者との間の音声電話の保留を解除することは、音声電話の保留を解除する命令を音声コールプロバイダに与えることを含む可能性がある。たとえば、音声対応デバイス125は、電話の保留を解除する命令をボイスサーバ506に与える可能性がある。
追加的にまたは代替的に、音声対応仮想アシスタントが問い合わせを処理したとの判定に応じて、第一者と第二者との間の音声電話の保留を解除することは、マイクロフォンからの音声を音声対応仮想アシスタントではなくボイスサーバにルーティングすることと、音声対応仮想アシスタントからの音声ではなくボイスサーバからの音声をスピーカーにルーティングすることとを含む可能性がある。たとえば、音声対応デバイス125は、マイクロフォンからの音声をアシスタントサーバ502ではなくボイスサーバ506にルーティングする可能性があり、アシスタントサーバ502からの音声ではなくボイスサーバ506からの音声をスピーカーにルーティングする可能性がある。
一部の実装において、音声対応仮想アシスタントが問い合わせを処理したとの判定に応じて、第一者と第二者との間の音声電話の保留を解除することは、デュアルトーンマルチ周波数信号を生成する命令を音声対応仮想アシスタントから受け取ることと、デュアルトーンマルチ周波数信号を生成する命令を音声対応仮想アシスタントから受け取ったことに応じて、音声電話の保留を解除する命令を音声コールプロバイダに与えた後、デュアルトーンマルチ周波数信号を生成する第2の命令を音声コールプロバイダに与えることとを含む可能性がある。たとえば、音声対応デバイス125は、「1のDTMFを生成して」という命令を受け取り、それに応じて、「1」キーの押下を表すDTMFを生成するようにボイスサーバ506に命じる可能性がある。
一部の実装において、音声対応アシスタントサーバは、問い合わせが1つまたは複数のデュアルトーンマルチ周波数信号を生成するコマンドおよび1つまたは複数のデュアルトーンマルチ周波数信号に対応する1つまたは複数の数を示すと判定するように構成される。たとえば、アシスタントサーバ502は、発話「オーケー、コンピュータ。1を押して」の表現を受け取り、文字に起こされたものから、「1を押して」が文字に起こされたものの中の「1」によって表された数に関するDTMF信号を生成することを示すと判定し、それに応じて、「1」に関するDTMFを生成するようにボイスサーバ506に命じるように音声対応デバイス125に命じる命令を音声対応デバイス125に与える可能性がある。追加的にまたは代替的に、一部の実装においては、音声対応デバイス125が、DTMFを生成する可能性がある。たとえば、音声対応デバイス125は、「1」に関するDTMFを生成する命令をアシスタントサーバ502から受け取り、それに応答して、「1」に関するDTMFトーンを生成し、それらのトーンをボイスサーバ506に送信する可能性がある。
上の説明に加えて、ユーザは、本明細書に記載のシステム、プログラム、または特徴がユーザ情報(たとえば、ユーザのソーシャルネットワーク、社会的行為もしくは活動、職業、ユーザのプリファレンス、またはユーザの現在位置についての情報)の収集を可能にしてもよいかどうかといつ可能にしてもよいかとの両方、およびユーザがコンテンツまたは通信をサーバから送信されるかどうかについての選択をユーザが行うことを可能にするコントロールを提供される可能性がある。さらに、特定のデータが、個人を特定できる情報が削除されるように、記憶されるかまたは使用される前に1つまたは複数の方法で処理される可能性がある。たとえば、ユーザのアイデンティティが、個人を特定できる情報がユーザに関して決定され得ないか、または位置情報が取得される場合にユーザの地理的位置が(都市、郵便番号、もしくは州のレベルまでになど)一般化される可能性があり、したがって、ユーザの特定の位置が決定され得ないように処理される可能性がある。したがって、ユーザは、どの情報がユーザについて収集されるか、その情報がどのように使用されるのか、およびどの情報がユーザに提供されるのかをコントロールすることができる可能性がある。
システム100の異なる構成が、使用される可能性があり、音声対応デバイス125、アシスタントサーバ502、およびボイスサーバ506の機能が、組み合わされるか、さらに分割されるか、分散されるか、または入れ替えられる可能性がある。たとえば、アシスタントサーバ502が文字に起こすために問い合わせに発話の音声表現を含める代わりに、音声対応デバイス125が、発話を文字に起こし、アシスタントサーバ502への問い合わせに文字に起こされたものを含める可能性がある。
図9は、本明細書に記載の技術を実装するために使用され得るコンピューティングデバイス900およびモバイルコンピューティングデバイス950の例を示す。コンピューティングデバイス900は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、およびその他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すように意図される。モバイルコンピューティングデバイス950は、携帯情報端末、セルラー電話、スマートフォン、およびその他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すように意図される。本明細書において示された構成要素、それらの接続および関係、ならびにそれらの機能は、例であるように意図されているに過ぎず、限定であるように意図されていない。
コンピューティングデバイス900は、プロセッサ902、メモリ904、記憶装置906、メモリ904および複数の高速拡張ポート910に接続する高速インターフェース908、ならびに低速拡張ポート914および記憶装置906に接続する低速インターフェース912を含む。プロセッサ902、メモリ904、記憶装置906、高速インターフェース908、高速拡張ポート910、および低速インターフェース912の各々は、様々なバスを使用して相互に接続され、共通のマザーボードに搭載されるか、または適宜その他の方法で搭載される可能性がある。プロセッサ902は、メモリ904内または記憶装置906上に記憶された命令を含む、コンピューティングデバイス900内で実行するための命令を処理して、高速インターフェース908に結合されたディスプレイ916などの外部入力/出力デバイス上のグラフィカルユーザインターフェース(GUI)のためのグラフィカルな情報を表示することができる。その他の実装においては、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数の種類のメモリと一緒に適宜使用される可能性がある。また、複数のコンピューティングデバイスが、各デバイスが必要な動作の一部を提供するようにして(たとえば、サーババンク、一群のブレードサーバ、またはマルチプロセッサシステムとして)接続される可能性がある。
メモリ904は、コンピューティングデバイス900内で情報を記憶する。一部の実装において、メモリ904は、1つの揮発性メモリユニットまたは複数の揮発性メモリユニットである。一部の実装において、メモリ904は、1つの不揮発性メモリユニットまたは複数の不揮発性メモリユニットである。メモリ904は、磁気または光ディスクなどの別の形態のコンピュータ可読媒体である可能性もある。
記憶装置906は、コンピューティングデバイス900に大容量記憶を提供することができる。一部の実装において、記憶装置906は、フロッピーディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリもしくはその他の同様のソリッドステートメモリデバイス、またはストレージエリアネットワークもしくはその他の構成内のデバイスを含むデバイスのアレイなどのコンピュータ可読媒体であるか、またはそのようなコンピュータ可読媒体を含む可能性がある。命令は、情報担体に記憶され得る。命令は、1つまたは複数の処理デバイス(たとえば、プロセッサ902)によって実行されるとき、上述の方法などの1つまたは複数の方法を実行する。命令は、コンピュータ可読媒体または機械可読媒体(たとえば、メモリ904、記憶装置906、またはプロセッサ902上のメモリ)などの1つまたは複数の記憶装置によって記憶されることも可能である。
高速インターフェース908が、コンピューティングデバイス900に関する帯域を大量に消費する動作を管理する一方、低速インターフェース912は、帯域をそれほど消費しない動作を管理する。そのような機能の割り振りは、例であるに過ぎない。一部の実装において、高速インターフェース908は、メモリ904に、(たとえば、グラフィックスプロセッサまたはアクセラレータを通じて)ディスプレイ916に、および様々な拡張カード(図示せず)を受け入れる可能性がある高速拡張ポート910に結合される。実装において、低速インターフェース912は、記憶装置906および低速拡張ポート914に結合される。様々な通信ポート(たとえば、USB、Bluetooth(登録商標)、イーサネット(登録商標)、ワイヤレスイーサネット(登録商標))を含む可能性がある低速拡張ポート914は、キーボード、ポインティングデバイス、スキャナなどの1つもしくは複数の入力/出力デバイスと結合される可能性があり、またはたとえばネットワークアダプタを介してスイッチもしくはルータなどのネットワーキングデバイスと結合される可能性がある。
コンピューティングデバイス900は、図に示されるように、多くの異なる形態で実装される可能性がある。たとえば、コンピューティングデバイス900は、1つの標準的なサーバ920として実装されるか、または一群のそのようなサーバ内で複数回実装される可能性がある。さらに、コンピューティングデバイス900は、ラップトップコンピュータ922などのパーソナルコンピュータ内で実装される可能性がある。コンピューティングデバイス900は、ラックサーバシステム924の一部として実装される可能性もある。代替的に、コンピューティングデバイス900の構成要素は、モバイルコンピューティングデバイス950などのモバイルデバイスのその他の構成要素(図示せず)と組み合わされる可能性がある。そのようなデバイスの各々は、コンピューティングデバイス900およびモバイルコンピューティングデバイス950のうちの1つまたは複数を含む可能性があり、システム全体が、互いに通信する複数のコンピューティングデバイスによって構成される可能性がある。
モバイルコンピューティングデバイス950は、構成要素の中でもとりわけ、プロセッサ952、メモリ964、ディスプレイ954などの入力/出力デバイス、通信インターフェース966、およびトランシーバ968を含む。モバイルコンピューティングデバイス950は、追加的なストレージを提供するために、マイクロドライブまたはその他のデバイスなどの記憶装置を備える可能性もある。プロセッサ952、メモリ964、ディスプレイ954、通信インターフェース966、およびトランシーバ968の各々は、様々なバスを使用して相互に接続されており、構成要素のうちのいくつかは、通常のマザーボードに搭載されるか、または適宜その他の方法で搭載される可能性がある。
プロセッサ952は、メモリ964に記憶された命令を含むモバイルコンピューティングデバイス950内の命令を実行することができる。プロセッサ952は、別々の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実装される可能性がある。プロセッサ952は、たとえば、ユーザインターフェース、モバイルコンピューティングデバイス950によって実行されるアプリケーション、およびモバイルコンピューティングデバイス950によるワイヤレス通信の制御などの、モバイルコンピューティングデバイス950のその他の構成要素の調整を行う可能性がある。
プロセッサ952は、ディスプレイ954に結合された制御インターフェース958およびディスプレイインターフェース956を通じてユーザとコミュニケーションする可能性がある。ディスプレイ954は、たとえば、TFT(薄膜トランジスタ液晶ディスプレイ)ディスプレイもしくはOLED(有機発光ダイオード)ディスプレイ、またはその他の適切なディスプレイテクノロジーである可能性がある。ディスプレイインターフェース956は、ユーザに対してグラフィカルな情報およびその他の情報を提示するようにディスプレイ954を駆動するための適切な回路を含む可能性がある。制御インターフェース958は、ユーザからコマンドを受け取り、それらのコマンドを、プロセッサ952に送るために変換する可能性がある。加えて、外部インターフェース962が、その他のデバイスとのモバイルコンピューティングデバイス950の近い地域の通信を可能にするために、プロセッサ952との通信を提供する可能性がある。外部インターフェース962は、たとえば、一部の実装においては有線通信を、またはその他の実装においてはワイヤレス通信を提供する可能性があり、複数のインターフェースが使用される可能性もある。
メモリ964は、モバイルコンピューティングデバイス950内で情報を記憶する。メモリ964は、1つのコンピュータ可読媒体もしくは複数のコンピュータ可読媒体、1つの揮発性メモリユニットもしくは複数の揮発性メモリユニット、または1つの不揮発性メモリユニットもしくは複数の不揮発性メモリユニットのうちの1つまたは複数として実装され得る。また、拡張メモリ974が設けられ、たとえば、SIMM(シングルインラインメモリモジュール(Single In Line Memory Module))カードインターフェースを含む可能性がある拡張インターフェース972を通じてモバイルコンピューティングデバイス950に接続される可能性がある。拡張メモリ974は、モバイルコンピューティングデバイス950に追加的なストレージ空間を提供する可能性があり、またはモバイルコンピューティングデバイス950に関するアプリケーションまたはその他の情報を記憶する可能性もある。特に、拡張メモリ974は、上述のプロセスを実行または補足する命令を含む可能性があり、安全な情報を含む可能性もある。したがって、たとえば、拡張メモリ974は、モバイルコンピューティングデバイス950のセキュリティモジュールとして設けられる可能性があり、モバイルコンピューティングデバイス950の安全な使用を可能にする命令を用いてプログラムされる可能性がある。さらに、ハッキングすることができない方法でSIMMカードに識別情報を置くなど、追加的な情報とともに、安全なアプリケーションがSIMMカードによって提供される可能性がある。
メモリは、たとえば、以下で検討されるように、フラッシュメモリおよび/またはNVRAMメモリ(不揮発性ランダムアクセスメモリ)を含む可能性がある。一部の実装において、1つまたは複数の処理デバイス(たとえば、プロセッサ952)によって実行されるとき、上述の方法などの1つまたは複数の方法を実行する命令が、情報担体に記憶される。命令は、1つまたは複数のコンピュータ可読媒体または機械可読媒体(たとえば、メモリ964、拡張メモリ974、またはプロセッサ952上のメモリ)などの1つまたは複数の記憶装置によって記憶されることも可能である。一部の実装において、命令は、たとえば、トランシーバ968または外部インターフェース962を介して伝播信号内で受け取られ得る。
モバイルコンピューティングデバイス950は、必要に応じてデジタル信号処理回路を含む可能性がある通信インターフェース966を通じてワイヤレスで通信する可能性がある。通信インターフェース966は、とりわけ、GSM(登録商標)音声電話(移動体通信用グローバルシステム(Global System for Mobile communications))、SMS(ショートメッセージサービス)、EMS(拡張メッセージングサービス(Enhanced Messaging Service))、またはMMSメッセージング(マルチメディアメッセージングサービス)、CDMA(登録商標)(符号分割多元接続)、TDMA(時分割多元接続)、PDC(パーソナルデジタルセルラー)、WCDMA(登録商標)(広帯域符号分割多元接続)、CDMA2000、またはGPRS(汎用パケット無線サービス)などの様々なモードまたはプロトコルの下で通信を提供する可能性がある。そのような通信は、たとえば、無線周波数を用いるトランシーバ968を通じて行われる可能性がある。さらに、近距離通信が、Bluetooth(登録商標)、WiFi、またはその他のそのようなトランシーバ(図示せず)を用いるなどして行われる可能性がある。加えて、GPS(全地球測位システム)受信機モジュール970が、モバイルコンピューティングデバイス950で実行されるアプリケーションによって適宜使用される可能性があるさらなるナビゲーションおよび位置に関連するワイヤレスデータをモバイルコンピューティングデバイス950に提供する可能性がある。
モバイルコンピューティングデバイス950は、ユーザから話された情報を受け取りし、その情報を使用可能なデジタル情報に変換する可能性がある音声コーデック960を使用して音声通信する可能性もある。同じく、音声コーデック960は、たとえば、モバイルコンピューティングデバイス950のハンドセットのスピーカーを介するなどして、ユーザのための聞き取ることができる音声を生成する可能性がある。そのような音声は、音声電話の音声を含む可能性があり、記録された音声(たとえば、音声メッセージ、音楽ファイルなど)を含む可能性があり、モバイルコンピューティングデバイス950上で動作するアプリケーションによって生成された音声も含む可能性がある。
モバイルコンピューティングデバイス950は、図に示されるように、多くの異なる形態で実装される可能性がある。たとえば、モバイルコンピューティングデバイス950は、セルラー電話980として実装される可能性がある。また、モバイルコンピューティングデバイス950は、スマートフォン982、携帯情報端末、またはその他の同様のモバイルデバイスの一部として実装される可能性がある。
本明細書に記載のシステムおよび技術の様々な実装は、デジタル電子回路、集積回路、特別に設計されたASIC、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはこれらの組合せ内に実現され得る。これらの様々な実装は、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受け取られ、それらにデータおよび命令を送信するために結合された、専用または汎用である可能性がある少なくとも1つのプログラミング可能なプロセッサを含むプログラミング可能なシステム上の、実行可能および/または解釈可能な1つまたは複数のコンピュータプログラムへの実装を含み得る。
プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られるこれらのコンピュータプログラムは、プログラミング可能なプロセッサ用の機械命令を含み、高級手続き型プログラミング言語および/もしくはオブジェクト指向プログラミング言語、ならびに/またはアセンブリ/機械言語で実装され得る。プログラムは、その他のプログラムもしくはデータを保持するファイルの一部、たとえば、マークアップ言語のドキュメントに記憶された1つもしくは複数のスクリプト、問題にしているプログラムに専用の単一のファイル、または複数の組織されたファイル、たとえば、1つもしくは複数のモジュール、サブプログラム、もしくはコードの一部を記憶するファイルに記憶され得る。コンピュータプログラムは、1つのコンピュータ上で、または1つの場所に置かれるか、もしくは複数の場所に分散され、通信ネットワークによって相互に接続される複数のコンピュータ上で実行されるように展開され得る。
本明細書で使用されるとき、用語「機械可読媒体」、「コンピュータ可読媒体」とは、機械命令を機械可読信号として受け取る機械可読媒体を含む、プログラミング可能なプロセッサに機械命令および/またはデータを提供するために使用される任意のコンピュータプログラム製品、装置、および/またはデバイス、たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD)を指す。用語「機械可読信号」とは、プログラミング可能なプロセッサに機械命令および/またはデータを提供するために使用される任意の信号を指す。
ユーザとのインタラクションを行うために、本明細書に記載のシステムおよび技術は、ユーザに対して情報を表示するためのディスプレイデバイス、たとえば、CRT(ブラウン管)またはLCD(液晶ディスプレイ)モニタ、ならびにユーザがコンピュータに入力を与えることができるキーボードおよびポインティングデバイス、たとえば、マウスまたはトラックボールを有するコンピュータ上に実装され得る。その他の種類のデバイスが、ユーザとのインタラクションを行うためにやはり使用されることが可能であり、たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックであることが可能であり、ユーザからの入力は、音響、発話、または触覚による入力を含む任意の形態で受け取られることが可能である。
本明細書に記載のシステムおよび技術は、バックエンド構成要素を、たとえば、データサーバとして含むか、またはアプリケーションサーバなどのミドルウェア構成要素を含むか、またはユーザが本明細書に記載のシステムおよび技術の実装とインタラクションすることができるグラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータなどのフロントエンド構成要素を含むか、またはそのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムに実装され得る。システムの構成要素は、通信ネットワークなどのデジタルデータ通信の任意の形態または媒体によって相互に接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、広域ネットワーク(「WAN」)、およびインターネットを含む。
コンピューティングシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは、概して互いに離れており、通常は通信ネットワークを通じてインタラクションする。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行されており、互いにクライアント-サーバの関係にあるコンピュータプログラムによって生じる。
上の説明に加えて、ユーザは、本明細書に記載のシステム、プログラム、または特徴がユーザ情報(たとえば、ユーザのソーシャルネットワーク、社会的行為もしくは活動、職業、ユーザのプリファレンス、またはユーザの現在位置についての情報)の収集を可能にしてもよいかどうかといつ可能にしてもよいかとの両方、およびユーザがコンテンツまたは通信をサーバから送信されるかどうかについての選択をユーザが行うことを可能にするコントロールを提供される可能性がある。さらに、特定のデータが、個人を特定できる情報が削除されるように、記憶されるかまたは使用される前に1つまたは複数の方法で処理される可能性がある。
たとえば、一部の実施形態においては、ユーザのアイデンティティが、個人を特定できる情報がユーザに関して決定され得ないか、または位置情報が取得される場合にユーザの地理的位置が(都市、郵便番号、もしくは州のレベルまでになど)一般化される可能性があり、したがって、ユーザの特定の位置が決定され得ないように処理される可能性がある。したがって、ユーザは、どの情報がユーザについて収集されるか、その情報がどのように使用されるのか、およびどの情報がユーザに提供されるのかをコントロールすることができる可能性がある。
いくつかの実施形態が、説明された。しかしながら、本発明の範囲から逸脱することなく様々な修正がなされる可能性があることが理解されるであろう。たとえば、上で示された様々な形式のフローは、ステップの順序を変えるか、ステップを追加するか、またはステップを削除して使用される可能性がある。また、システムおよび方法のいくつかの応用が説明されたが、多くのその他の応用が考えられることを認識されたい。したがって、その他の実施形態は、添付の請求項の範囲内にある。
対象の特定の実施形態が、説明された。その他の実施形態は、添付の請求項の範囲内にある。たとえば、請求項に挙げられたアクションは、異なる順序で実行され、それでも所望の結果を達成することができる。一例として、添付の図面に示されたプロセスは、所望の結果を達成するために、必ずしも、示された特定の順序、または逐次的順序である必要はない。場合によっては、マルチタスクおよび並列処理が有利である可能性がある。
100 システム
110 ユーザ
120 発話
125 音声対応デバイス
132 ユーザアカウント情報の第1の組
134 ユーザアカウント情報の第2の組
136 ユーザアカウント情報の第3の組
140 第1の電話番号
142 第2の電話番号
155 受話者
200 プロセス
300 プロセス
500 システム
502 アシスタントサーバ
504 連絡先データベース
506 ボイスサーバ
508 ネットワーク
510 クライアントデバイス
512 通信回線
514 通信回線
516 要求
518 アクションメッセージ
600 プロセス
700 プロセス
800 プロセス
900 コンピューティングデバイス
902 プロセッサ
904 メモリ
906 記憶装置
908 高速インターフェース
910 高速拡張ポート
912 低速インターフェース
914 低速拡張ポート
916 ディスプレイ
920 サーバ
922 ラップトップコンピュータ
924 ラックサーバシステム
950 モバイルコンピューティングデバイス
952 プロセッサ
954 ディスプレイ
956 ディスプレイインターフェース
958 制御インターフェース
960 音声コーデック
962 外部インターフェース
964 メモリ
966 通信インターフェース
968 トランシーバ
970 GPS受信機モジュール
972 拡張インターフェース
974 拡張メモリ
980 セルラー電話
982 スマートフォン

Claims (17)

1つまたは複数のプロセッサによって実装される方法であって、
デジタルアシスタントデバイスに関連付けられた電話元ユーザから発話を受け取るステップであって、前記発話が、前記デジタルアシスタントデバイスが、前記発話によってまた識別された電話先ユーザへの音声電話を開始することを要求する、ステップと、
少なくとも前記発話に基づいて、複数の異なるユーザから前記電話元ユーザを特定するステップと、
前記電話元ユーザを特定することに基づいて、前記電話元ユーザの異なるデバイスに関連付けられたボイス番号が前記電話元ユーザに関連付けられた前記デジタルアシスタントデバイスに利用可能であると判定するステップと、
前記発話によって特定された前記電話先ユーザに基づいて電話すべき受話者ボイス番号を決定するステップと、
前記デジタルアシスタントデバイスに、前記受話者ボイス番号に前記音声電話を開始させるステップであって、前記受話者ボイス番号への前記音声電話が、前記デジタルアシスタントデバイスに関連付けられた前記ボイス番号の代わりに前記音声電話の元の番号として、前記異なるデバイスに関連付けられた前記ボイス番号を示す、ステップと
前記デジタルアシスタントデバイスが追加の音声電話を開始することを要求する発話を受信するステップと、
前記複数の異なるユーザのいずれによっても話されていないとして追加の発話を分類するステップと、
前記複数の異なるユーザのいずれによっても話されていないとして第2の発話を分類したことに応答して、前記デジタルアシスタントデバイスに、前記複数の異なるユーザのいずれの連絡先エントリにアクセスすることなく前記追加の音声電話を開始させるステップと を備える、方法。
前記発話によって特定された前記電話先ユーザに基づいて電話すべき受話者ボイス番号を決定するステップが、
少なくとも前記発話に基づいて、複数の連絡先エントリの中から特定の連絡先エントリを特定するステップと、
前記受話者ボイス番号として、前記特定の連絡先エントリに関連付けられた特定のボイス番号を決定するステップと
を備える、請求項1に記載の方法。
前記複数の連絡先エントリの中から前記特定の連絡先エントリを特定するステップが、
前記発話の文字起こしを生成するステップと、
前記特定の連絡先エントリに関連付けられた名前を含む前記文字起こしを決定するステップと
を備える、請求項2に記載の方法。
少なくとも前記発話に基づいて前記複数の異なるユーザから前記電話元ユーザを特定するステップが、
アシスタントサーバから、前記発話に含まれる語りが前記電話元ユーザに対応する語りと一致すると判定されたことの指示を取得するステップ
を備える、請求項1に記載の方法。
少なくとも前記発話に基づいて前記複数の異なるユーザから前記電話元ユーザを特定するステップが、
前記アシスタントサーバによって、前記発話に含まれる語りが前記電話元ユーザに一致すると判定するステップ
を備える、請求項4に記載の方法。
前記デジタルアシスタントデバイスに、前記受話者ボイス番号に前記音声電話を開始させるステップが、
前記デジタルアシスタントデバイスへ、前記受話者ボイス番号および前記受話者ボイス番号に前記音声電話を開始する命令を提供するステップ
を備える、請求項1に記載の方法。
システムであって、
少なくとも1つのプロセッサと、
命令を備えたメモリであって、
1つまたは複数のプロセッサによって実装される方法であって、実行されたとき、前記少なくとも1つのプロセッサに、
デジタルアシスタントデバイスに関連付けられた電話元ユーザから発話を受け取ることであって、前記発話が、前記デジタルアシスタントデバイスが、前記発話によってまた識別された電話先ユーザへの音声電話を開始することを要求する、受け取ることと、
少なくとも前記発話に基づいて、複数の異なるユーザから前記電話元ユーザを特定することと、
前記電話元ユーザを特定することに基づいて、前記電話元ユーザの異なるデバイスに関連付けられたボイス番号が前記電話元ユーザに関連付けられた前記デジタルアシスタントデバイスに利用可能であると判定することと、
前記発話によって特定された前記電話先ユーザに基づいて電話すべき受話者ボイス番号を決定することと、
前記デジタルアシスタントデバイスに、前記受話者ボイス番号に前記音声電話を開始させることであって、前記受話者ボイス番号への前記音声電話が、前記デジタルアシスタントデバイスに関連付けられた前記ボイス番号の代わりに前記音声電話の元の番号として、前記異なるデバイスに関連付けられた前記ボイス番号を示す、開始させることと
前記デジタルアシスタントデバイスが追加の音声電話を開始することを要求する発話を受信することと、
前記複数の異なるユーザのいずれによっても話されていないとして追加の発話を分類することと、
前記複数の異なるユーザのいずれによっても話されていないとして第2の発話を分類したことに応答して、前記デジタルアシスタントデバイスに、前記複数の異なるユーザのいずれの連絡先エントリにアクセスすることなく前記追加の音声電話を開始させることと
を行わせる命令を備える、メモリと
を備える、システム。
前記発話によって特定された前記電話先ユーザに基づいて電話すべき受話者ボイス番号を決定するための命令が、
少なくとも前記発話に基づいて、複数の連絡先エントリの中から特定の連絡先エントリを特定することと、
前記受話者ボイス番号として、前記特定の連絡先エントリに関連付けられた特定のボイス番号を決定することと
を行わせるための命令を備える、請求項7に記載のシステム。
前記複数の連絡先エントリの中から前記特定の連絡先エントリを特定するための命令が、
前記発話の文字起こしを生成することと、
前記特定の連絡先エントリに関連付けられた名前を含む前記文字起こしを決定することと
を行わせるための命令を備える、請求項8に記載のシステム。
少なくとも前記発話に基づいて前記複数の異なるユーザから前記電話元ユーザを特定するための命令が、
アシスタントサーバから、前記発話に含まれる語りが前記電話元ユーザに対応する語りと一致すると判定されたことの指示を取得すること
を行わせるための命令を備える、請求項7に記載のシステム。
少なくとも前記発話に基づいて前記複数の異なるユーザから前記電話元ユーザを特定するための命令が、
前記アシスタントサーバによって、前記発話に含まれる語りが前記電話元ユーザに一致すると判定すること
を行わせるための命令を備える、請求項10に記載のシステム。
前記デジタルアシスタントデバイスに、前記受話者ボイス番号に前記音声電話を開始させるための命令が、
前記デジタルアシスタントデバイスへ、前記受話者ボイス番号および前記受話者ボイス番号に前記音声電話を開始する命令を提供すること
を行わせるための命令を備える、請求項7に記載のシステム。
命令を記憶した非一時的コンピュータ可読記憶媒体であって、実行されたとき、少なくとも1つのプロセッサに、
デジタルアシスタントデバイスに関連付けられた電話元ユーザから発話を受け取ることであって、前記発話が、前記デジタルアシスタントデバイスが、前記発話によってまた識別された電話先ユーザへの音声電話を開始することを要求する、受け取ることと、
少なくとも前記発話に基づいて、複数の異なるユーザから前記電話元ユーザを特定することと、
前記電話元ユーザを特定することに基づいて、前記電話元ユーザの異なるデバイスに関連付けられたボイス番号が前記電話元ユーザに関連付けられた前記デジタルアシスタントデバイスに利用可能であると判定することと、
前記発話によって特定された前記電話先ユーザに基づいて電話すべき受話者ボイス番号を決定することと、
前記デジタルアシスタントデバイスに、前記受話者ボイス番号に前記音声電話を開始させることであって、前記受話者ボイス番号への前記音声電話が、前記デジタルアシスタントデバイスに関連付けられた前記ボイス番号の代わりに前記音声電話の元の番号として、前記異なるデバイスに関連付けられた前記ボイス番号を示す、開始させることと
前記デジタルアシスタントデバイスが追加の音声電話を開始することを要求する発話を受信することと、
前記複数の異なるユーザのいずれによっても話されていないとして追加の発話を分類することと、
前記複数の異なるユーザのいずれによっても話されていないとして第2の発話を分類したことに応答して、前記デジタルアシスタントデバイスに、前記複数の異なるユーザのいずれの連絡先エントリにアクセスすることなく前記追加の音声電話を開始させることと
を備える動作を実施させる、非一時的コンピュータ可読記憶媒体。
前記発話によって特定された前記電話先ユーザに基づいて電話すべき受話者ボイス番号を決定することが、
少なくとも前記発話に基づいて、複数の連絡先エントリの中から特定の連絡先エントリを特定することと、
前記受話者ボイス番号として、前記特定の連絡先エントリに関連付けられた特定のボイス番号を決定することと
を備える、請求項13に記載の非一時的コンピュータ可読記憶媒体。
前記複数の連絡先エントリの中から前記特定の連絡先エントリを特定することが、
前記発話の文字起こしを生成することと、
前記特定の連絡先エントリに関連付けられた名前を含む前記文字起こしを決定することと
を備える、請求項14に記載の非一時的コンピュータ可読記憶媒体。
少なくとも前記発話に基づいて前記複数の異なるユーザから前記電話元ユーザを特定することが、
アシスタントサーバによって、前記発話に含まれる語りが前記電話元ユーザに一致すると判定すること
を備える、請求項13に記載の非一時的コンピュータ可読記憶媒体。
前記デジタルアシスタントデバイスに、前記受話者ボイス番号に前記音声電話を開始させることが、
前記デジタルアシスタントデバイスへ、前記受話者ボイス番号および前記受話者ボイス番号に前記音声電話を開始する命令を提供すること
を備える、請求項13に記載の非一時的コンピュータ可読記憶媒体。
JP2021179423A 2017-05-16 2021-11-02 共有された音声対応デバイスにおける電話の処理 Active JP7314238B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023113934A JP2023138512A (ja) 2017-05-16 2023-07-11 共有された音声対応デバイスにおける電話の処理

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762506805P 2017-05-16 2017-05-16
US62/506,805 2017-05-16
JP2019545937A JP6974486B2 (ja) 2017-05-16 2018-05-16 共有された音声対応デバイスにおける電話の処理
PCT/US2018/032873 WO2018213381A1 (en) 2017-05-16 2018-05-16 Handling calls on a shared speech-enabled device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019545937A Division JP6974486B2 (ja) 2017-05-16 2018-05-16 共有された音声対応デバイスにおける電話の処理

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023113934A Division JP2023138512A (ja) 2017-05-16 2023-07-11 共有された音声対応デバイスにおける電話の処理

Publications (2)

Publication Number Publication Date
JP2022019745A JP2022019745A (ja) 2022-01-27
JP7314238B2 true JP7314238B2 (ja) 2023-07-25

Family

ID=62567788

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019545937A Active JP6974486B2 (ja) 2017-05-16 2018-05-16 共有された音声対応デバイスにおける電話の処理
JP2021179423A Active JP7314238B2 (ja) 2017-05-16 2021-11-02 共有された音声対応デバイスにおける電話の処理
JP2023113934A Pending JP2023138512A (ja) 2017-05-16 2023-07-11 共有された音声対応デバイスにおける電話の処理

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019545937A Active JP6974486B2 (ja) 2017-05-16 2018-05-16 共有された音声対応デバイスにおける電話の処理

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023113934A Pending JP2023138512A (ja) 2017-05-16 2023-07-11 共有された音声対応デバイスにおける電話の処理

Country Status (6)

Country Link
US (8) US10911594B2 (ja)
EP (2) EP3920180A3 (ja)
JP (3) JP6974486B2 (ja)
KR (6) KR102396729B1 (ja)
CN (2) CN110392913B (ja)
WO (1) WO2018213381A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9306985B1 (en) * 2014-03-25 2016-04-05 8X8, Inc. User configurable data storage
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10141009B2 (en) 2016-06-28 2018-11-27 Pindrop Security, Inc. System and method for cluster-based audio event detection
WO2018053537A1 (en) 2016-09-19 2018-03-22 Pindrop Security, Inc. Improvements of speaker recognition in the call center
CA3179080A1 (en) 2016-09-19 2018-03-22 Pindrop Security, Inc. Channel-compensated low-level features for speaker recognition
CN110392913B (zh) 2017-05-16 2023-09-29 谷歌有限责任公司 在共用的启用语音的装置上处理呼叫
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US9888117B1 (en) * 2017-06-21 2018-02-06 GetHuman, Inc. Hold time reducer
US10911596B1 (en) * 2017-08-31 2021-02-02 Amazon Technologies, Inc. Voice user interface for wired communications system
EP3496090A1 (en) * 2017-12-07 2019-06-12 Thomson Licensing Device and method for privacy-preserving vocal interaction
AU2019267527A1 (en) 2018-05-07 2020-11-19 Apple Inc. User interfaces for viewing live video feeds and recorded video
US11132681B2 (en) 2018-07-06 2021-09-28 At&T Intellectual Property I, L.P. Services for entity trust conveyances
KR102574903B1 (ko) * 2018-08-08 2023-09-05 삼성전자주식회사 개인화된 장치 연결을 지원하는 전자 장치 및 그 방법
US10802872B2 (en) 2018-09-12 2020-10-13 At&T Intellectual Property I, L.P. Task delegation and cooperation for automated assistants
US11481186B2 (en) * 2018-10-25 2022-10-25 At&T Intellectual Property I, L.P. Automated assistant context and protocol
US10958775B2 (en) 2018-12-10 2021-03-23 Mitel Networks Corporation Speech to dual-tone multifrequency system and method
US11830485B2 (en) * 2018-12-11 2023-11-28 Amazon Technologies, Inc. Multiple speech processing system with synthesized speech styles
TR201821135A2 (tr) * 2018-12-30 2019-01-21 Turkcell Teknoloji Arastirma Ve Gelistirme Anonim Sirketi Anlik mesajlaşma uygulamalarinda sesli̇ mesajlaşmanin teti̇klenmesi̇ni̇ sağlayan bi̇r si̇stem
WO2020163624A1 (en) 2019-02-06 2020-08-13 Pindrop Security, Inc. Systems and methods of gateway detection in a telephone network
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11003419B2 (en) 2019-03-19 2021-05-11 Spotify Ab Refinement of voice query interpretation
JP7167797B2 (ja) * 2019-03-22 2022-11-09 株式会社ナカヨ 主装置および内線電話機の割り当て方法
US11646018B2 (en) 2019-03-25 2023-05-09 Pindrop Security, Inc. Detection of calls from voice assistants
US12015637B2 (en) 2019-04-08 2024-06-18 Pindrop Security, Inc. Systems and methods for end-to-end architectures for voice spoofing detection
WO2020222539A1 (en) 2019-05-02 2020-11-05 Samsung Electronics Co., Ltd. Hub device, multi-device system including the hub device and plurality of devices, and method of operating the same
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11924253B2 (en) 2019-06-04 2024-03-05 Telefonaktiebolaget Lm Ericsson (Publ) Network node, IMS node and methods in a communications network
EP3981123A1 (en) 2019-06-04 2022-04-13 Telefonaktiebolaget Lm Ericsson (Publ) Network node, ims node and methods in a communications network
WO2020246923A1 (en) * 2019-06-04 2020-12-10 Telefonaktiebolaget Lm Ericsson (Publ) Network node, ims node and methods in a communications network
WO2020256604A1 (en) * 2019-06-19 2020-12-24 Telefonaktiebolaget Lm Ericsson (Publ) Network node, ims node and methods in a communications network
US11176940B1 (en) * 2019-09-17 2021-11-16 Amazon Technologies, Inc. Relaying availability using a virtual assistant
CN111063343B (zh) * 2019-12-11 2022-08-19 广东美的厨房电器制造有限公司 语音交互方法、装置、电子设备及介质
US11423893B2 (en) * 2020-01-06 2022-08-23 Lenovo (Singapore) Pte. Ltd. Response to secondary inputs at a digital personal assistant
US11240366B2 (en) 2020-02-03 2022-02-01 Microsoft Technology Licensing, Llc Digital assistant for emergency calling
US11513667B2 (en) * 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11750668B1 (en) * 2020-06-23 2023-09-05 Nikolay Abkairov Combined asynchronous and synchronous communication system and service with transcription support
US11700226B2 (en) * 2020-08-03 2023-07-11 Google Llc Sending messages from smart speakers and smart displays via smartphones
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US11908473B2 (en) * 2022-05-10 2024-02-20 Apple Inc. Task modification after task initiation
EP4321990A1 (en) * 2022-08-11 2024-02-14 Koninklijke Philips N.V. Selectively communicating an audio signal

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003218996A (ja) 2002-01-18 2003-07-31 Alpine Electronics Inc 携帯電話のハンズフリー装置
JP2017034386A (ja) 2015-07-30 2017-02-09 株式会社デンソー 車載機及びコンピュータプログラム

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4661975A (en) * 1985-03-13 1987-04-28 Bell Communications Research, Inc. Enhanced call-waiting service
US4945570A (en) 1987-10-02 1990-07-31 Motorola, Inc. Method for terminating a telephone call by voice command
US4870686A (en) 1987-10-19 1989-09-26 Motorola, Inc. Method for entering digit sequences by voice command
JPH02312426A (ja) * 1989-05-29 1990-12-27 Nissan Motor Co Ltd 車両用電話装置
US5165095A (en) * 1990-09-28 1992-11-17 Texas Instruments Incorporated Voice telephone dialing
US5483579A (en) 1993-02-25 1996-01-09 Digital Acoustics, Inc. Voice recognition dialing system
US5483586A (en) 1994-07-18 1996-01-09 Sussman; Lester Electronic on-line subscriber telephone directory
FI111893B (fi) 1995-06-02 2003-09-30 Nokia Corp Menetelmä ja laite puhelimen ohjaamiseksi komennoilla
US6167117A (en) * 1996-10-07 2000-12-26 Nortel Networks Limited Voice-dialing system using model of calling behavior
GB2348566A (en) * 1999-03-31 2000-10-04 Ibm Computer network telephony
DE60033733T2 (de) 1999-05-31 2007-12-06 Nippon Telegraph And Telephone Corp. Datenbankabfragesystem basierend auf Spracherkennung
US7746994B1 (en) 1999-09-28 2010-06-29 Naxos Finance Sa Method for managing information in a telephone and telephone for managing information
DE60026179T2 (de) * 2000-01-19 2006-11-02 Koninklijke Philips Electronics N.V. Fm rundfunkempfänger
US6915262B2 (en) * 2000-11-30 2005-07-05 Telesector Resources Group, Inc. Methods and apparatus for performing speech recognition and using speech recognition results
US6868142B2 (en) 2001-01-10 2005-03-15 At&T Corp. Voice-operated interface for DTMF-controlled systems
US20030103618A1 (en) 2001-12-03 2003-06-05 International Business Machines Corporation Voice browsing while waiting in a hold queue
US20040010408A1 (en) 2002-07-10 2004-01-15 Mani Babu V. Method and system for identifying a caller based on voice recognition
JP3901666B2 (ja) * 2003-05-26 2007-04-04 シャープ株式会社 移動電話機
US7852993B2 (en) * 2003-08-11 2010-12-14 Microsoft Corporation Speech recognition enhanced caller identification
US7015049B2 (en) * 2003-09-03 2006-03-21 Infineon Technologies Ag Fence-free etching of iridium barrier having a steep taper angle
US20050154587A1 (en) * 2003-09-11 2005-07-14 Voice Signal Technologies, Inc. Voice enabled phone book interface for speaker dependent name recognition and phone number categorization
US7870184B2 (en) * 2004-04-05 2011-01-11 Avaya Inc. Communications services for business process design
US7826945B2 (en) * 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
WO2007047580A2 (en) * 2005-10-18 2007-04-26 Page2Cell, Inc. System and method for providing a public number-private number telephony system
AU2005338854A1 (en) * 2005-12-06 2007-06-14 Daniel John Simpson Interactive natural language calling system
US20070299670A1 (en) 2006-06-27 2007-12-27 Sbc Knowledge Ventures, Lp Biometric and speech recognition system and method
US7831431B2 (en) 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
WO2008116296A1 (en) * 2007-03-26 2008-10-02 Digifonica (International) Limited Emergency assistance calling for voice over ip communications systems
US20080247529A1 (en) * 2007-04-03 2008-10-09 Microsoft Corporation Incoming Call Classification And Disposition
US8131556B2 (en) 2007-04-03 2012-03-06 Microsoft Corporation Communications using different modalities
US8099289B2 (en) * 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US20110026687A1 (en) * 2009-07-31 2011-02-03 Vladimir Smelyansky Emergency 911 services with just-in-time provisioning for voip customers
US9026444B2 (en) * 2009-09-16 2015-05-05 At&T Intellectual Property I, L.P. System and method for personalization of acoustic models for automatic speech recognition
JP5567914B2 (ja) 2010-06-25 2014-08-06 京セラ株式会社 携帯端末装置
KR101771013B1 (ko) 2011-06-09 2017-08-24 삼성전자 주식회사 정보 제공 방법 및 이를 구현하는 이동통신단말기
US20130148582A1 (en) 2011-11-17 2013-06-13 Tip Solutions, Inc. Message injection system and method
US9529793B1 (en) 2012-06-01 2016-12-27 Google Inc. Resolving pronoun ambiguity in voice queries
US20160063106A1 (en) 2012-08-08 2016-03-03 Google Inc. Related Entity Search
US9224387B1 (en) 2012-12-04 2015-12-29 Amazon Technologies, Inc. Targeted detection of regions in speech processing data streams
EP2784774A1 (en) * 2013-03-29 2014-10-01 Orange Telephone voice personnal assistant
US8903051B2 (en) * 2013-04-12 2014-12-02 Verizon Patent And Licensing Inc. Returning calls to emergency callers without valid telephone numbers
WO2014200731A1 (en) * 2013-06-13 2014-12-18 Apple Inc. System and method for emergency calls initiated by voice command
US10134395B2 (en) 2013-09-25 2018-11-20 Amazon Technologies, Inc. In-call virtual assistants
US8719039B1 (en) * 2013-12-05 2014-05-06 Google Inc. Promoting voice actions to hotwords
US20170017501A1 (en) * 2013-12-16 2017-01-19 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
US10073840B2 (en) * 2013-12-20 2018-09-11 Microsoft Technology Licensing, Llc Unsupervised relation detection model training
US9286910B1 (en) 2014-03-13 2016-03-15 Amazon Technologies, Inc. System for resolving ambiguous queries based on user context
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9424841B2 (en) * 2014-10-09 2016-08-23 Google Inc. Hotword detection on multiple devices
US9466297B2 (en) * 2014-12-09 2016-10-11 Microsoft Technology Licensing, Llc Communication system
US9911415B2 (en) * 2014-12-19 2018-03-06 Lenovo (Singapore) Pte. Ltd. Executing a voice command during voice input
US9756181B2 (en) * 2014-12-31 2017-09-05 Bailey Analytics, Inc Phone number identification systems and methods
US9544412B2 (en) 2015-03-09 2017-01-10 Ford Global Technologies, Llc Voice profile-based in-vehicle infotainment identity identification
US9666192B2 (en) * 2015-05-26 2017-05-30 Nuance Communications, Inc. Methods and apparatus for reducing latency in speech recognition applications
US9503577B1 (en) * 2015-07-10 2016-11-22 Verizon Patent And Licensing Inc. Emergency call service for groups of devices with a shared number
WO2017197650A1 (zh) 2016-05-20 2017-11-23 华为技术有限公司 通话中的交互方法和设备
US20170374529A1 (en) * 2016-06-23 2017-12-28 Diane Walker Speech Recognition Telecommunications System with Distributable Units
JP6402748B2 (ja) * 2016-07-19 2018-10-10 トヨタ自動車株式会社 音声対話装置および発話制御方法
US10423652B2 (en) * 2016-08-08 2019-09-24 Baidu Usa Llc Knowledge graph entity reconciler
US10187503B2 (en) * 2016-08-19 2019-01-22 Amazon Technologies, Inc. Enabling voice control of telephone device
US10074369B2 (en) * 2016-09-01 2018-09-11 Amazon Technologies, Inc. Voice-based communications
US20180218374A1 (en) * 2017-01-31 2018-08-02 Moveworks, Inc. Method, system and computer program product for facilitating query resolutions at a service desk
CN110392913B (zh) 2017-05-16 2023-09-29 谷歌有限责任公司 在共用的启用语音的装置上处理呼叫
US20180343233A1 (en) 2017-05-24 2018-11-29 Lenovo (Singapore) Pte. Ltd. Contextual name association
US10506088B1 (en) * 2017-09-25 2019-12-10 Amazon Technologies, Inc. Phone number verification
WO2019070351A1 (en) 2017-10-03 2019-04-11 Fanmountain Llc SYSTEMS, DEVICES AND METHODS USING THE SAME TO ENHANCE THE COMMITMENT OF A PUBLIC IN COMPETITION OR PERFORMANCE
US10984799B2 (en) * 2018-03-23 2021-04-20 Amazon Technologies, Inc. Hybrid speech interface device
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11258746B1 (en) 2019-04-18 2022-02-22 Amazon Technologies, Inc. Setting overrides

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003218996A (ja) 2002-01-18 2003-07-31 Alpine Electronics Inc 携帯電話のハンズフリー装置
JP2017034386A (ja) 2015-07-30 2017-02-09 株式会社デンソー 車載機及びコンピュータプログラム

Also Published As

Publication number Publication date
US20180338037A1 (en) 2018-11-22
US20230208969A1 (en) 2023-06-29
KR102223017B1 (ko) 2021-03-04
US20180337962A1 (en) 2018-11-22
EP3920180A3 (en) 2022-02-23
JP2020529744A (ja) 2020-10-08
KR102582517B1 (ko) 2023-09-26
KR102396729B1 (ko) 2022-05-12
KR20230136707A (ko) 2023-09-26
KR20220065887A (ko) 2022-05-20
KR20210113452A (ko) 2021-09-15
KR20220150399A (ko) 2022-11-10
KR102303810B1 (ko) 2021-09-23
WO2018213381A1 (en) 2018-11-22
CN117238296A (zh) 2023-12-15
CN110392913A (zh) 2019-10-29
EP3577646B1 (en) 2021-07-21
US11979518B2 (en) 2024-05-07
JP2022019745A (ja) 2022-01-27
EP3577646A1 (en) 2019-12-11
US20210368042A1 (en) 2021-11-25
US20240244133A1 (en) 2024-07-18
US10911594B2 (en) 2021-02-02
KR102458806B1 (ko) 2022-10-26
US20210092225A1 (en) 2021-03-25
JP6974486B2 (ja) 2021-12-01
US10791215B2 (en) 2020-09-29
US11057515B2 (en) 2021-07-06
KR20190107106A (ko) 2019-09-18
JP2023138512A (ja) 2023-10-02
US20210014354A1 (en) 2021-01-14
KR20210024240A (ko) 2021-03-04
EP3920180A2 (en) 2021-12-08
CN110392913B (zh) 2023-09-29
US11595514B2 (en) 2023-02-28
US11089151B2 (en) 2021-08-10
US11622038B2 (en) 2023-04-04
US20180338038A1 (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP7314238B2 (ja) 共有された音声対応デバイスにおける電話の処理
US11388291B2 (en) System and method for processing voicemail
US8892442B2 (en) System and method for answering a communication notification
US8537980B2 (en) Conversation support
US12095945B2 (en) Indicating callers for incoming voice calls on a shared speech-enabled device
CN110915246A (zh) 将语音支持设备与显示设备配对
US20140315520A1 (en) Recording and playing back portions of a telephone call

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7314238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150