JP2017161850A - 会議支援装置、会議支援方法、及び会議支援プログラム - Google Patents

会議支援装置、会議支援方法、及び会議支援プログラム Download PDF

Info

Publication number
JP2017161850A
JP2017161850A JP2016048489A JP2016048489A JP2017161850A JP 2017161850 A JP2017161850 A JP 2017161850A JP 2016048489 A JP2016048489 A JP 2016048489A JP 2016048489 A JP2016048489 A JP 2016048489A JP 2017161850 A JP2017161850 A JP 2017161850A
Authority
JP
Japan
Prior art keywords
text data
conference
subtitle
caption
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016048489A
Other languages
English (en)
Other versions
JP6517718B2 (ja
Inventor
平 芦川
Taira Ashikawa
平 芦川
布目 光生
Mitsuo Nunome
光生 布目
将之 芦川
Masayuki Ashikawa
将之 芦川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016048489A priority Critical patent/JP6517718B2/ja
Priority to US15/387,335 priority patent/US10102859B2/en
Publication of JP2017161850A publication Critical patent/JP2017161850A/ja
Application granted granted Critical
Publication of JP6517718B2 publication Critical patent/JP6517718B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L2021/065Aids for the handicapped in understanding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】簡単に発音列が与えられときの音声認識結果を得ることできる音声認識結果出力装置を提供する。【解決手段】認識部が、音声データを音声認識し、テキストデータを生成する。検知部は、テキストデータに対する訂正作業を検知し、要約部は、訂正作業が検知されている間、テキストデータのうち、訂正作業が行われている箇所以降に関する要約を生成する。そして、字幕部が、訂正作業が検知されている間は、要約に対応する字幕情報を生成し、訂正作業が検知されている間以外は、テキストデータに対応する字幕情報を生成する。【選択図】図10

Description

本発明の実施の形態は、会議支援装置、会議支援方法、及び会議支援プログラムに関する。
今日において、音声認識技術を利用し、会議参加者の発言をリアルタイムに文字データに変換して表示することで、会議に参加している聴覚障碍者が、文字を介して会議の内容を把握可能となるように支援する会議支援装置が知られている。
会議支援装置において、複数の発話者が同時に発話した場合、及び、周囲のノイズが大きい環境下で音声認識処理を行う場合には、音声認識精度は低くなる。このため、会議参加者の発言が、誤った文字データに変換され得る。この場合、誤って変換された文字データ(認識結果)は、修正者等により手動で訂正される。
しかし、訂正者が訂正作業を行っている間、及び、閲覧者が訂正内容の確認作業を行っている間等に会議の議論が進むと、進んだ議論に対応する音声の認識結果が表示される。このため、訂正者及び閲覧者が集中して作業を行うことが困難となる問題がある。また、訂正者及び閲覧者は、自分が上述の作業を行っている間は、議論の内容を把握することは困難となる。作業後に現在の議論の内容を理解するには、作業開始から作業終了までの間の議論の内容を読む必要があり、作業終了後に現在の議論の内容を理解するまでに時間を要する問題がある。
特開2010−282083号公報
本発明が解決しようとする課題は、作業を行っている間でも、訂正者又は閲覧者が議論の内容を把握可能な会議支援装置、会議支援方法、及び会議支援プログラムを提供することである。
実施の形態によれば、認識部が、音声データを音声認識し、テキストデータを生成する。検知部は、テキストデータに対する訂正作業を検知し、要約部は、訂正作業が検知されている間、テキストデータのうち、訂正作業が行われている箇所以降に関する要約を生成する。そして、字幕部が、訂正作業が検知されている間は、要約に対応する字幕情報を生成し、訂正作業が検知されている間以外は、テキストデータに対応する字幕情報を生成する。
第1の実施の形態の会議支援システムで会議が行われている様子を示す図。 第1の実施の形態の会議支援システムに設けられている共有マシン及びパーソナルコンピュータ装置のハードウェア構成図。 第1の実施の形態の会議支援システムに設けられている会議支援プログラムに対応する機能ブロック図。 第1の実施の形態の会議支援システムの会議画面を示す図。 第1の実施の形態の会議支援システムのマイク設定画面を示す図。 第1の実施の形態の会議支援システムにおける字幕情報の記述例を示す図。 第1の実施の形態の会議支援システムにおいて、会議画面の字幕部に表示された字幕情報を示す図。 第1の実施の形態の会議支援システムにおいて、会議画面に表示された不明アイコンを示す図。 第1の実施の形態の会議支援システムにおいて、訂正が開始された不明箇所に対して表示される、訂正者が訂正中である旨の表示を示す図。 第1の実施の形態の会議支援システムにおいて、現在、訂正中の字幕以降に存在する、他の会議参加者の発言による字幕を示す図。 第1の実施の形態の会議支援システムにおける、要約生成動作の流れを示すフローチャート。 第2の実施の形態の会議支援システムにおいて、過去の会議の議事録から抽出された話題が、各会議参加者の発言の要約として表示された例を示す図。 第4の実施の形態の会議支援システムにおける要約のフォントサイズの調整動作の流れを示すフローチャート。 第4の実施の形態の会議支援システムにおいて、フォントサイズを調整して表示した要約の一例を示す図。
以下、実施の形態の会議支援システムを、図面を参照して詳細に説明する。
[第1の実施の形態]
[会議参加者]
まず、図1に、第1の実施の形態の会議支援システムにより、5名の会議参加者で会議が行われている様子を示す。図1に示す例の場合、会議参加者は、Aさん、Bさん、Cさん、Xさん、及びYさんである。このうち、Aさん、Bさん及びCさんは、会議支援システムにログインしており、Xさん及びYさんは、会議支援システムにログインしていないものとする。
Aさんは、会議の司会進行を行うファシリテータである。会議室に設置された共有マシン1を介して、会議支援システムを利用する。共有マシン1には、マイクロホン装置2が接続されている。Aさんは、会議開始時に録音設定を行うことで、会議中の音声を共有マシン1に録音する役割を担っている。また、共有マシン1のHDD等の記憶部には(図2の符号14等)、会議の参加者名のテキストデータ及びアジェンダ(会議で議論する事項(議題))のテキストデータが会議情報として予め記憶される。また、共有マシン1のHDD等の記憶部には、会議中における各会議参加者の発言のテキストデータ(聴覚障碍者のBさんから指摘された不明点を訂正したテキストデータを含む)等の議事録が記憶される。なお、Aさんは、後述するCさんと同様に、聴覚障碍者のBさんから指摘された不明点を確認し訂正作業を行うこともできる。
Bさんは、聴覚障碍者(情報保障が必要な方)である。Bさんは、自分のパーソナルコンピュータ装置3を用いて、会議支援システムを利用する。第1の実施の形態の会議支援システムは、会議参加者の発言の音声認識結果(字幕)を、各参加者のパーソナルコンピュータ装置の表示部に、リアルタイムに表示する。Bさんは、パーソナルコンピュータ装置3の表示部に表示される字幕を閲覧することで、会議の内容を把握しながら会議に参加する。また、Bさんは、表示された音声の認識結果(字幕)で不明点があれば指摘する。
Cさんは、自分のパーソナルコンピュータ装置4を用いて、会議支援システムを利用する。Cさんは、Bさんをサポートしながら、議論にも参加する。Cさんは、聴覚障碍者のBさんから指摘された不明点を確認し訂正作業を行う。
Xさん及びYさんは、各自、パーソナルコンピュータ装置5,7及びマイクロホン装置6.8を用いて議論に参加する会議参加者ではあるが、上述のように会議支援システムには、ログインしていない会議参加者である。ただ、会議支援システムにログインしていない場合でも、発言の音声認識結果に対応する字幕は生成され、各会議参加者の共有マシン1及び各パーソナルコンピュータ装置3,4,5,7に表示される。また、会議支援システムにログインしない会議参加者(この例の場合は、Xさん及びYさん)は、会議に参加させなくてもよい(Xさん及びYさんは、居なくてもよい)。
各会議参加者であるAさんの共有マシン1、及び、Bさん、Cさん、Xさん、Yさんのパーソナルコンピュータ装置3,4,5,7は、例えば無線LAN(Local Area Network)又は有線LAN、インターネット等のネットワークを介して相互に接続されている。
図2は、Aさんが操作する共有マシン1及び各会議参加者のパーソナルコンピュータ装置3,4,5,7のハードウェア構成図である。Aさんが操作する共有マシン1で、その構成を説明すると、共有マシン1は、CPU11、ROM12、RAM13、HDD14、入出力インタフェース(入出力I/F)15、通信I/F16及び表示部17を有している。
CPUは、「Central Processing Unit」の略記である。ROMは、「Read Only Memory」の略記である。RAMは、「Random Access Memory」の略記である。HDDは、「Hard Disc Drive」の略記である。CPU11〜表示部17は、それぞれバスライン18を介して相互に接続されている。また、入出力I/F15には、マイクロホン装置2,マイクロホン装置6,マイクロホン装置8及びマイクロホン装置9等の各会議参加者が用いるマイクロホン装置が接続されている。さらに、Aさん、Bさん、Cさん、Xさん、及びYさんの共有マシン1及びパーソナルコンピュータ装置3,4,5,7は、それぞれに設けられている通信IF16を介して相互に接続されている。
共有マシン1及びパーソナルコンピュータ装置3,4,5,7の各ROM12には、会議支援プログラムが記憶されている。図3は、CPU11が会議支援プログラムを実行することで実現される各機能の機能ブロック図である。この図3に示すように、CPU11は、会議支援プログラムに基づいて、音声受信部21、音声認識部22、字幕生成部23、字幕提示部24、要約生成部25及び検知部26として機能する。
音声受信部21は、マイクロホン装置2を介して音声を受信する。音声認識部22は、認識部の一例であり、受信された音声の音声認識結果となるテキストデータを生成する。字幕生成部23は、認識された音声のテキストデータを用いて、後述するHTML(Hyper Text Markup Language)形式の字幕情報を生成する。字幕提示部24は、生成された字幕情報を、パーソナルコンピュータ装置1の表示部17に表示すると共に、ネットワークを介して各会議参加者のパーソナルコンピュータ装置3,4,5,7に送信して表示する。
例えば、聴覚障碍者であるBさんは、字幕の意味が理解困難である場合、自分のパーソナルコンピュータ装置3を操作して、誤っている字幕を指定する。これにより、誤っている字幕であることを示す指摘情報が、Bさんのパーソナルコンピュータ装置3からAさんの共有マシン1に送信される。検知部26は、字幕情報の意味が理解困難であることを示す指摘情報の有無を検知する。
字幕生成部23は、検知部26からの検知出力に基づいて、聴覚障碍者であるBさんから指摘された字幕の不明箇所を示すマークを生成する。字幕提示部24は、生成されたマークを、Bさんから指摘された字幕の表示位置に隣接させて表示する。なお、生成されたマークを、Bさんから指摘された字幕の表示位置に重ねて、又は、近接させて表示してもよい。
また、Cさんは、自分のパーソナルコンピュータ装置4を介して、Bさんから指摘された字幕の不明箇所の文書を訂正処理する。検知部26は、Cさんによる字幕の不明箇所の訂正作業を検知する。要約生成部25は、要約部の一例であり、字幕の訂正作業中において、訂正作業中の字幕以降の発言のテキストデータを、例えば20文字〜25文字となるように要約したテキストデータを生成する。字幕生成部23は、訂正作業中において、生成された要約のテキストデータを用いて、訂正された字幕情報を生成する。字幕提示部24は、Bさんから指摘された字幕を、訂正された字幕に変更して表示する。なお、字幕生成部23及び字幕提示部24は、字幕部の一例である。
なお、音声受信部21〜検知部26は、一部又は全部をIC(Integrated Circuit)等のハードウェアで実現してもよい。また、会議支援プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、CD−R、DVD(Digital Versatile Disk)、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、会議支援プログラムは、インターネット等のネットワーク経由でインストールするように提供してもよい。また、会議支援プログラムは、機器内のROM等に予め組み込んで提供してもよい。
次に、このような構成を有する第1の実施の形態の会議支援システムの動作説明をする。
[会議開始前]
まず、第1の実施の形態の会議支援システムを利用するユーザ(会議参加者)は、会議開催時に、本システムにログインする。図1に示す例の場合、上述のようにAさん、Bさん及びCさんは、会議支援システムにログインしており、Xさん及びYさんは、会議支援システムにログインすることなく、会議に参加する。なお、会議支援システムにログインしていない場合でも、Xさん及びYさんの発言はテキスト化され、会議情報として共有マシン1及び各会議参加者のパーソナルコンピュータ装置3,4,5,7のHDD14に記憶される。
ログイン後において、共有マシン1のCPU11は、HDD14に登録されている会議情報を読み込み、図4に示す会議画面を表示部17に表示する。また、各会議参加者のパーソナルコンピュータ装置3,4,5,7のCPU11は、共有マシン1から会議画面を取得し、それぞれ表示部17に表示する。一例ではあるが、図4に示す会議画面の場合、各会議参加者が録音等の操作を指定するための操作部40、及び、会議の字幕が時間軸に沿って表示される字幕部41を有している。
会議開始時となると、本システムにログインしているファシリテータのAさんは、会議画面の操作部40に設けられている録音ボタン42を操作する。共有マシン1のCPU11は、録音ボタン42の操作を検出すると、共有マシン1に接続されているマイクロホン装置を検出する。また、共有マシン1のCPU11は、録音ボタン42の操作を検出すると、各会議参加者のパーソナルコンピュータ装置3,4,5,7と通信を行い、各会議参加者のパーソナルコンピュータ装置3,4,5,7に接続されているマイクロホン装置を検出する。
図1の例の場合、共有マシン1にはマイクロホン装置2が接続されている。このため、共有マシン1のCPU11は、共有マシン1に接続されているマイクロホン装置2を検出する。また、各会議参加者のパーソナルコンピュータ装置4,5,7には、それぞれマイクロホン装置9,6,8が接続されている。このため、共有マシン1のCPU11は、各会議参加者のパーソナルコンピュータ装置4,5,7に、それぞれ接続されているマイクロホン装置9,6,8を検出する。
次に、共有マシン1のCPU11は、図5に示すように各会議参加者及び各マイクロホン装置の関連付けを行うためのマイク設定画面を表示部17に表示する。図5に示すマイク設定画面の場合、各マイクロホン装置に対応する会議参加者をプルダウンメニューで選択して設定するようになっている。すなわち、プルダウンボタン45を操作すると、CPU11は、HDD14に予め登録されている会議参加者名を一覧表示する。Aさんは、マイクロホン装置毎に、対応する会議参加者を選択操作する。CPU11は、マイクロホン装置を示す情報と、選択された会議参加者とを関連付けてHDD14に会議情報として記憶制御する。これにより、各マイクロホン装置と、対応する会議参加者との関連付けの設定が完了する。
図5の例は、共有マシン1を操作するAさんが、第1のマイクロホン装置(マイクロホン装置2)を使用する会議参加者として「自分(Aさん)」を設定し、第2のマイクロホン装置(マイクロホン装置9)を使用する会議参加者として「Cさん」を設定した例である。また、図5の例は、共有マシン1を操作するAさんが、第3のマイクロホン装置(マイクロホン装置6)を使用する会議参加者として「Xさん」を設定し、第4のマイクロホン装置(マイクロホン装置8)を使用する会議参加者として「Yさん」を設定した例である。さらに、図5の例は、共有マシン1を操作するAさんが、図示していない第5のマイクロホン装置を使用する会議参加者として「Zさん」を設定した例である。
ファシリテータのAさんは、このように各マイクロホン装置に対応する会議参加者を設定すると、各会議参加者は、いつでも発言可能となり、会議の開始が可能となる。ファシリテータのAさんは、会議の内容を記録する場合、図5に例示する録音開始ボタン46を操作する。Aさんの共有マシン1のCPU11は、共有マシン1の表示部に、図4に示した会議画面を表示する。また、共有マシン1のCPU11は、各会議参加者のパーソナルコンピュータ装置3,4,5,7に会議画面を転送する。これにより、各会議参加者のパーソナルコンピュータ装置3,4,5,7の表示部に会議画面が表示される。
また、共有マシン1のCPU11は、各会議参加者のパーソナルコンピュータ装置3,4,5,7からのマイクロホン入力、字幕の不明箇所の指摘操作、及び、字幕の不明箇所の訂正操作等に基づいて会議画面を更新する。そして、共有マシン1のCPU11は、更新した会議画面を表示部に表示すると共に、各会議参加者のパーソナルコンピュータ装置3,4,5,7に送信する。これにより、各会議参加者のパーソナルコンピュータ装置3,4,5,7の表示部に更新された会議画面が表示される。
以下、具体例と共に共有マシン1の動作及び各会議参加者のパーソナルコンピュータ装置3,4,5,7の動作説明をする。
[第1の発言]
まず、会議において、Aさんが、第1の発言として、「今日の会議を始めます」と発言したとする。共有マシン1のCPU11は、ROM12に記憶されている会議支援プログラムに基づいて、図3に示す音声受信部21として機能し、マイクロホン装置2を介して集音されたAさんの第1の発言に対応する音声データを取得する。
次に、共有マシン1のCPU11は、音声認識部22として機能し、取得した音声データの音声認識処理を行う。この例の場合、音声認識処理により、「今日の会議を始めます」という、Aさんの第1の発言に対応するテキストデータを得る。
次に、共有マシン1のCPU11は、字幕生成部23として機能し、Aさんの第1の発言の情報と、「今日の会議を始めます」という、Aさんの第1の発言の音声認識結果(テキストデータ)から、例えばHTML形式の字幕情報を生成する。この字幕情報は、図6に示すように、HTMLによるタグ付きの字幕情報として生成される。この図6は、第1の発言(div id=“1” class=“subtitle”)の発言者(“speaker”)は「Aさん」であり、「今日の会議を始めます」との字幕情報(“content”)が、字幕生成部23により生成された例を示している。字幕生成部23は、音声認識結果の音声区間を検出する音声区間検出処理(Voice Activity Detection: VAD)で検出された、1つの音声区間に含まれる発言である、一まとまりの発言毎に、1つの字幕を生成する。
次に、共有マシン1のCPU11は、字幕提示部24として機能し、共有マシン1の表示部に表示している会議画面の字幕部41(図4参照)に、生成された字幕情報を表示する。また、共有マシン1のCPU11は、字幕提示部24として機能し、字幕情報を表示した会議画面を各会議参加者のパーソナルコンピュータ装置3,4,5,7に送信する。これにより、各会議参加者のパーソナルコンピュータ装置3,4,5,7の表示部に表示されている会議画面が更新される。
図7に、会議画面の字幕部41に表示された字幕情報の表示例を示す。この図7は、発言者を人型のアイコン及び名前(テキストデータ)で表示し、字幕を吹き出し形式で表示する例である。字幕提示部24は、各発言者のアイコンを、それぞれ表示形態を変えて表示する。すなわち、字幕提示部24は、Aさんのアイコンの下に、「Aさん」というテキストデータを表示すると共に、アイコンからの吹き出し領域に、「今日の会議を始めます」との、Aさんの第1の発言のテキストデータを表示する。
また、字幕提示部24は、一例として、Aさんのアイコンを青色のアイコンとして表示し、Xさんのアイコンを黄色のアイコンとして表示する等のように、各発言者のアイコンをそれぞれ識別可能なように、異なる表示形態で表示する。各発言者のアイコンは、この他、所定の画像又は記号等により、異なる表示形態で表示してもよい。
[第2の発言]
次に、Aさんが、上述の第1の発言に続く第2の発言として、「今日の議題は、特許発明賞を誰にするかです」と発言したとする。共有マシン1の音声受信部21は、Aさんのマイクロホン装置2で集音された第2の発言に対応する音声データを受信する。共有マシン1の音声認識部22は、受信された音声データの音声認識処理を行う。
ここで、音声認識処理において、正しくは「今日の議題は、特許発明賞を誰にするかです」と認識するところを、「今日の議題は、特許集めよう、誰にするか」と誤って認識したとする。この場合、字幕生成部23及び字幕提示部24により、図7に示すように誤って認識された「今日の議題は、特許集めよう、誰にするか」とのテキストデータが、共有マシン1及び各会議参加者のパーソナルコンピュータ装置3,4,5,7の各会議画面に表示される。図7に点線の四角で囲って示す箇所が、音声認識処理の誤認識により生成された、誤ったテキストデータである。
[第3の発言及び第4の発言]
次に、第3の発言として、Xさんが、「Yさんの先期の特許を推薦したい」と発言し、続けて、Xさんが、第4の発言として、「なぜなら、製品Yに搭載されたからです」と発言したとする。この場合も、上述と同様に共有マシン1の音声受信部21が、Xさんのマイクロホン装置6により集音された上述の第3の発言及び第4の発言を取得する。共有マシン1の音声認識部22〜字幕提示部24は、Xさんの第3の発言及び第4の発言を、図7に示すように吹き出し形式で会議画面に表示する。また、共有マシン1の字幕提示部24は、Xさんの第3の発言及び第4の発言の字幕情報を、各会議参加者のパーソナルコンピュータ装置3,4,5,7に送信する。各会議参加者のパーソナルコンピュータ装置3,4,5,7の字幕提示部24は、共有マシン1から送信されたXさんの第3の発言及び第4の発言の字幕情報を、図7に示すように吹き出し形式で会議画面に表示する。なお、会議画面は上部から下部にかけて時間軸が形成されており、字幕提示部24は、発言順に会議画面の上部から下部にかけて、発言順に各発言の字幕を表示する。
[字幕の不明箇所の通知]
ここで、上述のように、Aさんの第2の発言の字幕は、「今日の議題は、特許集めよう、誰にするか」とのように、誤った音声認識結果のまま、各会議参加者の会議画面に表示されている。このままでは、聴覚障碍者であるBさんが、会議内容の把握が困難となる。この場合、Bさんは、会議画面の字幕部41に表示された各会議参加者の発言の字幕のうち、内容の把握が困難となる字幕に対して、例えばマウスポインター等を用いて不明箇所を指摘する。Bさんのパーソナルコンピュータ装置3のCPU11は、検知部26として機能することで、Bさんから指摘された不明箇所に表示している発言に対応する、HTMLのDIV要素のIDを検知する(図6参照)。
すなわち、上述の例の場合、Bさんにより指摘された不明箇所に対応する発言は、「今日の議題は、特許集めよう、誰にするか」との、Aさんによる第2の発言である。そして、この第2の発言のIDは、「div id=“2”」となる。検知部26は、他の会議参加者の共有マシン1及びパーソナルコンピュータ装置3,4,5,7に対して、Bさんにより指摘された不明箇所に対応する発言のDIV要素のIDを送信(通知)する。
Bさんにより指摘された不明箇所に対応する発言のDIV要素のIDを受信した各会議参加者の共有マシン1及びパーソナルコンピュータ装置3,4,5,7の字幕提示部24は、Bさんが不明箇所と指摘した発言の字幕を各会議参加者が認識できる位置に、不明箇所と指摘された発言であることを示す不明アイコンを表示する。図8は、不明アイコンが表示された会議画面を示している。上述の例の場合、Aさんの第2の発言である「今日の議題は、特許集めよう、誰にするか」との発言を、Bさんが不明箇所として指摘している。このため、各会議参加者の共有マシン1及びパーソナルコンピュータ装置3,4,5,7の字幕提示部24は、「div id=“2”」のIDが付された第2の発言の吹き出しの横等に、クエスチョンマークのアイコンを表示する。また、字幕提示部24は、クエスチョンマークのアイコンの下に、不明箇所と指摘した指摘者名(この場合は、Bさん)を表示する。なお、クエスチョンマークのアイコンは、誤っていることが指摘されたことを示す情報の一例である。
なお、少なくとも不明アイコンは、吹き出しに重ねて表示してもよいし、吹き出しに近接させて表示してもよい。また、不明アイコンは、クエスチョンマークのアイコン以外のアイコンでもよい。すなわち、各会議参加者が、不明と指摘された発言であることを認識できれば、どのような形態のアイコンを、どのような位置に表示してもよい。
[不明箇所の訂正動作]
次に、Bさんより通知を受けた不明箇所の訂正をCさんが行う場合、Cさんは、自分のパーソナルコンピュータ装置4に表示されている会議画面の字幕部41の不明箇所の字幕を、マウスポインター等を用いて指定し、訂正する文字を入力する。Cさんのパーソナルコンピュータ装置4の検知部26は、Cさんが、Bさんに指摘された不明箇所の訂正を開始したことを検知すると、他の会議参加者の共有マシン1及び各パーソナルコンピュータ装置3,5,7に、訂正が開始されたことを示す情報、訂正箇所となる発言のDIV要素のID及び訂正者を示す情報を含む訂正開始情報を通知する。
共有マシン1及び各パーソナルコンピュータ装置3,5,7の字幕提示部24は、訂正開始情報を受信すると、DIV要素のIDに基づいて、訂正箇所となる発言を検出し、訂正者を示す情報に基づいて、訂正者を検出する。そして、共有マシン1及び各パーソナルコンピュータ装置3,5,7の字幕提示部24は、図9に示すように、訂正が開始された不明箇所に対して、訂正者が訂正中である旨の表示を行う。この図9は、Aさんの第2の発言の吹き出しの下に、「Cさんが訂正中」との表示が行われている例を示している。「Cさんが訂正中」との文字情報は、訂正処理中であることを示す情報の一例である。
各会議参加者は、この表示を見ることで、Bさんにより指摘された不明箇所が、Cさんにより訂正されていることを認識することができる。なお、この例では、Aさんの第2の発言の吹き出しの下に、「Cさんが訂正中」との表示を行った例であるが、第2の発言の吹き出しの中に、「Cさんが訂正中」との表示を行ってもよい。また、訂正者及び訂正箇所が認識できれば、どの位置に上述の表示を行ってもよい。
また、Cさんのパーソナルコンピュータ装置4のCPU11は、Cさんの訂正作業により正しい文字等の入力が行われると、入力された文字等の入力情報を、Cさんのパーソナルコンピュータ装置4の表示部17に表示する。これにより、Cさんのパーソナルコンピュータ装置4上では、訂正箇所の字幕が、正しい文字等に更新される。また、Cさんのパーソナルコンピュータ装置4のCPU11は、Cさんの訂正作業により正しい文字等の入力が行われると、入力された文字等の入力情報を、ファシリテータのAさんの共有マシン1に送信する。Aさんの共有マシン1のCPU11は、受信した入力情報を、Aさんのパーソナルコンピュータ装置4の表示部17に表示する。また、Aさんの共有マシン1のCPU11は、受信した入力情報をBさん,Xさん及びYさんのパーソナルコンピュータ装置4に転送する。これにより、全会議参加者のパーソナルコンピュータ装置に、Cさんの訂正作業により入力された入力情報を、略々リアルタイムで表示することができる。
なお、この例では、訂正作業による入力情報を、一旦、ファシリテータのAさんの共有マシン1に送信し、共有マシン1から他の会議参加者のパーソナルコンピュータ装置に転送することとした。しかし、訂正作業を行っているCさんのパーソナルコンピュータ装置のCPU11が、他の会議参加者のパーソナルコンピュータ装置に、訂正作業による入力情報を、直接送信してもよい。
[第5の発言]
次に、Yさんが、「Zさんの特許を推薦したい」と発言したとする。ファシリテータのAさんの共有マシン1の音声受信部21は、Yさんのマイクロホン装置8で集音された「Zさんの特許を推薦したい」との第5の発言の音声データを取得する。次に、共有マシン1の音声認識部22は、取得した第5の発言の音声データに基づいて音声認識処理を行い、「Zさんの特許を推薦したい」という音声認識結果に対応するテキストデータを生成する。
[要約生成動作]
ここで、第1の実施の形態の会議支援システムは、検知部26が訂正者による訂正作業を検知している間、ファシリテータのAさんの共有マシン1は、「通常モード」から「要約モード」に移行し、要約生成部25が、現在、訂正作業中の発言以降の発言の音声認識結果を要約したテキストデータを生成する。
[各会議参加者の発言毎の要約動作]
具体的には、Aさんの共有マシン1は、「要約モード」に移行すると、要約生成部25が、図10に示すように、現在、Cさんが訂正中であるAさんの第2の発言の字幕以降に、いずれかの会議参加者の発言による字幕が存在するか否かを判別する。字幕が存在する場合、各字幕の発言をした会議参加者を特定する。各発言に対応する字幕(テキストデータ)には、その発言をした会議参加者名の情報及び発言時刻の情報等が付されている。このため、要約生成部25は、各発言の字幕に付されている会議参加者名の情報を参照することで、各字幕の発言をした会議参加者を特定する。
要約生成部25は、音声認識部22で生成された、各会議参加者の各発言に対応するテキストデータを、一つの字幕の表示許容文字数である、例えば20文字〜25文字の字幕となるように要約処理する。一例ではあるが、要約生成部25は、一まとまりの音声データの認識結果となるテキストデータから、「です」「ます」等の助動詞を除去し、また、キーワードの抽出等を行うことで、20文字〜25文字に要約したテキストデータを生成する。
なお、「要約処理」とは、文書の助動詞等を削除し、また、発言のテキストデータから抽出したキーワードを表示することで、文書の全体的な文字数を削減する処理の他、所定の文字数の単語を、所定の文字数以下の単語に置き換えることで、文書の全体的な文字数を削減する処理等も含む概念である。
また、このような要約処理により、一つの字幕の表示許容文字数以上の文字数のテキストデータが生成された場合、要約生成部25は、表示許容文字数以上となる文字を削除することで、要約となるテキストデータを生成してもよい。この場合、例えば字幕の表示許容文字数が25文字であれば、要約生成部25は、先頭の文字から25文字目までを残し、26文字目以降の文字を切り捨てることで、全体の文字数を表示許容文字数とした要約を生成する。
また、要約生成部25は、同じ参加者の発言が連続する場合、同じ参加者の各発言をまとめて、一つの字幕の表示許容文字数とした要約を生成する。例えば、図8に示したように、現在、Cさんが訂正中であるAさんの第2の発言以降に、Xさんが「Yさんの、先期の特許を推薦したい」と発言し、続けてXさんが「なぜなら、製品Yに搭載されたから」と発言したとする。この場合、要約生成部25は、例えば図10に示すように「Yさんの、先期の特許。製品Yに搭載」とのように、Xさんの2つの発言の音声認識結果を、一つにまとめた要約を生成する。
なお、要約生成部25は、同じ会議参加者の発言が続く場合、要約生成部25は、同じ会議参加者の発言のうち、「最初の発言」又は「最初の発言及び最初の発言に続く所定数の発言」に対応する要約を生成してもよい。
字幕生成部23は、要約生成部25で生成された要約となるテキストデータから字幕情報を生成する。また、字幕情報が要約であることを示す「要約」との文字を字幕情報に付加する。字幕提示部24は、生成された要約の字幕情報、及び「要約」との文字を表示部17に表示する。これにより、例えば図10に示すように、「Yさんの、先期の特許。製品Yに搭載」との要約の字幕、及び、この字幕が要約であることを示す「要約」の文字が表示部17に表示される。
[訂正完了時の動作]
次に、Cさんのパーソナルコンピュータ装置4の字幕生成部23及び字幕提示部24は、Cさんのパーソナルコンピュータ装置4の検知部26により訂正作業が開始されたことが検出されると、図9及び図10に例示するように、「Cさんが訂正中」との訂正作業中であることを示す文字の横等に、訂正作業が完了した際に操作する訂正完了ボタン51を表示する。なお、この例は、訂正作業を行っているCさんのパーソナルコンピュータ装置4のCPU11が、Cさんのパーソナルコンピュータ装置4の表示部17に訂正完了ボタン51を表示する例である。しかし、訂正作業を行っているCさんのパーソナルコンピュータ装置4のCPU11が、他の会議参加者のパーソナルコンピュータ装置1,3,5,7と通信を行うことで、他の会議参加者のパーソナルコンピュータ装置1,3,5,7にも訂正完了ボタン51を表示してもよい。
Cさんが、「今日の議題は、特許集めよう、誰にするか」と誤って認識された音声認識結果の字幕を、「今日の議題は、特許発明賞を誰にするかです」との、正しい字幕に訂正する訂正作業が完了すると、表示部17に表示されている訂正完了ボタン51を操作する。Cさんのパーソナルコンピュータ装置4の検知部26は、訂正完了ボタン51の操作を検知すると、ファシリテータのAさんの共有マシン1に、訂正完了情報を送信する。Aさんの共有マシン1は、訂正完了情報を受信すると、「要約モード」から「通常モード」に移行し、要約生成部25は、上述の要約の生成を終了する。以後、共有マシン1は、「通常モード」で動作し、字幕生成部23及び字幕提示部24が、上述のように音声認識部22から供給される各会議参加者の発言の音声認識結果毎に、対応する字幕を生成して表示部17に表示する。
図11のフローチャートは、このような第1の実施の形態の会議支援システムにおける、Aさんの共有マシン1のCPU11の要約生成動作の流れを示している。この図11のフローチャートにおいて、ステップS1では、共有マシン1のCPU11が音声受信部21として機能し、発言した会議参加者のマイクロホン装置で取得された音声の音声データを受信する。ステップS2では、音声認識部22が、取得された音声データに基づいて音声認識処理を行い、音声認識結果となるテキストデータを生成する。
ステップS3では、例えば聴覚障碍者であるBさん等から字幕の不明箇所の指摘がされたか否か(訂正リクエストの有無)を判別する。訂正リクエストが無い場合は(ステップS3:No:通常モード)、ステップS9において、字幕生成部23及び字幕提示部24が、音声認識結果に対応する字幕を生成する。そして、ステップS8において、Aさんのパーソナルコンピュータの字幕生成部23及び字幕提示部24が、他の会議参加者の各パーソナルコンピュータ装置3,4,5,7の表示部17に、生成した字幕を表示して、図11のフローチャートの処理を終了する。
これに対して、訂正リクエストが検出された場合(ステップS3:Yes)、ステップS4に処理が進む。ステップS4では、Aさんの共有マシン1の要約生成部25が、Cさんのパーソナルコンピュータ装置4から訂正開始情報が通知されてから、訂正完了情報が通知されるまでの間である、現在、訂正担当者が訂正作業中であるか否か(要約モード中であるか否か)を判別する。現在、訂正担当者が訂正作業中ではないと判別した場合(現在、通常モードであると判別した場合:ステップS4:No)、処理がステップS9に進み、Aさんのパーソナルコンピュータの字幕生成部23及び字幕提示部24が、他の会議参加者の各パーソナルコンピュータ装置3,4,5,7の表示部17に、生成した字幕を表示して、図11のフローチャートの処理を終了する。
ステップS4において、現在、訂正担当者が訂正作業中であると判別した場合(現在、要約モードであると判別した場合:ステップS4:Yes)、処理がステップS5に進む。ステップS5では、Aさんの共有マシン1の要約生成部25が、現在、訂正処理されている字幕のDIV要素のIDを取得することで、現在の作業位置を検出する。ステップS6では、Aさんの共有マシン1の要約生成部25が、現在の作業位置以降となる発言に対応する要約を生成する。
ステップS7及びステップS8では、Aさんの共有マシン1の字幕生成部23及び字幕提示部24が、生成した要約の字幕を、他の会議参加者の各パーソナルコンピュータ装置3,4,5,7の表示部17に表示して、図11のフローチャートの処理を終了する。これにより、指摘箇所の修正中は、各発言の要約を表示することができ、訂正担当者等が訂正中等に進行した会議の内容を、容易に把握可能とすることができる。
[第1の実施の形態の効果]
以上の説明から明らかなように、第1の実施の形態の会議支援システムは、各会議参加者の発言を音声認識処理し、音声認識結果に応じた字幕を生成して、各会議参加者のパーソナルコンピュータ装置の表示部17に表示する。
音声認識処理の誤認識等により、例えば聴覚障碍者のBさんから、理解が困難な字幕の訂正要求があると、訂正担当者であるCさんが、字幕の訂正処理を行う。Cさんが訂正処理を行っている間、システムは、「通常モード」から「要約モード」に移行する。そして、「要約モード」の間、訂正処理を行っている字幕以降となる発言を要約した字幕を生成して表示する。これにより、Cさんが訂正処理を行っている間は(要約モードの間は)、各会議参加者の発言の要約を表示することができる。
このため、会議に参加している聴覚障碍者又は訂正担当者が、誤った字幕を訂正している間、及び、訂正結果を確認している間等にも、現在進行している議論の概要を把握することができる。これにより、聴覚障碍者又は訂正担当者が、訂正作業の完了からスムーズに、現在の議論に参加(復帰)できる。
[第2の実施の形態]
次に、第2の実施の形態の会議支援システムの説明をする。
[話題毎の要約動作]
上述の第1の実施の形態は、要約生成部25が、各会議参加者の発言毎に要約を生成する例であった。これに対して、第2の実施の形態は、要約生成部25が、過去の会議の議事録から、例えば話題(トピック)等の所定の文書を抽出しておき、話題毎の要約を生成する例である。なお、上述の第1の実施の形態と第2の実施の形態とでは、この点のみが異なる。このため、以下、両者の差異の説明のみ行い、重複説明は省略する。
すなわち、第2の実施の形態の会議支援システムの場合、ファシリテータであるAさんの共有マシン1の要約生成部25は、HDD14に記憶されている過去の会議の議事録(会議情報)から、各会議の話題を示す情報(話題情報)を、予め抽出してHDD14の記憶部に記憶しておく。話題情報は文書情報の一例であり、HDD14は文書情報記憶部の一例である。
要約生成部25は、要約モードとなった際に、各会議参加者の発言のテキストデータと、予め抽出しておいた過去の各会議での話題のテキストデータとを比較する。そして、要約生成部25は、過去の各会議での話題と一致又は近似する発言があった場合に、一致又は近似する発言を行った会議参加者の字幕を、HDD14に記憶されている話題の文字に要約して表示する。
図12に、第2の実施の形態の会議支援システムの表示例を示す。この図12は、「Bモジュールの不具合について」との過去の話題が、過去の会議の議事録から抽出されていた場合の例である。この例の場合、会議参加者であるYさん及びZさんが、例えば「Bモジュールには、不具合があります。」等の発言をしたために、要約生成部25が、「Bモジュールの不具合について」との過去の話題と一致すると判断した例である。この場合、要約生成部25は、Yさん及びZさんの各アイコンの一部を重ねた情報で表示する。また、要約生成部25は、Yさん及びZさんの発言を「Bモジュールの不具合について」との、過去の会議の話題に要約する。
これにより、第2の実施の形態の会議支援システムは、会議に参加している聴覚障碍者又は訂正担当者が、誤った字幕を訂正している間、及び、訂正結果を確認している間等にも、現在進行している議論の概要を把握することができ、聴覚障碍者又は訂正担当者が、訂正作業の完了からスムーズに、現在の議論に参加(復帰)できる等、上述の第1の実施の形態と同様の効果を得ることができる。
[第3の実施の形態]
次に、第3の実施の形態の会議支援システムの説明をする。この第3の実施の形態の会議支援システムは、会議のアジェンダから予めキーワードを抽出しておき、各キーワードに重み付けを行う。そして、各発言に含まれるキーワードの重み付け係数に応じて、作成する要約の文字数等を変更する。なお、上述の第2の実施の形態と第3の実施の形態とでは、この点のみが異なる。このため、以下、両者の差異の説明のみ行い、重複説明は省略する。
すなわち、第3の実施の形態の会議支援システムの場合、ファシリテータであるAさんの共有マシン1の要約生成部25は、HDD14に記憶されている、これから行う会議のアジェンダから、キーワードを予め抽出し、抽出した各キーワードに対して、それぞれ重み付け係数を付加してHDD14等の記憶部に記憶しておく。HDD14は、キーワード記憶部の一例である。
要約生成部25は、要約モードとなった際に、各会議参加者の発言のテキストデータ中に含まれるキーワードを検出し、また、検出したキーワードの重み付け係数をHDD14から検出する。そして、要約生成部25は、大きな値の重み付け係数のキーワードを含む発言に対しては、例えば「Bモジュールの不具合について」等の文書調の要約を生成する。これに対して、要約生成部25は、小さな値の重み付け係数のキーワードしか含まない発言に対しては、例えば「Bモジュール」等の単語調の要約を生成する。
これにより、重要なキーワードを含む発言は、長めの文書の要約とすることができ、また、それほど重要ではないキーワードしか含まない発言は、短めの文書の要約とすることができる。
なお、この他、要約生成部25は、会議参加者の発言時間長又は発言回数に応じて、要約の文書の長さを調整してもよい。例えば、要約生成部25は、発言時間が3分の場合、3つの文書の要約を生成する。また、発言回数が3回の場合、要約生成部25は、3つのキーワードを表示する。発言時間が長い発言、また、発言回数が多い会議参加者の発言は、重要度の高い発言となることが多い。このため、発言時間又は発言回数に応じて文書の長さを調整した要約を生成することで、発言の重要度に応じた文書の長さの要約を生成できる。
[第4の実施の形態]
次に、第4の実施の形態の会議支援システムの説明をする。この第4の実施の形態の会議支援システムは、作成する要約が、字幕の表示許容文字数以上の文字数となる場合、作成した要約が、一つの字幕の表示領域内に表示可能となるように、フォントサイズを調整する例である。なお、上述の各実施の形態と第4の実施の形態とでは、この点のみが異なる。このため、以下、両者の差異の説明のみ行い、重複説明は省略する。
図13は、第4の実施の形態の会議支援システムにおける、ファシリテータであるAさんの共有マシン1のフォントサイズの調整動作の流れを示すフローチャートである。まず、ステップS10では、Aさん等により設定される既定のフォントサイズFSの値と、字幕の一行の文字数WCの値を、Aさんの共有マシン1のCPU11が、HDD14又はRAM13等の記憶部に記憶する。ステップS11では、Aさんの共有マシン1のCPU11が、Aさん等により設定される一つの字幕の最大行数MAX_LCの値を、HDD14又はRAM13等の記憶部に記憶する。
ステップS12では、要約モードに移行することで、Aさんの共有マシン1の要約生成部25が、字幕の要約を生成する。ステップS13では、要約生成部25が、生成した字幕の要約の文字数wcをカウントする、そして、要約生成部25は、ステップS14において、一つの字幕の最大行数MAX_LCに、字幕の一行の文字数WCを乗算処理した値が、カウントした字幕の要約の文字数wc未満であるか否か(wc>MAX_LC×WC)を判別する。
一つの字幕の最大行数MAX_LCに、字幕の一行の文字数WCを乗算処理した値が、カウントした字幕の要約の文字数wc未満であるということは、生成した字幕の要約を、フォントサイズを変更することなく、一つの字幕の表示領域に表示可能であることを意味する。このため、要約生成部25は、生成した要約のフォントサイズを、ステップS17において、ステップS10で設定した既定のフォントサイズFSに設定する。この場合、ステップS16において、字幕生成部23及び字幕提示部24により、生成した要約が、既定のフォントサイズで、一つの字幕の表示領域に表示される。
一方、一つの字幕の最大行数MAX_LCに、字幕の一行の文字数WCを乗算処理した値が、カウントした字幕の要約の文字数wc以上であるということは、生成した字幕の要約は、一つの字幕の表示領域に表示できないことを意味する。このため、要約生成部25は、ステップS15に処理を進め、既定のフォントサイズFSに、カウントした字幕の要約の文字数wcを乗算処理した値を、一つの字幕の最大行数MAX_LCに、字幕の一行の文字数WCを乗算処理した値で除算処理した値を、生成した要約のフォントサイズに設定する(fontsize=(FS×wc)/(WC×MAX_LC))。この場合、ステップS16において、字幕生成部23及び字幕提示部24により、生成した要約が、「fontsize=(FS×wc)/(WC×MAX_LC)」の数式で算出されたフォントサイズで、字幕の表示領域に表示される。これにより、生成した要約の全ての文字を、一つの字幕の表示領域に表示可能とすることができる。
このように、第4の実施の形態の会議支援システムは、既定のフォントサイズと字幕の一行に表示する文字数と、1つの字幕の表示領域に対する最大行数の設定を設け、音声認識結果となるテキストデータ、又は、生成した要約のテキストデータの行数が、最大行数以下の場合には、既定のフォントサイズで表示する。これに対して、音声認識結果となるテキストデータ、又は、要約のテキストデータの行数が、最大行数以上の場合は、最大行数に収まるように、フォントサイズを調整して表示する。これにより、例えば図14に示すように、「Yさんの、先期の特許。製品Yに搭載。学会で最優秀賞。今後の応用も期待大。事業貢献度も大きい。すばらしい」等の長文の要約であっても、既定よりも小さいフォントサイズに調整することで、一つの字幕の表示領域に、要約の全ても文字を表示することができる他、上述の各実施の形態と同様の効果を得ることができる。なお、図14の例は、一つの字幕の表示領域は、既定のフォントサイズが「14」、字幕の一行の文字数が「20文字」、最大行数が「2行」である場合の例である。
本発明の実施の形態を説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 共有マシン
2 マイクロホン装置
3 パーソナルコンピュータ装置
4 パーソナルコンピュータ装置
5 パーソナルコンピュータ装置
6 マイクロホン装置
7 パーソナルコンピュータ装置
8 マイクロホン装置
9 マイクロホン装置
11 CPU
12 ROM
13 RAM
14 HDD
15 入出力I/F
16 通信I/F
17 表示部
21 音声受信部
22 音声認識部
23 字幕生成部
24 字幕提示部
25 要約生成部
26 検知部
40 操作部
41 字幕ブロック
42 録音ボタン
46 録音開始ボタン
51 訂正完了ボタン

Claims (11)

  1. 音声データを音声認識し、テキストデータを生成する認識部と、
    前記テキストデータに対する訂正作業を検知する検知部と、
    前記訂正作業が検知されている間、前記テキストデータのうち、前記訂正作業が行われている箇所以降に関する要約を生成する要約部と、
    前記訂正作業が検知されている間は、前記要約に対応する字幕情報を生成し、前記訂正作業が検知されている間以外は、前記テキストデータに対応する字幕情報を生成する字幕部と
    を有する会議支援装置。
  2. 前記検知部は、前記字幕情報が誤っていることを指摘する指摘情報の有無を検知し、
    前記字幕部は、誤っていることが指摘された前記字幕情報に対して、誤っていることが指摘されたことを示す情報を付加して表示すること
    を特徴とする請求項1に記載の会議支援装置。
  3. 前記字幕部は、前記訂正作業が検知されている間、訂正処理されている前記字幕情報に、訂正処理中であることを示す情報を付加して表示すること
    を特徴とする請求項1又は請求項2に記載の会議支援装置。
  4. 前記要約部は、一まとまりの音声データに対応する前記テキストデータ毎に、前記要約を生成すること
    を特徴とする請求項1から請求項3のうち、いずれか一項に記載の会議支援装置。
  5. 文書情報が記憶された文書情報記憶部を、さらに備え、
    前記要約部は、前記訂正作業が行われている前記テキストデータ以降の前記テキストデータに一致又は近似する前記文書情報を前記要約として生成すること
    を特徴とする請求項1から請求項3のうち、いずれか一項に記載の会議支援装置。
  6. 重み付け係数が付されたキーワードが記憶されたキーワード記憶部を、さらに備え、
    前記要約部は、前記訂正作業が行われている前記テキストデータ以降の前記テキストデータに含まれるキーワードに対応する重み付け係数を、前記キーワード記憶部から検出し、検出した重み付け係数に応じて文字数を変更した前記要約を生成すること
    を特徴とする請求項1から請求項5のうち、いずれか一項に記載の会議支援装置。
  7. 前記要約部は、一まとまりの音声データに対応する前記テキストデータの時間的な長さを調整した要約を生成し、又は、一まとまりの音声データに対応する前記テキストデータのうち、同一人物のテキストデータの出現回数に応じて文書の長さを調整した要約を生成すること
    を特徴とする請求項1から請求項6のうち、いずれか一項に記載の会議支援装置。
  8. 前記要約部は、作成した要約が、前記表示部における、一つの字幕の表示領域に表示可能となるように、要約の文字のフォントサイズを調整すること
    を特徴とする請求項1から請求項7のうち、いずれか一項に記載の会議支援装置。
  9. 前記字幕部は、生成した前記字幕情報を表示部に表示すること
    を特徴とする請求項1から請求項8のうち、いずれか一項に記載の会議支援装置。
  10. 認識部が、音声データを音声認識し、テキストデータを生成する認識ステップと、
    検知部が、前記テキストデータに対する訂正作業を検知する検知ステップと、
    要約部が、前記訂正作業が検知されている間、前記テキストデータのうち、前記訂正作業が行われている箇所以降に関する要約を生成する要約生成ステップと、
    字幕部が、前記訂正作業が検知されている間は、前記要約に対応する字幕情報を生成し、前記訂正作業が検知されている間以外は、前記テキストデータに対応する字幕情報を生成する字幕生成ステップと
    を有する会議支援方法。
  11. コンピュータを、
    音声データを音声認識し、テキストデータを生成する認識部と、
    前記テキストデータに対する訂正作業を検知する検知部と、
    前記訂正作業が検知されている間、前記テキストデータのうち、前記訂正作業が行われている箇所以降に関する要約を生成する要約部と、
    前記訂正作業が検知されている間は、前記要約に対応する字幕情報を生成し、前記訂正作業が検知されている間以外は、前記テキストデータに対応する字幕情報を生成する字幕部
    として機能させるための会議支援プログラム。
JP2016048489A 2016-03-11 2016-03-11 会議支援装置、会議支援方法、及び会議支援プログラム Active JP6517718B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016048489A JP6517718B2 (ja) 2016-03-11 2016-03-11 会議支援装置、会議支援方法、及び会議支援プログラム
US15/387,335 US10102859B2 (en) 2016-03-11 2016-12-21 Conference support apparatus, conference support method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016048489A JP6517718B2 (ja) 2016-03-11 2016-03-11 会議支援装置、会議支援方法、及び会議支援プログラム

Publications (2)

Publication Number Publication Date
JP2017161850A true JP2017161850A (ja) 2017-09-14
JP6517718B2 JP6517718B2 (ja) 2019-05-22

Family

ID=59787972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016048489A Active JP6517718B2 (ja) 2016-03-11 2016-03-11 会議支援装置、会議支援方法、及び会議支援プログラム

Country Status (2)

Country Link
US (1) US10102859B2 (ja)
JP (1) JP6517718B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10304460B2 (en) 2016-09-16 2019-05-28 Kabushiki Kaisha Toshiba Conference support system, conference support method, and computer program product
CN110265026A (zh) * 2019-06-19 2019-09-20 安徽声讯信息技术有限公司 一种会议速记系统以及会议速记方法
JP2021157139A (ja) * 2020-03-30 2021-10-07 本田技研工業株式会社 会話支援装置、会話支援システム、会話支援方法およびプログラム
JP2021157138A (ja) * 2020-03-30 2021-10-07 本田技研工業株式会社 会話支援装置、会話支援システム、会話支援方法およびプログラム
JP2023106149A (ja) * 2022-01-20 2023-08-01 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
KR102615973B1 (ko) * 2023-09-25 2023-12-20 주식회사 텍스트웨이 개인 사전 구축 서비스 제공 시스템 및 방법
JP7489232B2 (ja) 2020-05-20 2024-05-23 シャープ株式会社 情報処理システム、情報処理方法、及び情報処理プログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109313649B (zh) * 2017-03-24 2022-05-31 微软技术许可有限责任公司 用于聊天机器人的基于语音的知识共享的方法和装置
US11798544B2 (en) * 2017-08-07 2023-10-24 Polycom, Llc Replying to a spoken command
US10923121B2 (en) * 2017-08-11 2021-02-16 SlackTechnologies, Inc. Method, apparatus, and computer program product for searchable real-time transcribed audio and visual content within a group-based communication system
JP2019035903A (ja) * 2017-08-18 2019-03-07 富士ゼロックス株式会社 情報処理装置及びプログラム
US10535352B2 (en) * 2017-11-16 2020-01-14 International Business Machines Corporation Automated cognitive recording and organization of speech as structured text
US10636427B2 (en) * 2018-06-22 2020-04-28 Microsoft Technology Licensing, Llc Use of voice recognition to generate a transcript of conversation(s)
CN111083299A (zh) * 2018-10-18 2020-04-28 富士施乐株式会社 信息处理装置及存储介质
US10891969B2 (en) * 2018-10-19 2021-01-12 Microsoft Technology Licensing, Llc Transforming audio content into images
JP7302270B2 (ja) * 2019-05-10 2023-07-04 株式会社リコー 表示端末、共用システム、表示制御方法およびプログラム
JP7512159B2 (ja) * 2020-10-07 2024-07-08 株式会社東芝 文書検索装置、方法、プログラムおよび学習装置
US11936487B2 (en) * 2021-08-17 2024-03-19 Rovi Guides, Inc. Systems and methods for associating context to subtitles during live events
US11770268B2 (en) * 2022-02-14 2023-09-26 Intel Corporation Enhanced notifications for online collaboration applications
US11876633B2 (en) * 2022-04-30 2024-01-16 Zoom Video Communications, Inc. Dynamically generated topic segments for a communication session
US20240127514A1 (en) * 2022-10-17 2024-04-18 vTapestry, Inc. Artificial Intelligence Model Generation of Meeting Tapestries
CN116246633B (zh) * 2023-05-12 2023-07-21 深圳市宏辉智通科技有限公司 无线智能物联网会议系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060192A (ja) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> 文字データ修正装置および記憶媒体
JP2006119534A (ja) * 2004-10-25 2006-05-11 Internatl Business Mach Corp <Ibm> コンピュータシステム、修正作業を支援するための方法、及びプログラム
JP2007256714A (ja) * 2006-03-24 2007-10-04 Internatl Business Mach Corp <Ibm> 字幕修正装置
JP2009187349A (ja) * 2008-02-07 2009-08-20 Nec Corp 文章修正支援システム、文章修正支援方法、および文章修正支援用プログラム
JP2010282083A (ja) * 2009-06-05 2010-12-16 Nippon Telegr & Teleph Corp <Ntt> 誤認識訂正装置、方法及びプログラム
JP2012208630A (ja) * 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc 発言管理システム、発言管理方法及び発言管理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8407049B2 (en) * 2008-04-23 2013-03-26 Cogi, Inc. Systems and methods for conversation enhancement
JP5685702B2 (ja) 2009-11-10 2015-03-18 株式会社アドバンスト・メディア 音声認識結果管理装置および音声認識結果表示方法
US9117450B2 (en) * 2012-12-12 2015-08-25 Nuance Communications, Inc. Combining re-speaking, partial agent transcription and ASR for improved accuracy / human guided ASR
JP6604836B2 (ja) * 2015-12-14 2019-11-13 株式会社日立製作所 対話テキスト要約装置及び方法
US10204158B2 (en) * 2016-03-22 2019-02-12 International Business Machines Corporation Audio summarization of meetings driven by user participation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060192A (ja) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> 文字データ修正装置および記憶媒体
JP2006119534A (ja) * 2004-10-25 2006-05-11 Internatl Business Mach Corp <Ibm> コンピュータシステム、修正作業を支援するための方法、及びプログラム
JP2007256714A (ja) * 2006-03-24 2007-10-04 Internatl Business Mach Corp <Ibm> 字幕修正装置
JP2009187349A (ja) * 2008-02-07 2009-08-20 Nec Corp 文章修正支援システム、文章修正支援方法、および文章修正支援用プログラム
JP2010282083A (ja) * 2009-06-05 2010-12-16 Nippon Telegr & Teleph Corp <Ntt> 誤認識訂正装置、方法及びプログラム
JP2012208630A (ja) * 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc 発言管理システム、発言管理方法及び発言管理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
水島昌英他: "音声認識を用いた会議情報保障支援システムにおける話者と訂正者の連携支援機能の評価", 電子情報通信学会技術研究報告, vol. 108, no. 435, JPN6018051943, February 2009 (2009-02-01), pages 17 - 22, ISSN: 0003999236 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10304460B2 (en) 2016-09-16 2019-05-28 Kabushiki Kaisha Toshiba Conference support system, conference support method, and computer program product
CN110265026A (zh) * 2019-06-19 2019-09-20 安徽声讯信息技术有限公司 一种会议速记系统以及会议速记方法
CN110265026B (zh) * 2019-06-19 2021-07-27 安徽声讯信息技术有限公司 一种会议速记系统以及会议速记方法
JP2021157139A (ja) * 2020-03-30 2021-10-07 本田技研工業株式会社 会話支援装置、会話支援システム、会話支援方法およびプログラム
JP2021157138A (ja) * 2020-03-30 2021-10-07 本田技研工業株式会社 会話支援装置、会話支援システム、会話支援方法およびプログラム
JP7332519B2 (ja) 2020-03-30 2023-08-23 本田技研工業株式会社 会話支援装置、会話支援システム、会話支援方法およびプログラム
JP7332518B2 (ja) 2020-03-30 2023-08-23 本田技研工業株式会社 会話支援装置、会話支援システム、会話支援方法およびプログラム
JP7489232B2 (ja) 2020-05-20 2024-05-23 シャープ株式会社 情報処理システム、情報処理方法、及び情報処理プログラム
JP2023106149A (ja) * 2022-01-20 2023-08-01 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7351944B2 (ja) 2022-01-20 2023-09-27 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
KR102615973B1 (ko) * 2023-09-25 2023-12-20 주식회사 텍스트웨이 개인 사전 구축 서비스 제공 시스템 및 방법

Also Published As

Publication number Publication date
US20170263265A1 (en) 2017-09-14
JP6517718B2 (ja) 2019-05-22
US10102859B2 (en) 2018-10-16

Similar Documents

Publication Publication Date Title
JP6517718B2 (ja) 会議支援装置、会議支援方法、及び会議支援プログラム
US8880406B2 (en) Automatic determination of and response to a topic of a conversation
JP6327848B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびプログラム
JP6115074B2 (ja) 情報提示システム、情報提示装置、プログラムおよび情報提示方法
JP2011182125A (ja) 会議システム、情報処理装置、会議支援方法、情報処理方法、及びコンピュータプログラム
JP6664249B2 (ja) 議事録作成システム
TWI399739B (zh) 語音留言與傳達之系統與方法
US20050209859A1 (en) Method for aiding and enhancing verbal communication
JP2018170743A (ja) 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム
US8553855B2 (en) Conference support apparatus and conference support method
JP2010086356A (ja) 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム
JP5907231B1 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
US20030097253A1 (en) Device to edit a text in predefined windows
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP2010282083A (ja) 誤認識訂正装置、方法及びプログラム
US11430429B2 (en) Information processing apparatus and information processing method
JP6260138B2 (ja) コミュニケーション処理装置、コミュニケーション処理方法、及び、コミュニケーション処理プログラム
US11688268B2 (en) Information processing apparatus and information processing method
JP6962849B2 (ja) 会議支援装置、会議支援制御方法およびプログラム
JP6296193B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP6897678B2 (ja) 情報処理装置及び情報処理方法
JP6112239B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP7152454B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
US20230297328A1 (en) Information processing apparatus, information processing method, and information processing program
JP2016119107A (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190418

R151 Written notification of patent or utility model registration

Ref document number: 6517718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151