JPH08316953A - Electronic conference system - Google Patents

Electronic conference system

Info

Publication number
JPH08316953A
JPH08316953A JP7117248A JP11724895A JPH08316953A JP H08316953 A JPH08316953 A JP H08316953A JP 7117248 A JP7117248 A JP 7117248A JP 11724895 A JP11724895 A JP 11724895A JP H08316953 A JPH08316953 A JP H08316953A
Authority
JP
Japan
Prior art keywords
data
conference
speaker
voice
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7117248A
Other languages
Japanese (ja)
Inventor
Noboru Fujiwara
昇 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7117248A priority Critical patent/JPH08316953A/en
Publication of JPH08316953A publication Critical patent/JPH08316953A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PURPOSE: To use the voice data transmitted and received in a multimedia electronic conference system and to realize the authentication of conference participants and the management of the right to speaking. CONSTITUTION: When a participant in a conference explains contents of characters and graphics with a voice while drawing them in a shared window, input events of document data, picture data, and voice data successively occur, and the speaker is identified by a speaker recognition process 114 with respect to voice data. If voice data from speakers other than preliminarily designated specific speakers is detected, the transmission processing of voice data is inhibited or the sound volume of transmitted voice data is reduced. Thus, the trouble that the voice or the like of a person who is not a just participant in the conference or a participant in the conference who doesn't have the right for speaking is sent as voice data to participants in the conference of the other client computers is prevented.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は電子会議システムに関
し、特にネットワークに接続された複数のコンピュータ
を利用した電子会議システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic conference system, and more particularly to an electronic conference system using a plurality of computers connected to a network.

【0002】[0002]

【従来の技術】近年、コンピュータネットワークを利用
した電子会議システムが注目されている。従来の電子会
議システムは、電話回線を利用したパソコン通信サービ
スのホストコンピュータなどによって実現されている。
2. Description of the Related Art In recent years, an electronic conferencing system using a computer network has been receiving attention. The conventional electronic conferencing system is realized by a host computer of a personal computer communication service using a telephone line.

【0003】すなわち、パソコン通信サービスを利用し
た従来の電子会議システムでは、各パーソナルコンピュ
ータから送られてくる文書データなどの会議データはホ
ストコンピュータに一旦蓄積され、そのデータは会議参
加者となる他のパーソナルコンピュータによって適宜読
み出される。これにより、遠隔地のパーソナルコンピュ
ータ同士で情報交換がなされる。
That is, in a conventional electronic conferencing system using a personal computer communication service, conference data such as document data sent from each personal computer is temporarily stored in a host computer, and the data is used by other conference participants. It is read by a personal computer as appropriate. As a result, information is exchanged between personal computers at remote locations.

【0004】しかし、このようにパソコン通信サービス
を利用したシステムでは、データ転送速度が遅く、また
ホストコンピュータを介してデータ交換がなされるので
会議を行う上で必要なリアルタイム性を実現することは
困難である。
However, in such a system using the personal computer communication service, the data transfer rate is slow and data is exchanged via the host computer, so that it is difficult to realize the real-time property required for the conference. Is.

【0005】そこで、最近では、LANを利用した電子
会議システムが開発され始めている。このシステムで
は、ホストコンピュータを利用せずに、LANに接続さ
れた複数のパーソナルコンピュータ間で会議データが直
接授受される。このため、前述のホストコンピュータを
利用するシステム形態と比べれば、データ交換の速度を
高めることができる。
Therefore, recently, an electronic conference system using a LAN has begun to be developed. In this system, conference data is directly exchanged between a plurality of personal computers connected to the LAN without using a host computer. Therefore, the speed of data exchange can be increased as compared with the system configuration using the host computer described above.

【0006】[0006]

【発明が解決しようとする課題】しかし、LANを利用
した従来のシステム形態においては、会議参加者の照合
処理はパーソナルコンピュータのバスワード機能を使用
する程度に止まっており、パーソナルコンピュータを使
用して会議に参加している人が正当な会議参加者か否か
を判別することは困難であった。また、音声データを会
議データとして扱うことができるシステムでは、正当な
会議参加者でない人、または発言権の無い会議参加者か
らの声(例えば、独り言、雑談など)が音声データとし
て他の会議参加者に送られてしまうこともあり、これに
よって正当な発言が聞きにくくなるなどの不具合があっ
た。
However, in the conventional system form using the LAN, the collation process of the conference participants is limited to the use of the personal computer's password function, and the personal computer is used. It was difficult to determine whether the person participating in the conference was a legitimate conference participant. In addition, in a system that can handle voice data as conference data, voices (for example, soliloquy, chat, etc.) from a person who is not a legitimate conference participant or a conference participant who does not have a speaking right can participate in other conferences as voice data. However, there was a problem that legitimate remarks became difficult to hear.

【0007】さらに、従来のシステムで実現されている
のは会議データの交換だけであり、会議データの保存・
再生や、議事録作成などの機能は実現されていなかっ
た。この発明はこのような点に鑑みてなされたもので、
会議データとして送受信される音声データを利用して会
議参加者の認証および発言権管理を実現することができ
るマルチメディア対応の電子会議システムを提供するこ
とを目的とする。
Further, the conventional system is only capable of exchanging conference data, and saving and storing the conference data.
Functions such as reproduction and minutes creation were not realized. The present invention has been made in view of these points,
It is an object of the present invention to provide a multimedia-compatible electronic conferencing system capable of realizing authentication of conference participants and management of a speaking right by using voice data transmitted / received as conference data.

【0008】[0008]

【課題を解決するための手段および作用】この発明は、
ネットワークに接続された複数のコンピュータ間で文
字、画像、または音声データを含む会議データを交換す
る電子会議システムにおいて、前記各コンピュータは、
文字、画像、または音声データの入力イベントの発生に
応答して、その発生したイベントに対応するデータを会
議データとして他の全てのコンピュータにブロードキャ
スト送信する会議データ送信手段と、前記他のコンピュ
ータから会議データとして送信された文字、または画像
を、自身のコンピュータで発生された文字、または画像
と一緒に同一画面上に表示する手段と、前記他のコンピ
ュータから会議データとして送信された音声データを再
生する手段と、前記音声データの入力イベントが発生し
たとき、その入力された音声データの話者を識別する話
者識別手段と、予め指定された特定話者以外の他の話者
からの音声データであることが検出されたとき、前記会
議データ送信手段による送信処理を禁止、またはその会
議データ送信手段によって会議データとして送信される
音声データの音量を減衰させる手段とを具備することを
特徴とする。
Means and Actions for Solving the Problems
In an electronic conferencing system for exchanging conference data including text, image, or audio data between a plurality of computers connected to a network, each computer is
In response to the occurrence of an input event of character, image, or audio data, conference data transmitting means for transmitting data corresponding to the occurred event as conference data to all other computers, and a conference from the other computer. A means for displaying the character or image transmitted as data together with the character or image generated by its own computer on the same screen, and reproducing the voice data transmitted as conference data from the other computer. Means, speaker identification means for identifying a speaker of the input voice data when an input event of the voice data occurs, and voice data from a speaker other than a specific speaker designated in advance. When it is detected, the transmission processing by the conference data transmission means is prohibited, or the conference data transmission means Therefore characterized by comprising a means for attenuating the sound volume of the audio data transmitted as conference data.

【0009】この電子会議システムにおいては、例えば
ある会議参加者が文字や図形を共有ウインドウに描きな
がらその内容を音声によって説明した場合には、文書デ
ータ、画像データ、および音声データの入力イベントが
逐次発生されるが、音声データについてはその話者の識
別処理が行われる。予め指定された特定話者以外の他の
話者からの音声データであることが検出されたときは、
会議データ送信手段による送信処理が禁止されるか、ま
たはその会議データ送信手段によって会議データとして
送信される音声データの音量が減衰される。これによ
り、正当な会議参加者でない人、または発言権の無い会
議参加者からの声(例えば、独り言、雑談など)が音声
データとして他の会議参加者に送られてしまうことがな
くなり、会議参加者の認証および発言権管理を効率良く
実現することが可能になる。
In this electronic conferencing system, for example, when a conference participant draws characters or figures in a shared window and explains the contents by voice, input events of document data, image data, and voice data are successively performed. Although generated, the speaker identification process is performed on the voice data. When it is detected that the voice data is from a speaker other than the specific speaker designated in advance,
The transmission process by the conference data transmitting unit is prohibited, or the volume of the audio data transmitted as the conference data is attenuated by the conference data transmitting unit. As a result, voices (for example, soliloquy, chats, etc.) from persons who are not legitimate conference participants or who do not have the right to speak can be prevented from being sent as voice data to other conference participants. It is possible to efficiently realize the authentication of the person and the management of the floor.

【0010】[0010]

【実施例】以下、図面を参照してこの発明の実施例を説
明する。図1には、この発明の一実施例に係る電子会議
システムの基本構成が示されている。この電子会議シス
テムは、コンピュータネットワークシステムを利用した
システムであり、LAN10上に接続された複数のクラ
イアントコンピュータ11〜13およびサーバコンピュ
ータ21によって実現されている。このシステムでは、
各会議参加者は、対応するクライアントコンピュータを
利用して在席しながら、遠隔地の他のクラアントコンピ
ュータを操作する会議参加者と会議を行う。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows the basic configuration of an electronic conference system according to an embodiment of the present invention. This electronic conference system is a system using a computer network system, and is realized by a plurality of client computers 11 to 13 and a server computer 21 connected on a LAN 10. In this system,
Each conference participant, while using the corresponding client computer, attends a conference with a conference participant who operates another client computer at a remote location.

【0011】この場合、LAN10上に接続された複数
のクライアントコンピュータ11〜13それぞれには同
一会議データを表示するための共有ウインドウW1〜W
3がオープンされ、それら共有ウインドウW1〜W3を
利用して会議データの交換が行われる。また、サーバコ
ンピュータ21は、主に会議内容の保存・再生、および
議事録作成などに利用される。
In this case, the shared windows W1 to W for displaying the same conference data are respectively displayed on the plurality of client computers 11 to 13 connected to the LAN 10.
3 is opened, and conference data is exchanged using the shared windows W1 to W3. In addition, the server computer 21 is mainly used for storing / reproducing the contents of the meeting, creating the minutes, and the like.

【0012】クライアントコンピュータ11〜13はそ
れぞれパーソナルコンピュータまたはワークステーショ
ンなどによって実現されており、プログラムや各種周辺
装置の処理を司るCPU、プログラムや各種データを記
憶するメモリ、HDD、FDDなどの外部記憶装置、キ
ーボード、マウス、ペン、スキャナなどから成る入力装
置、ディスプレイモニタ、プリンタなどの出力装置、お
よびLAN10に接続するための通信装置を備えてい
る。
Each of the client computers 11 to 13 is realized by a personal computer, a workstation, or the like, and a CPU that controls processing of programs and various peripheral devices, a memory that stores programs and various data, an external storage device such as an HDD or FDD. , An input device including a keyboard, a mouse, a pen, a scanner, an output device such as a display monitor and a printer, and a communication device for connecting to the LAN 10.

【0013】また、これらクライアントコンピュータ1
1〜13には、マルチメディアデータを会議データとし
て扱うために、マイクロホン付きヘッドセット11a〜
13a、およびビデオカメラ11b〜13bも設けられ
ている。
Also, these client computers 1
1 to 13 include a headset with a microphone 11a to handle multimedia data as conference data.
13a and video cameras 11b to 13b are also provided.

【0014】ビデオカメラ11b〜13bは、他のクラ
イアントコンピュータおよびサーバコンピュータ21に
送るべき映像を入力するためのものであり、各会議参加
者が自分の顔や、手元の会議資料などを写すために利用
される。
The video cameras 11b to 13b are for inputting images to be sent to other client computers and the server computer 21, so that each conference participant can photograph his or her face or the conference material at hand. Used.

【0015】ヘッドセット11a〜13aは、それぞれ
マイクロホンとスピーカを備えており、他のクライアン
トコンピュータおよびサーバコンピュータ21に送るべ
き音声信号の入力、および他のクライアントコンピュー
タから送信される音声信号の再生に使用される。
Each of the headsets 11a to 13a has a microphone and a speaker, and is used for inputting an audio signal to be sent to another client computer and the server computer 21 and for reproducing an audio signal transmitted from another client computer. To be done.

【0016】共有ウインドウW1〜W3は、それぞれク
ライアントコンピュータ11〜13上で実行されるウイ
ンドウシステムによって提供される画面であり、これら
共有ウインドウW1〜W3には同一の会議データ(文
字、図形、動画など)が表示される。
The shared windows W1 to W3 are screens provided by the window system executed on the client computers 11 to 13, respectively. The shared windows W1 to W3 have the same conference data (characters, graphics, moving images, etc.). ) Is displayed.

【0017】すなわち、クライアントコンピュータ11
を操作する会議参加者がキーボードを用いて文字“ab
cd…”を入力すると、その文字データ“abcd…”
は、クライアントコンピュータ11の共有ウインドウW
1に表示されると共に、他のクライアントコンピュータ
12,13の共有ウインドウW2,W3にもそれぞれ表
示される。
That is, the client computer 11
The conference participant who operates the
If you enter "cd ...", the character data "abcd ..."
Is the shared window W of the client computer 11.
1 and the shared windows W2 and W3 of the other client computers 12 and 13, respectively.

【0018】また、クライアントコンピュータ12を操
作する会議参加者が、ウインドウシステムがサポートす
るグラフィクスツールを利用して、マウス操作によって
丸などの図形を描画すると、その丸の図形は、クライア
ントコンピュータ12の共有ウインドウW2に表示され
ると共に、他のクライアントコンピュータ11,13の
共有ウインドウW1,W3にもそれぞれ表示される。
When a conference participant operating the client computer 12 draws a figure such as a circle by operating the mouse using a graphics tool supported by the window system, the circle figure is shared by the client computer 12. In addition to being displayed in the window W2, it is also displayed in the shared windows W1 and W3 of the other client computers 11 and 13, respectively.

【0019】同様に、クライアントコンピュータ13を
操作する会議参加者が、ウインドウシステムがサポート
するグラフィクスツールを利用して、マウス操作によっ
て四角などの図形を描画すると、その四角の図形は、ク
ライアントコンピュータ13の共有ウインドウW3に表
示されると共に、他のクライアントコンピュータ11,
12の共有ウインドウW1,W2にもそれぞれ表示され
る。
Similarly, when a conference participant operating the client computer 13 draws a figure such as a square by mouse operation using a graphics tool supported by the window system, the figure of the square is displayed on the client computer 13. While being displayed in the shared window W3, the other client computers 11,
It is also displayed in each of the 12 shared windows W1 and W2.

【0020】このように、共有ウインドウW1〜W3に
はクライアントコンピュータ11〜13それぞれで入力
されたデータが入力順に合成されて表示される。これよ
り、全ての会議参加者が同一データを見ながら会議を行
うことができる。
As described above, in the shared windows W1 to W3, the data input by the client computers 11 to 13 are combined and displayed in the input order. As a result, all conference participants can hold a conference while viewing the same data.

【0021】このような共有ウインドウの制御は、クラ
イアントコンピュータ11〜13が、それぞれのコンピ
ュータで入力されたデータを他の全てのコンピュータに
ブロードキャストすることによって実現されている。
Such control of the shared window is realized by the client computers 11 to 13 broadcasting the data input by each computer to all other computers.

【0022】この場合、データ送信は入力イベントの発
生毎に行われるので、データを受け取ったクライアント
コンピュータの画面表示は、そのデータを入力したクラ
ンアントコンピュータの画面表示と同一となる。従っ
て、例えば、クライアントコンピュータ13を操作する
会議参加者がマウスをドラッキングして四角を描画した
場合には、そのクライアントコンピュータ13の共有ウ
インドウW3に表示されるドラックング過程(破線で図
示)が、他のクライアントコンピュータ11,12の共
有ウンドウW1,W2にも表示されることになる。
In this case, since the data transmission is performed every time an input event occurs, the screen display of the client computer which receives the data becomes the same as the screen display of the client computer which inputs the data. Therefore, for example, when a conference participant who operates the client computer 13 draws a square by dragging the mouse, the dragging process (illustrated by the broken line) displayed in the shared window W3 of the client computer 13 is Will also be displayed on the shared windows W1 and W2 of the client computers 11 and 12.

【0023】また、音声データについてもその入力の度
にブロードキャストが行われ、例えば、クライアントコ
ンピュータ11を操作する会議参加者がヘッドセット1
1aから音声を入力すると、その入力された音声データ
は、クライアントコンピュータ12,13のヘッドセッ
ト12a,13aから再生されることになる。
Broadcasting of voice data is also performed each time the voice data is input, and, for example, a conference participant operating the client computer 11 uses the headset 1
When voice is input from 1a, the input voice data is reproduced from the headsets 12a and 13a of the client computers 12 and 13.

【0024】さらに、各クライアントコンピュータには
話者認識機能が設けられており、入力音声データが予め
規定された会議参加者からのものか、あるいはそれ以外
の他の人からの者かが識別される。会議参加者からの音
声データについては通常通りに他の全てのコンピュータ
に送信されるが、他の人からの音声データについてはそ
の送信が禁止されるか、または音量が減衰された状態で
他の全てのコンピュータに送信される。また、他のコン
ピュータから受信した音声データの再生についても同様
の話者認識が行われ、正当な会議参加者からの音声デー
タだけが再生される。これにより、予め決められた会議
参加者の間でのみ音声データを含む電子会議を行うこと
が可能となる。
Further, each client computer is provided with a speaker recognition function to identify whether the input voice data is from a pre-defined conference participant or another person. It Audio data from conference participants will be sent to all other computers as normal, but audio data from other people will be blocked from sending or will be sent to other computers with the volume attenuated. Sent to all computers. In addition, the same speaker recognition is performed for reproduction of voice data received from another computer, and only voice data from a legitimate conference participant is reproduced. This makes it possible to hold an electronic conference including voice data only between predetermined conference participants.

【0025】話者認識は、例えば、話者名(話者ID)
毎にその話者の音声データの特徴を示す話者識別情報を
保持する話者辞書と、その話者辞書と入力音声データか
ら抽出した話者識別情報とを照合して話者を特定する照
合機能とによって実現できる。話者識別情報としては、
例えば、ケプストラム分析、線形予測分析、PARCO
R分析等を利用して音声データからセンテンス毎に抽出
したパラメタなどを利用できる。
For speaker recognition, for example, the speaker name (speaker ID)
For each time, a speaker dictionary that holds speaker identification information that indicates the characteristics of the speaker's voice data and a speaker dictionary that matches the speaker identification information extracted from the input voice data are used to identify the speaker. It can be realized by the function and. As speaker identification information,
For example, cepstrum analysis, linear predictive analysis, PARCO
It is possible to use parameters and the like extracted from the voice data for each sentence using R analysis or the like.

【0026】サーバコンピュータ21は、パーソナルコ
ンピュータまたはワークステーションなどによって実現
されており、クライアントコンピュータ11〜13間で
通信される会議データを受信し、その会議データの保存
・再生、および議事録作成などを行う。このサーバコン
ピュータ21には、クライアントコンピュータと同様
に、プログラムや各種周辺装置の処理を司るCPU、プ
ログラムや各種データを記憶するメモリ、HDD、FD
Dなどの外部記憶装置、キーボード、マウス、ペン、ス
キャナなどから成る入力装置、ディスプレイモニタ、プ
リンタなどの出力装置、およびLAN10に接続するた
めの通信装置が設けられている。
The server computer 21, which is realized by a personal computer or a workstation, receives conference data communicated between the client computers 11 to 13, saves / reproduces the conference data, and prepares minutes. To do. Similar to the client computer, the server computer 21 has a CPU that controls processing of programs and various peripheral devices, a memory that stores programs and various data, an HDD, and an FD.
An external storage device such as D, an input device including a keyboard, a mouse, a pen, a scanner, an output device such as a display monitor and a printer, and a communication device for connecting to the LAN 10 are provided.

【0027】サーバコンピュータ21のディスプレイモ
ニタには、クライアントコンピュータ11〜13間で実
行される会議データの通信に同期して、図示のようなタ
イムテーブルウインドウTTWが表示される。
On the display monitor of the server computer 21, a timetable window TTW as shown in the figure is displayed in synchronization with the communication of the conference data executed between the client computers 11-13.

【0028】タイムテーブルウインドウTTWは、会議
の進行状況をビジュアルに提示するために、クライアン
トコンピュータ毎に入力イベントの内容をアイコンによ
ってタイススケール上に表示する。
The timetable window TTW displays the contents of the input event for each client computer on the Thai scale in order to visually present the progress of the conference.

【0029】各クライアントコンピュータに対応するタ
イムテーブルウインドウは、動画、音声、図形の3つの
タイススケールに分割されており、それらタイススケー
ルそれぞれには入力イベントに対応するアイコンが表示
される。
The timetable window corresponding to each client computer is divided into three tice scales of a moving image, a sound and a figure, and an icon corresponding to an input event is displayed on each of these tice scales.

【0030】このタイムテーブルウインドウTTWにお
いては、音声入力イベントは“矢印”アイコンa1によ
って示され、ある会議参加者が話すると、その会議参加
者に対応するクライアントコンピュータの音声タイムス
ケール上に“矢印”アイコンa1が表示される。
In this timetable window TTW, a voice input event is indicated by an "arrow" icon a1, and when a conference participant speaks, an "arrow" is displayed on the voice time scale of the client computer corresponding to the conference participant. The icon a1 is displayed.

【0031】この“矢印”アイコンa1の表示位置およ
び矢印の長さは、クライアントコンピュータにおける音
声入力イベントの発生時間、および音声入力時間(話し
ている時間)にそれぞれ対応している。また、文字デー
タすなわちテキストデータの入力イベントは“KB”ア
イコンa2によって示され、丸の図形データの入力イベ
ントは“丸”アイコンa3、四角の図形データの入力イ
ベントは“四角”アイコンa4によって示される。
The display position of the "arrow" icon a1 and the length of the arrow correspond to the occurrence time of a voice input event in the client computer and the voice input time (speaking time), respectively. An input event of character data, that is, text data is indicated by a "KB" icon a2, an input event of circular graphic data is indicated by a "circle" icon a3, and an input event of square graphic data is indicated by a "square" icon a4. .

【0032】図1のタイムテーブルウインドウTTWの
アイコン配置は、クライアントコンピュータ11の会議
参加者が音声入力しながらキーボードなどからテキスト
データ“abcd…”を入力し、次いで、クライアント
コンピュータ12の会議参加者が音声入力しながら丸の
図形の描画とテキストデータ“xyz…”の入力を行
い、その後、クライアントコンピュータ13の会議参加
者が音声入力しながら四角の図形を描画した場合に対応
している。
In the icon arrangement of the timetable window TTW of FIG. 1, the conference participants of the client computer 11 input text data “abcd ...” While inputting voice, and the conference participants of the client computer 12 then input. This corresponds to a case where a circle figure is drawn and text data “xyz ...” Is input while inputting voice, and then a conference participant of the client computer 13 draws a square figure while inputting voice.

【0033】また、タイムテーブルウインドウTTW
は、例えば、ある特定の会議参加者の発言を抽出すると
いった会議データの検索機能や、その会議データの編集
および再生を行う場合に利用される。この会議データの
検索でも前述の話者認識機能が利用される。すなわち、
話者識別情報を検索条件として会議データを検索するこ
とにより、特定話者の音声データだけを抽出して再生す
ることができる。
In addition, the timetable window TTW
Is used, for example, in a case of performing a conference data search function of extracting a speech of a specific conference participant, and editing and reproducing the conference data. The speaker recognition function described above is also used in the search of the conference data. That is,
By searching the conference data using the speaker identification information as the search condition, only the voice data of the specific speaker can be extracted and reproduced.

【0034】次に、図2および図3を参照して、共有ウ
インドウW1〜W3とタイムテーブルウインドウTTW
の具体的な画面構成の一例を説明する。図2には、共有
ウインドウW1の画面構成が示されている。
Next, referring to FIGS. 2 and 3, the shared windows W1 to W3 and the timetable window TTW will be described.
An example of a specific screen configuration of will be described. FIG. 2 shows the screen configuration of the shared window W1.

【0035】ここでは、クライアントコンピュータ11
を操作する会議参加者が、カメラ11bを用いて手元の
会議資料を写しており、共有ウインドウW1上にペンツ
ールを利用して手書きでイラストを描きながらその会議
資料の内容を説明している様子が示されている。
Here, the client computer 11
A conference participant operating is copying the conference material at hand using the camera 11b and explaining the contents of the conference material while drawing an illustration by hand using the pen tool on the shared window W1. It is shown.

【0036】この場合、カーソルを除けば、共有ウイン
ドウW1上の画面イメージと同一のイメージが、共有ウ
インドウW2,W3にも表示される。また、各共有ウイ
ンドウには、種々の操作ボタンが配置されている。操作
ボタンには、四角の描画ツールを起動するための四角ボ
タンB1、円の描画ツールを起動するための円ボタンB
2、カーソル操作の軌跡を描画する描画ツールを起動す
るためのペンボタンB3、キーボードからの文字入力を
表示する文字入力ツールを起動するための文字ボタンB
4、カーソル操作の軌跡下の画面イメージだけを消す描
画ツールを起動するための消ゴムボタンB5、画面イメ
ージ全体をクリアする描画ツールを起動するためのクリ
アボタンB6、入力イベントの送信モードを決定するブ
ロードキャストボタンB7がある。
In this case, the same image as the screen image on the shared window W1 is displayed on the shared windows W2 and W3 except for the cursor. Further, various operation buttons are arranged in each shared window. The operation buttons include a square button B1 for activating a square drawing tool and a circle button B for activating a circle drawing tool.
2. Pen button B3 for activating a drawing tool for drawing the trajectory of cursor operation, and character button B for activating a character input tool for displaying character input from the keyboard.
4. An eraser button B5 for activating a drawing tool that erases only the screen image under the trajectory of the cursor operation, a clear button B6 for activating the drawing tool that clears the entire screen image, and a broadcast that determines the input event transmission mode. There is a button B7.

【0037】ブロードキャストボタンB7は、入力イベ
ントをサーバを含む他の全てのクライアントコンピュー
タに通知する共有データブロードキャストモードと、入
力イベントをサーバにのみ通知する個人データモードの
いずれかのモードを指定するために使用される。会議を
行う場合には、通常は、共有データブロードキャストモ
ードが選択される。これにより、四角、文字、消しゴ
ム、クリアなどの入力イベントは、全ての共有ウインド
ウW1〜W3に共通に反映される。
The broadcast button B7 is used to specify either the shared data broadcast mode for notifying all the other client computers including the server of the input event or the personal data mode for notifying only the server of the input event. used. When conducting a conference, the shared data broadcast mode is usually selected. As a result, input events such as squares, characters, erasers, and clears are reflected in all shared windows W1 to W3.

【0038】図3には、タイムテーブルウインドウTT
Wの画面構成の一例が示されている。このタイムテーブ
ルウインドウTTWにおいては、縦軸にクライアントコ
ンピュータ11〜13をそれぞれ操作する会議参加者の
顔の映像が表示され、横軸に会議進行時間を示すタイム
スケールが表示される。ここでは、各会議参加者のタイ
ムテーブルウインドウは、文字または図形の入力イベン
トに対応する図形ウインドウと、音声データの入力イベ
ントに対応するウインドウとに分割されている場合が示
されているが、図1で説明したように、各会議参加者に
対応するタイムテーブルウインドウを、動画、音声、図
形の3つのタイススケールに分割しても良い。
FIG. 3 shows the timetable window TT.
An example of the screen configuration of W is shown. In this time table window TTW, the vertical axis shows the images of the faces of the conference participants who operate the client computers 11 to 13, and the horizontal axis shows the time scale showing the conference progress time. Here, it is shown that the timetable window of each conference participant is divided into a figure window corresponding to a character or figure input event and a window corresponding to a voice data input event. As described in Section 1, the timetable window corresponding to each conference participant may be divided into three tice scales of a moving image, a sound, and a figure.

【0039】図形のタイムテーブルウインドウには、前
述のアイコンa1〜a2の他、図2の共有ウインドウで
用意されている他のツールに対応するアイコン、例えば
“ペン”アイコンa5、“クリア”アイコンa6なども
表示される。
In the graphic timetable window, in addition to the above-mentioned icons a1 to a2, icons corresponding to other tools prepared in the shared window of FIG. 2, for example, "pen" icon a5, "clear" icon a6. Is also displayed.

【0040】また、タイムテーブルウインドウTTWに
は、サーバコンピュータ21に用意された会議データの
記録、再生、検索、編集機能などに対応する各種ツール
を呼び出すための各種ボタンB11〜B17、および音
声データの録音/再生レベル、および再生速度を指定す
るためのボタンB18〜B22が配置されている。
Further, in the timetable window TTW, various buttons B11 to B17 for calling various tools corresponding to the recording, reproducing, searching and editing functions of the conference data prepared in the server computer 21, and voice data. Buttons B18 to B22 for designating a recording / playback level and a playback speed are arranged.

【0041】会議データの記録は、次の手順で行われ
る。“記録”ボタンB15が押されると、会議データの
記録が開始される。この場合、会議データはテンポラリ
ファイルに保存され、後で指定のファイル名で保存可能
である。
Recording of conference data is performed in the following procedure. When the "record" button B15 is pressed, recording of conference data is started. In this case, the conference data is saved in a temporary file and can be saved later with a specified file name.

【0042】“中断”ボタンB12を押すと、記録が一
時中断される。この後、“開始/再開”ボタンB11が
押されると、記録動作が再開される。“中断”中に受信
された音声や、図形データは全て廃棄される。
When the "pause" button B12 is pressed, recording is temporarily stopped. After that, when the "start / restart" button B11 is pressed, the recording operation is restarted. All voices and graphic data received during "interruption" are discarded.

【0043】“停止”ボタンB13が押されると、記録
動作が停止される。この場合、テンポラリファイルへの
記録はそこで停止する。停止中の音声や、図形の受信は
全て廃棄される。
When the "stop" button B13 is pressed, the recording operation is stopped. In this case, recording to the temporary file stops there. All stopped voices and graphic receptions are discarded.

【0044】会議データの再生は、次の手順で行われ
る。タイムテーブルウインドウTTW上の参加者の顔を
クリックして、“再生”ボタンB14が押されると、そ
の指定した個人のみの会議データが再生される。
The reproduction of the conference data is performed in the following procedure. When the participant's face on the timetable window TTW is clicked and the "play" button B14 is pressed, the conference data of only the specified individual is played.

【0045】また、タイムテーブルウインドウTTW上
の1つのアイコンをクリックして“再生”ボタンB14
が押されると、そのアイコンに対応するデータだけが再
生される。アイコンをクリックしながらドラッグしてい
くと、リリースするところまでが再生範囲となる。
Also, one icon on the timetable window TTW is clicked to click the "Play" button B14.
When is pressed, only the data corresponding to that icon is played. If you drag while clicking the icon, the playback range will be up to the point where you release it.

【0046】選択されたアイコンは選択状態の表示に変
わり、再生が終了すると元の表示に戻される。再生時に
は、再生スピードを指定することができる。会議データ
の編集は、次の手順で行われる。
The selected icon is changed to the display in the selected state, and is returned to the original display when the reproduction is completed. During playback, you can specify the playback speed. The conference data is edited in the following procedure.

【0047】“編集”ボタンB17が押されると、カッ
ト、ペーストの編集ツールを使用するためのダイアログ
が表示される。このカット、ペーストの編集ツールを使
用してタイムテーブルウインドウTTW上の音声・図形
アイコンを選択しカット、ペーストする事で、記録され
た会議データを編集することができる。
When the "Edit" button B17 is pressed, a dialog for using the edit tool for cutting and pasting is displayed. The recorded conference data can be edited by selecting a voice / graphic icon on the timetable window TTW using this cut / paste editing tool and cutting and pasting.

【0048】次に、図1の電子会議システムを実現する
ためのソフトウェア構成について説明する。図4には、
この実施例の電子会議システムの各プロセスとデータの
流れが概念的に示されている。
Next, a software configuration for realizing the electronic conference system of FIG. 1 will be described. In Figure 4,
Each process and data flow of the electronic conferencing system of this embodiment are conceptually shown.

【0049】クライアントコンピュータ11〜13の各
々においては、音声送信プロセス111、音声受信/再
生プロセス112、共有ウインドウプロセス113、お
よび話者認識プロセス114などが実行される。
In each of the client computers 11 to 13, a voice transmission process 111, a voice reception / reproduction process 112, a shared window process 113, a speaker recognition process 114, etc. are executed.

【0050】音声送信プロセス(sound send)111
は、各参加者が発言する音声を音声入力装置を介して受
け取り、それを他の参加者のクライアントコンピュータ
の音声受信/再生プロセス112、およびサーバコンピ
ュータ21の会議データ保存/タイムログ表示プロセス
21aへ送信する。
Sound transmission process (sound send) 111
Receives the voice spoken by each participant via the voice input device, and transmits it to the voice receiving / reproducing process 112 of the client computer of the other participant and the conference data saving / time log display process 21a of the server computer 21. Send.

【0051】音声受信/再生プロセス(sound recv)1
12は、他の参加者のクライアントコンピュータの音声
送信プロセス111またはサーバコンピュータ21の音
声再生プロセス21bから送信される音声データを受信
して、それを音声出力装置にて再生する処理を行う。
Audio reception / playback process (sound recv) 1
Reference numeral 12 performs a process of receiving voice data transmitted from the voice transmission process 111 of the client computer of another participant or the voice reproduction process 21b of the server computer 21, and reproducing the voice data by the voice output device.

【0052】共用ウィンドウプロセス(gtool )113
は、参加者が共用して使用する共有ウインドウを制御す
るものであり、四角、円、ペン、テキスト入力、消しゴ
ムの入力、及び画面のダンプイメージの入出力を行う。
これらウインドウに関する入力イベントは、それが入力
された時点でそのクライアントコンピュータの共用ウィ
ンドウに表示されると共に、他の参加者のクライアント
コンピュータの共用ウィンドウプロセス、およびサーバ
21の会議データ保存/タイムログ表示プロセス21a
に送信される。
Shared window process (gtool) 113
Controls a shared window shared by the participants, and inputs a square, a circle, a pen, text, an eraser, and a dump image of the screen.
Input events related to these windows are displayed in the shared window of the client computer at the time when they are input, and the shared window process of the other participants' client computers and the conference data storage / time log display process of the server 21. 21a
Sent to.

【0053】また、共用ウィンドウプロセス113は、
他のクライアントコンピュータの共用ウィンドウプロセ
ス113、またはサーバ21の図形再生プロセス21c
からデータを受信した時は、それを共用ウィンドウに表
示する。
Also, the shared window process 113
Shared window process 113 of another client computer or graphic reproduction process 21c of server 21
When data is received from, display it in a shared window.

【0054】話者認識プロセス114は、前述の話者認
識機能を実現するためのものであり、話者辞書を利用し
て話者認識を行ない、これによって特定話者についての
音声データの送受信だけを可能にする。
The speaker recognition process 114 is for realizing the above-mentioned speaker recognition function, and performs speaker recognition using a speaker dictionary, whereby only voice data for a specific speaker is transmitted and received. To enable.

【0055】サーバコンピュータ21においては、会議
データ保存/タイムログ表示プロセス21a、音声再生
プロセス21b、図形再生プロセス21c、および話者
認識プロセス21eなどが実行される。
In the server computer 21, a conference data storage / time log display process 21a, a voice reproduction process 21b, a graphic reproduction process 21c, a speaker recognition process 21e, etc. are executed.

【0056】会議データ保存/タイムログ表示プロセス
(timelog )21aは、各参加者のクライアントコンピ
ュータからの音声データ、共用ウインドウデータを受信
して、その受信データを会議データ保存ファイル21d
に会議録データとして保存する。また、会議データ保存
/タイムログ表示プロセス(timelog )21aは、前述
のタイススケールウインドウTTWへのアイコン表示を
行う。
The conference data storage / time log display process (timelog) 21a receives voice data and shared window data from the client computers of the participants and stores the received data in the conference data storage file 21d.
Save as minutes data to. Further, the conference data storage / time log display process (timelog) 21a displays an icon in the above-mentioned Tice scale window TTW.

【0057】また、会議データ保存/タイムログ表示プ
ロセス(timelog )21aは、ファイル21dに保存さ
れた会議録データを検索・編集することができ、タイス
スケールウインドウTTW上のアイコンの削除、移動、
コピーなどの操作に応じて、会議録データから図形、音
声オブジェクトを削除したり、データの位置を移動した
り、またアイドル時間をつめるなどの操作を行う。
Further, the conference data storage / time log display process (timelog) 21a can retrieve and edit the conference record data stored in the file 21d, and delete, move, and delete icons on the Tice Scale window TTW.
According to operations such as copying, operations such as deleting figures and voice objects from the conference proceedings data, moving the data position, and closing idle time are performed.

【0058】また、会議データ保存/タイムログ表示プ
ロセス(timelog )21aは、会議録データの再生制御
機能を有しており、編集結果の再生の他、会議録データ
全体の再生、特定の参加者に関するデータだけの再生、
図形・音声オブジェクト単体の再生、特定の話者に関す
る音声データまたはその音声データを含む会議データ全
体の再生のなどを行うことができる。
Further, the conference data storage / time log display process (timelog) 21a has a reproduction control function of the conference record data, and in addition to the reproduction of the edited result, the reproduction of the whole conference record data and a specific participant. Play only data about,
It is possible to perform reproduction of a figure / speech object alone, reproduction of voice data relating to a specific speaker, or entire conference data including the voice data.

【0059】音声再生プロセス(sound play)21b
は、会議データ保存/タイムログ表示プロセス(timelo
g )21aから指示された情報に従って、会議データ保
存ファイル21dを読み出し、音声データを各クライア
ントコンピュータの音声受信・再生プロセス112に送
信する。この場合、音声データの送信は、図形再生プロ
セス21cと同期して行われる。
Sound play process (sound play) 21b
Saves the conference data / displays the time log (timelo
g) According to the information instructed from 21a, the conference data storage file 21d is read and the voice data is transmitted to the voice receiving / reproducing process 112 of each client computer. In this case, the audio data is transmitted in synchronization with the graphic reproduction process 21c.

【0060】図形再生プロセス(picture play)21c
は、会議データ保存/タイムログ表示プロセス(timelo
g )21aから指示された情報に従って、会議データ保
存ファイル21dを読み出し、共有ウインドウデータ
(文字、図形など)を各クライアントコンピュータの共
有ウインドウプロセス113に送信する。この場合、共
有ウインドウデータの送信は、音声再生プロセス21c
と同期して行われる。
Picture play process 21c
Saves the conference data / displays the time log (timelo
g) According to the information instructed from 21a, the conference data storage file 21d is read and the shared window data (characters, figures, etc.) is transmitted to the shared window process 113 of each client computer. In this case, the shared window data is transmitted by the voice reproduction process 21c.
It is done in synchronization with.

【0061】なお、再生はブロードキャストのみでな
く、送信先マシンをタイムログで指定することにより、
特定のクライアントにだけ送信することも可能である。
話者認識プロセス21eは、前述の話者認識機能を実現
するためのものであり、話者辞書に登録された話者識別
情報を検索条件として利用して会議録データを検索する
ことにより、特定話者についての音声データを会議録デ
ータから取り出すことを可能にする。
It should be noted that reproduction is not limited to broadcast, but by specifying the destination machine in the time log,
It is also possible to send only to a specific client.
The speaker recognition process 21e is for realizing the above-described speaker recognition function, and uses the speaker identification information registered in the speaker dictionary as a search condition to search the conference proceedings data to specify the speaker identification data. It enables to extract voice data about a speaker from conference proceedings data.

【0062】次に、図5を参照して、データ送信を行う
ために必要なクライアントコンピュータの構成を具体的
に説明する。クライアントコンピュータにおいては、図
4で説明した音声送信プロセス111、音声受信/再生
プロセス112、共有ウインドウプロセス113、およ
び話者認識プロセス114の他、図示のように、通信ラ
イブラリ114、キーボードデバイスドライバ115、
仮名漢字変換プロセス116、マスウドライバ117、
例えばXウインドウなどに代表されるウインドウシステ
ム118、音声デバイスドライバ119が実行される。
Next, with reference to FIG. 5, the configuration of the client computer required for data transmission will be specifically described. In the client computer, in addition to the voice transmission process 111, the voice reception / reproduction process 112, the shared window process 113, and the speaker recognition process 114 described in FIG. 4, a communication library 114, a keyboard device driver 115,
Kana-Kanji conversion process 116, mouse driver 117,
For example, the window system 118 typified by X window and the audio device driver 119 are executed.

【0063】音声データの送信は、ヘッドセットを制御
する音声デバイスドライバ119、話者認識プロセス1
14、音声受信/再生プロセス112、音声送信プロセ
ス111、および通信ライブラリ114によって制御さ
れる。また、テキストデータの送信については、キーボ
ードを制御するキーボードデバイスドライバ115、仮
名漢字変換プロセス116、共有ウインドウプロセス1
13、および通信ライブラリ114によって制御され、
図形データの送信については、マウスを制御するマウウ
ドライバ117、ウインドウシステム118、共有ウイ
ンドウプロセス113、および通信ライブラリ114に
よって制御される。
The voice data is transmitted by the voice device driver 119 for controlling the headset and the speaker recognition process 1.
14, voice reception / playback process 112, voice transmission process 111, and communication library 114. Regarding the transmission of text data, a keyboard device driver 115 for controlling the keyboard, a kana-kanji conversion process 116, a shared window process 1
13, and controlled by the communication library 114,
The transmission of the graphic data is controlled by the mouse driver 117 that controls the mouse, the window system 118, the shared window process 113, and the communication library 114.

【0064】音声データの送信は、次の手順で実行され
る。音声デバイスドライバ119は、ヘッドセット11
aから音声が入力された時、それを音声データとして出
力する。この音声データは話者認識プロセス114に送
られ、そこで話者認識される。すなわち、話者認識プロ
セス114は、音声デバイスドライバ119から出力さ
れる音声データを解析してその音声データから話者識別
情報を抽出し、その話者識別情報と話者辞書115を照
合することによって入力音声データの話者名を認識す
る。認識した話者名が予め指定されている会議参加者で
あった場合には、話者認識プロセス114は、音声デバ
イスドライバ119からの音声データをそのまま音声送
信プロセス111に送る。一方、認識した話者名が予め
指定されている会議参加者以外の人であった場合には、
話者認識プロセス114は、該当する音声データが他の
クライアントコンピュータ上で再生されないように、音
声送信プロセス111への音声データの送信を禁止す
る。また、音声データの送信を禁止する代わりに、音声
送信プロセス111に音量減衰指示を発行し、該当する
音声データの音量を減衰させる処理を音声送信プロセス
111に実行させても良い。
The transmission of voice data is executed in the following procedure. The audio device driver 119 is the headset 11
When a voice is input from a, it is output as voice data. This voice data is sent to the speaker recognition process 114, where it is recognized. That is, the speaker recognition process 114 analyzes the voice data output from the voice device driver 119, extracts the speaker identification information from the voice data, and compares the speaker identification information with the speaker dictionary 115. Recognize the speaker name of the input voice data. When the recognized speaker name is a conference participant designated in advance, the speaker recognition process 114 sends the audio data from the audio device driver 119 to the audio transmission process 111 as it is. On the other hand, if the recognized speaker name is a person other than the conference participant designated in advance,
The speaker recognition process 114 prohibits the transmission of voice data to the voice transmission process 111 so that the corresponding voice data is not reproduced on another client computer. Further, instead of prohibiting the transmission of the audio data, a volume attenuation instruction may be issued to the audio transmission process 111 and the audio transmission process 111 may be caused to execute a process of attenuating the volume of the corresponding audio data.

【0065】音声送信プロセス111は、話者認識プロ
セス114を介して音声デバイスドライバ119から出
力された生の音声データをリードし、その音声データに
ヘッダ部を付加して音声メッセージパケットを生成し、
それを通信ライブラリ116に送信する。音声メッセー
ジパケットの生成および送信は、音声データをリードす
る度に繰り返し行われる。ヘッダ部は、音声データであ
ることを示すデータIDと、音声データの発生順を示す
シーケンス番号などを含んでいる。
The voice transmission process 111 reads the raw voice data output from the voice device driver 119 via the speaker recognition process 114, adds a header part to the voice data, and generates a voice message packet,
It is sent to the communication library 116. The generation and transmission of voice message packets are repeated every time voice data is read. The header part includes a data ID indicating that the data is audio data, a sequence number indicating the generation order of the audio data, and the like.

【0066】また、音量減衰指示を受け取ったときは、
音声送信プロセス111は、該当する音声データの再生
時の音量が十分に減衰されるように、音声データを加
工、または音量減衰指示情報をヘッダ部などに付加し
て、音声メッセージパケットの送信を行う。
When a volume attenuation instruction is received,
The voice transmission process 111 transmits voice message packets by processing voice data or adding volume decay instruction information to a header part or the like so that the volume at the time of reproduction of the relevant voice data is sufficiently attenuated. .

【0067】音声メッセージパケットは、通信ライブラ
リ114経由で他の全ての参加者のクライアントおよび
サーバに送信される。この場合、音声メッセージパケッ
トには通信用のヘッダが付加され、通信パケットとして
LAN10上に送出される。
The voice message packet is sent to the clients and servers of all other participants via the communication library 114. In this case, a header for communication is added to the voice message packet, and the voice message packet is sent out on the LAN 10 as a communication packet.

【0068】テキストデータの送信は、次の手順で実行
される。仮名漢字変換プロセス116は、キーボードデ
バイスドライバ115から入力されたキーコードを順次
受け取り、それを仮名漢字変換して実際の文字列に対応
する文字データを生成する。このような文字データの入
力イベントが発生すると、共有ウインドウプロセス11
3は、仮名漢字変換プロセス116からの文字データに
ヘッダ部を付加して文字メッセージパケットを生成す
る。各文字メッセージパケットのヘッダ部は、テキスト
データであることを示すデータIDと、テキストデータ
の発生順を示すシーケンス番号などを含んでいる。
Transmission of text data is executed in the following procedure. The kana-kanji conversion process 116 sequentially receives the key codes input from the keyboard device driver 115, converts them into kana-kanji characters, and generates character data corresponding to an actual character string. When such a character data input event occurs, the shared window process 11
3 adds a header part to the character data from the Kana-Kanji conversion process 116 to generate a character message packet. The header part of each character message packet contains a data ID indicating that the data is text data, a sequence number indicating the generation order of the text data, and the like.

【0069】文字メッセージパケットは、通信ライブラ
リ114経由で他の全ての参加者のクライアントおよび
サーバに送信される。この場合、文字メッセージパケッ
トには通信用のヘッダが付加され、通信パケットとして
LAN10上に送出される。
The text message packet is sent to the clients and servers of all other participants via the communication library 114. In this case, a communication header is added to the character message packet and the character message packet is sent out on the LAN 10 as a communication packet.

【0070】図形データの送信は、次の手順で実行され
る。ウインドウシステム118は、マウスデバイスドラ
イバ117からのマウスイベントを共有ウインドウプロ
セス113に通知する。共有ウインドウプロセス113
は、マウスイベントに応じて、そのマウスイベントに対
応するグラフィックス表示のためのイベントデータ(図
形データ)にヘッダ部を付加し、図形メッセージパケッ
トを生成する。図形メッセージパケットのヘッダ部は、
図形データであることを示すデータIDと、図形データ
の発生順を示すシーケンス番号などを含んでいる。
The transmission of the graphic data is executed in the following procedure. The window system 118 notifies the shared window process 113 of a mouse event from the mouse device driver 117. Shared window process 113
In response to a mouse event, adds a header portion to event data (graphic data) for displaying graphics corresponding to the mouse event, and generates a graphic message packet. The header part of the graphic message packet is
It includes a data ID indicating that it is graphic data, a sequence number indicating the generation order of graphic data, and the like.

【0071】図形メッセージパケットは、通信ライブラ
リ114経由で他の全ての参加者のクライアントおよび
サーバに送信される。この場合、図形メッセージパケッ
トには通信用のヘッダが付加され、通信パケットとして
LAN10上に送出される。
The graphic message packet is sent to the clients and servers of all other participants via the communication library 114. In this case, a header for communication is added to the graphic message packet, and the graphic message packet is sent out on the LAN 10 as a communication packet.

【0072】このように、音声、テキスト、および図形
データは、それぞれのデータ入力イベントが発生される
度にメッセージパケットに組み立てられ、それらメッセ
ージパケットは、その発生順に通信パケットとしてLA
N10上に送出される。
As described above, the voice, text, and graphic data are assembled into a message packet each time each data input event occurs, and these message packets are LA packets as communication packets in the order of occurrence.
Sent on N10.

【0073】ここで、図7および図8を参照して、メッ
セージパケットおよび通信パケットそれぞれのデータフ
ォーマットについて説明する。図7には、音声、テキス
ト、および図形の各メッセージパケットのデータフォー
マットが示されている。
Here, the data format of each of the message packet and the communication packet will be described with reference to FIGS. FIG. 7 shows the data format of voice, text, and graphic message packets.

【0074】各メッセージパケットに付加されたメッセ
ージヘッダ部は、図示のように、シーケンス番号情報、
データタイプ情報、データ名情報(データID)、デー
タ長情報、時刻情報を含んでいる。
The message header section added to each message packet includes sequence number information,
It includes data type information, data name information (data ID), data length information, and time information.

【0075】シーケンス番号情報は、音声データ、図形
データ、テキストデータというデータの種類毎に、その
データ種内部におけるイベント発生順を示す番号であ
り、音声データ、図形データ、テキストデータのいずれ
においても、最初のデータのシーケンス番号は0から始
まり、後続するデータのシーケンス番号は1ずつカウン
トアップされる。
The sequence number information is a number indicating the order of event occurrence within the data type for each data type such as voice data, graphic data, and text data. In any of voice data, graphic data, and text data, The sequence number of the first data starts from 0, and the sequence numbers of the following data are incremented by 1.

【0076】データタイプ情報は、対応するデータがス
タートデータ、続きデータ、エンドデータのずれである
かを示すものであり、この情報はタイムテーブルウイン
ドウ上へのアイコン表示に利用される。例えば、音声デ
ータについては、参加者があるフレーズを発生した時、
通常は複数の音声メッセージパケットが生成される。こ
の場合、そのフレーズの最初の音声メッセージパケット
のデータタイプ情報はスタートデータとなり、フレーズ
の最後の音声メッセージパケットのデータタイプ情報は
エンドデータとなり、その間の音声メッセージパケット
それぞれのデータタイプ情報は続きデータとなる。音声
データの音量を減衰させる場合には、ここに減衰情報を
付加することができる。
The data type information indicates whether the corresponding data is a deviation of start data, continuous data, or end data, and this information is used for displaying an icon on the timetable window. For example, for voice data, when a participant generates a phrase,
Multiple voice message packets are typically generated. In this case, the data type information of the first voice message packet of the phrase becomes the start data, the data type information of the last voice message packet of the phrase becomes the end data, and the data type information of each voice message packet between them is the continuous data. Become. When the volume of audio data is attenuated, attenuation information can be added here.

【0077】データ名情報(データID)は、対応する
データの種類を示すためのものであり、四角、円、ペ
ン、テキスト、消ゴム、音声データ、画面ダンプイメー
ジ、クリアのいずれかを示す。データ長情報は、対応す
るデータ部に含まれるデータレングスを示す。時刻情報
は、対応するデータの入力イベントが発生した時間を示
す。
The data name information (data ID) is for indicating the type of corresponding data, and indicates one of square, circle, pen, text, eraser, voice data, screen dump image, and clear. The data length information indicates the data length included in the corresponding data part. The time information indicates the time when the input event of the corresponding data occurs.

【0078】図8には、各通信パケットのデータフォー
マットが示されている。各通信パケットは、前述のメッ
セージパケットからなるデータ部と、それに付加された
通信ヘッダ部とから構成される。通信ヘッダ部は、図示
のように、送信元アドレス情報、ソケット番号情報、送
信先アドレス情報などを含んでいる。
FIG. 8 shows the data format of each communication packet. Each communication packet is composed of a data part composed of the above-mentioned message packet and a communication header part added to it. The communication header portion includes source address information, socket number information, destination address information, etc., as shown in the figure.

【0079】送信元アドレス情報は、通信パケットの送
信元コンピュータのアドレスなどを示す。ソケット番号
情報は、通信パケットを送信する相手先コンピュータの
プロセス名(共有ウインドウプロセス、音声受信/再生
プロセスなど)を示す。この場合、対応するメッセージ
パケットのデータ名情報がウインドウ表示されるデータ
を示す場合には共有ウインドウプロセスを指定するソケ
ット番号情報が使用され、対応するメッセージパケット
のデータ名情報が音声データを示す場合には音声受信/
再生プロセスを指定するソケット番号情報が使用され
る。
The source address information indicates the address of the source computer of the communication packet. The socket number information indicates the process name (shared window process, voice receiving / reproducing process, etc.) of the destination computer that transmits the communication packet. In this case, when the data name information of the corresponding message packet indicates the data to be displayed in the window, the socket number information specifying the shared window process is used, and when the data name information of the corresponding message packet indicates the voice data. Is voice reception /
Socket number information is used to specify the reclaim process.

【0080】送信先アドレス情報は、通信パケットを送
信する全ての相手先コンピュータのアドレスを示す。共
有データブロードキャストモードにおいては、予め登録
されている他の全ての会議参加者に対応するクライアン
トアドレスとサーバアドレスが送信先アドレス情報に含
まれる。一方、個人データモードの場合には、送信先ア
ドレス情報に含まれるのはサーバアドレスだけとなる。
The destination address information indicates the addresses of all the destination computers that transmit the communication packet. In the shared data broadcast mode, the destination address information includes client addresses and server addresses corresponding to all other pre-registered conference participants. On the other hand, in the case of the personal data mode, the destination address information includes only the server address.

【0081】次に、図6を参照して、データ受信のため
に必要なクライアントコンピュータの具体的な構成を説
明する。通信ライブラリ114は、他の参加者のクライ
アントコンピュータまたはサーバコンピュータからの通
信パケットを受信すると、その通信パケットを、それに
含まれるソケット番号に応じて音声受信/再生プロセス
112と共有ウインドウプロセス113とに振り分け
る。
Next, with reference to FIG. 6, a specific configuration of the client computer required for data reception will be described. When the communication library 114 receives a communication packet from a client computer or a server computer of another participant, the communication library 114 distributes the communication packet to the voice receiving / reproducing process 112 and the shared window process 113 according to the socket number included in the communication packet. .

【0082】音声受信/再生プロセス112は、音声メ
ッセージパケットを順次受け取り、それらの音声データ
をシーケンス番号順に話者認識プロセス114を介して
音声デバイスドライバ119にライトして、音声を再生
させる。音声デバイスドライバ119への音声データの
ライトは、音声メッセージパケットの受信の度に繰り返
し行われる。
The voice receiving / reproducing process 112 sequentially receives voice message packets, writes those voice data in the sequence number sequence to the voice device driver 119 via the speaker recognition process 114, and reproduces voice. The writing of the voice data to the voice device driver 119 is repeated every time the voice message packet is received.

【0083】音声受信/再生プロセス112から音声デ
バイスドライバ119へ送られる音声データは話者認識
プロセス114によって一旦捕獲され、そこで話者認識
処理が行われる。この話者認識処理では、話者認識プロ
セス114は、音声受信再生プロセス112から出力さ
れる音声データを解析してその音声データから話者識別
情報を抽出し、その話者識別情報と話者辞書115を照
合することによって音声データの話者名を認識する。認
識した話者名が予め指定されている会議参加者であった
場合には、話者認識プロセス114は、その音声データ
をそのまま音声デバイスドライバ119に送って再生さ
せる。一方、認識した話者名が予め指定されている会議
参加者以外の人であった場合には、話者認識プロセス1
14は、該当する音声データが再生されないように、音
声デバイスドライバ119への音声データの送信を禁
止、または音声デバイスドライバ119に音量減衰指示
を発行し、該当する音声データの音量を十分に減衰させ
た状態で再生させる。
The voice data sent from the voice receiving / reproducing process 112 to the voice device driver 119 is once captured by the speaker recognition process 114, and the speaker recognition process is performed there. In this speaker recognition processing, the speaker recognition process 114 analyzes the voice data output from the voice reception / reproduction process 112, extracts the speaker identification information from the voice data, and then extracts the speaker identification information and the speaker dictionary. The speaker name of the voice data is recognized by collating 115. If the recognized speaker name is a pre-specified conference participant, the speaker recognition process 114 sends the audio data as it is to the audio device driver 119 to be reproduced. On the other hand, when the recognized speaker name is a person other than the conference participant designated in advance, the speaker recognition process 1
14 prohibits the audio data from being transmitted to the audio device driver 119 or issues a volume attenuation instruction to the audio device driver 119 so that the corresponding audio data is not reproduced so that the volume of the applicable audio data is sufficiently attenuated. Play it in the open state.

【0084】なお、この実施例では、図5で説明したよ
うに送信時に既に話者認識によって音声データのフィル
タリングまたは音量減衰の処理を行っている。このた
め、受信時の話者認識処理は信頼性を向上させる点で有
効となるが必ずしも必要なものではなく、話者認識送信
時または受信時のいずれか一方で話者認識を行えばよ
い。
In this embodiment, as described with reference to FIG. 5, voice data filtering or sound volume attenuation processing is already performed by speaker recognition at the time of transmission. Therefore, the speaker recognition process at the time of reception is effective in improving reliability, but is not always necessary, and the speaker recognition may be performed either at the time of transmitting or receiving the speaker recognition.

【0085】共有ウインドウプロセス113は、ウイン
ドウ表示に関するメッセージパケットを順次受信し、そ
れらをデータIDに従ってデータ種毎(円、四角、テキ
スト、ペン、消ゴム、画面ダンプイメージ、クリア)に
分類する。そして、共有ウインドウプロセス113は、
分類したメッセージパケットに対応する関数(プロシー
ジャ)を呼び出し、それにシーケンス番号順にメッセー
ジパケットを渡す。これにより、例えば円を描画するプ
ロシージャ1には円のメッセージパケットがシーケンス
番号順に順次送られ、同様に、四角を描画するプロシー
ジャ2には四角のメッセージパケットがシーケンス番号
順に順次送られ、テキストを表示するプロシージャ3に
は文字のメッセージパケットがシーケンス番号順に順次
送られる。これにより、円や四角などの図形と文字が共
有ウインドウに表示される。
The shared window process 113 sequentially receives the message packets relating to the window display and classifies them according to the data ID for each data type (circle, square, text, pen, eraser, screen dump image, clear). Then, the shared window process 113
The function (procedure) corresponding to the classified message packet is called, and the message packet is passed to it in sequence number order. As a result, for example, a circle message packet is sequentially sent to the procedure 1 for drawing a circle in sequence number order, and similarly, a square message packet is sequentially sent to the procedure 2 for drawing a square order by sequence number to display text. To the procedure 3, the character message packet is sequentially sent in the sequence number order. As a result, figures such as circles and squares and characters are displayed in the shared window.

【0086】このように、この実施例の会議システムに
おいては、例えばある会議参加者が文字や図形を共有ウ
インドウに描きながらその内容を音声によって説明した
場合には、テキスト、図形、および音声データの入力イ
ベントが逐次発生され、それらテキスト、図形、および
音声データそれぞれにはデータIDとシーケンス番号な
どが付加されて、メッセージパケットが生成される。メ
ッセージパケットはブロードキャストされ、他のクライ
アントコンピュータ全てに送られる。メッセージパケッ
トを受信した各クライアントコンピュータでは、そのメ
ッセージパケットのデータ種類がデータIDなどに従っ
て識別され、またデータ種類毎にデータの繋がりがシー
ケンス番号に従って認識される。このため、テキスト、
図形(円、四角、ペン、消ゴム、画面ダンプイメージ、
クリア)、および音声データがどの様な順番で混在され
て入力されても、それらデータの種類および繋りを認識
することが可能となる。そして、テキスト、および図形
はそれぞれのイベント発生順に共有ウインドウに表示さ
れ、音声データもそのイベント発生順に再生される。
As described above, in the conference system of this embodiment, for example, when a conference participant draws characters or figures in the shared window and explains the content by voice, the text, figures, and voice data Input events are sequentially generated, a data ID and a sequence number are added to each of the text, graphic, and voice data to generate a message packet. The message packet is broadcast and sent to all other client computers. In each client computer that receives the message packet, the data type of the message packet is identified according to the data ID and the like, and the data connection for each data type is recognized according to the sequence number. Therefore, the text,
Figure (circle, square, pen, eraser, screen dump image,
Clear) and voice data are mixed and input in any order, the type and connection of the data can be recognized. Then, the text and graphics are displayed in the shared window in the order of event occurrence, and the audio data is also reproduced in the order of event occurrence.

【0087】よって、文字、図形、音声などの複数種の
データを同期させながらそれをリアルタイムにクライア
ントコンピュータ間で交換できるようになり、会議を行
う上で必要なデータ交換のリアルタイム性を十分に実現
することが可能となる。また、音声などのイベントデー
タをパケットデータとして扱っているので、会議参加者
の発言時間が長くても、その音声データの送信の間にイ
ベント発生された文字や図形のパケットを随時送ること
ができる。
Therefore, it becomes possible to exchange a plurality of types of data such as characters, figures, and voices in real time between client computers while synchronizing them, and to sufficiently realize the real-time nature of data exchange required for a conference. It becomes possible to do. Further, since the event data such as voice is handled as packet data, even if the conference participant has a long speaking time, the packet of the character or figure in which the event occurred during the transmission of the voice data can be sent at any time. .

【0088】さらに、送信時または受信時の少なくとも
一方で行われる話者認識処理によって音声データのフィ
ルタリングまたは音量減衰がなされるので、指定された
会議参加者の音声データのみを授受することができる。
Further, since the voice data is filtered or the sound volume is attenuated by the speaker recognition processing performed at least at the time of transmitting or receiving, only the voice data of the designated conference participant can be transmitted and received.

【0089】次に、図9を参照して、会議データ保存お
よびタイムテーブル表示を実現するためのサーバコンピ
ュータの構成を具体的に説明する。サーバコンピュータ
21の通信ライブラリ21eは、各クライアントコンピ
ュータからの通信パケットを受信すると、その通信パケ
ットを会議データ保存/タイムログ表示プロセス21a
に渡す。会議データ保存/タイムログ表示プロセス21
aは、受信した通信パケットのメッセージデータを会議
録データとして会議データ保存ファイル21dに保存す
ると共に、タイムテーブルウインドウTTW上へのアイ
コン表示を開始する。
Next, with reference to FIG. 9, the configuration of the server computer for storing the conference data and displaying the timetable will be specifically described. Upon receiving the communication packet from each client computer, the communication library 21e of the server computer 21 stores the communication packet in the conference data storage / time log display process 21a.
Pass to. Conference data storage / time log display process 21
a stores the message data of the received communication packet as conference record data in the conference data storage file 21d, and starts displaying an icon on the timetable window TTW.

【0090】会議データ保存ファイル21dに会議デー
タを保存する場合には、実際には、各メッセージデータ
は一旦テンポラリファイルに格納され、その後、参加者
毎に異なるファイルとして会議データ保存ファイル21
dに保存される。この場合、各ファイルの索引情報が生
成される。索引情報は、ファイルを構成する各メッセー
ジデータをイベント番号によって管理しており、イベン
ト番号毎にデータ記録位置、データサイズ、時刻情報、
データIDなどの管理情報を持つ。イベント番号は、タ
イムテーブルウインドウTTW上に表示されるアイコン
にも割り当てられており、これによってタイムテーブル
ウインドウTTW上のアイコンと会議データ保存ファイ
ル21dのデータとがリンクされる。
When the conference data is stored in the conference data storage file 21d, each message data is actually stored in the temporary file, and then the conference data storage file 21 is stored as a different file for each participant.
stored in d. In this case, the index information of each file is generated. The index information manages each message data that constitutes a file by an event number, and the data recording position, data size, time information,
It has management information such as a data ID. The event number is also assigned to the icon displayed on the timetable window TTW, which links the icon on the timetable window TTW and the data in the conference data storage file 21d.

【0091】また、索引情報には、話者認識プロセス2
1eによって生成された話者識別情報も利用される。す
なわち、話者認識プロセス21eは、会議データ保存フ
ァイル21dに保存される音声データから話者識別情報
を抽出して会議参加者についての話者辞書21fを作成
すると共に、話者識別情報を索引情報として生成する。
このため、会議データ保存ファイル21dに保存された
会議データを話者識別情報を検索条件として検索するす
ることができ、特定の話者に関する音声データだけを抽
出して再生するなどの運用が可能になる。
Also, the speaker recognition process 2 is included in the index information.
The speaker identification information generated by 1e is also used. That is, the speaker recognition process 21e extracts the speaker identification information from the voice data stored in the conference data storage file 21d to create the speaker dictionary 21f for the conference participants, and the speaker identification information as the index information. Generate as.
Therefore, the conference data stored in the conference data storage file 21d can be searched using the speaker identification information as the search condition, and the operation such as extracting and reproducing only the voice data related to a specific speaker becomes possible. Become.

【0092】アイコン表示処理では、送信元アドレスに
よってクライアント毎に通信パケットが分類され、その
クライアントに対応するタイムテーブルウインドウが選
択される。そして、通信パケットのメッセージパケット
に含まれるデータID、データタイプ、および時刻に従
って、アイコンの種別および配置位置などが決定され
る。
In the icon display process, communication packets are classified for each client according to the source address, and the timetable window corresponding to the client is selected. Then, according to the data ID, the data type, and the time included in the message packet of the communication packet, the type of the icon, the arrangement position, and the like are determined.

【0093】以下、図10のフローチャートを参照し
て、会議データ保存/タイムログ表示プロセス21aに
よって実行されるアイコン表示処理の手順を詳述する。
会議データ保存/タイムログ表示プロセス21aは、通
信パケットを受信する度に次の処理を行う。
Hereinafter, the procedure of the icon display processing executed by the conference data storage / time log display process 21a will be described in detail with reference to the flowchart of FIG.
The conference data storage / time log display process 21a performs the following processing each time a communication packet is received.

【0094】すなわち、会議データ保存/タイムログ表
示プロセス21aは、まず、受信した通信パケットに含
まれる送信元アドレスをチェックし(ステップS1
1)、その通信パケットを送信したクライアントを識別
する(ステップS12〜S14)。
That is, the conference data storage / time log display process 21a first checks the source address included in the received communication packet (step S1).
1) Identify the client that transmitted the communication packet (steps S12 to S14).

【0095】クライアントコンピュータ11(クライア
ントA)からの通信パケットであれば、そのクライアン
トAに対応するステップS15〜S29の処理Pに進
む。一方、クライアントコンピュータ12(クライアン
トB)またはクライアントコンピュータ13(クライア
ントC)からの通信パケットであれば、それらクライア
ントに対応してそれぞれ用意されている同様の処理Pに
進む。これら処理Pは、アイコン表示対象のタイムテー
ブルウインドウが互いに異なるだけで、それを構成する
ステップは同じである。
If the packet is a communication packet from the client computer 11 (client A), the process P of steps S15 to S29 corresponding to the client A is performed. On the other hand, if the packet is a communication packet from the client computer 12 (client B) or the client computer 13 (client C), the process proceeds to the same process P prepared for each of those clients. In these processes P, the timetable windows for which icons are displayed are different from each other, but the steps constituting them are the same.

【0096】以下、クライアントAからの通信パケット
を受信した場合について説明する。会議データ保存/タ
イムログ表示プロセス21aは、受信した通信パケット
に含まれるデータIDをチェックし(ステップS1
5)、その通信パケットが図形データと音声データのど
ちらのメッセージパケットに対応するものであるかを判
別する(ステップS16,S17)。ここでは、円、四
角、ペン、テキスト、消ゴム、音声、画面ダンプイメー
ジ、クリアの内、音声を除く他の全てのデータタイプが
図形データに分類される。
The case where a communication packet from the client A is received will be described below. The conference data storage / time log display process 21a checks the data ID included in the received communication packet (step S1).
5) It is determined whether the communication packet corresponds to a message packet of graphic data or voice data (steps S16 and S17). Here, all data types other than circle, square, pen, text, eraser, voice, screen dump image, and clear, except voice, are classified as graphic data.

【0097】図形データであれば、会議データ保存/タ
イムログ表示プロセス21aは、円、四角、ペン、テキ
スト、消ゴム、画面ダンプイメージ、クリアのいずれに
属するかを判定する(ステップS18,S19…)。図
形データが円であれば、会議データ保存/タイムログ表
示プロセス21aは、ステップS20〜S29の処理Q
に進む。一方、図形データが四角、ペン、テキスト、消
ゴム、画面ダンプイメージ、またはクリアであれは、そ
れらデータ種に対応してそれぞれ用意されている同様の
処理Qに進む。これら処理Qは、表示対象のアイコンの
種類が互いに異なるだけで、それを構成するステップは
同じである。また、通信パケットが音声データの場合に
も、データ種に対応してそれぞれ用意されている同様の
処理Qに進む。
If it is graphic data, the conference data storage / time log display process 21a determines whether it belongs to a circle, a square, a pen, a text, an eraser, a screen dump image, or a clear (steps S18, S19 ...). . If the figure data is a circle, the conference data storage / time log display process 21a performs the processing Q of steps S20 to S29.
Proceed to. On the other hand, if the graphic data is a square, a pen, a text, an eraser, a screen dump image, or a clear, the process proceeds to a similar process Q prepared corresponding to each data type. These processes Q are the same except that the types of icons to be displayed are different from each other. Also, when the communication packet is voice data, the process proceeds to a similar process Q prepared for each data type.

【0098】処理Qでは、会議データ保存/タイムログ
表示プロセス21aは、まず、メッセージパケットに含
まれるデータタイプ情報をチェックし(ステップS2
0)、そのメッセージパケットのデータがスタートデー
タ、続きデータ、エンドデータのいずれであるかを識別
する(ステップS21〜S23)。
In process Q, the conference data storage / time log display process 21a first checks the data type information contained in the message packet (step S2).
0), it is identified whether the data of the message packet is start data, continuous data, or end data (steps S21 to S23).

【0099】スタートデータであれば、会議データ保存
/タイムログ表示プロセス21aは、メッセージパケッ
トに含まれる時刻情報をチェックしてタイムスケール上
のアイコン表示位置を決定し(ステップS24)、そこ
に、メッセージパケットのデータ種に対応するアイコン
の左端部分を描画する(ステップS25)。
If it is the start data, the conference data storage / time log display process 21a checks the time information included in the message packet to determine the icon display position on the time scale (step S24), and the message is displayed there. The left end portion of the icon corresponding to the data type of the packet is drawn (step S25).

【0100】続きデータの場合には、会議データ保存/
タイムログ表示プロセス21aは、メッセージパケット
に含まれる時刻情報をチェックしてタイムスケール上の
アイコン表示位置を決定し(ステップS26)、そこ
に、メッセージパケットのデータ種に対応するアイコン
の中間部分を描画する(ステップS27)。
In case of continuous data, save conference data /
The time log display process 21a checks the time information included in the message packet to determine the icon display position on the time scale (step S26), and draws the intermediate part of the icon corresponding to the data type of the message packet there. Yes (step S27).

【0101】エンドデータの場合には、会議データ保存
/タイムログ表示プロセス21aは、メッセージパケッ
トに含まれる時刻情報をチェックしてタイムスケール上
のアイコン表示位置を決定し(ステップS28)、そこ
に、メッセージパケットのデータ種に対応するアイコン
の右端部分を描画する(ステップS29)。
In the case of end data, the conference data storage / time log display process 21a checks the time information included in the message packet to determine the icon display position on the time scale (step S28), and The right end portion of the icon corresponding to the data type of the message packet is drawn (step S29).

【0102】このように、メッセージパケットに含まれ
るデータID、データタイプ、時刻情報は、アイコンを
表示すべきタイムテーブルウインドウ、表示すべきアイ
コンの種類、タイムテーブルウインドウ上におけるアイ
コン表示位置を決定するために利用され、これによって
会議進行状況を示すタイムテーブルウインドウTTWが
生成される。
As described above, the data ID, data type, and time information included in the message packet are used to determine the timetable window in which an icon should be displayed, the type of icon to be displayed, and the icon display position on the timetable window. Is used to generate a timetable window TTW indicating the progress of the conference.

【0103】次に、サーバコンピュータ21に設けられ
た会議データの検索機能について説明する。この検索機
能は、会議データの編集操作を容易に行うために、タイ
ムテーブルウインドウTTW上のアイコンなどを利用し
て検索条件を指定し、その検索条件に従って会議データ
保存ファイル21dに記録された会議データを検索する
機能である。
Next, the conference data search function provided in the server computer 21 will be described. In order to easily edit the conference data, this search function uses the icons on the timetable window TTW to specify search conditions, and the conference data stored in the conference data save file 21d according to the search conditions. Is a function to search for.

【0104】以下、図11のフローチャートを参照し
て、検索処理の手順を説明する。まず、サーバ21の利
用者によって検索条件が入力される(ステップS3
1)。この検索条件の入力は、タイムテーブルウインド
ウTTW上の検索ボタンB16を押し、それによって表
示される入力ウインドウにクライアント名、データID
(四角、円、ペン、テキスト、消ゴム、音声、画面イメ
ージ、クリア)、話者名、または時間などを入力するこ
とによって行われる。
The procedure of the search process will be described below with reference to the flowchart of FIG. First, the user of the server 21 inputs search conditions (step S3).
1). To enter these search conditions, press the search button B16 on the timetable window TTW, and enter the client name and data ID in the input window that is displayed.
(Square, circle, pen, text, eraser, voice, screen image, clear), speaker name, or time.

【0105】会議データ保存/タイムログ表示プロセス
21aは、正当な検索条件が入力されたか否かを調べ
(ステップS32)、指定された検索条件がクライアン
ト名、データID、話者名、時間以外であれば、エラー
表示を行う(ステップS33)。
The conference data storage / time log display process 21a checks whether or not valid search conditions have been input (step S32), and the specified search condition is other than the client name, data ID, speaker name, and time. If there is, an error is displayed (step S33).

【0106】正当な検索条件が入力されたならば、会議
データ保存/タイムログ表示プロセス21aは、ステッ
プS34〜S38の検索処理に進む。すなわち、会議デ
ータ保存/タイムログ表示プロセス21aは、まず、入
力された検索条件でクライアント名(マシン名)の指定
があるか否かを調べ(ステップS34)、クライアント
名の指定があれば、そのクライアントに対応する会議デ
ータ保存ファイルを参照して検索を開始する(ステップ
S35)。
If valid search conditions have been input, the conference data storage / time log display process 21a proceeds to the search processing of steps S34 to S38. That is, the conference data storage / time log display process 21a first checks whether or not the client name (machine name) is specified in the input search condition (step S34), and if the client name is specified, The search is started by referring to the conference data storage file corresponding to the client (step S35).

【0107】例えば、検索条件として四角、円、ペン、
テキスト、消ゴム、音声、画面イメージ、またはクリア
などのデータIDが指定されている場合には、会議デー
タ保存/タイムログ表示プロセス21aは、該当する会
議データ保存ファイルに記録されているデータのIDを
順番に調べ、検索条件に一致する最初のデータを検出す
る。また、検索条件として時間が指定されている場合に
は、会議データ保存/タイムログ表示プロセス21a
は、該当する会議データ保存ファイルに記録されている
音声データのデータサイズを順番に調べ、検索条件で指
定された時間よりも再生時間が短くなるようなデータサ
イズを持つ最初の音声データを検出する。さらに、検索
条件として話者名が指定されている場合には、その話者
の音声識別情報を検索条件として使用して指定された特
定話者に関する会議データを検出する。
For example, as search conditions, a square, a circle, a pen,
When a data ID such as text, eraser, voice, screen image, or clear is specified, the conference data storage / time log display process 21a displays the ID of the data recorded in the corresponding conference data storage file. Search in sequence and find the first data that matches the search criteria. When time is specified as the search condition, the conference data storage / time log display process 21a
Searches the data size of the audio data recorded in the corresponding conference data save file in order and detects the first audio data with a data size that makes the playback time shorter than the time specified in the search condition. . Further, when the speaker name is specified as the search condition, the conference data regarding the specified specific speaker is detected by using the voice identification information of the speaker as the search condition.

【0108】会議データ保存/タイムログ表示プロセス
21aは、このような検出処理を順次行い、検索条件に
一致するデータを順次表示または再生する(ステップS
36)。また、この時、編集ボタンB17を押して、カ
ット機能を選択すれば、検索条件に一致するデータが会
議データから自動的に削除される。これにより、例え
ば、非常に短い音声での発言内容(会議参加者のくしゃ
み、咳、あいずち、雑音など会議データとして重要でな
いもの)を検索し、それらを会議データから削除するこ
とができる。
The conference data storage / time log display process 21a sequentially performs such detection processing and sequentially displays or reproduces data that matches the search condition (step S).
36). At this time, if the edit button B17 is pressed and the cut function is selected, the data matching the search condition is automatically deleted from the conference data. As a result, for example, it is possible to search for very short speech content (things that are not important as conference data such as sneezing, coughing, whispering, and noise of conference participants) and delete them from the conference data.

【0109】また、再生ボタンB14を押して、会議デ
ータの再生を指定しておけば、検索条件に一致するデー
タだけが全てのクライアントにブロードキャストされ
て、再生される。これにより、例えば、ある会議参加者
の音声データだけを連続して再生するなどの運用を行う
ことができる。
If the reproduction button B14 is pressed to specify the reproduction of the conference data, only the data matching the search condition is broadcast to all the clients and reproduced. Thereby, for example, it is possible to perform an operation such as continuously reproducing only the voice data of a certain conference participant.

【0110】一方、入力された検索条件でクライアント
名(マシン名)の指定がない場合には(ステップS3
4)、全ての会議データを対象に検索が行われ、ステッ
プS35,S36と同様の処理が行われる(ステップS
37,S38)。
On the other hand, when the client name (machine name) is not specified in the input search conditions (step S3
4) All the conference data are searched, and the same processing as steps S35 and S36 is performed (step S).
37, S38).

【0111】次に、図12のフローチャートを参照し
て、音声識別情報を利用した検索処理について説明す
る。通常、会議データ保存ファイル21dには複数会議
に対応する複数の会議録データが記録されており、これ
ら複数の会議録データの中から特定話者の会議データだ
けを検索する場合を例にとって説明する。
Next, with reference to the flowchart of FIG. 12, a search process using the voice identification information will be described. Normally, a plurality of conference record data corresponding to a plurality of conferences are recorded in the conference data storage file 21d, and a case where only the conference data of a specific speaker is retrieved from the plurality of conference record data will be described as an example. .

【0112】まず、入力された音声データからその話者
を特定するための照合処理が話者辞書21fを用いて行
われ(ステップS301)、次いで、その話者の参加し
た会議録データを検索するか否かが判断される(ステッ
プ302)。検索する場合には、該当する話者の音声識
別情報が検索条件として利用されて、複数の会議録デー
タの中から特定話者の会議データだけが検索される(ス
テップS303)。
First, the collation process for specifying the speaker from the input voice data is performed using the speaker dictionary 21f (step S301), and then the conference proceedings data in which the speaker participates is searched. It is determined whether or not (step 302). When performing a search, the voice identification information of the corresponding speaker is used as a search condition, and only the conference data of the specific speaker is retrieved from the plurality of conference record data (step S303).

【0113】また、各会議録データから音声データを順
次読み出して音声識別情報を抽出し、その抽出した音声
識別情報を話者辞書21fと照合する事によって特定話
者の会議データだけを取り出すこともできる。
It is also possible to extract only the conference data of a specific speaker by sequentially reading out the voice data from each conference record data, extracting the voice identification information, and collating the extracted voice identification information with the speaker dictionary 21f. it can.

【0114】次に、図13のフローチャートを参照し
て、話者認識プロセス114,21eによって行われる
話者辞書作成処理を説明する。電子会議中に授受される
会議データの中から音声データが取り出され、その音声
データを解析することによってその音声データの話者識
別情報が抽出される(ステップS41,S42)。そし
て、例えば各マシンのキーボードから入力された話者名
(話者の個人データID等)と話者識別情報との対応関
係が定義された話者辞書が作成される(ステップS4
3)。
Next, the speaker dictionary creating process performed by the speaker recognition processes 114 and 21e will be described with reference to the flowchart of FIG. Voice data is extracted from the conference data transmitted and received during the electronic conference, and the speaker identification information of the voice data is extracted by analyzing the voice data (steps S41 and S42). Then, for example, a speaker dictionary in which the correspondence between the speaker name (personal data ID of the speaker, etc.) input from the keyboard of each machine and the speaker identification information is defined is created (step S4).
3).

【0115】次に、図14のフローチャートを参照し
て、話者認識プロセス114,21eによって行われる
話者認識処理について説明する。まず、サーバ21など
から会議参加者の名前(個人データID等)が入力さ
れ、各クライアントなどに通知される(ステップS5
1)。次いで、他のマシンと話者授受される会議データ
やそのマシンから入力された音声データから話者識別情
報が抽出される(ステップS52,S53)。
Next, the speaker recognition processing executed by the speaker recognition processes 114 and 21e will be described with reference to the flowchart of FIG. First, the names of conference participants (personal data IDs, etc.) are input from the server 21 or the like and notified to each client or the like (step S5).
1). Next, the speaker identification information is extracted from the conference data exchanged with the other machine or the voice data input from the machine (steps S52 and S53).

【0116】次いで、通知された会議参加者の話者識別
情報が話者辞書から選出される(ステップS54)。そ
して、音声データから抽出された話者識別情報と話者辞
書から選出された話者識別情報との照合が行われ、これ
によって該当する音声データが会議参加者のものである
か否かが判断される(ステップS55)。
Next, the speaker identification information of the notified conference participant is selected from the speaker dictionary (step S54). Then, the speaker identification information extracted from the voice data is compared with the speaker identification information selected from the speaker dictionary, and it is determined whether or not the corresponding voice data belongs to the conference participant. (Step S55).

【0117】次に、図15のフローチャートを参照し
て、話者認識プロセス114によって行われる音声デー
タの音量減衰処理について説明する。まず、図14で説
明した手順に従って話者照合処理が行われ、該当する音
声データが特定話者からのものであるか否かが判断され
る(ステップS61,S62)。特定話者からのもので
ない場合には、その音声データの音量が減衰される(ス
テップS63)。
Next, with reference to the flowchart of FIG. 15, the sound volume attenuation processing of the voice data performed by the speaker recognition process 114 will be described. First, speaker verification processing is performed according to the procedure described with reference to FIG. 14, and it is determined whether or not the corresponding voice data is from a specific speaker (steps S61 and S62). If it is not from the specific speaker, the volume of the voice data is attenuated (step S63).

【0118】次に、図16のフローチャートを参照し
て、話者認識プロセス114によって行われる音声デー
タのフィルタリング処理について説明する。まず、図1
4で説明した手順に従って話者照合処理が行われ、該当
する音声データが特定話者からのものであるか否かが判
断される(ステップS71,S72)。特定話者からの
ものでない場合には、その音声データの送受信が停止さ
れる(ステップS73)。
Next, the voice data filtering process performed by the speaker recognition process 114 will be described with reference to the flowchart of FIG. First, FIG.
Speaker verification processing is performed according to the procedure described in step 4, and it is determined whether or not the corresponding voice data is from a specific speaker (steps S71 and S72). If it is not from the specific speaker, the transmission / reception of the voice data is stopped (step S73).

【0119】以上説明したように、この実施例において
は、例えばクライアントコンピュータ11を使用してい
る会議参加者が文字や図形を共有ウインドウに描きなが
らその内容を音声によって説明した場合には、文書デー
タ、画像データ、および音声データの入力イベントが逐
次発生されるが、音声データについてはその話者の識別
処理が行われる。予め指定された特定話者以外の他の話
者からの音声データであることが検出されたときは、音
声データの送信処理が禁止されるか、または送信される
音声データの音量が減衰される。これにより、正当な会
議参加者でない人、または発言権の無い会議参加者から
の声(例えば、独り言、雑談など)が音声データとして
他のクライアントコンピュータ12,13の会議参加者
に送られてしまうことがなくなり、会議参加者の認証お
よび発言権管理を効率良く実現することが可能になる。
As described above, in this embodiment, for example, when a conference participant using the client computer 11 draws characters or figures in the shared window and explains the contents by voice, the document data , Image data, and audio data input events are sequentially generated, and the speaker is identified for audio data. When it is detected that the voice data is from a speaker other than the specific speaker designated in advance, the transmission process of the voice data is prohibited or the volume of the transmitted voice data is attenuated. . As a result, a voice (for example, soliloquy, chat, etc.) from a person who is not an authorized conference participant or a conference participant who does not have the right to speak is sent as audio data to the conference participants of the other client computers 12 and 13. As a result, it becomes possible to efficiently realize the authentication of the conference participants and the management of the floor.

【0120】[0120]

【発明の効果】以上説明したように、この発明によれ
ば、会議データとして送受信される音声データを利用し
て会議参加者の認証および発言権管理を実現することが
可能となる。
As described above, according to the present invention, it is possible to realize the authentication of the participants in the conference and the management of the floor by using the voice data transmitted and received as the conference data.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例に係る電子会議システムの
システム構成を示すブロック図。
FIG. 1 is a block diagram showing a system configuration of an electronic conference system according to an embodiment of the present invention.

【図2】同実施例において各クライアントに画面表示さ
れる共有ウインドウを示す図。
FIG. 2 is a diagram showing a shared window displayed on each client screen in the embodiment.

【図3】同実施例においてサーバに画面表示されるタイ
ムテーブルウインドウを示す図。
FIG. 3 is a diagram showing a timetable window displayed on the server screen in the embodiment.

【図4】同実施例のシステムを実現するためのソフトウ
ェア構成を示すブロック図。
FIG. 4 is a block diagram showing a software configuration for realizing the system of the embodiment.

【図5】同実施例のシステムに設けられたクライアント
によって実行されるメッセージパケットの生成及び送信
動作を説明するための図。
FIG. 5 is a diagram for explaining message packet generation and transmission operations executed by a client provided in the system of the embodiment.

【図6】同実施例のシステムに設けられたクライアント
によって実行されるメッセージパケットの受信および再
生動作を説明するための図。
FIG. 6 is an exemplary view for explaining a message packet receiving and reproducing operation executed by a client provided in the system of the embodiment.

【図7】同実施例のシステムに設けられたクライアント
によって生成されるメッセージパケットのデータフォー
マットの一例を示す図。
FIG. 7 is a diagram showing an example of a data format of a message packet generated by the client provided in the system of the embodiment.

【図8】同実施例のシステムにおいてクライアントから
サーバに送信される通信パケットのデータフォーマット
の一例を示す図。
FIG. 8 is a diagram showing an example of a data format of a communication packet transmitted from the client to the server in the system of the embodiment.

【図9】同実施例のシステムに設けられたサーバによっ
て実行される通信パケットの受信動作を説明するための
図。
FIG. 9 is a diagram for explaining a communication packet receiving operation executed by the server provided in the system of the embodiment.

【図10】同実施例のシステムに設けられたサーバによ
って実行されるタイムテーブルウインドウへのアイコン
表示処理の手順を説明するためのフローチャート。
FIG. 10 is a flowchart for explaining a procedure of icon display processing on a timetable window executed by the server provided in the system of the embodiment.

【図11】同実施例のシステムに設けられたサーバによ
って実行される会議データ検索処理の手順を説明するた
めのフローチャート。
FIG. 11 is a flowchart for explaining a procedure of conference data search processing executed by the server provided in the system of the embodiment.

【図12】同実施例のシステムに設けられたサーバによ
って実行される音声データ検索処理の手順を説明するた
めのフローチャート。
FIG. 12 is a flowchart for explaining a procedure of voice data search processing executed by a server provided in the system of the embodiment.

【図13】同実施例のシステムの各マシンに設けられた
話者認識プロセスによって実行される話者辞書作成処理
の手順を説明するためのフローチャート。
FIG. 13 is a flowchart for explaining a procedure of a speaker dictionary creating process executed by a speaker recognition process provided in each machine of the system of the embodiment.

【図14】同実施例のシステムの各マシンに設けられた
話者認識プロセスによって実行される話者認識処理の手
順を説明するためのフローチャート。
FIG. 14 is a flowchart for explaining a speaker recognition processing procedure executed by a speaker recognition process provided in each machine of the system of the embodiment.

【図15】同実施例のシステムの各マシンに設けられた
話者認識プロセスによって実行される音声データの音量
減衰処理の手順を説明するためのフローチャート。
FIG. 15 is a flow chart for explaining a procedure of volume reduction processing of voice data executed by a speaker recognition process provided in each machine of the system of the embodiment.

【図16】同実施例のシステムの各マシンに設けられた
話者認識プロセスによって実行される音声データフィル
タリング処理の手順を説明するためのフローチャート。
FIG. 16 is a flowchart for explaining a procedure of voice data filtering processing executed by a speaker recognition process provided in each machine of the system of the embodiment.

【符号の説明】[Explanation of symbols]

10…LAN、11,12,13…クライアントコンピ
ュータ、13…サーバコンピュータ、11a,12a,
13a…ヘッドセット、11b,12b,13b…ビデ
オカメラ、W1,W2,W3…共有ウインドウ、TTW
…タイムテーブルウインドウ、111…音声送信プロセ
ス、112…音声受信/再生プロセス、113…共有ウ
インドウプロセス、114…話者認識プロセス、116
…通信ライブラリ、117…マウスドライバ、118…
ウインドウシステム、119…音声デバイスドライバ、
21a…会議データ保存/タイムログ表示プロセス、2
1b…音声再生プロセス、21c…図形再生プロセス、
21d…会議データ保存ファイル。
10 ... LAN, 11, 12, 13 ... Client computer, 13 ... Server computer, 11a, 12a,
13a ... Headset, 11b, 12b, 13b ... Video camera, W1, W2, W3 ... Shared window, TTW
... Timetable window, 111 ... Voice transmission process, 112 ... Voice reception / reproduction process, 113 ... Shared window process, 114 ... Speaker recognition process, 116
... communication library 117 ... mouse driver 118 ...
Window system, 119 ... Audio device driver,
21a ... Conference data storage / time log display process, 2
1b ... voice reproduction process, 21c ... graphic reproduction process,
21d ... Conference data storage file.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/15 H04N 7/15 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI Technical display location H04N 7/15 H04N 7/15

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ネットワークに接続された複数のコンピ
ュータ間で文字、画像、または音声データを含む会議デ
ータを交換する電子会議システムにおいて、 前記各コンピュータは、 文字、画像、または音声データの入力イベントの発生に
応答して、その発生したイベントに対応するデータを会
議データとして他の全てのコンピュータにブロードキャ
スト送信する会議データ送信手段と、 前記他のコンピュータから会議データとして送信された
文字、または画像を、自身のコンピュータで発生された
文字、または画像と一緒に同一画面上に表示する手段
と、 前記他のコンピュータから会議データとして送信された
音声データを再生する手段と、 前記音声データの入力イベントが発生したとき、その入
力された音声データの話者を識別する話者識別手段と、 予め指定された特定話者以外の他の話者からの音声デー
タであることが検出されたとき、前記会議データ送信手
段による送信処理を禁止、またはその会議データ送信手
段によって会議データとして送信される音声データの音
量を減衰させる手段とを具備することを特徴とする電子
会議システム。
1. An electronic conferencing system for exchanging conference data including character, image, or audio data between a plurality of computers connected to a network, wherein each computer receives an input event of the character, image, or audio data. In response to the occurrence, a conference data transmitting unit that broadcast-transmits data corresponding to the occurred event to all other computers as conference data, and a character or an image transmitted as the conference data from the other computer, Means for displaying on the same screen together with characters or images generated by its own computer, means for reproducing audio data transmitted as conference data from the other computer, and an input event for the audio data occurs Speaker that identifies the speaker of the input voice data when When it is detected that the data is voice data from a speaker other than a specific speaker designated in advance, the transmission processing by the conference data transmitting unit is prohibited, or the conference data transmitting unit transmits the conference data. And a means for attenuating the volume of the audio data transmitted as the electronic conferencing system.
【請求項2】 前記音声データ再生手段は、 前記他のコンピュータから会議データとして送信された
音声データの話者を識別する話者識別手段と、 予め指定された会議参加者以外の他の話者からの音声デ
ータであることが検出されたとき、前記音声データ再生
処理を禁止、または再生される音声データの音量を減衰
させる手段とを含むことを特徴とする請求項1記載の電
子会議システム。
2. The voice data reproducing means includes a speaker identifying means for identifying a speaker of the voice data transmitted as conference data from the other computer, and a speaker other than a pre-designated conference participant. 2. The electronic conferencing system according to claim 1, further comprising means for prohibiting the audio data reproduction process or attenuating the volume of the reproduced audio data when the audio data is detected from the audio data.
【請求項3】 前記複数のコンピュータの少なくとも1
つ、または前記ネットワークに接続された所定のサーバ
コンピュータは、 前記複数のコンピュータそれぞれからの会議データを受
信し、その受信した会議データを会議録データとして保
存する手段と、 この会議録データに保存される音声データから話者を識
別するための話者識別情報を生成し、その話者識別情報
を検索条件として前記会議録データを検索する話者検索
手段とを具備することを特徴とする請求項1記載の電子
会議システム。
3. At least one of the plurality of computers
Or a predetermined server computer connected to the network, receives the conference data from each of the plurality of computers, and stores the received conference data as conference record data, and a means for storing the conference record data. A speaker search unit for generating speaker identification information for identifying a speaker from the voice data, and searching the conference proceedings data using the speaker identification information as a search condition. The electronic conference system described in 1.
【請求項4】 ネットワークに接続されたサーバコンピ
ュータおよび複数のクライアントコンピュータを利用し
た電子会議システムにおいて、 前記各クライアントコンピュータは、 文字、図形、または音声データの入力イベントが発生し
た時、その発生したイベントに対応するデータ毎に、イ
ベント発生時刻を示す時間情報と、そのデータが文字、
図形、および音声のいずれの種類に属するかを示す識別
情報と、そのデータ種内におけるイベント発生順を示す
シーケンス番号とを付加してメッセージデータを生成す
るメッセージ生成手段と、 このメッセージ生成手段によって生成されたメッセージ
データを、ネットワークを介して他の全てのコンピュー
タにブロードキャスト送信する手段と、 前記他のコンピュータから送信されるメッセージデータ
および自身のコンピュータのメッセージ生成手段によっ
て生成されたメッセージデータを受信し、そのメッセー
ジデータに含まれる前記識別情報およびシーケンス番号
に従って、前記文字、図形、または音声データそれぞれ
をシーケンス番号の若い順に表示または再生する手段
と、 前記音声データの入力イベントが発生したとき、その入
力された音声データの話者を識別する話者識別手段と、 予め指定された特定話者以外の他の話者からの音声デー
タであることが検出されたとき、前記メッセージ生成手
段による音声メッセージの生成処理を禁止、またはメッ
セージデータとして他のコンピュータに送信される音声
データの音量を減衰させる手段とを具備し、 前記サーバコンピュータは、 前記複数のコンピュータそれぞれからのメッセージデー
タを受信し、そのメッセージデータを会議録データとし
て保存する手段と、 前記受信したメッセージデータに含まれる前記識別情報
および前記時間情報に従って、前記複数のコンピュータ
それぞれを操作する複数の会議参加者それぞれからの入
力イベントの種類を示すアイコンを時系列に沿って表示
するタイムスケール画面を生成する手段と、 前記タイムスケール画面上のアイコン操作に応じて、前
記記録された会議録データを検索および編集する手段で
あって、会議録データに保存される音声データから話者
を識別するための話者識別情報を生成し、その話者識別
情報を検索条件として前記会議録データを検索する手段
と、 前記タイムスケール画面上のアイコン操作に応じて、前
記検索および編集された会議データに含まれるメッセー
ジデータを前記複数のコンピュータ全てにブロードキャ
スト送信して前記会議データを再生する手段とを具備す
ることを特徴とする電子会議システム。
4. An electronic conferencing system using a server computer and a plurality of client computers connected to a network, wherein each client computer, when an input event of character, figure, or voice data occurs, the event occurred For each data corresponding to, the time information indicating the event occurrence time and the data are characters,
Message generation means for generating message data by adding identification information indicating which type of figure or voice it belongs to and sequence number indicating the event occurrence order within the data type, and generation by this message generation means Means for broadcasting the created message data to all other computers via a network, and receiving the message data sent from the other computer and the message data created by the message creating means of the own computer, Means for displaying or reproducing each of the characters, figures, or voice data in ascending order of sequence number according to the identification information and the sequence number included in the message data, and inputting the input event of the voice data when the input event occurs. Speaker identification means for identifying the speaker of the generated voice data, and when it is detected that the voice data is from another speaker other than the specific speaker designated in advance, And a means for attenuating the volume of audio data transmitted to another computer as message data, wherein the server computer receives message data from each of the plurality of computers, and the message data And a icon indicating the type of an input event from each of a plurality of conference participants operating each of the plurality of computers according to the identification information and the time information included in the received message data. Generate a timescale screen that displays in chronological order And means for searching and editing the recorded conference proceedings data according to an icon operation on the time scale screen, which is a talk for identifying a speaker from voice data stored in the conference proceedings data. Means for generating speaker identification information and searching the conference proceedings data using the speaker identification information as a search condition; and a message included in the retrieved and edited conference data according to an icon operation on the time scale screen. An electronic conferencing system comprising: means for broadcasting data to all of the plurality of computers to reproduce the conference data.
JP7117248A 1995-05-16 1995-05-16 Electronic conference system Pending JPH08316953A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7117248A JPH08316953A (en) 1995-05-16 1995-05-16 Electronic conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7117248A JPH08316953A (en) 1995-05-16 1995-05-16 Electronic conference system

Publications (1)

Publication Number Publication Date
JPH08316953A true JPH08316953A (en) 1996-11-29

Family

ID=14707065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7117248A Pending JPH08316953A (en) 1995-05-16 1995-05-16 Electronic conference system

Country Status (1)

Country Link
JP (1) JPH08316953A (en)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094214A (en) * 1997-06-11 2000-07-25 Nec Corporation Multiple-point television meeting system and recording medium having recorded multiple-point television meeting control program therein
JP2002297370A (en) * 2001-03-30 2002-10-11 Daiwa House Ind Co Ltd System, device and method for information communication, program and data recording medium
JP2004507958A (en) * 2000-09-01 2004-03-11 エヌキューブ コーポレイション Dynamic quality adjustment based on changes in streaming constraints
JP2004343756A (en) * 2003-05-16 2004-12-02 Seiko Epson Corp Method and system for media reproducing architecture
US7065198B2 (en) 2002-10-23 2006-06-20 International Business Machines Corporation System and method for volume control management in a personal telephony recorder
JP2007020003A (en) * 2005-07-08 2007-01-25 Sharp Corp Participant side communication terminal device, sponsor side communication terminal device, server device, electronic conference system, electronic conference participation control method, electronic conference holding control method, electronic conference participation control program, electronic conference holding control program and recording medium
JP2009053342A (en) * 2007-08-24 2009-03-12 Junichi Shibuya Minutes preparation apparatus
JP2009110447A (en) * 2007-10-31 2009-05-21 Toshiba Corp Data access control unit
JP2009230097A (en) * 2008-02-26 2009-10-08 Toshiba Corp Information presenting device and information presenting method
US7683925B2 (en) 2004-10-04 2010-03-23 Lg Electronics Inc. Mobile communication terminal for transmitting/receiving image data over group communication network and method for transmitting/receiving image data using the mobile communication terminal
JP2010282395A (en) * 2009-06-04 2010-12-16 Hitachi Ltd Data processing method, program and system
JP4696418B2 (en) * 2001-07-25 2011-06-08 ソニー株式会社 Information detection apparatus and method
JP2012118053A (en) * 2010-11-08 2012-06-21 Denso Corp Driving evaluation device
JP2017045180A (en) * 2015-08-25 2017-03-02 富士ゼロックス株式会社 program
JP2017091536A (en) * 2015-11-10 2017-05-25 株式会社リコー Electronic conference system
US10062057B2 (en) 2015-11-10 2018-08-28 Ricoh Company, Ltd. Electronic meeting intelligence
JP2018174408A (en) * 2017-03-31 2018-11-08 日本電気株式会社 Information processing device, information processing method, and information processing program
US10510051B2 (en) 2016-10-11 2019-12-17 Ricoh Company, Ltd. Real-time (intra-meeting) processing using artificial intelligence
US10552546B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
US10553208B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances using multiple services
US10572858B2 (en) 2016-10-11 2020-02-25 Ricoh Company, Ltd. Managing electronic meetings using artificial intelligence and meeting rules templates
US10757148B2 (en) 2018-03-02 2020-08-25 Ricoh Company, Ltd. Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
US10860985B2 (en) 2016-10-11 2020-12-08 Ricoh Company, Ltd. Post-meeting processing using artificial intelligence
JP2021043460A (en) * 2017-10-17 2021-03-18 グーグル エルエルシーGoogle LLC Speaker diarization
US10956875B2 (en) 2017-10-09 2021-03-23 Ricoh Company, Ltd. Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
US11030585B2 (en) 2017-10-09 2021-06-08 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
US11062271B2 (en) 2017-10-09 2021-07-13 Ricoh Company, Ltd. Interactive whiteboard appliances with learning capabilities
US11080466B2 (en) 2019-03-15 2021-08-03 Ricoh Company, Ltd. Updating existing content suggestion to include suggestions from recorded media using artificial intelligence
WO2022025143A1 (en) * 2020-07-31 2022-02-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 Conversation control device, conversation system, and conversation control method
US11263384B2 (en) 2019-03-15 2022-03-01 Ricoh Company, Ltd. Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
US11270060B2 (en) 2019-03-15 2022-03-08 Ricoh Company, Ltd. Generating suggested document edits from recorded media using artificial intelligence
US11307735B2 (en) 2016-10-11 2022-04-19 Ricoh Company, Ltd. Creating agendas for electronic meetings using artificial intelligence
US11392754B2 (en) 2019-03-15 2022-07-19 Ricoh Company, Ltd. Artificial intelligence assisted review of physical documents
US11573993B2 (en) 2019-03-15 2023-02-07 Ricoh Company, Ltd. Generating a meeting review document that includes links to the one or more documents reviewed
US11720741B2 (en) 2019-03-15 2023-08-08 Ricoh Company, Ltd. Artificial intelligence assisted review of electronic documents

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094214A (en) * 1997-06-11 2000-07-25 Nec Corporation Multiple-point television meeting system and recording medium having recorded multiple-point television meeting control program therein
JP2004507958A (en) * 2000-09-01 2004-03-11 エヌキューブ コーポレイション Dynamic quality adjustment based on changes in streaming constraints
JP2011250476A (en) * 2000-09-01 2011-12-08 Ncube Corp Dynamic quality adjustment based on changing streaming constraints
JP2002297370A (en) * 2001-03-30 2002-10-11 Daiwa House Ind Co Ltd System, device and method for information communication, program and data recording medium
JP4696418B2 (en) * 2001-07-25 2011-06-08 ソニー株式会社 Information detection apparatus and method
US7065198B2 (en) 2002-10-23 2006-06-20 International Business Machines Corporation System and method for volume control management in a personal telephony recorder
JP2004343756A (en) * 2003-05-16 2004-12-02 Seiko Epson Corp Method and system for media reproducing architecture
US7683925B2 (en) 2004-10-04 2010-03-23 Lg Electronics Inc. Mobile communication terminal for transmitting/receiving image data over group communication network and method for transmitting/receiving image data using the mobile communication terminal
JP2007020003A (en) * 2005-07-08 2007-01-25 Sharp Corp Participant side communication terminal device, sponsor side communication terminal device, server device, electronic conference system, electronic conference participation control method, electronic conference holding control method, electronic conference participation control program, electronic conference holding control program and recording medium
JP2009053342A (en) * 2007-08-24 2009-03-12 Junichi Shibuya Minutes preparation apparatus
JP2009110447A (en) * 2007-10-31 2009-05-21 Toshiba Corp Data access control unit
JP2009230097A (en) * 2008-02-26 2009-10-08 Toshiba Corp Information presenting device and information presenting method
US8306640B2 (en) 2008-02-26 2012-11-06 Kabushiki Kaisha Toshiba Apparatus and method product for accessing information related to a particular setting from an information repository
JP2010282395A (en) * 2009-06-04 2010-12-16 Hitachi Ltd Data processing method, program and system
JP2012118053A (en) * 2010-11-08 2012-06-21 Denso Corp Driving evaluation device
JP2017045180A (en) * 2015-08-25 2017-03-02 富士ゼロックス株式会社 program
US11120342B2 (en) 2015-11-10 2021-09-14 Ricoh Company, Ltd. Electronic meeting intelligence
US10062057B2 (en) 2015-11-10 2018-08-28 Ricoh Company, Ltd. Electronic meeting intelligence
US10445706B2 (en) 2015-11-10 2019-10-15 Ricoh Company, Ltd. Electronic meeting intelligence
US11983637B2 (en) 2015-11-10 2024-05-14 Ricoh Company, Ltd. Electronic meeting intelligence
JP2017091536A (en) * 2015-11-10 2017-05-25 株式会社リコー Electronic conference system
US10510051B2 (en) 2016-10-11 2019-12-17 Ricoh Company, Ltd. Real-time (intra-meeting) processing using artificial intelligence
US10572858B2 (en) 2016-10-11 2020-02-25 Ricoh Company, Ltd. Managing electronic meetings using artificial intelligence and meeting rules templates
US11307735B2 (en) 2016-10-11 2022-04-19 Ricoh Company, Ltd. Creating agendas for electronic meetings using artificial intelligence
US10860985B2 (en) 2016-10-11 2020-12-08 Ricoh Company, Ltd. Post-meeting processing using artificial intelligence
JP2018174408A (en) * 2017-03-31 2018-11-08 日本電気株式会社 Information processing device, information processing method, and information processing program
US10553208B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances using multiple services
US11645630B2 (en) 2017-10-09 2023-05-09 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
US11030585B2 (en) 2017-10-09 2021-06-08 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
US11062271B2 (en) 2017-10-09 2021-07-13 Ricoh Company, Ltd. Interactive whiteboard appliances with learning capabilities
US10552546B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
US10956875B2 (en) 2017-10-09 2021-03-23 Ricoh Company, Ltd. Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
JP2021043460A (en) * 2017-10-17 2021-03-18 グーグル エルエルシーGoogle LLC Speaker diarization
US11670287B2 (en) 2017-10-17 2023-06-06 Google Llc Speaker diarization
US12051405B2 (en) 2017-10-17 2024-07-30 Google Llc Speaker diarization
US10757148B2 (en) 2018-03-02 2020-08-25 Ricoh Company, Ltd. Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
US11263384B2 (en) 2019-03-15 2022-03-01 Ricoh Company, Ltd. Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
US11270060B2 (en) 2019-03-15 2022-03-08 Ricoh Company, Ltd. Generating suggested document edits from recorded media using artificial intelligence
US11392754B2 (en) 2019-03-15 2022-07-19 Ricoh Company, Ltd. Artificial intelligence assisted review of physical documents
US11573993B2 (en) 2019-03-15 2023-02-07 Ricoh Company, Ltd. Generating a meeting review document that includes links to the one or more documents reviewed
US11720741B2 (en) 2019-03-15 2023-08-08 Ricoh Company, Ltd. Artificial intelligence assisted review of electronic documents
US11080466B2 (en) 2019-03-15 2021-08-03 Ricoh Company, Ltd. Updating existing content suggestion to include suggestions from recorded media using artificial intelligence
JP2022027062A (en) * 2020-07-31 2022-02-10 エヌ・ティ・ティ・コミュニケーションズ株式会社 Conversation control device, conversation system, and conversation control method
WO2022025143A1 (en) * 2020-07-31 2022-02-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 Conversation control device, conversation system, and conversation control method

Similar Documents

Publication Publication Date Title
JPH08316953A (en) Electronic conference system
JP5003125B2 (en) Minutes creation device and program
EP2494455B1 (en) Automated and enhanced note taking for online collaborative computing sessions
US7299405B1 (en) Method and system for information management to facilitate the exchange of ideas during a collaborative effort
AU2005200442B2 (en) Command based group SMS with mobile message receiver and server
US8407049B2 (en) Systems and methods for conversation enhancement
JPH08297624A (en) Electronic conference system
JP2006146415A (en) Conference support system
US20070250315A1 (en) Downline Transcription System Using Automatic Tracking And Revenue Collection
JP2004287201A (en) Device and method for preparing conference minutes, and computer program
JP2005341015A (en) Video conference system with minute creation support function
JP2003348243A (en) Technology for archiving voice information
WO2003056459A1 (en) Network information processing system and information processing method
US8503622B2 (en) Selectively retrieving VoIP messages
JP2009122839A (en) Electronic conference support system
CN117897930A (en) Streaming data processing for hybrid online conferencing
US12010161B1 (en) Browser-based video production
JP2007180828A (en) Network conference system, network conference method, and program for executing the method
JPH08317365A (en) Electronic conference device
WO2024067597A1 (en) Online conference method and apparatus, and electronic device and readable storage medium
JP2002344636A (en) Agenda automatic generating system in voice conference
JP6610076B2 (en) Information processing apparatus, information processing system, program, and recording medium
JP4413114B2 (en) Electronic conference record data processing method
JP3668892B2 (en) Digital shorthand system
JP2004177777A (en) Minute preparation system