JP2007035121A - Reproduction controller and method, and program - Google Patents

Reproduction controller and method, and program Download PDF

Info

Publication number
JP2007035121A
JP2007035121A JP2005214129A JP2005214129A JP2007035121A JP 2007035121 A JP2007035121 A JP 2007035121A JP 2005214129 A JP2005214129 A JP 2005214129A JP 2005214129 A JP2005214129 A JP 2005214129A JP 2007035121 A JP2007035121 A JP 2007035121A
Authority
JP
Japan
Prior art keywords
data
image
reproduced
time code
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005214129A
Other languages
Japanese (ja)
Other versions
JP4978765B2 (en
Inventor
Takuro Ikeda
卓郎 池田
Junichi Nagahara
潤一 永原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005214129A priority Critical patent/JP4978765B2/en
Publication of JP2007035121A publication Critical patent/JP2007035121A/en
Application granted granted Critical
Publication of JP4978765B2 publication Critical patent/JP4978765B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reproduce simultaneously two data by selecting data to be reproduced and other data obtained at the same time and applying an effect in accordance with the data to be reproduced. <P>SOLUTION: A management part 31 stores captured voice data and picture data in a DB32. A voice analyzing part 33 reads out voice data selected by a user as a data to be reproduced from the DB 32 and analyzes it. A reproduction data selecting part 34 reads out voice data and a time code added to the voice data from the DB32, while reads out the time code and picture data of the time code from the DB32. A reproducing part 35 outputs the voice data supplied from the reproduction data selecting part 34 from a loudspeaker, while applying the effect adjusted to a sound pattern obtained by the voice analyzing part 33 and displays it on a display. This invention can be applied to a personal computer. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、再生制御装置および方法、並びにプログラムに関し、特に、あるデータを、容易に、それと関連のある他のデータに応じたエフェクトを施して再生することができるようにした再生制御装置および方法、並びにプログラムに関する。   The present invention relates to a playback control apparatus and method, and a program, and more particularly to a playback control apparatus and method that can easily reproduce certain data by applying an effect according to other data related to the data. , As well as programs.

従来より、パーソナルコンピュータなどに取り込んだ音楽を再生する際、それに合わせて、再生する音楽の雰囲気にあう画像をモニタに表示させるようなアプリケーションが存在する。   2. Description of the Related Art Conventionally, there is an application that displays on a monitor an image that matches the atmosphere of music to be played when playing music captured in a personal computer or the like.

近年普及してきている、フラッシュメモリやHDD(Hard Disk Drive)を内蔵するポータブルオーディオプレーヤの中にはLCD(Liquid Crystal Display)などの表示部を搭載するものもあり、音楽に合う画像を音楽再生時に表示する機能は、このような表示部を搭載するオーディオプレーヤにも採用されている。   Some portable audio players with built-in flash memory and HDD (Hard Disk Drive) that have become popular in recent years are equipped with a display unit such as an LCD (Liquid Crystal Display). The display function is also adopted in an audio player equipped with such a display unit.

特許文献1には、再生する曲のテンポや盛り上がり位置などを検出し、その検出結果に基づいて、曲に合う動画像を、その曲とともに再生させる技術が開示されている。   Patent Document 1 discloses a technique for detecting the tempo, the rising position, and the like of a song to be played, and playing a moving image that matches the song together with the song based on the detection result.

また、特許文献2には、音楽再生時の視覚的効果を与えるいわゆるビジュアライザを、処理負担を軽減しつつ実現する技術が開示されている。
特開2004−127019号公報 特開2005−122664号公報
Patent Document 2 discloses a technique for realizing a so-called visualizer that gives a visual effect during music reproduction while reducing the processing load.
JP 2004-127019 A JP 2005-122664 A

ところで、上述したようなアプリケーションに用意された画像ではなく、ユーザがディジタルビデオカメラなどで撮影した動画や静止画が、それとは別の機器で録音された音(音楽、音声)に合わせて表示されるようにする場合、ユーザは、動画編集を行うアプリケーション等を使用し、どのタイミングで、どの画像とどの音を再生させるのかなどの選択操作を行う必要があり手間がかかるという問題があった。ある音と同時に再生されるような画像は、その音と関連のあるものであることが好ましいが、そのような関連のある画像を探し出すことにさえ手間がかかる。   By the way, instead of the images prepared for the applications as described above, moving images and still images shot by the user with a digital video camera or the like are displayed in accordance with the sound (music, voice) recorded by another device. In such a case, there is a problem that the user needs to perform an operation for selecting which image and which sound is to be reproduced at which timing using an application or the like for editing a moving image. An image that is played simultaneously with a certain sound is preferably related to the sound, but it is troublesome even to find such a related image.

また、そのような編集時においては、表示されるようにする画像に、その画像とともに再生される音と同期のとれたエフェクト(音の雰囲気に合う特殊効果)をかけるようなことも行われるが、音の内容を確認し、それに合わせてエフェクトの内容を選択する必要があることなどから、この、音と同期のとれたエフェクトをそれぞれの画像にかける操作も手間のかかるものである。   Also, during such editing, an effect that is synchronized with the sound that is reproduced with the image (a special effect that matches the atmosphere of the sound) may be applied to the image to be displayed. Since it is necessary to check the contents of the sound and select the contents of the effect in accordance with the confirmation, it is troublesome to apply the effect synchronized with the sound to each image.

本発明はこのような状況に鑑みてなされたものであり、再生対象とするデータと同じ時刻に取得された他のデータを選択し、再生対象とするデータに応じたエフェクトを施して同時に再生することができるようにするものである。   The present invention has been made in view of such a situation, and selects other data acquired at the same time as the data to be reproduced, applies the effect according to the data to be reproduced, and reproduces simultaneously. Is to be able to.

本発明の一側面は、取得時刻を表すタイムコードが付加された第1と第2のデータを管理する管理手段と、再生対象とする前記第1のデータと同じ時刻に取得された前記第2のデータを、付加されているタイムコードに基づいて選択し、前記第1のデータの特徴に応じたエフェクトを施して前記第1のデータとともに再生する再生制御手段とを備える再生制御装置である。   One aspect of the present invention is a management means for managing first and second data to which a time code representing an acquisition time is added, and the second data acquired at the same time as the first data to be reproduced. And a playback control unit that plays back the first data together with the first data by applying an effect corresponding to the characteristics of the first data.

前記再生制御手段には、再生対象とする前記第1のデータと同じ時刻に取得された前記第2のデータであって、さらに、再生対象とする前記第1のデータと同じディレクトリに前記管理手段により管理されている前記第2のデータを、前記第1のデータとともに再生させるようにすることができる。   The reproduction control means includes the management means in the second directory acquired at the same time as the first data to be reproduced and in the same directory as the first data to be reproduced. The second data managed by the method can be reproduced together with the first data.

前記第1のデータを解析する解析手段をさらに設けることができ、前記再生制御手段には、前記解析手段による解析結果で得られた特徴に応じたエフェクトを前記第2のデータに施させるようにすることができる。   Analyzing means for analyzing the first data can be further provided, and the reproduction control means causes the second data to be subjected to an effect corresponding to the characteristic obtained from the analysis result by the analyzing means. can do.

前記第1のデータは、音声データであり、前記第2のデータは、画像データであるようにすることができる。   The first data may be audio data, and the second data may be image data.

本発明の一側面は、取得時のタイムコードが付加された第1と第2のデータを管理し、再生する再生制御処理を行う再生制御方法、または前記再生制御処理をコンピュータに実行させるプログラムにおいて、再生対象とする前記第1のデータと同じ時刻に取得された前記第2のデータを、付加されているタイムコードに基づいて選択し、前記第1のデータの特徴に応じたエフェクトを施して前記第1のデータとともに再生するステップを含む再生制御方法またはプログラムである。   One aspect of the present invention is a playback control method for performing playback control processing for managing and playing back first and second data to which a time code at the time of acquisition is added, or a program for causing a computer to execute the playback control processing. The second data acquired at the same time as the first data to be reproduced is selected based on the added time code, and an effect corresponding to the characteristics of the first data is applied. A reproduction control method or program including a step of reproducing together with the first data.

本発明の一側面においては、再生対象とする第1のデータと同じ時刻に取得された第2のデータが、付加されているタイムコードに基づいて選択され、第1のデータの特徴に応じたエフェクトが施されて第1のデータとともに再生される。   In one aspect of the present invention, the second data acquired at the same time as the first data to be reproduced is selected based on the added time code, and according to the characteristics of the first data The effect is applied and reproduced together with the first data.

本発明の一側面によれば、再生対象とするデータと同じ時刻に取得された他のデータを選択して同時に再生することができる。また、本発明の一側面によれば、再生対象とするデータと同じ時刻に取得された他のデータに、再生対象とするデータに応じたエフェクトを施して同時に再生することができる。   According to one aspect of the present invention, other data acquired at the same time as the data to be reproduced can be selected and reproduced simultaneously. In addition, according to one aspect of the present invention, it is possible to simultaneously reproduce other data acquired at the same time as the data to be reproduced by applying an effect corresponding to the data to be reproduced.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. On the contrary, even if an embodiment is described herein as corresponding to the invention, this does not mean that the embodiment does not correspond to other than the configuration requirements. .

本発明の一側面の再生制御装置(例えば、図1の情報処理装置1)は、取得時刻を表すタイムコードが付加された第1と第2のデータを管理する管理手段(例えば、図3の管理部31)と、再生対象とする前記第1のデータ(例えば、音声データ)と同じ時刻に取得された前記第2のデータ(例えば、画像データ)を、付加されているタイムコードに基づいて選択し、前記第1のデータの特徴に応じたエフェクトを施して前記第1のデータとともに再生する再生制御手段(例えば、図3の再生部35)とを備える。   The reproduction control apparatus according to one aspect of the present invention (for example, the information processing apparatus 1 in FIG. 1) is a management unit (for example, in FIG. 3) that manages the first and second data to which the time code indicating the acquisition time is added. The management unit 31) and the second data (for example, image data) acquired at the same time as the first data (for example, audio data) to be reproduced are based on the added time code. Reproduction control means (for example, the reproduction unit 35 in FIG. 3) that selects and reproduces the first data together with an effect according to the characteristics of the first data.

この再生制御装置には、前記第1のデータを解析する解析手段(例えば、図3の音声解析部33)をさらに設けることができる。   The reproduction control apparatus may further include an analysis unit (for example, the voice analysis unit 33 in FIG. 3) that analyzes the first data.

本発明の一側面の再生制御方法またはプログラムは、取得時のタイムコードが付加された第1と第2のデータを管理し、再生する再生制御処理の再生制御方法、または、前記再生制御処理をコンピュータに実行させるプログラムにおいて、再生対象とする前記第1のデータ(例えば、音声データ)と同じ時刻に取得された前記第2のデータ(例えば、画像データ)を、付加されているタイムコードに基づいて選択し、前記第1のデータの特徴に応じたエフェクトを施して前記第1のデータとともに再生するステップ(例えば、図8のステップS8)を含む。   A reproduction control method or program according to one aspect of the present invention is a reproduction control method of a reproduction control process for managing and reproducing the first and second data to which time codes at the time of acquisition are added, or the reproduction control process. In a program to be executed by a computer, the second data (for example, image data) acquired at the same time as the first data (for example, audio data) to be reproduced is based on an added time code. Selecting, reproducing with the first data by applying an effect according to the characteristics of the first data (for example, step S8 in FIG. 8).

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る情報処理装置1と、情報処理装置1とケーブルを介して接続されるICレコーダ2およびディジタルカメラ3を示す図である。   FIG. 1 is a diagram showing an information processing apparatus 1 according to an embodiment of the present invention, and an IC recorder 2 and a digital camera 3 connected to the information processing apparatus 1 via a cable.

情報処理装置1は、ICレコーダ2で録音された音声をUSB(Universal Serial Bus)ケーブルなどを介して内蔵のHDD(Hard Disk Drive)20(図2)に取り込み、それをスピーカなどに出力させる機能を有する。また情報処理装置1は、ディジタルカメラ3で撮影された画像をUSBケーブルなどを介して内蔵のHDD20に取り込み、それをディスプレイなどに表示させる機能を有する。   The information processing apparatus 1 has a function of taking sound recorded by the IC recorder 2 into a built-in HDD (Hard Disk Drive) 20 (FIG. 2) via a USB (Universal Serial Bus) cable and outputting it to a speaker or the like. Have Further, the information processing apparatus 1 has a function of taking an image taken by the digital camera 3 into the built-in HDD 20 via a USB cable or the like and displaying it on a display or the like.

後に詳述するように、情報処理装置1は、HDD20に記憶されている音声データの再生が指示されたとき、再生が指示された音声データに付加されているタイムコードと同タイムコードが付加されている画像データを取得し、音声データをスピーカに出力させるとともに、取得した画像データを、音声データのサウンドパターンに合わせたエフェクトを施してディスプレイに表示させる。   As will be described in detail later, when the reproduction of audio data stored in the HDD 20 is instructed, the information processing apparatus 1 adds the same time code as the time code added to the audio data instructed to reproduce. The acquired image data is acquired and the audio data is output to the speaker, and the acquired image data is displayed on the display with an effect according to the sound pattern of the audio data.

これにより、ユーザは、別々の機器で取得した音声データと画像データを同時に再生させることが可能になり、さらに、音に同期したエフェクトを施すといった手間のかかる編集作業も不要となる。   As a result, the user can simultaneously reproduce the audio data and the image data acquired by different devices, and further eliminates the time-consuming editing work of applying an effect synchronized with the sound.

図2は、図1の情報処理装置1の構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration example of the information processing apparatus 1 in FIG.

CPU(Central Processing Unit)11、ROM(Read Only Memory)12、およびRAM(Random Access Memory)13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インタフェース15も接続されている。   A CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, and a RAM (Random Access Memory) 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14.

入出力インタフェース15には、録画/再生部17、入力部18、出力部19、HDD20、通信部21、メモリカードI/F22、ドライブ24、およびUSBポート26が接続されている。   The input / output interface 15 is connected to a recording / playback unit 17, an input unit 18, an output unit 19, an HDD 20, a communication unit 21, a memory card I / F 22, a drive 24, and a USB port 26.

CPU11は、ROM12に記憶されているプログラム、または、HDD20からRAM13にロードされたプログラムに従って各種の処理を実行する。RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータなどが適宜記憶される。   The CPU 11 executes various processes according to a program stored in the ROM 12 or a program loaded from the HDD 20 to the RAM 13. The RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes.

例えば、CPU11は、情報処置装置1とUSBケーブルを介して接続されたICレコーダ2から、それにより録音された音声データをUSBポート26を制御して取り込み、取り込んだ音声データをHDD20に記憶させる。ICレコーダ2から取り込まれた音声データには、録音日、録音の開始時刻、終了時刻を表すタイムコードが付加されている。   For example, the CPU 11 controls the USB port 26 to capture the audio data recorded by the IC recorder 2 connected to the information processing apparatus 1 via the USB cable, and stores the acquired audio data in the HDD 20. To the audio data captured from the IC recorder 2, a time code indicating the recording date, the recording start time, and the end time is added.

また、CPU11は、情報処理装置1とUSBケーブルを介して接続されたディジタルカメラ3から、それにより撮影された画像データをUSBポート26を制御して取り込み、取り込んだ画像データをHDD20に記憶させる。ディジタルカメラ3から取り込まれた画像データには、Exif(Exchangeable image file format)に従って撮影日、撮影時刻を表す情報(タイムコード)が付加されている。   Further, the CPU 11 takes in the image data captured by the digital camera 3 connected to the information processing apparatus 1 via the USB cable by controlling the USB port 26, and stores the taken-in image data in the HDD 20. Information (time code) indicating the shooting date and shooting time is added to the image data captured from the digital camera 3 according to Exif (Exchangeable image file format).

さらに、CPU11は、再生する音声データが例えばユーザにより選択されたとき、音声データに付加されているタイムコードを取得し、指定されたディレクトリ内において管理されている、音声データに付加されているタイムコードと同じタイムコードが付加された画像データを検索する。そして、CPU11は、再生する音声データと同じタイムコードが付加された画像データ(音声データの録音開始時刻から録音終了時刻までの間に撮影された画像データ)を取得し、音声データをスピーカに出力させるとともに、取得した画像データを、音声データのサウンドパターンに合わせたエフェクトを施してディスプレイに表示させる。   Further, when the audio data to be reproduced is selected by the user, for example, the CPU 11 acquires a time code added to the audio data and manages the time added to the audio data managed in the designated directory. Search for image data with the same time code as the code. Then, the CPU 11 acquires image data to which the same time code as the audio data to be reproduced is added (image data taken between the recording start time and the recording end time of the audio data), and outputs the audio data to the speaker. At the same time, the acquired image data is displayed on the display with an effect according to the sound pattern of the audio data.

録画/再生部17は、アンテナ16から供給されてきた信号から取得したテレビジョン番組データを例えばMPEG(Moving Picture Experts Group)2方式で圧縮し、圧縮して得られたデータ(ビデオコンテンツ)を、入出力インタフェース15を介してHDD20に供給して記憶させる。また、録画/再生部17は、HDD20に記憶されているビデオコンテンツを伸張し、得られるテレビジョン番組の画像データを出力部19からディスプレイに出力させる。すなわち、情報処理装置1は、テレビジョン番組を録画し、再生する機能を有する。   The recording / playback unit 17 compresses the television program data acquired from the signal supplied from the antenna 16 by, for example, MPEG (Moving Picture Experts Group) 2 system, and the data (video content) obtained by the compression is compressed. The data is supplied to and stored in the HDD 20 via the input / output interface 15. In addition, the recording / playback unit 17 expands the video content stored in the HDD 20 and causes the output unit 19 to output image data of the obtained television program to the display. That is, the information processing apparatus 1 has a function of recording and playing back a television program.

入力部18は、例えば、赤外線の受光部よりなる。入力部18は、図示せぬリモートコントローラからの信号を受信し、ユーザの操作内容を表す情報をCPU11に出力する。   The input unit 18 includes, for example, an infrared light receiving unit. The input unit 18 receives a signal from a remote controller (not shown) and outputs information representing the operation contents of the user to the CPU 11.

出力部19は、入出力インタフェース15を介して供給されてきた画像データをアナログ信号に変換し、得られた画像をディスプレイに出力する。また、出力部19は、入出力インタフェース15を介して供給されてきた音声データをアナログ信号に変換し、得られた音声をスピーカに出力する。   The output unit 19 converts the image data supplied via the input / output interface 15 into an analog signal, and outputs the obtained image to a display. The output unit 19 converts audio data supplied via the input / output interface 15 into an analog signal, and outputs the obtained audio to a speaker.

HDD20は、録画/再生部17により得られたビデオコンテンツ、メモリカードI/F22によりメモリカード23から取り込まれた静止画、USBポート26とUSBケーブルを介してICレコーダ2から取り込まれた音声やディジタルカメラ3から取り込まれた静止画、ドライブ24により光ディスク25から取り込まれ、MP3(MPEG Audio Layer-3)方式などで圧縮された曲データ(オーディオコンテンツ)を記憶する。   The HDD 20 stores video content obtained by the recording / playback unit 17, still images captured from the memory card 23 by the memory card I / F 22, audio or digital captured from the IC recorder 2 via the USB port 26 and the USB cable. A still image captured from the camera 3 and music data (audio content) captured from the optical disc 25 by the drive 24 and compressed by the MP3 (MPEG Audio Layer-3) method or the like are stored.

通信部21は、ネットワークを介しての通信処理を行う。   The communication unit 21 performs communication processing via a network.

メモリカードI/F22は、情報処理装置1の筐体に形成されるメモリカードスロットに装着されたメモリカード23に記憶されているデータを読み出し、読み出したデータをHDD20などに記憶させる。例えば、静止画のデータなどがメモリカード23を介して情報処理装置1に取り込まれる。   The memory card I / F 22 reads data stored in a memory card 23 installed in a memory card slot formed in the housing of the information processing apparatus 1 and stores the read data in the HDD 20 or the like. For example, still image data or the like is taken into the information processing apparatus 1 via the memory card 23.

ドライブ24は、装着された光ディスク25を駆動させ、光ディスク25に記憶されているデータの読み出し、光ディスク25に対するデータの書き込みを行う。光ディスク25はCD(Compact Disk)やDVD(Digital Versatile Disc)などであり、この光ディスク25によっても、静止画、オーディオコンテンツ、ビデオコンテンツなどのデータが情報処理装置1に取り込まれる。   The drive 24 drives the mounted optical disk 25 to read data stored on the optical disk 25 and write data to the optical disk 25. The optical disk 25 is a CD (Compact Disk), a DVD (Digital Versatile Disc), or the like. Data such as still images, audio contents, and video contents are also taken into the information processing apparatus 1 by the optical disk 25.

なお、情報処理装置1はゲーム機としての機能も有している。ドライブ24により光ディスク25から読み出されたゲーム(プログラム)の画像も、入出力インタフェース15を介して出力部19に供給され、ディスプレイに出力される。   The information processing apparatus 1 also has a function as a game machine. An image of a game (program) read from the optical disc 25 by the drive 24 is also supplied to the output unit 19 via the input / output interface 15 and output to the display.

USBポート26は、USBケーブルを介してICレコーダ2やディジタルカメラ3などの外部機器との間で通信を行い、取り込んだ音声や静止画をHDD20に記憶させる。   The USB port 26 communicates with external devices such as the IC recorder 2 and the digital camera 3 via a USB cable, and stores the captured audio and still images in the HDD 20.

図3は、情報処理装置1の機能構成例を示すブロック図である。図3に示す機能部のうちの少なくとも一部は、図2のCPU11により所定のプログラムが実行されることによって実現される。   FIG. 3 is a block diagram illustrating a functional configuration example of the information processing apparatus 1. At least a part of the functional units shown in FIG. 3 is realized by executing a predetermined program by the CPU 11 of FIG.

図3に示されるように、情報処理装置1においては、管理部31、データベース(DB)32、音声解析部33、再生データ選択部34、および再生部35が実現される。   As shown in FIG. 3, in the information processing apparatus 1, a management unit 31, a database (DB) 32, a voice analysis unit 33, a reproduction data selection unit 34, and a reproduction unit 35 are realized.

管理部31は、入出力インタフェース15を制御して音声データや画像データを取り込み、取り込んだデータを、DB32に作成された所定のディレクトリに格納させ、管理する。   The management unit 31 controls the input / output interface 15 to acquire audio data and image data, and stores the acquired data in a predetermined directory created in the DB 32 for management.

音声解析部33は、例えば、ユーザによる選択に応じて再生する音声データをDB32から読み出し、読み出した音声データの解析を行う。音声解析部33による解析により、例えば、再生する音声のボリューム、周波数、およびテンポ等のサウンドパターンが解析結果として取得され、再生部35に出力される。   The voice analysis unit 33 reads, for example, voice data to be reproduced according to the selection by the user from the DB 32, and analyzes the read voice data. By the analysis by the sound analysis unit 33, for example, a sound pattern such as a volume, a frequency, and a tempo of sound to be reproduced is acquired as an analysis result and output to the reproduction unit 35.

テンポの算出方法としては、BPM(Beats per minute)解析技術に基づき、例えば、音響信号の特性の激しい変化(アタック音)の立ち上がりまたは立ち下がりを検出することによって求める。楽曲のテンポは、このアタック音のように特徴的に抽出される音響信号の周期とデータのタイムコードから算出することができる。また、ベースラインやシンバルのような特徴的な信号特性をもつ周波数情報等もアタック音として抽出される。   The tempo is calculated based on BPM (Beats per minute) analysis technology, for example, by detecting the rising or falling of a drastic change (attack sound) in the characteristics of the acoustic signal. The tempo of the music can be calculated from the period of the acoustic signal extracted characteristically like the attack sound and the time code of the data. In addition, frequency information having characteristic signal characteristics such as a baseline or a cymbal is extracted as an attack sound.

再生データ選択部34は、再生対象のデータとしてユーザにより選択された音声データをDB32から読み出し、読み出した音声データを再生部35に出力する。   The reproduction data selection unit 34 reads out the audio data selected by the user as data to be reproduced from the DB 32 and outputs the read out audio data to the reproduction unit 35.

また、再生データ選択部34は、再生対象のデータとしてユーザにより選択された音声データに付加されているタイムコードをDB32から読み出し、読み出したタイムコードにより表される録音日時を取得する。上述したように、音声データには、ICレコーダ2で録音された日時を表すタイムコードが付加されている。   Further, the reproduction data selection unit 34 reads the time code added to the audio data selected by the user as the data to be reproduced from the DB 32 and acquires the recording date and time represented by the read time code. As described above, a time code representing the date and time recorded by the IC recorder 2 is added to the audio data.

再生データ選択部34は、音声データの録音日時を取得したとき、その音声データと同じ日時に撮影された画像データを、DB32に記憶されている画像データの中からそれぞれの画像データに付加されているタイムコードに基づいて検索する。上述したように、画像データには、ディジタルカメラ3で撮影された日時を表すタイムコードが付加されている。再生データ選択部34は、そのような、音声データの録音日時と同じ日時に撮影された画像データをDB32から読み出し、再生部35に出力する。   When the reproduction data selection unit 34 obtains the recording date and time of the audio data, the image data taken at the same date and time as the audio data is added to each image data from the image data stored in the DB 32. Search based on the current time code. As described above, a time code representing the date and time when the image was taken by the digital camera 3 is added to the image data. The reproduction data selection unit 34 reads out the image data captured at the same date and time as the recording date and time of the audio data from the DB 32 and outputs the image data to the reproduction unit 35.

再生部35は、再生データ選択部34から供給されてきた音声データを再生し、スピーカから出力させるとともに、再生データ選択部34から供給されてきた画像データを、音声解析部33により取得されたサウンドパターンに合わせたエフェクトを施してディスプレイに表示させる。すなわち、再生部35は、サウンドパターンと、画像データに施すエフェクトの内容の対応(テーブル)をあらかじめ有しており、それに基づいて、画像データに施すエフェクトの内容を決定する。   The reproduction unit 35 reproduces the audio data supplied from the reproduction data selection unit 34 and outputs the audio data from the speaker, and the sound data obtained by the audio analysis unit 33 using the image data supplied from the reproduction data selection unit 34. Apply effects according to the pattern and display them on the display. That is, the playback unit 35 has a correspondence (table) between the sound pattern and the content of the effect applied to the image data in advance, and determines the content of the effect applied to the image data based on the correspondence.

図4は、再生部35が有するテーブルの例を示す図である。   FIG. 4 is a diagram illustrating an example of a table included in the reproduction unit 35.

図4に示すように、テーブルには、音声データのサウンドパターンと、画像データに施すエフェクトパターン(エフェクトの内容)が対応付けられている。図4の例では、サウンドパターンA1乃至A4と、エフェクトパターンE1乃至E4がそれぞれ対応付けられている。   As shown in FIG. 4, in the table, a sound pattern of audio data and an effect pattern (effect contents) applied to image data are associated with each other. In the example of FIG. 4, sound patterns A1 to A4 and effect patterns E1 to E4 are associated with each other.

ここで、図5を参照して、音声データのサウンドパターンについて説明する。   Here, a sound pattern of audio data will be described with reference to FIG.

図5Aに示すように、音声データが、それぞれの部分に現れる音声変化量(例えば音量の変化量)のレベルに基づいて、音声変化量が第1の閾値より小さいサウンドパターン(音声変化量小)、音声変化量が第1の閾値より大きく、第2の閾値より小さいサウンドパターン(音声変化量中)、および、音声変化量が第2の閾値より大きいサウンドパターン(音声変化量大)の部分に分類される。   As shown in FIG. 5A, a sound pattern in which the sound change amount is smaller than the first threshold (the sound change amount is small) based on the level of the sound change amount (for example, the change amount of the volume) in which the sound data appears in each part The sound change amount is larger than the first threshold value and smaller than the second threshold value (middle sound change amount), and the sound pattern whose sound change amount is larger than the second threshold value (large sound change amount). being classified.

また、図5Bに示すように、音声データが、それぞれの部分に現れる音声変化量の時間的な増減に基づいて、音声変化量がなめらかに増大(フェードイン)するサウンドパターン、および、音声変化量がなめらかに減衰(フェードアウト)するサウンドパターンの部分に分類される。   Further, as shown in FIG. 5B, the sound pattern in which the sound change amount increases smoothly (fade in) based on the temporal increase / decrease of the sound change amount that appears in each part of the sound data, and the sound change amount Is categorized as a sound pattern that fades out smoothly.

さらに、図5Cに示すように、音声データが、周期的に現れる変化(例えば、アタック音)に応じたサウンドパターンの部分に分類される。   Furthermore, as shown in FIG. 5C, the audio data is classified into sound pattern portions corresponding to changes that appear periodically (for example, attack sounds).

なお、分類されるサウンドパターンは、例えば、音声変化量が増大と減衰を周期的に繰り返すサウンドパターンなど、図5A乃至図5Cのサウンドパターンに限られるものではない。   Note that the sound patterns to be classified are not limited to the sound patterns in FIGS. 5A to 5C, such as a sound pattern in which the sound change amount periodically increases and attenuates.

次に、図6および図7を参照して、画像データに施すエフェクトパターンについて説明する。   Next, effect patterns applied to image data will be described with reference to FIGS.

図6Aに示すように、画像を所定の大きさに拡大するエフェクトパターン、図6Bに示すように、画像を所定の大きさに縮小するエフェクトパターン、図6Cに示すように、画像を画面の上部から下部へ移動させるエフェクトパターン、図6Dに示すように、画像を画面の右側から左側へ移動させるエフェクトパターン、および、図6Eに示すように、画像を左回りに回転させるエフェクトパターンが例えば用意される。   As shown in FIG. 6A, an effect pattern for enlarging the image to a predetermined size, as shown in FIG. 6B, an effect pattern for reducing the image to a predetermined size, and as shown in FIG. 6C, the image is displayed at the top of the screen. For example, an effect pattern for moving the image from the right side to the left side as shown in FIG. 6D, and an effect pattern for rotating the image counterclockwise as shown in FIG. 6E are prepared. The

また、画像を所定の大きさに拡大するエフェクトパターンは、図6Aのパターンの他、例えば、図7Aに示すように、画面表示枠(表示領域)全体に画像を表示させている状態から、所定の大きさに拡大することで、画像の表示範囲が変わるようにしてもよい(いわゆる部分拡大表示するようにしてもよい)。同様に、画像を所定の大きさに縮小するエフェクトパターンも、図6Bのパターンの他、例えば、図7Bに示すように、画像が画面表示枠内に収まっていない状態(部分拡大表示されている状態)から、画面表示枠全体に収まるように縮小してもよい。   In addition to the pattern shown in FIG. 6A, for example, the effect pattern for enlarging the image to a predetermined size is predetermined from the state in which the image is displayed on the entire screen display frame (display area) as shown in FIG. 7A. The display range of the image may be changed by enlarging to the size (so-called partially enlarged display). Similarly, the effect pattern for reducing the image to a predetermined size is, for example, as shown in FIG. 7B, in addition to the pattern of FIG. The state may be reduced so as to fit in the entire screen display frame.

また、画像を画面の上部から下部へ移動させるエフェクトパターンは、図6Cのパターンの他、例えば、図7Cに示すように、図中において実線で囲まれた領域が、画像の一部をなぞるように上部から下部へ移動し、実線で囲まれた領域内の画像が表示され、実線で囲まれた領域外(図中において点線で示された部分)の画像は覆われているようにしてもよい(非表示にしても良い)。同様に、画像を画面の右側から左側へ移動させるエフェクトパターンも、図6Dのパターンの他、例えば、図7Dに示すように、図中において実線で囲まれた領域が、画像の一部をなぞるように左側から右側へ移動し、実線で囲まれた領域内の画像が表示され、実線で囲まれた領域外の画像は覆われているようにしてもよい。   In addition to the pattern shown in FIG. 6C, for example, as shown in FIG. 7C, the effect pattern for moving the image from the upper part to the lower part of the screen is such that an area surrounded by a solid line traces a part of the image. The image inside the area surrounded by the solid line is displayed and the image outside the area surrounded by the solid line (the part indicated by the dotted line in the figure) is covered. Good (may be hidden). Similarly, in the effect pattern for moving the image from the right side to the left side of the screen, in addition to the pattern in FIG. 6D, for example, as shown in FIG. 7D, a region surrounded by a solid line in the drawing traces a part of the image. As described above, the image may be moved from the left side to the right side, and the image in the area surrounded by the solid line may be displayed, and the image outside the area surrounded by the solid line may be covered.

さらに、画像を左回りに回転させるエフェクトパターンは、図6Eのパターンの他、例えば、図7Eに示すように、画面表示枠内に収まっていない状態(部分拡大表示されている状態)の画像を左回りに回転させるようにしてもよい。   Furthermore, as the effect pattern for rotating the image counterclockwise, in addition to the pattern of FIG. 6E, for example, as shown in FIG. 7E, an image that does not fit in the screen display frame (partially enlarged state) is displayed. You may make it rotate counterclockwise.

なお、図6および図7に示したエフェクトパターン以外にも、図示は省略するが、画像を画面の下部から上部へ移動させるエフェクトパターン、画像を画面の左側から右側へ移動させるエフェクトパターン、および、画像を右回りに回転させるエフェクトパターンが例えば用意される。   In addition to the effect patterns shown in FIGS. 6 and 7, although not shown, an effect pattern for moving the image from the bottom to the top of the screen, an effect pattern for moving the image from the left to the right of the screen, and For example, an effect pattern for rotating the image clockwise is prepared.

すなわち、用意されるエフェクトパターンは、図6A乃至図6E、および図7A乃至図7Eのエフェクトパターンに限られるものではなく、例えば、画像を拡大するエフェクトパターン(図6A)と画像を画面の上部から下部へ移動させるエフェクトパターン(図6C)の組み合わせや、画像を回転するエフェクトパターン(図7E)と画像を縮小するエフェクトパターン(図7B)の組み合わせなど、さまざまなパターンが用意されることはいうまでもない。 That is, the prepared effect patterns are not limited to the effect patterns shown in FIGS. 6A to 6E and FIGS. 7A to 7E. For example, an effect pattern for enlarging an image (FIG. 6A) and an image from the top of the screen are displayed. It goes without saying that various patterns are prepared, such as a combination of effect patterns (FIG. 6C) for moving to the bottom, an effect pattern for rotating an image (FIG. 7E), and an effect pattern for reducing an image (FIG. 7B). Nor.

また、上述したようなエフェクトパターン以外にも、前の画像と次の画像を切り替える際に、トランジションと呼ばれる特殊効果を画像に施すことができる。これもエフェクトの1つである。音声データと同じ日時に撮影された画像データが複数ある場合、音声データが再生されるとともに、それらの複数の画像がエフェクトが施された形で連続的に表示されるが、それぞれの画像の表示のつなぎ目部分には、適宜、このトランジションが施される。   In addition to the effect pattern as described above, a special effect called a transition can be applied to the image when switching between the previous image and the next image. This is another effect. When there are multiple image data shot at the same date and time as the audio data, the audio data is played and the multiple images are displayed continuously with the effect applied. This transition is appropriately applied to the joint portion.

次に、図8を参照して、画像データに施すトランジションパターンについて説明する。   Next, transition patterns applied to image data will be described with reference to FIG.

図8Aに示すように、単に、前の画像から次の画像に切り替えるトランジションパターン、図8Bに示すように、前の画像から黒画にフェードアウトして、さらに、黒画から次の画像にフェードインするトランジションパターン、図8Cに示すように、前の画像がフェードアウトした後、次の画像に切り替えるトランジションパターン、図8Dに示すように、前の画像がフェードアウトした後、次の画像にフェードインするトランジションパターンが例えば用意される。   As shown in FIG. 8A, a transition pattern for simply switching from the previous image to the next image, as shown in FIG. 8B, fades out from the previous image to the black image, and then fades in from the black image to the next image. 8C, a transition pattern in which the previous image fades out as shown in FIG. 8C, and a transition pattern in which the previous image fades out after the previous image fades out, as shown in FIG. 8D. For example, a pattern is prepared.

以上のような、サウンドパターンとエフェクトパターン(トランジションパターンも含む)が対応付けられたテーブルが予め用意され、再生部35によって保持される。   A table associating the sound pattern and the effect pattern (including the transition pattern) as described above is prepared in advance and is held by the playback unit 35.

次に、図9のフローチャートを参照して、情報処理装置1が実行する再生処理について説明する。この処理は、再生対象のデータとして音声データがユーザにより選択され、再生が指示されたときに開始される。   Next, the reproduction process executed by the information processing apparatus 1 will be described with reference to the flowchart of FIG. This process is started when audio data is selected as reproduction target data by the user and reproduction is instructed.

ステップS1において、再生データ選択部34は、ユーザにより再生が指示された音声データをDB32から読み出し、読み出した音声データを再生部35に出力する。再生部35は、再生データ選択部34から供給されてきた音声データを再生し、スピーカから出力させる。   In step S <b> 1, the reproduction data selection unit 34 reads out the audio data instructed to be reproduced by the user from the DB 32 and outputs the read out audio data to the reproduction unit 35. The reproduction unit 35 reproduces the audio data supplied from the reproduction data selection unit 34 and outputs it from the speaker.

ステップS2において、音声解析部33は、ユーザにより再生が指示された音声データをDB32から読み出し、読み出した音声データのボリューム、周波数、およびテンポ等を取得し、サウンドパターンを解析する。   In step S2, the sound analysis unit 33 reads out from the DB 32 the sound data instructed to be reproduced by the user, acquires the volume, frequency, tempo, and the like of the read sound data, and analyzes the sound pattern.

ステップS3において、再生データ選択部34は、ユーザにより再生が指示された音声データに付加されているタイムコードをDB32から読み出し、読み出したタイムコードにより表される録音日時を取得する。   In step S3, the reproduction data selection unit 34 reads the time code added to the audio data instructed to be reproduced by the user from the DB 32, and acquires the recording date and time represented by the read time code.

ステップS4において、再生データ選択部34は、ステップS3の処理で取得した録音日時に基づいて、再生対象の音声データと同タイムコードの画像データ(同じ日時に撮影された画像データ)を、DB32に記憶されている指定ディレクトリ内における画像データの中から検索する。ここで、指定ディレクトリとは、再生対象の音声データが格納されているディレクトリのことであるが、勿論、ユーザにより任意に指定されるディレクトリであってもよい。   In step S4, the reproduction data selection unit 34 stores, in the DB 32, the image data of the same time code as the audio data to be reproduced (image data photographed at the same date) in the DB 32 based on the recording date and time acquired in the process of step S3. Search from the image data in the specified directory stored. Here, the designated directory is a directory in which audio data to be reproduced is stored, but may be a directory arbitrarily designated by the user.

ステップS5において、再生データ選択部34は、ステップS4の処理により、再生対象の音声データと同タイムコードの画像データが検索されたか否かを判定し、画像データが検索されたと判定した場合、ステップS6に進む。   In step S5, the reproduction data selection unit 34 determines whether or not image data having the same time code as that of the audio data to be reproduced has been searched by the process of step S4, and if it is determined that the image data has been searched, Proceed to S6.

ステップS6において、再生データ選択部34は、検索された再生対象の音声データと同タイムコードの画像データをDB32から取得し、再生部35に出力する。   In step S <b> 6, the reproduction data selection unit 34 acquires image data having the same time code as the searched reproduction target audio data from the DB 32 and outputs the image data to the reproduction unit 35.

ステップS7において、再生部35は、ステップS2の処理で解析されたサウンドパターンに応じたエフェクトパターンをテーブル(図4)から選択する。ステップS8において、再生部35は、ステップS7の処理で選択されたエフェクトパターンに基づいて、再生データ選択部34から供給されてきた画像データにエフェクトをかけてディスプレイに表示させる。   In step S7, the reproducing unit 35 selects an effect pattern corresponding to the sound pattern analyzed in the process of step S2 from the table (FIG. 4). In step S8, the playback unit 35 applies an effect to the image data supplied from the playback data selection unit 34 based on the effect pattern selected in the process of step S7, and displays the effect on the display.

一方、ステップS5において、再生対象の音声データと同タイムコードの画像データが検索されなかったと判定された場合、上述したステップS6乃至S8の処理はスキップされ(すなわち、新たな画像表示はなされず)、処理はステップS9に進む。   On the other hand, if it is determined in step S5 that image data having the same time code as the audio data to be reproduced has not been searched, the processes in steps S6 to S8 described above are skipped (that is, no new image display is performed). The process proceeds to step S9.

ステップS9において、再生部35は、音声データの再生が終了したか否かを判定し、再生終了ではないと判定した場合、ステップS2に戻り、それ以降の処理を繰り返し実行する。   In step S9, the playback unit 35 determines whether or not the playback of the audio data has ended. If it is determined that the playback has not ended, the playback unit 35 returns to step S2 and repeats the subsequent processing.

そして、ステップS9において、音声データの再生が終了したと判定された場合、再生処理が終了され、ほぼ同じタイミングでいま表示中の画像データの表示も終了される。   If it is determined in step S9 that the reproduction of the audio data has been completed, the reproduction process is terminated, and the display of the currently displayed image data is also terminated at substantially the same timing.

以上のように、画像を撮影することができるICレコーダや、音声を録音することができるディジタルカメラといった複合機器がなくても、容易に、音声を再生させつつ、その音声に関連のある画像を表示させることができる。また、音声が再生されている間、音声データのタイムコードと同タイムコードの画像データ(すなわち、音声データに関連性のある画像データ)が繰り返し検索され、検索された画像データにエフェクトが施されて表示されることで、音声に合わせた画像を順次表示させるスライドショーが簡単に(ユーザの操作によらずに)行われる。   As described above, even without an IC recorder that can capture an image or a composite device such as a digital camera that can record sound, an image related to the sound can be easily reproduced while the sound is reproduced. Can be displayed. In addition, while audio is being played, image data with the same time code as the time code of the audio data (that is, image data related to the audio data) is repeatedly searched, and an effect is applied to the searched image data. Thus, a slide show that sequentially displays images in accordance with the sound is easily performed (without user operation).

以上においては、音声データのタイムコード(録音日時)と同タイムコード(録画日時)の画像データを検索するようにしたが、例えば、音声データのタイムコードに近いタイムコード(例えば、音声データのタイムコードの前後30秒など)の画像データを検索するようにしてもよい。   In the above description, image data having the same time code (recording date and time) as the time code (recording date and time) of the audio data is searched. For example, a time code close to the time code of the audio data (for example, the time of the audio data Image data for 30 seconds before and after the code may be searched.

また、複数の画像データが検索された場合、検索された複数の画像を同時に(全て)表示させるようにしてもよいし、あるいは、1つずつ順次表示させるようにしてもよい。   Further, when a plurality of image data are searched, the plurality of searched images may be displayed simultaneously (all), or may be sequentially displayed one by one.

さらに、以上においては、音声が再生されている間、音声データのタイムコードと同タイムコードの画像データが検索されるようにしたが、本発明はこれに限られるものではなく、例えば、画像(動画および静止画を含む)が表示されている間、画像データのタイムコードと同タイムコードの音声データ(すなわち、画像データに関連性のある音声データ)が検索されて再生されるようにしてもよい。   Further, in the above description, while the sound is being reproduced, the image data having the same time code as the time code of the sound data is searched. However, the present invention is not limited to this. Audio data having the same time code as that of the image data (that is, audio data related to the image data) is searched and played back while the image data (including moving images and still images) are displayed. Good.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, the program is installed in a general-purpose personal computer from the program storage medium.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図2に示すように、磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory)、DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア、または、プログラムが一時的もしくは永続的に格納されるROM12や、HDD20に含まれるハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部21を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 2, a program storage medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a floppy disk), an optical disk (CD-ROM (Compact Disk-Read Only). Memory), DVD (including Digital Versatile Disk)), magneto-optical disk (including MD (Mini-Disk)), or removable media such as semiconductor memory, or ROM 12 in which programs are temporarily or permanently stored Or a hard disk included in the HDD 20. The program is stored in the program storage medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 21 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

本発明の一実施形態に係る情報処理装置と、ICレコーダおよびディジタルカメラを示す図である。1 is a diagram illustrating an information processing apparatus, an IC recorder, and a digital camera according to an embodiment of the present invention. 図1の情報処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing apparatus of FIG. 情報処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of information processing apparatus. テーブルの例を示す図である。It is a figure which shows the example of a table. サウンドパターンについて説明する図である。It is a figure explaining a sound pattern. エフェクトパターンについて説明する図である。It is a figure explaining an effect pattern. 他のエフェクトパターンについて説明する図である。It is a figure explaining another effect pattern. トランジションパターンについて説明する図である。It is a figure explaining a transition pattern. 再生処理を説明するフローチャートである。It is a flowchart explaining a reproduction | regeneration process.

符号の説明Explanation of symbols

1 情報処理装置, 2 ICレコーダ, 3 ディジタルカメラ, 11 CPU, 19 出力部, 20 HDD, 26 USBポート, 31 管理部, 32 DB, 33 音声解析部, 34 再生データ選択部, 35 再生部   DESCRIPTION OF SYMBOLS 1 Information processing apparatus, 2 IC recorder, 3 Digital camera, 11 CPU, 19 Output part, 20 HDD, 26 USB port, 31 Management part, 32 DB, 33 Voice analysis part, 34 Playback data selection part, 35 Playback part

Claims (6)

取得時刻を表すタイムコードが付加された第1と第2のデータを管理する管理手段と、
再生対象とする前記第1のデータと同じ時刻に取得された前記第2のデータを、付加されているタイムコードに基づいて選択し、前記第1のデータの特徴に応じたエフェクトを施して前記第1のデータとともに再生する再生制御手段と
を備える再生制御装置。
Management means for managing the first and second data to which the time code indicating the acquisition time is added;
The second data acquired at the same time as the first data to be reproduced is selected based on an added time code, and an effect is applied according to the characteristics of the first data. A reproduction control device comprising: reproduction control means for reproducing together with the first data.
前記再生制御手段は、再生対象とする前記第1のデータと同じ時刻に取得された前記第2のデータであって、さらに、再生対象とする前記第1のデータと同じディレクトリに前記管理手段により管理されている前記第2のデータを、前記第1のデータとともに再生する
請求項1に記載の再生制御装置。
The reproduction control means is the second data acquired at the same time as the first data to be reproduced, and is further stored in the same directory as the first data to be reproduced by the management means. The reproduction control apparatus according to claim 1, wherein the second data being managed is reproduced together with the first data.
前記第1のデータを解析する解析手段をさらに備え、
前記再生制御手段は、前記解析手段による解析結果で得られた特徴に応じたエフェクトを前記第2のデータに施す
請求項1に記載の再生制御装置。
An analysis means for analyzing the first data;
The reproduction control device according to claim 1, wherein the reproduction control unit applies an effect to the second data according to a characteristic obtained as a result of analysis by the analysis unit.
前記第1のデータは、音声データであり、
前記第2のデータは、画像データである
請求項1に記載の再生制御装置。
The first data is audio data;
The reproduction control apparatus according to claim 1, wherein the second data is image data.
取得時のタイムコードが付加された第1と第2のデータを管理し、再生する再生制御装置の再生制御方法において、
再生対象とする前記第1のデータと同じ時刻に取得された前記第2のデータを、付加されているタイムコードに基づいて選択し、前記第1のデータの特徴に応じたエフェクトを施して前記第1のデータとともに再生するステップを含む再生制御方法。
In the reproduction control method of the reproduction control apparatus for managing and reproducing the first and second data to which the time code at the time of acquisition is added,
The second data acquired at the same time as the first data to be reproduced is selected based on an added time code, and an effect is applied according to the characteristics of the first data. A reproduction control method including a step of reproducing together with first data.
取得時のタイムコードが付加された第1と第2のデータを管理し、再生する再生制御処理をコンピュータに実行させるプログラムにおいて、
再生対象とする前記第1のデータと同じ時刻に取得された前記第2のデータを付加されているタイムコードに基づいて選択し、前記第1のデータの特徴に応じたエフェクトを施して前記第1のデータとともに再生するステップを含むプログラム。
In a program for managing a first and second data to which a time code at the time of acquisition is added and causing a computer to execute a reproduction control process for reproduction,
The second data acquired at the same time as the first data to be reproduced is selected based on the added time code, and an effect corresponding to the characteristics of the first data is applied to the first data. A program including a step of reproducing together with one data.
JP2005214129A 2005-07-25 2005-07-25 REPRODUCTION CONTROL DEVICE AND METHOD, AND PROGRAM Expired - Fee Related JP4978765B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005214129A JP4978765B2 (en) 2005-07-25 2005-07-25 REPRODUCTION CONTROL DEVICE AND METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005214129A JP4978765B2 (en) 2005-07-25 2005-07-25 REPRODUCTION CONTROL DEVICE AND METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2007035121A true JP2007035121A (en) 2007-02-08
JP4978765B2 JP4978765B2 (en) 2012-07-18

Family

ID=37794206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005214129A Expired - Fee Related JP4978765B2 (en) 2005-07-25 2005-07-25 REPRODUCTION CONTROL DEVICE AND METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP4978765B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009031402A1 (en) 2007-09-05 2009-03-12 Sony Corporation Image selecting device, image selecting method and program
JP2009284234A (en) * 2008-05-22 2009-12-03 Fujifilm Corp Imaging apparatus, imaging method, reproducing device and reproducing method
JP2012049837A (en) * 2010-08-27 2012-03-08 Casio Comput Co Ltd Image display device
JP2012217156A (en) * 2011-03-25 2012-11-08 Panasonic Corp Recording apparatus and reproduction apparatus
JP2014071137A (en) * 2012-09-27 2014-04-21 Xing Inc Instrumental sound output device
KR20190109410A (en) 2017-01-27 2019-09-25 소니 주식회사 Information processing device, information processing method and program thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112113A (en) * 2000-09-27 2002-04-12 Nippon Columbia Co Ltd Video-editing apparatus and storage medium
JP2004173083A (en) * 2002-11-21 2004-06-17 Atsushi Matsushita Method and device for simultaneously storing/reproducing a plurality of pictures
JP2005175728A (en) * 2003-12-10 2005-06-30 Casio Comput Co Ltd Image alarm unit, and method and program for preventing deleting image by mistake in image alarm unit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112113A (en) * 2000-09-27 2002-04-12 Nippon Columbia Co Ltd Video-editing apparatus and storage medium
JP2004173083A (en) * 2002-11-21 2004-06-17 Atsushi Matsushita Method and device for simultaneously storing/reproducing a plurality of pictures
JP2005175728A (en) * 2003-12-10 2005-06-30 Casio Comput Co Ltd Image alarm unit, and method and program for preventing deleting image by mistake in image alarm unit

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009031402A1 (en) 2007-09-05 2009-03-12 Sony Corporation Image selecting device, image selecting method and program
JP2009284234A (en) * 2008-05-22 2009-12-03 Fujifilm Corp Imaging apparatus, imaging method, reproducing device and reproducing method
US8218026B2 (en) 2008-05-22 2012-07-10 Fujifilm Corporation Imaging apparatus, imaging method, reproducing apparatus and reproducing method, and recording medium for associating sound data with image data
JP2012049837A (en) * 2010-08-27 2012-03-08 Casio Comput Co Ltd Image display device
JP2012217156A (en) * 2011-03-25 2012-11-08 Panasonic Corp Recording apparatus and reproduction apparatus
JP2014071137A (en) * 2012-09-27 2014-04-21 Xing Inc Instrumental sound output device
KR20190109410A (en) 2017-01-27 2019-09-25 소니 주식회사 Information processing device, information processing method and program thereof

Also Published As

Publication number Publication date
JP4978765B2 (en) 2012-07-18

Similar Documents

Publication Publication Date Title
JP4811433B2 (en) Image selection apparatus, image selection method, and program
US10681408B2 (en) Systems and methods for creating composite videos
US20180295427A1 (en) Systems and methods for creating composite videos
JP4596060B2 (en) Electronic device, moving image data section changing method and program
JP2003111031A (en) Portable electronic image display device and audio player, and method for displaying and capturing a plurality of digital images
JP2011035837A (en) Electronic apparatus and method for displaying image data
JP4978765B2 (en) REPRODUCTION CONTROL DEVICE AND METHOD, AND PROGRAM
JP4460786B2 (en) Music video playback device
JP2002343067A (en) Device equipped with mp3 reproducing machine
JP2008140527A (en) Music reproducing device, and camera having the same
JP2007033622A (en) Reproducing control apparatus and method, and program
JP2009118117A (en) Slide show generating system, slide show generating method, and slide show generating program
JP3320056B2 (en) Karaoke video playback device
JP2008112495A (en) Recording and reproducing device
JP4771085B2 (en) Content information display device
JP2005285301A (en) Recorder, reproducer, recording method, reproducing method and program
JP2004215123A (en) Image reproducing device, image reproduction method, and image reproduction program
JP2008042455A (en) Recording device and method
JP4422538B2 (en) Sound playback device
EP1519384A2 (en) Signal processor
JP3558051B2 (en) Movie editing / playback program, computer-readable recording medium recording movie editing / playback program, movie editing / playback apparatus and method
JP3639387B2 (en) Karaoke equipment
JP2003264773A (en) Data processor, data processing method, program storage medium and program
KR20080103125A (en) Digital frame apparatus for displaying image using synchronized bgm and method thereof
KR100555782B1 (en) Method for playing combination file in dvd player system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4978765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees