WO2002032208A2 - Method for determining an acoustic environment situation, application of the method and hearing aid - Google Patents

Method for determining an acoustic environment situation, application of the method and hearing aid Download PDF

Info

Publication number
WO2002032208A2
WO2002032208A2 PCT/CH2002/000049 CH0200049W WO0232208A2 WO 2002032208 A2 WO2002032208 A2 WO 2002032208A2 CH 0200049 W CH0200049 W CH 0200049W WO 0232208 A2 WO0232208 A2 WO 0232208A2
Authority
WO
WIPO (PCT)
Prior art keywords
kin
kil
processing
classification
class information
Prior art date
Application number
PCT/CH2002/000049
Other languages
German (de)
French (fr)
Other versions
WO2002032208A3 (en
Inventor
Silvia Allegro
Original Assignee
Phonak Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Phonak Ag filed Critical Phonak Ag
Priority to AU2472202A priority Critical patent/AU2472202A/en
Priority to CA2439427A priority patent/CA2439427C/en
Priority to JP2002535462A priority patent/JP3987429B2/en
Priority to EP02706499.7A priority patent/EP1470735B1/en
Priority to AU2002224722A priority patent/AU2002224722B2/en
Priority to PCT/CH2002/000049 priority patent/WO2002032208A2/en
Publication of WO2002032208A2 publication Critical patent/WO2002032208A2/en
Publication of WO2002032208A3 publication Critical patent/WO2002032208A3/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers

Definitions

  • the present invention relates to a method for determining an acoustic environmental situation, an application of the method, a device for determining the acoustic environmental situation and a hearing aid.
  • the hearing program can be selected either using the remote control or using a switch on the hearing aid itself. Switching between different hearing programs is, however, troublesome, if not impossible, for many users. It is not always easy for experienced hearing aid users to determine which program offers the best comfort and the best speech intelligibility at which time. Automatic detection of the acoustic environment and the associated automatic switching of the hearing program in the hearing aid is therefore desirable.
  • BESTATIGUNGSKOPIE Various methods for the automatic classification of acoustic environmental situations are currently known. In all of these methods, the input signal, which can come from one or more microphones in the hearing aid, is different
  • a pattern recognizer uses an algorithm to make a decision about the belonging of the analyzed input signal to a certain acoustic environment.
  • the different known methods differ on the one hand by the different features that are used in the description of the acoustic environment (signal analysis), and on the other hand by the pattern recognizer used that classifies the features (signal identification).
  • Determination of the acoustic surrounding situation known. It is a one-step processing of an acoustic input signal in a feature extraction unit and a classification unit connected downstream thereof, in which the extracted features are classified to generate class information.
  • good results are obtained, particularly when using auditory-based features.
  • An improvement is particularly in the
  • noise class noise for example, contains a wide variety of sounds such as background conversations, train station noise, hair dryers, and the noise class music includes pop music, classical music, individual instruments, vocals, etc.
  • the present invention is therefore based on the object of specifying a method for determining an acoustic ambient situation which is more robust and more precise than the known methods. This object is achieved by the measures specified in claim 1.
  • Advantageous embodiments of the invention, an application of the method, a device and a hearing aid are specified in further claims.
  • an acoustic input signal in a multi-stage process which consists of at least two classification levels, each level preferably consisting of one
  • Extraction phase and an identification phase is processed, an extremely robust and accurate classification of the current acoustic environment is obtained.
  • the method according to the invention can successfully avoid incorrect classification of pop music into the "speech in noise" category.
  • the method according to the invention also enables a general noise class, for example noise, to be subdivided into subclasses, such as traffic noise or background noise for conversations. Special situations, such as those that occur in the interior of an automobile (“in-the-car noise”), can also be recognized. In general, room properties can be identified and taken into account accordingly in the further processing of important signal components. It has been shown that the method according to the invention also makes it possible to localize the sources of noise, which has made it possible to determine the presence of a detect specific noise source in several other noise sources.
  • Fig. 1 shows a known single-stage device for
  • FIG. 2 shows a first embodiment of a device according to the invention with two processing stages
  • FIG. 3 shows a second, general embodiment of a multi-stage device according to the invention
  • FIG. 5 shows a fourth, general embodiment of a multi-stage device according to the invention
  • FIG. 6 shows a simplified embodiment compared to the two-stage embodiment according to FIG. 2 and
  • FIG. 7 shows a hearing aid with a multi-stage device according to the invention according to FIGS. 2 to 6.
  • 1 shows a known single-stage device for determining the acoustic environmental situation, the device consisting of a series connection of a feature extraction unit F, a classification unit C and a post-processing unit P.
  • An acoustic input signal IN which was recorded with a microphone, for example, is the
  • Feature extraction unit F is applied, in which characteristic features are extracted.
  • Amplitude histogram proposed to achieve the same goal. Finally, the feature extraction was also examined and applied by analyzing different modulation frequencies.
  • the features M extracted in the feature extraction unit F are applied to the classification unit C, which is basically one of the known ones for the noise classification
  • Pattern identification methods are used. So-called distance estimators, Bayesian classifiers, fuzzy logic systems or neurons are particularly suitable.
  • Processing steps receive class information KI, which may be fed to a post-processing unit P for any cleanup of the class membership. Subsequently, adjusted class information KI 1 is obtained .
  • FIG. 2 shows a first embodiment variant of a device according to the invention. It is a device with two process stages S1 and S2, with each feature level S1, S2 each containing a feature extraction unit F1 or F2 and a classification unit C1 or C2.
  • the original input signal IN is supplied to both process stages S1 and S2, namely both the feature extraction unit F1 and the feature extraction unit F2, which are each operatively connected to the corresponding classification unit C1 or C2 in the sequence.
  • class information KI1 which is obtained on the basis of calculations in the classification unit C1 of the first method step S1, the
  • Classification unit C2 of the second method stage S2 is influenced, in such a way that, for example, one of several possible pattern identification methods is selected and used for the noise classification in the classification unit C2 of the second method stage S2.
  • the characteristic extraction unit F1 provides the characteristics tonality, spectral center of gravity (CGAV: spectral center of gravity) and fluctuation of the spectral
  • CGFS Center of gravity
  • Classification unit Cl in which an HMM (Hidden Markov Model) classifier is used, classified, wherein the input signal IN is divided into one of the following classes with the aid of the HMM classification: "speech", “speech in noise”, “noise” or "music”. This is called class information KI.
  • the result of the first processing stage S1 is applied to the classification unit C2 of the processing stage S2, in which a second feature set is extracted using the feature extraction unit F2.
  • the additional characteristic variance of the harmonic structure (pitch) - also referred to below as Pitchvar - is extracted.
  • the result of the first processing stage S1 is checked and, if necessary, corrected using a rule-based classifier in the classification unit C2.
  • the rule-based classifier contains only a few simple heuristic decisions, which are based on the four characteristics and are based on the following considerations:
  • the tonality characteristic is used for correction in each class if the characteristic values lie completely outside an admissible value range of the class information KII, which is in the first classification unit C1 - i.e. by the HMM classifier.
  • the tonality for "music” is high, for "speech” in the middle range, for “speech in noise” a little lower and for “noise” deep. For example, if an input signal IN by the
  • Classification unit Cl falls into the "language” class, it is then expected that corresponding features, which have been determined in the feature extraction unit F1, have indicated to the classification unit Cl that the relevant signal component fluctuates in the input signal IN scark. If, on the other hand, the tonality for this input signal IN is very low, it is most likely not “speech” but “speech in noise”. Similar considerations can be made for the other three characteristics, namely the variance of the harmonic structure
  • the rules for the rule-based classifier which are used in the classification unit C2, can be formulated as follows:
  • FIG. 3 A further embodiment is shown in a general representation in FIG. 3. It is a processing method with n stages.
  • each of the processing stages Sl to Sn has a feature extraction unit Fl to Fn and a classification unit Cl to Cn connected downstream thereof for generating the respective class information KIl to KIn. If necessary, Sl to Sn is in each or in individual processing stages
  • the embodiment variant shown in FIG. 3 is particularly suitable for a so-called coarse-fine classification.
  • a result obtained in processing stage i is refined in a subsequent processing stage i + 1.
  • a rough classification is thus carried out in a higher processing level, with a rough classification based on more specific feature extractions and / or classification methods being carried out in a lower processing level on the basis of the rough classification.
  • This process can also be viewed as generation of hypotheses in a higher process level, which are checked, ie confirmed or rejected in a lower process step.
  • hypotheses that have been created in a higher level of procedure can also be entered with other information, in particular with manual means such as remote controls or switches.
  • this is indicated, representative of the first processing stage S1, by means of a manipulated variable ST, by means of which, for example, the calculations in the classification unit C1 can be overridden.
  • the manipulated variable can also be a classification unit C2 to Cn or one
  • Postprocessing units Pl to Pn are fed to another process stage S1 to Sn.
  • Processing level Sl to Sn which, however, is not mandatory, can be assigned to a task, such as, for example: a rough classification, a fine classification, a localization of a noise source, a check whether a specific noise source, e.g. B. automotive noise in a vehicle, or an extraction of certain signal components from an input signal, for. B. Elimination of echo taking into account spatial characteristics.
  • the individual process steps S1 to Sn are therefore individual in the sense that in them different characteristics are extracted and different classification methods are used.
  • an individual one is provided in a first processing stage S1
  • the localization of the sound source carried out in the first processing stage can be followed by directional filtering, for example using multi-microphone technology.
  • a feature extraction unit Fl to Fn can be divided among several classification units Cl to Cn, i.e. the results of one
  • Feature extraction units F1 to Fn can be used by several classification units C1 to Cn. It is also conceivable that a classification unit C1 to Cn is used in several processing stages S1 to Sn. Finally, it can be provided that the class information KIl to KIn or the cleaned class information KIl 'to KIn' obtained in the different processing stages S1 to Sn are weighted differently in order to maintain the final classification. 4 shows a further embodiment of the invention, in which a plurality of processing stages S1 to Sn are used. In contrast to the embodiment according to FIG. 3, the embodiment according to FIG. 3, the embodiment according to FIG. 3, the
  • Class information KIl to KIn not only used in the immediately following processing stages, but possibly in all subordinate processing stages.
  • the results from previous processing stages S1 to Sn can also have their effects on the subsequent feature extraction units F1 to Fn or on the features to be extracted.
  • postprocessing units Pl to Pn prepare the intermediate results of the classification and make them available as cleaned class information KIl 1 to KIn '.
  • FIG. 5 shows a further embodiment variant of a multi-stage device for determining the acoustic ambient situation, again in a general form.
  • a multi-stage device for determining the acoustic ambient situation, again in a general form.
  • FIGS. 3 and 4 several processing stages S1 to Sn with feature extraction units Fl to Fn and classification units Cl to Cn are shown.
  • the class information KIl to KIn obtained in each processing step Sl to Sn becomes one Decision unit FD supplied, in which the final classification is carried out by generating the class information KI.
  • the decision unit FD it is optionally provided to generate feedback signals which are based on the decision unit FD
  • the information is exchanged via a wired or a wireless transmission link.
  • the first processing stage S1 consists of the feature extraction unit F1 and the
  • Classification unit Cl In the second processing stage S2, the same features are used that have already been used in the first method stage S1. A recalculation of the features in process stage S2 is therefore unnecessary, and the results of the feature extraction unit F1 of the first process stage S1 can be used in the second process stage S2. In the second method stage S2, only the classification method is changed, depending on the class information KII of the first processing stage S1.
  • FIG. 7 shows the use of the device according to the invention in a hearing aid device which essentially has a transmission unit 200.
  • 100 denotes a multi-stage processing unit which is implemented according to one of the embodiment variants shown in FIGS. 2 to 6.
  • the input signal IN is applied to both the multi-stage processing unit 100 and the transmission unit 200, in which the acoustic input signal IN is processed with the aid of the class information KI1 to KIn or KIl 'to KIn' generated in the multi-stage processing unit 100. It is preferably provided to select a suitable hearing program based on the acoustic environment situation determined, as is the case in FIG Introduction and has been described in the international patent application WO 01/20 965.
  • FIG. 300 denotes a manual input unit, with the aid of which - for example via a radio link, as can be seen schematically in FIG. 7 - may act both on the multi-stage processing unit 100 in the manner already explained or on the transmission unit 200.
  • the hearing aid 200 reference is made to the explanations in WO 01/20 965, whose
  • the preferred application of the method according to the invention for determining the acoustic ambient situation is the selection of a hearing program in a hearing aid device.

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The invention relates to a method and a device for determining an acoustic environment situation. The method consists of processing an acoustic input signal (IN) that is preferably picked up with the help of at least one microphone in at least two processing stages (S1, ..., Sn). At least one of the two processing stages (S1, ..., Sn) comprises an extraction phase in which characteristic features are extracted from the input signal (IN) and each of the processing stages (S1, ..., Sn) comprises an identification phase in which extracted characteristic features are classified. Class information (KI1, ..., KIn; KI1', ..., KIn') characterising or identifying the acoustic environment situation is generated based on the classification of said features in at least one processing stage (S1, ..., Sn). The invention also relates to applications of the inventive method in hearing aids and to a hearing aid.

Description

Verfahren zur Bestimmung einer akustischen Umgebungssituation, Anwendung des Verfahrens und ein HörhilfegerätMethod for determining an acoustic environmental situation, application of the method and a hearing aid
Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung einer akustischen Umgebungssituation, eine Anwendung des Verfahrens, eine Vorrichtung zur Bestimmung der akustischen Umgebungssituation sowie ein Hörhilfegerät.The present invention relates to a method for determining an acoustic environmental situation, an application of the method, a device for determining the acoustic environmental situation and a hearing aid.
Moderne Hörgeräte können heute mit Hilfe verschiedener Hörprogramme unterschiedlichen akustischen UmgebungsSituationen angepasst werden. Damit soll das Hörgerät dem Benutzer in jeder Situation einen optimalen Nutzen bieten.Today, modern hearing aids can be adapted to different acoustic environments with the aid of different hearing programs. The hearing aid is intended to offer the user optimum benefit in every situation.
Die Wahl des Hörprogramms kann entweder über die Fernbedienung oder über einen Schalter am Hörgerät selbst vorgenommen werden. Das Umschalten zwischen verschiedenen Hörprogrammen ist jedoch für viele Benutzer lästig oder schwierig, wenn nicht sogar unmöglich. Welches Programm zu welchem Zeitpunkt den optimalen Komfort und die beste Sprachverständlichkeit bietet, ist auch für versierte Hörgeräteträger nicht immer einfach zu bestimmen. Ein automatisches Erkennen der akustischen UmgebungsSituation und ein damit verbundenes automatisches Umschalten des Hörprogramms im Hörgerät ist daher wünschenswert.The hearing program can be selected either using the remote control or using a switch on the hearing aid itself. Switching between different hearing programs is, however, troublesome, if not impossible, for many users. It is not always easy for experienced hearing aid users to determine which program offers the best comfort and the best speech intelligibility at which time. Automatic detection of the acoustic environment and the associated automatic switching of the hearing program in the hearing aid is therefore desirable.
BESTATIGUNGSKOPIE Es sind derzeit verschiedene Verfahren für die automatische Klassifizierung von akustischen Umgebungssituationen bekannt. Bei all diesen Verfahren werden aus dem Eingangssignal, das beim Hörgerät von einem oder mehreren Mikrofonen stammen kann, verschiedeneBESTATIGUNGSKOPIE Various methods for the automatic classification of acoustic environmental situations are currently known. In all of these methods, the input signal, which can come from one or more microphones in the hearing aid, is different
Merkmale extrahiert. Basierend auf diesen Merkmalen trifft ein Mustererkenner unter Anwendung eines Algorithmus eine Entscheidung über die Zugehörigkeit des analysierten Eingangssignals zu einer bestimmten akustischen Umgebungssituation. Die verschiedenen bekannten Verfahren unterscheiden sich dabei einerseits durch die unterschiedlichen Merkmale, welche bei der Beschreibung der akustischen Umgebungssituation verwendet werden (Signalanalyse) , und andererseits durch den verwendeten Mustererkenner der die Merkmale klassifiziert (Signalidentifikation) .Characteristics extracted. Based on these features, a pattern recognizer uses an algorithm to make a decision about the belonging of the analyzed input signal to a certain acoustic environment. The different known methods differ on the one hand by the different features that are used in the description of the acoustic environment (signal analysis), and on the other hand by the pattern recognizer used that classifies the features (signal identification).
Aus der Veröffentlichung der internationalen Patentanmeldung mit dem Veröffentlichungsaktenzeichen WO 01/20 965 sind ein Verfahren sowie eine Vorrichtung zurFrom the publication of the international patent application with the publication reference WO 01/20 965 are a method and an apparatus for
Bestimmung der akustischen UmgebungsSituation bekannt. Es handelt sich dabei um eine einstufige Verarbeitung eines akustischen Eingangssignals in einer Merkmalsextraktionseinheit und einer dieser nachgeschalteten Klassi izierungseinheit, in der die extrahierten Merkmale zur Erzeugung von Klasseninformationen klassifiziert werden. Mit der bekannten Lehre werden zwar, insbesondere bei Verwendung von auditorisch-basierten Merkmalen, gute Resultate erhalten. Eine Verbesserung wird aber insbesondere imDetermination of the acoustic surrounding situation known. It is a one-step processing of an acoustic input signal in a feature extraction unit and a classification unit connected downstream thereof, in which the extracted features are classified to generate class information. With the known teaching, good results are obtained, particularly when using auditory-based features. An improvement is particularly in the
Anwendungsbereich von Hörhilfegeräten gewünscht, da gerade in diesem Anwendungsgebiet die Klassifikation von akustischen UmgebungsSituation äussert akkurat sein muss . Gleichzeitig bereitet das Vorhandensein von mehreren, sehr allgemeinen Geräuschklassen, wie Musik oder Rauschen, einige Schwierigkeiten. So entspricht es der Natur dieser Geräuschklassen, dass sie sehr allgemein und breit, d.h. in vielfältiger Weise auftreten können. Die Geräuschklasse Rauschen, zum Beispiel, enthält die unterschiedlichsten Geräusche wie Hintergrundgespräche, Bahnhofgeräusehe, Haartrockner, und die Geräuschklasse Musik beinhaltet Popmusik, klassische Musik, Einzelinstrumente, Gesang, usw.Areas of application for hearing aids wanted, because straight In this area of application, the classification of acoustic environmental situations must be extremely accurate. At the same time, the existence of several, very general classes of noise, such as music or noise, presents some difficulties. It is in the nature of these noise classes that they can be very general and broad, ie they can occur in many different ways. The noise class noise, for example, contains a wide variety of sounds such as background conversations, train station noise, hair dryers, and the noise class music includes pop music, classical music, individual instruments, vocals, etc.
Gerade aufgrund der sehr allgemeinen Natur dieser Geräuschklassen ist es aber sehr schwierig, eine gute Erkennungsrate mit Hilfe der bekanntenHowever, due to the very general nature of these noise classes, it is very difficult to get a good detection rate using the known ones
Verarbeitungsmethode in eine Merkmalsextraktionseinheit und einer nachgeschalteten Klassifizierungseinheit zu erhalten. Zwar kann die Robustheit des ErkennungsSystems durch eine geeignete Wahl von Merkmalen verbessert werden, wie dies in WO 01/20965 erstmals aufgezeigt worden ist, indem auditorisch-basierte Merkmale verwendet werden, doch ist es insbesondere aufgrund einer hohen Varianz zwischen allgemeinen Geräuschklassen schwierig, diese klar und zweifelsfrei voneinander zu unterscheiden.Obtain processing method in a feature extraction unit and a downstream classification unit. Although the robustness of the recognition system can be improved by a suitable choice of features, as was first shown in WO 01/20965 by using auditory-based features, it is difficult, in particular because of a high variance between general noise classes, to make these clear and to distinguish them from one another without a doubt.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Bestimmung einer akustischen Umgebungssituation anzugeben, das gegenüber den bekannten Verfahren robuster und genauer ist. Diese Aufgabe wird durch die in Anspruch 1 angegebenen Massnahmen gelöst. Vorteilhafte Ausgestal ungen der Erfindung, eine Anwendung des Verfahrens, eine Vorrichtung sowie ein Hörhilfegerät sind in weiteren Ansprüchen angegeben.The present invention is therefore based on the object of specifying a method for determining an acoustic ambient situation which is more robust and more precise than the known methods. This object is achieved by the measures specified in claim 1. Advantageous embodiments of the invention, an application of the method, a device and a hearing aid are specified in further claims.
Indem ein akustischen Eingangssignal in einem mehrstufigen Verfahren, das aus mindestens zwei Klassifizierungsstufen besteht, wobei jede Stufe vorzugsweise aus einerBy an acoustic input signal in a multi-stage process, which consists of at least two classification levels, each level preferably consisting of one
Extraktionsphase und einer Identifikationsphase besteht, verarbeitet wird, wird eine überaus robuste und genaue Klassifikation der momentanen akustischen Umgebungssituation erhalten. So kann mit dem erfindungsgemassen Verfahren beispielsweise eine falsche Klassifizierung vo Popmusik in die Kategorie "Sprache in Geräusch" erfolgreich vermieden werden. Das erfindungsgemässe Verfahren ermöglicht ferner die Unterteilung einer allgemeinen Geräuschklasse, beispielsweise Rauschen, in Unterklassen, wie beispielsweise Verkehrslärm oder Gesprächshintergrundlärm. Spezielle Situationen, wie sie beispielsweise im Innern eines Automobiles auftreten ("in-the-car noise"), können ebenfalls erkannt werden. Ganz allgemein können Raumeigenschaften identifiziert und entsprechend bei der Weiterverarbeitung von wichtigen Signalanteilen mitberücksichtigt werden. Es hat sich gezeigt, dass mit dem er indungsgemassen Verfahren es zudem möglich ist, die Lärmquellen zu lokalisieren, womit die Möglichkeit geschaffen worden ist, das Vorhandensein einer spezifischen Lärmquelle in mehreren anderen Lärmquellen zu detektieren.Extraction phase and an identification phase is processed, an extremely robust and accurate classification of the current acoustic environment is obtained. For example, the method according to the invention can successfully avoid incorrect classification of pop music into the "speech in noise" category. The method according to the invention also enables a general noise class, for example noise, to be subdivided into subclasses, such as traffic noise or background noise for conversations. Special situations, such as those that occur in the interior of an automobile ("in-the-car noise"), can also be recognized. In general, room properties can be identified and taken into account accordingly in the further processing of important signal components. It has been shown that the method according to the invention also makes it possible to localize the sources of noise, which has made it possible to determine the presence of a detect specific noise source in several other noise sources.
Die Erfindung wird nachfolgend anhand von Zeichnungen beispielsweise näher erläutert. Dabei zeigen:The invention is explained in more detail below with reference to drawings, for example. Show:
Fig. 1 eine bekannte einstufige Vorrichtung zurFig. 1 shows a known single-stage device for
Bestimmung einer akustischen Umgebungssituation,Determination of an acoustic environment,
Fig. 2 eine erste Aus ührungsform einer erfindungsgemassen Vorrichtung mit zwei Verarbeitungsstufen,2 shows a first embodiment of a device according to the invention with two processing stages,
Fig. 3 eine zweite, allgemeine Ausführungsform einer erfindungsgemassen mehrstufigen Vorrichtung,3 shows a second, general embodiment of a multi-stage device according to the invention,
Fig. 4 eine dritte, allgemeine Ausführungsform einer erfindungsgemassen mehrstufigen Vorrichtung,4 shows a third, general embodiment of a multi-stage device according to the invention,
Fig. 5 eine vierte, allgemeine Ausführungsform einer erfindungsgemassen mehrstufigen Vorrichtung,5 shows a fourth, general embodiment of a multi-stage device according to the invention,
Fig. 6 eine gegenüber der zweistufigen Ausführungsform gemäss Fig. 2 vereinfachte Ausführungsform und6 shows a simplified embodiment compared to the two-stage embodiment according to FIG. 2 and
Fig. 7 ein Hörhilfegerät mit einer erfindungsgemassen mehrstufigen Vorrichtung gemäss Fig. 2 bis 6. Fig. 1 zeigt eine bekannte einstufige Vorrichtung zum Bestimmen der akustischen Umgebungssituation, wobei die Vorrichtung aus einer Hintereinanderschaltung von einer Merkmalsextraktionseinheit F, einer Klassifizierungseinheit C und einer Nachverarbeitungseinheit P besteht.7 shows a hearing aid with a multi-stage device according to the invention according to FIGS. 2 to 6. 1 shows a known single-stage device for determining the acoustic environmental situation, the device consisting of a series connection of a feature extraction unit F, a classification unit C and a post-processing unit P.
Ein akustisches Eingangssignal IN, das beispielsweise mit einem Mikronfon aufgenommen wurde, ist derAn acoustic input signal IN, which was recorded with a microphone, for example, is the
Merkmalsextraktionseinheit F beaufschlagt, in der charakteristische Merkmale extrahiert werden.Feature extraction unit F is applied, in which characteristic features are extracted.
Für die Merkmalsextraktion in Audiosignalen wurde im Aufsatz von J. M. Kates mit dem Titel "Classification of Background Noises für Hearing-Aid Applications" (1995, Journal of the Acoustical Society of America 97(1) , Seiten 461 bis 469) vorgeschlagen, eine Analyse der zeitlichen PegelSchwankungen und des Spektrums vorzunehmen. Des weiteren wurde in der Europäischen Patentschrift mit der Nummer EP-B1-0 732 036 eine Analyse desFor the feature extraction in audio signals, an analysis of the was proposed in the article by JM Kates entitled "Classification of Background Noises for Hearing-Aid Applications" (1995, Journal of the Acoustical Society of America 97 (1), pages 461 to 469) fluctuations in level and spectrum. Furthermore, in the European patent specification number EP-B1-0 732 036 an analysis of the
Amplitudenhistogramms zur Erreichung des gleichen Ziels vorgeschlagen. Schliesslich wurde die Merkmalsextraktion auch durch eine Analyse verschiedener Modulationsfrequenzen untersucht und angewendet.Amplitude histogram proposed to achieve the same goal. Finally, the feature extraction was also examined and applied by analyzing different modulation frequencies.
Diesbezüglich wird auf die beiden Aufsätze von Ostendorf et. al. mit den Titeln "Empirische Klassifizierung verschiedener akustischer Signale und Sprache mittels einer Modulationsfrequenzanalyse" (1997, DAGA 97, Seiten 608 bis 609) und "Klassifikation von akustischen Signalen basierend auf der Analyse von ModulationsSpektren zur Anwendung in digitalen Hörgeräten" (1998, DAGA 98, Seiten 402 bis 403) verwiesen. Ein ähnlicher Ansatz ist auch in einem Aufsatz von Edwards et. al . mit dem Titel "Signal- processing algorithms for a new sofware-based, digital hearing device" (1998, The Hearing Journal 51, Seiten 44 bis 52) offenbart. Weitere mögliche Merkmale sind der Pegel selbst oder die Nulldurchgangsrate wie z.B. in H. L. Hirsch, "Statistical Signal Characterization" (Artech House 1992) beschrieben. Die bisher zur Audiosignalanalyse verwendeten Merkmale sind also rein technisch-basiert .In this regard, the two articles by Ostendorf et. al. with the titles "Empirical Classification of Different Acoustic Signals and Speech Using a Modulation Frequency Analysis" (1997, DAGA 97, pages 608 to 609) and "Classification of Acoustic Signals based on the analysis of modulation spectra for use in digital hearing aids "(1998, DAGA 98, pages 402 to 403). A similar approach is also found in an article by Edwards et al. entitled" Signal processing algorithms for a new software-based, digital hearing device "(1998, The Hearing Journal 51, pages 44 to 52). Further possible features are the level itself or the zero crossing rate, as described, for example, in HL Hirsch," Statistical Signal Characterization "(Artech House 1992) The features previously used for audio signal analysis are therefore purely technical.
Des Weiteren wurde in der bereits zitierten Offenlegungsschrift der internationalen Patentanmeldung WO 01/20965 neben den erwähnten technischen Merkmalen erstmals auf die vorteilhafte Verwendung von auditorisch- basierten Merkmalen hingewiesen.Furthermore, in the already cited publication of international patent application WO 01/20965, in addition to the technical features mentioned, the advantageous use of auditory-based features was mentioned for the first time.
Gemäss Fig. 1 werden die in der Merkmalsextraktionseinheit F extrahierten Merkmale M der Klassifizierungseinheit C beaufschlagt, in der für die Geräuschklassifikation grundsätzlich einer der bekannten1, the features M extracted in the feature extraction unit F are applied to the classification unit C, which is basically one of the known ones for the noise classification
Musteridentifikationsmethoden zum Einsatz kommt. So eignen sich insbesondere so genannte Abstandsschätzer, Bayes Klassi izierer, Fuzzy Logic Systeme oder NeuronalePattern identification methods are used. So-called distance estimators, Bayesian classifiers, fuzzy logic systems or neurons are particularly suitable
Netzwerke als Mustererkenner. Weitere Informationen zu den zwei erst genannten Methoden können der Druckschrift "Pattern Classification and Scene Analysis" von Richard 0. Duda und Peter E. Hart (John Wiley & Sons, 1973) entnommen werden. Bezüglich Neuronalen Netzwerken wird auf das Standardwerk von Christopher M. Bishop mit dem Titel "Neural Networks for Pattern Recognition" (1995, Oxford University Press) verwiesen. Des weiteren wird auf die folgenden Publikationen verwiesen: Ostendorf et. al . , "Klassifikation von akustischen Signalen basierend auf der Analyse von Modulationsspektren zur Anwendung in digitalen Hörgeräten" (Zeitschrift für Audiologie, 1998, Seiten 148 bis 150); F. Feldbusch, "Geräuscheerkennung mittels Neuronaler Netzwerke" (1998, Zeitschrift für Audiologie, Seiten 30 bis 36) ; Europäische Patentanmeldung mit derNetworks as pattern recognizers. Further information on the first two methods can be found in the publication "Pattern Classification and Scene Analysis" by Richard 0. Duda and Peter E. Hart (John Wiley & Sons, 1973). Regarding neural networks, the Standard work by Christopher M. Bishop entitled "Neural Networks for Pattern Recognition" (1995, Oxford University Press). Furthermore, reference is made to the following publications: Ostendorf et. al. , "Classification of acoustic signals based on the analysis of modulation spectra for use in digital hearing aids" (Zeitschrift für Audiologie, 1998, pages 148 to 150); F. Feldbusch, "Noise Detection Using Neural Networks" (1998, Journal of Audiology, pages 30 to 36); European patent application with the
Veröffentlichungsnummer EP-A1-0 814 636; und US-Patent mit der Veröffentlichungsnummer US-5 604 812. Neben den erläuterten Mustererkennungsmethoden, bei denen lediglich die statischen Eigenschaften der interessierten Geräuschklassen modelliert werden, sind in der bereits zitierten Offenlegungsschrift der internationalen Patentanmeldung WO 01/20965 auch Methoden genannt, bei denen dynamische Eigenschaften berücksichtigt werden.Publication number EP-A1-0 814 636; and US patent with the publication number US-5 604 812. In addition to the explained pattern recognition methods, in which only the static properties of the noise classes of interest are modeled, the already cited publication of international patent application WO 01/20965 also mentions methods in which dynamic Properties are taken into account.
Gemäss Fig. 1 werden durch die in der1 by the in the
Klassifizierungseinheit C durchgeführtenClassification unit C performed
Verarbeitungsschritten Klasseninformation KI erhalten, die gegebenenfalls einer Nachverarbeitungseinheit P zur allfälligen Bereinigung der Klassenzugehörigkeit zugeführt werden. Erhalten werden in der Folge bereinigte Klasseninformationen KI1.Processing steps receive class information KI, which may be fed to a post-processing unit P for any cleanup of the class membership. Subsequently, adjusted class information KI 1 is obtained .
In Fig. 2 ist eine erste Ausführungsvariante einer erfindungsgemassen Vorrichtung dargestellt. Es handelt sich dabei um eine Vorrichtung mit zwei Verfahrensstufen Sl und S2, wobei in jeder Verfahrensstufe Sl, S2 je eine Merkmalsextraktionseinheit Fl bzw. F2 und eine Klassifizierungseinheit Cl bzw. C2 enthalten sind. Beiden Verfahrensstufen Sl bzw. S2 wird das originäre Eingangssignal IN zugeführt, nämlich sowohl der Merkmalsextraktionseinheit Fl als auch der Merkmalsextraktionseinheit F2 , die je für sich mit der entsprechenden Klassifizierungseinheit Cl bzw. C2 in der Folge wirkverbunden sind. Von Bedeutung ist nun, dass Klasseninformationen KIl, welche aufgrund von Berechnungen in der Klassifizierungseinheit Cl der ersten Verfahrensstufe Sl erhalten werden, die2 shows a first embodiment variant of a device according to the invention. It is a device with two process stages S1 and S2, with each feature level S1, S2 each containing a feature extraction unit F1 or F2 and a classification unit C1 or C2. The original input signal IN is supplied to both process stages S1 and S2, namely both the feature extraction unit F1 and the feature extraction unit F2, which are each operatively connected to the corresponding classification unit C1 or C2 in the sequence. It is now important that class information KI1, which is obtained on the basis of calculations in the classification unit C1 of the first method step S1, the
Klassifizierungseinheit C2 der zweiten Verfahrensstufe S2 beeinflusst wird, und zwar derart, dass beispielsweise einer von mehreren möglichen Musteridentifikationsmethoden ausgewählt wird und für die Geräuschklassifizierung in der Klassifizierungseinheit C2 der zweiten Verfahrensstufe S2 angewendet wird.Classification unit C2 of the second method stage S2 is influenced, in such a way that, for example, one of several possible pattern identification methods is selected and used for the noise classification in the classification unit C2 of the second method stage S2.
Die allgemeine in Fig. 2 dargestellte AusführungsVariante der Erfindung wird im Folgenden an einem konkreten Beispiel weiter erläutert:The general embodiment variant of the invention shown in FIG. 2 is further explained below using a concrete example:
Durch die Merkmalsextraktionseinheit Fl werden die Merkmale Tonalität, spektraler Schwerpunkt (CGAV: spectral center of gravity) , Fluktuation des spektralenThe characteristic extraction unit F1 provides the characteristics tonality, spectral center of gravity (CGAV: spectral center of gravity) and fluctuation of the spectral
Schwerpunkts (CGFS) und spektrale Breite undCenter of gravity (CGFS) and spectral latitude and
Einschwingzeit extrahiert und in derSettling time extracted and in the
Klassifizierungseinheit Cl, in der ein HMM- (Hidden Markov Model) -Klassifizierer zum Einsatz kommt, klassifiziert, wobei das Eingangssignal IN mit Hilfe der HMM- Kassifizierung in eine der folgenden Klassen eingeteilt wird: "Sprache", "Sprache in Rauschen", "Rauschen" oder "Musik". Dies wird als Klasseninformation KI bezeichnet. Das Resultat der ersten Verarbeitungsstufe Sl wird der Klassifizierungseinheit C2 der Verarbeitungsstufe S2 beaufschlagt, in der ein zweites Merkmalset mit Hilfe der Merkmalsextraktionseinheit F2 extrahiert wird. Dabei werden neben den Merkmalen Tonalität, spektraler Schwerpunkt und Fluktuation des spektralen Schwerpunkts (CGFS) das zusätzliche Merkmal Varianz der harmonischen Struktur (pitch) - nachfolgend auch etwa als Pitchvar bezeichnet - extrahiert. Aufgrund dieser Merkmale wird mit Hilfe eines Regel-basierten Klassifizierers in der Klassifizierungseinheit C2 das Resultat der ersten Verarbeitungsstufe Sl überprüft und gegebenenfalls korrigiert. Der Regel-basierte Klassifizierer beinhaltet lediglich wenige einfache heuristische Entscheidungen, welche auf den vier Merkmalen basieren und sich an den folgenden Überlegungen orientieren:Classification unit Cl, in which an HMM (Hidden Markov Model) classifier is used, classified, wherein the input signal IN is divided into one of the following classes with the aid of the HMM classification: "speech", "speech in noise", "noise" or "music". This is called class information KI. The result of the first processing stage S1 is applied to the classification unit C2 of the processing stage S2, in which a second feature set is extracted using the feature extraction unit F2. In addition to the characteristics of tonality, spectral center of gravity and fluctuation of the spectral center of gravity (CGFS), the additional characteristic variance of the harmonic structure (pitch) - also referred to below as Pitchvar - is extracted. On the basis of these features, the result of the first processing stage S1 is checked and, if necessary, corrected using a rule-based classifier in the classification unit C2. The rule-based classifier contains only a few simple heuristic decisions, which are based on the four characteristics and are based on the following considerations:
Das Merkmal Tonalität wird in jeder Klasse zur Korrektur verwendet, falls die Merkmalswerte vollständig ausserhalb eines zulässigen Wertebereiches der Klasseninformationen KIl liegen, welche in der ersten Klassifizierungseinheit Cl - d.h. durch den HMM-Klassifizierer - bestimmt worden sind. Erwartungsgemäss ist die Tonalität für "Musik" hoch, für "Sprache" im mittleren Bereich, für "Sprache in Rauschen" ein wenig tiefer und für "Rauschen" tief. Falls beispielsweise ein Eingangssignal IN durch dieThe tonality characteristic is used for correction in each class if the characteristic values lie completely outside an admissible value range of the class information KII, which is in the first classification unit C1 - i.e. by the HMM classifier. As expected, the tonality for "music" is high, for "speech" in the middle range, for "speech in noise" a little lower and for "noise" deep. For example, if an input signal IN by the
Klassifizierungseinheit Cl in die Klasse "Sprache" fällt, dann wird erwartet, dass entsprechende Merkmale, welche in der Merkmalsextraktionseinheit Fl ermittelt worden sind, der Klassifizierungseinheit Cl angezeigt haben, dass der relevante Signalanteile im Eingangssignal IN scark fluktuiert. Falls, auf der anderen Seite, die Tonalität für dieses Eingangssignal IN sehr tief ist, handelt es sich mit grösster Wahrscheinlichkeit nicht um "Sprache", sondern um "Sprache in Rauschen". Ähnliche Überlegungen können für die anderen drei Merkmale angestellt werden, nämlich für die Varianz der harmonischen StrukturClassification unit Cl falls into the "language" class, it is then expected that corresponding features, which have been determined in the feature extraction unit F1, have indicated to the classification unit Cl that the relevant signal component fluctuates in the input signal IN scark. If, on the other hand, the tonality for this input signal IN is very low, it is most likely not "speech" but "speech in noise". Similar considerations can be made for the other three characteristics, namely the variance of the harmonic structure
(Pitchvar) , den spektralen Scherpunkt (CGAV) und für die Fluktuation des spektralen Schwerpunkts (CGFS) . Entsprechend können die Regeln für den Regel -basierten Klassifizierer, welche in der Klassifizierungseinheit C2 zur Anwendung kommen, wie folgt formuliert werden: (Pitchvar), the spectral shear point (CGAV) and for the fluctuation of the spectral center of gravity (CGFS). Accordingly, the rules for the rule-based classifier, which are used in the classification unit C2, can be formulated as follows:
.2 -.2 -
Figure imgf000014_0001
Figure imgf000014_0001
Bei dieser Ausführungsform der Erfindung hat sich in überraschender Weise herausgestellt, dass nahezu die gleichen Merkmale in der zweiten Verarbeitungsstufe S2 verwendet werden wie in der ersten Verarbeitungsstufe Sl. Es hat sich darüber hinaus gezeigt, dass sich das Merkmal Tonalität am besten eignet, um eine Korrektur der durch die Klassifizierungseinheit Cl erzeugten Fehler korrigieren zu können. Es kann also festgehalten werden, dass bei Verwendung des Regel-basierten Klassifizierers die Tonalität von entscheidender Bedeutung ist.In this embodiment of the invention, it has surprisingly been found that almost the same features are used in the second processing stage S2 as in the first processing stage S1. It has also been shown that the tonality characteristic is best suited to correcting a correction of the errors generated by the classification unit C1. It can therefore be said that when using the rule-based classifier, the tonality is of crucial importance.
Beim Austesten der vorstehend beschriebenen Ausführungsform konnte festgestellt werden, dass bereits bei diesem einfachen zweistufigen Verfahren die Trefferrate mindestens um 3% gegenüber dem einstufigen Verfahren verbessert werden konnte. In einigen Fällen konnte sogar eine Verbesserung der Trefferrate um 91% festgestellt werden.When testing the embodiment described above, it was found that even with this simple two-step process Hit rate could be improved by at least 3% compared to the one-step process. In some cases, the hit rate improved by 91%.
In Fig. 3 ist eine weitere Ausführungsform in allgemeiner Darstellung gezeigt. Es handelt sich dabei um ein Verarbeitungsverfahren mit n Stufen. Jede der Verarbeitungsstufen Sl bis Sn weist in Fortführung der vorstehenden Überlegungen eine Merkmalsextraktionseinheit Fl bis Fn und eine dieser nachgeschalteten Klassifizierungseinheit Cl bis Cn zur Erzeugung der jeweiligen Klasseninformationen KIl bis KIn auf. Gegebenenfalls ist in jeder oder in einzelnen Verarbeitungsstufen Sl bis Sn eineA further embodiment is shown in a general representation in FIG. 3. It is a processing method with n stages. In continuation of the above considerations, each of the processing stages Sl to Sn has a feature extraction unit Fl to Fn and a classification unit Cl to Cn connected downstream thereof for generating the respective class information KIl to KIn. If necessary, Sl to Sn is in each or in individual processing stages
Nachverarbeitungseinheit Pl bis Pn zur Erzeugung von bereinigten Klasseninformationen KIl' bis KIn1 vorhanden.Post-processing unit Pl to Pn for generating cleaned class information KIl 'to KIn 1 available.
In Weiterführung der Ausführungsvariante gemäss Fig. 2 eignet sich die in Fig. 3 gezeigte Ausführungsvariante insbesondere auch für eine sogenannte grob- fein Klassifizierung. In einer grob-fein Klassifizierung wird ein in einer Verarbeitungsstufe i erhaltenes Resultat in einer nachfolgenden Verarbeitungsstufe i+1 verfeinert. Es wird also eine Grobklassi izierung in einer übergeordneten Verarbeitungsstufe vorgenommen, wobei aufgrund der Grobklassifizierung eine Feinklassifizierung, basierend auf spezifischeren Merkmalsextraktionen und/oder Klassifizierungsmethoden, in einer nachgeordneten Verarbeitungsstufe ausgeführt wird. Dieser Prozess kann auch als Hypothesengenerierung in einer übergeordneten Verfahrensstufe angesehen werden, die in einer nachgeordneten Verfahrensstufe überprüft, d.h. bestätigt oder zurückgewiesen werden. Es wird ausdrücklich darauf hingewiesen, dass die Hypothesen, welche an sich in einer übergeordneten Verfahrensstufe (Grobklassifizierung) erstellt worden sind, auch mit anderen Informationen, insbesondere mit manuellen Mitteln, wie Fernbedienungen oder Schalter, eingegeben werden können. In Fig. 3 ist dies, stellvertretend in der ersten Verarbeitungsstufe Sl, mittels einer Stellgrösse ST angegeben, über die beispielsweise die Berechnungen in der Klassifizierungseinheit Cl übersteuert werden können. Selbstverständlich kann die Stellgrösse auch einer Klassifizierungseinheit C2 bis Cn oder einerIn a continuation of the embodiment variant according to FIG. 2, the embodiment variant shown in FIG. 3 is particularly suitable for a so-called coarse-fine classification. In a rough-fine classification, a result obtained in processing stage i is refined in a subsequent processing stage i + 1. A rough classification is thus carried out in a higher processing level, with a rough classification based on more specific feature extractions and / or classification methods being carried out in a lower processing level on the basis of the rough classification. This process can can also be viewed as generation of hypotheses in a higher process level, which are checked, ie confirmed or rejected in a lower process step. It is expressly pointed out that the hypotheses that have been created in a higher level of procedure (rough classification) can also be entered with other information, in particular with manual means such as remote controls or switches. In Fig. 3, this is indicated, representative of the first processing stage S1, by means of a manipulated variable ST, by means of which, for example, the calculations in the classification unit C1 can be overridden. Of course, the manipulated variable can also be a classification unit C2 to Cn or one
Nachverarbeitungseinheit Pl bis Pn einer anderen Verfahrensstufe Sl bis Sn zugeführt werden.Postprocessing units Pl to Pn are fed to another process stage S1 to Sn.
In einem erfindungsgem ssen Klassifizierungssyste mit mehreren Verarbeitungsstufen Sl bis Sn kann jederIn a classification system according to the invention with several processing stages S1 to Sn everyone can
Verarbeitungsstufe Sl bis Sn, was jedoch nicht zwingend ist, eine Aufgabe zugeordnet werden, wie zum Beispiel: eine Grobklassifizierung, eine Feinklassifizierung, eine Lokalisierung einer Geräuschquelle, eine Überprüfung, ob eine bestimmte Geräuschquelle, z. B. Automobilgeräusch in einem Fahrzeug, vorhanden ist, oder eine Extraktion von bestimmten Signalanteilen von einem Eingangssignal, z. B. Elimination von Echo unter Berücksichtigung von Raumcharakteristiken. Die einzelnen Verfahrensstufen Sl bis Sn sind daher individuell im Sinne, dass in ihnen verschiedene Merkmale extrahiert und verschiedene Klassifizierungsmethoden verwendet werden.Processing level Sl to Sn, which, however, is not mandatory, can be assigned to a task, such as, for example: a rough classification, a fine classification, a localization of a noise source, a check whether a specific noise source, e.g. B. automotive noise in a vehicle, or an extraction of certain signal components from an input signal, for. B. Elimination of echo taking into account spatial characteristics. The individual process steps S1 to Sn are therefore individual in the sense that in them different characteristics are extracted and different classification methods are used.
In einem weiteren Anwendungsbeispiel ist vorgesehen, in einer ersten Verarbeitungsstufe Sl ein individuellesIn a further application example, an individual one is provided in a first processing stage S1
Signal in einem Gemisch von verschiedenen Signalanteilen zu lokalisieren, in einer zweiten Verarbeitungsstufe S2 eine Grobklassifizierung der lokalisierten Signalquelle vorzunehmen und in einer dritten Verfahrenstufe S3 eine Feinklassifizierung der in der zweiten Verfahrensstufe S2 erhaltenen groben Klassifizierung vorzunehmen.Localize the signal in a mixture of different signal components, carry out a rough classification of the localized signal source in a second processing stage S2 and carry out a fine classification of the rough classification obtained in the second processing stage S2 in a third processing stage S3.
Die in der ersten Verarbeitungsstufe durchgeführte Lokalisation der Schallquelle kann eine Richtungsfilterung, zum Beispiel mittels Multi-Mikrofon- Technologie, nachgeschaltet werden.The localization of the sound source carried out in the first processing stage can be followed by directional filtering, for example using multi-microphone technology.
Selbstverständlich kann eine Merkmalsextraktionseinheit Fl bis Fn unter mehreren Klassifizierungseinheiten Cl bis Cn aufgeteilt werden, d.h. die Resultate einerOf course, a feature extraction unit Fl to Fn can be divided among several classification units Cl to Cn, i.e. the results of one
Merkmalsextraktionseinheit Fl bis Fn können von mehreren Klassifizierungseinheiten Cl bis Cn verwendet werden. Des weiteren ist denkbar, dass eine Klassifizierungseinheit Cl bis Cn in mehreren Verarbeitungsstufen Sl bis Sn verwendet wird. Schliesslich kann vorgesehen sein, dass die in den verschiedenen Verarbeitungsstufen Sl bis Sn erhaltenen Klasseninformationen KIl bis KIn bzw. die bereinigten Klasseninformationen KIl' bis KIn' zur Erhaltung der abschliessenden Klassifizierung unterschiedlich gewichtet werden. In Fig. 4 ist eine weitere Ausführungsform der Erfindung dargestellt, bei der wiederum mehrere Verarbeitungsstufen Sl bis Sn zum Einsatz kommen. Im Unterschied zur Ausführungsform gemäss Fig. 3 werden dieFeature extraction units F1 to Fn can be used by several classification units C1 to Cn. It is also conceivable that a classification unit C1 to Cn is used in several processing stages S1 to Sn. Finally, it can be provided that the class information KIl to KIn or the cleaned class information KIl 'to KIn' obtained in the different processing stages S1 to Sn are weighted differently in order to maintain the final classification. 4 shows a further embodiment of the invention, in which a plurality of processing stages S1 to Sn are used. In contrast to the embodiment according to FIG. 3, the
Klasseninformationen KIl bis KIn nicht nur in den jeweils unmittelbar nachfolgenden Verarbeitungsstufen verwendet, sondern gegebenenfalls in allen untergeordneten Verarbeitungsstufen. In analoger Weise können die Resultate von vorhergehenden Verarbeitungsstufen Sl bis Sn ihre Auswirkungen auch auf die nachfolgenden Merkmalsextraktionseinheiten Fl bis Fn bzw. auf die zu extrahierenden Merkmaie haben.Class information KIl to KIn not only used in the immediately following processing stages, but possibly in all subordinate processing stages. In an analogous manner, the results from previous processing stages S1 to Sn can also have their effects on the subsequent feature extraction units F1 to Fn or on the features to be extracted.
Auch bei der AusführungsVariante gemäss Fig. 4 sind Nachverarbeitungseinheiten Pl bis Pn denkbar, die Zwischenresultate der Klassifizierung aufbereiten und als bereinigte Klasseninformationen KIl1 bis KIn' zur Verfügung stellen.4, postprocessing units Pl to Pn are also conceivable, prepare the intermediate results of the classification and make them available as cleaned class information KIl 1 to KIn '.
In Fig. 5 ist eine weitere Ausführungsvariante einer mehrstufigen Vorrichtung zur Bestimmung der akustischen Umgebungssituation, wiederum in allgemeiner Form, dargestellt. Gezeigt sind wie bereits bei den Ausführungsvarianten gemäss Fig. 3 und 4 mehrere Verarbeitungsstufen Sl bis Sn mit Merkmalsextraktionseinheiten Fl bis Fn und Klassifizierungseinheiten Cl bis Cn. Die in jeder Verarbeitungsstu e Sl bis Sn erhaltenen Klasseninformationen KIl bis KIn werden einer Entscheidungseinheit FD zugeführt, in der die abschliessende Klassifizierung durch erzeugen der Klasseninformationen KI vorgenommen wird. In der Entscheidungseinheit FD ist gegebenenfalls vorgesehen, Rückkopplungssignale zu erzeugen, welche auf die5 shows a further embodiment variant of a multi-stage device for determining the acoustic ambient situation, again in a general form. As already shown for the embodiment variants according to FIGS. 3 and 4, several processing stages S1 to Sn with feature extraction units Fl to Fn and classification units Cl to Cn are shown. The class information KIl to KIn obtained in each processing step Sl to Sn becomes one Decision unit FD supplied, in which the final classification is carried out by generating the class information KI. In the decision unit FD it is optionally provided to generate feedback signals which are based on the
Merkmalsextraktionseinheiten Fl bis Fn und/oder auf die Klassifizierungseinheiten Cl bis Cn wirken, um beispielsweise einzelne Parameter in diesen Verarbeitungseinheiten anzupassen oder um ganze Klassifizierungseinheiten Cl bis Cn austauschen zu können.Feature extraction units F1 to Fn and / or act on the classification units Cl to Cn, for example in order to adapt individual parameters in these processing units or to be able to exchange entire classification units Cl to Cn.
Es wird ausdrücklich darauf hingewiesen, dass die Rückwirkungen und Verknüpfungen der Verarbeitungseinheiten der Ausführungsvarianten gemäss Fig. 3 bis 5 nicht auf die dargestellten Varianten beschränkt sind. Denkbar ist, dass einzelne Rückwirkungen oder Verknüpfungen weggelassen werden. Grundsätzlich sind beliebige Kombinationen von Verarbeitungseinheiten und Strukturen möglich.It is expressly pointed out that the repercussions and links between the processing units of the embodiment variants according to FIGS. 3 to 5 are not limited to the variants shown. It is conceivable that individual repercussions or links are omitted. In principle, any combination of processing units and structures is possible.
Darüber hinaus ist denkbar, dass - beim Einsatz der Erfindung bei Hörhilfegeräten - die verschiedenen Verarbeitungsstufen auch zwischen zwei Hörgeräten, d.h. bei je einem Hörgerät für das linke und das rechte Ohr, verteilt sind. Der Informationsaustausch erfolgt bei dieser Ausführungsform über eine drahtgebundene oder eine drahtlose Übertragungsstrecke.In addition, it is conceivable that - when using the invention with hearing aids - the different processing stages between two hearing aids, i.e. with one hearing aid each for the left and right ear. In this embodiment, the information is exchanged via a wired or a wireless transmission link.
In Fig. 6 ist nochmals eine vereinfachte Ausführungsvariante der Erfindung zur Veranschaulichung der vorstehenden allgemeinen Ausführungen zu den möglichen Strukturen. Obwohl lediglich eine6 again shows a simplified embodiment variant of the invention to illustrate the above general explanations of the possible ones Structures. Although only one
Merkmalsextraktionseinheit Fl vorgesehen ist, sind zwei Verarbeitungsstufen Sl und S2 vorgesehen. Die erste Verarbeitungsstufe Sl besteht aus der Merkmalsextraktionseinheit Fl und derIf feature extraction unit F1 is provided, two processing stages S1 and S2 are provided. The first processing stage S1 consists of the feature extraction unit F1 and the
Klassifizierungseinheit Cl . Bei der zweiten Verarbeitungsstufe S2 werden die gleichen Merkmale verwendet, die bereits in der ersten Verfahrensstufe Sl verwendet worden sind. Eine Neuberechnung der Merkmale in der Verfahrensstufe S2 erübrigt sich daher, und es können die Resultate der Merkmalsextraktionseinheit Fl der ersten Verfahrensstufe Sl in der zweiten Verf hrensstufe S2 verwendet werden. In der zweiten Verfahrensstufe S2 wird somit lediglich die Klassifizierungsmethode geändert, und zwar in Abhängigkeit der Klasseninformationen KIl der ersten Verarbeitungsstufe Sl.Classification unit Cl. In the second processing stage S2, the same features are used that have already been used in the first method stage S1. A recalculation of the features in process stage S2 is therefore unnecessary, and the results of the feature extraction unit F1 of the first process stage S1 can be used in the second process stage S2. In the second method stage S2, only the classification method is changed, depending on the class information KII of the first processing stage S1.
Fig. 7 zeigt die Verwendung der erfindungsgemassen Vorrichtung bei einem Hörhilfegerät, das im Wesentlichen eine Übertragungseinheit 200 aufweist. Mit 100 ist eine mehrstufige Verarbeitungseinheit bezeichnet, die gemäss einer der in den Fig. 2 bis 6 dargestellten AusführungsVarianten realisiert ist. Das Eingangssignal IN wird sowohl der mehrstufigen Verarbeitungseinheit 100 als auch der Übertragungseinheit 200 beaufschlagt, in dem das akustische Eingangssignal IN unter Zuhilfenahme der in der mehrstufigen Verarbeitungseinheit 100 erzeugten Klasseninformationen KIl bis KIn bzw. KIl' bis KIn' bearbeitet wird. Dabei ist vorzugsweise vorgesehen, ein aufgrund der ermittelten akustischen UmgebungsSituation ein geeignetes Hörprogramm auszuwählen, wie dies in der Einleitung und in der internationalen Patentanmeldung WO 01/20 965 beschrieben worden ist.FIG. 7 shows the use of the device according to the invention in a hearing aid device which essentially has a transmission unit 200. 100 denotes a multi-stage processing unit which is implemented according to one of the embodiment variants shown in FIGS. 2 to 6. The input signal IN is applied to both the multi-stage processing unit 100 and the transmission unit 200, in which the acoustic input signal IN is processed with the aid of the class information KI1 to KIn or KIl 'to KIn' generated in the multi-stage processing unit 100. It is preferably provided to select a suitable hearing program based on the acoustic environment situation determined, as is the case in FIG Introduction and has been described in the international patent application WO 01/20 965.
Mit 300 ist eine manuelle Eingabeeinheit bezeichnet, mit Hilfe der - beispielsweise über eine Funkstrecke, wie dies schematisch in Fig. 7 ersichtlich ist - gegebenenfalls sowohl auf die mehrstufige Verarbeitungseinheit 100 in bereits erläuterten Weise oder auf die Übertragungseinheit 200 einwirkt. Im Falle des Hörhilfegerätes 200 wird auf die Ausführungen in der WO 01/20 965 verwiesen, deren300 denotes a manual input unit, with the aid of which - for example via a radio link, as can be seen schematically in FIG. 7 - may act both on the multi-stage processing unit 100 in the manner already explained or on the transmission unit 200. In the case of the hearing aid 200, reference is made to the explanations in WO 01/20 965, whose
Inhalt als integrierter Bestandteile dieser Beschreibung anzusehen ist.Content is to be regarded as an integral part of this description.
Als mögliche Klassifizierungsmethoden bei allen erläuterten AusführungsVarianten der Erfindung kommt insbesondere eine der folgenden Methoden zur Anwendung:In particular, one of the following methods is used as a possible classification method in all of the explained embodiment variants of the invention:
- Hidden Markov Modelle;- Hidden Markov models;
- Fuzzy Logic ; - Klassifizierung nach Bayes;- fuzzy logic; - Bayesian classification;
- Regel-basierte Klassifizierung;- rule-based classification;
- Neuronale Netzwerke;- Neural networks;
- Minimale Distanz.- Minimum distance.
Schliesslich wird ausdrücklich darauf hingewiesen, dass in den Merkmalsextraktionseinheiten Fl bis Fn (Fig. 2 bis 7) technische und/oder auditorisch-basierte Merkmale extrahiert werden können. Für ausführliche Erläuterungen zu den technischen und audi orisch-basierten Merkmalen sei wiederum auf die Ausführungen in der internationalen Patentanmeldung WO 01/20 965 verwiesen.Finally, it is expressly pointed out that in the feature extraction units F1 to Fn (FIGS. 2 to 7) technical and / or auditory-based features can be extracted. For detailed explanations of the technical and audio-based features, reference is again made to the explanations in the international patent application WO 01/20 965.
Als bevorzugte Anwendung des erfindungsgemassen Verfahrens zur Bestimmung der akustischen Umgebungssituation ist die Wahl eines Hörprogrammes in einem Hörhilfegerät. Denkbar ist jedoch auch die Verwendung der erfindungsgemassen Vorrichtung bzw. die Anwendung des erfindungsgemassen Verfahrens zur Spracherkennung. The preferred application of the method according to the invention for determining the acoustic ambient situation is the selection of a hearing program in a hearing aid device. However, it is also conceivable to use the device according to the invention or to use the method according to the invention for speech recognition.

Claims

Patentansprüche : Claims:
1. Verfahren zur Bestimmung einer akustischen UmgebungsSituation, wobei das Verfahren darin besteht, dass in mindestens zwei Verarbeitungsstufen (Sl, ..., Sn) ein vorzugsweise mit Hilfe mindestens eines Mikrofons aufgenommenes akustisches Eingangssignal (IN) verarbeitet wird, und zwar derart, - dass in mindestens einer der mindestens zwei Verarbeitungsstufen (Sl, ... , Sn) eine Extraktionsphase vorgesehen ist, in der charakteristische Merkmale aus dem Eingangssignal (IN) extrahiert werden, und - dass in jeder Verarbeitungsstufe (Sl, ..., Sn) eine Identifikationsphase vorgesehen ist, in der extrahierte charakteristische Merkmale klassifiziert werden, wobei aufgrund der Klassifizierung der Merkmale in mindestens einer Verarbeitungsstufe (Sl, ..., Sn)1. A method for determining an acoustic ambient situation, the method consisting in processing an acoustic input signal (IN), preferably recorded with the aid of at least one microphone, in at least two processing stages (S1, ..., Sn), in such a way that that in at least one of the at least two processing stages (Sl, ..., Sn) an extraction phase is provided in which characteristic features are extracted from the input signal (IN), and - that in each processing stage (Sl, ..., Sn) an identification phase is provided in which extracted characteristic features are classified, the classification of the features in at least one processing stage (Sl, ..., Sn)
Klasseninformationen (KIl, ..., KIn; KIl', ..., KIn') erzeugt werden, welche die akustische UmgebungsSituation charakterisieren bzw. identifiziert.Class information (KIl, ..., KIn; KIl ', ..., KIn') are generated which characterize or identify the acoustic environment.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in jeder Verarbeitungsstufe (Sl, ..., Sn) eine Extraktionsphase vorgesehen ist, in der charakteristische Merkmale aus dem Eingangssignal (IN) extrahiert werden. 2. The method according to claim 1, characterized in that an extraction phase is provided in each processing stage (Sl, ..., Sn), in which characteristic features are extracted from the input signal (IN).
3. Verfahren nach Anspruch 1 oder 2 , dadurch gekennzeichnet, dass aufgrund von in einer Verarbeitungsstufe (Sl, ..., Sn) erhaltener Klasseninformationen (KIl, ..., KIn; KIl', ..., KIn') die Art der Verarbeitung in einer anderen Verarbeitungsstufe (Sl, ... , Sn) gewählt wird.3. The method according to claim 1 or 2, characterized in that on the basis of class information received in a processing stage (Sl, ..., Sn) (KIl, ..., KIn; KIl ', ..., KIn'), Art processing in a different processing level (Sl, ..., Sn) is selected.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die in der Identifikationsphase einer Verarbeitungsstufe i (Sl, ..., Sn) erhaltenen4. The method according to claim 2 or 3, characterized in that received in the identification phase of a processing stage i (Sl, ..., Sn)
Klasseninformationen (KIl, ..., KIn; KIl', ..., KIn') die Art der Verarbeitung in der nachfolgenden bzw. untergeordneten Verarbeitungsstufe i+1 (Sl, ..., Sn) bestimmen.Class information (KIl, ..., KIn; KIl ', ..., KIn') determine the type of processing in the subsequent or subordinate processing level i + 1 (Sl, ..., Sn).
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass aufgrund der in der Verarbeitungsstufe i (Sl, ..., Sn) erhaltenen Klasseninformationen (KIl, ..., KIn; KIl', ..., KIn') spezifische Merkmale in der Extraktionsphase der nachfolgenden bzw. untergeordneten Verarbeitungsstufe i+1 (Sl, ..., Sn) und/oder spezifische5. The method according to claim 4, characterized in that on the basis of the class information obtained in processing stage i (Sl, ..., Sn) (KIl, ..., KIn; KIl ', ..., KIn'), specific features in the extraction phase of the subsequent or subordinate processing stage i + 1 (Sl, ..., Sn) and / or specific
Klassifizierungsverfahren in der Identifikationsphase der nachfolgenden bzw. untergeordneten Verarbeitungsstufe i+1 (Sl, ..., Sn) gewählt werden.Classification procedures in the identification phase of the subsequent or subordinate processing level i + 1 (Sl, ..., Sn) can be selected.
6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass in der Identifikationsphase eines der folgenden Klassifizierungsverfahren zum Einsatz kommt : - Hidden Markov Modelle;6. The method according to any one of the preceding claims, characterized in that one of the following classification methods is used in the identification phase: - Hidden Markov models;
- Fuzzy Logic;- fuzzy logic;
- Klassifizierung nach Bayes ;- Bayesian classification;
- Regel-basierte Klassifizierung;- rule-based classification;
- Neuronale Netzwerke;- Neural networks;
- Minimale Distanz .- Minimum distance.
7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass in den Extraktionsphasen technische und/oder auditorisch-basierte Merkmale extrahiert werden.7. The method according to any one of the preceding claims, characterized in that technical and / or auditory-based features are extracted in the extraction phases.
8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass in mindestens einer Verarbeitungsstufe (Sl, ..., Sn) im Anschluss an die8. The method according to any one of the preceding claims, characterized in that in at least one processing stage (Sl, ..., Sn) following the
Extraktionsphase eine Nachverarbeitungsphase vorgesehen ist, in der die Klasseninformationen (KIl, ... , KIn) zur Erzeugung von bereinigten Klasseninformationen (KIl', ... KIn' ) nachbearbeitet werden.Extraction phase, a post-processing phase is provided, in which the class information (KIl, ..., KIn) is reworked to generate cleaned class information (KIl ', ... KIn').
9. Anwendung des Verfahrens nach einem der Ansprüche 1 bis 8 zur Anpassung mindestens eines HÖrhilfegeräces an eine momentane akustische UmgebungsSituation.9. Application of the method according to one of claims 1 to 8 for adapting at least one hearing aid to a current acoustic ambient situation.
10. Anwendung nach Anspruch 9, dadurch gekennzeichnet, dass aufgrund der ermittelten momentanen akustischen Umgebungssituation ein Hörprogramm bzw. eine Übertragungsfunktion zwischen mindestens einem Mikrcfon und einem Hörer im mindestens einen Hörhilfegerät eingestellt wird.10. Application according to claim 9, characterized in that a hearing program or a due to the determined current acoustic environmental situation Transfer function between at least one microphone and a listener is set in the at least one hearing aid.
11. Anwendung des Verfahrens nach einem der Ansprüche 1 bis 8 zur Spracherkennung.11. Application of the method according to one of claims 1 to 8 for speech recognition.
12. Vorrichtung zur Bestimmung einer akustischen UmgebungsSituation mit einer Merkmalsextraktionseinheit (M) , das mit einer Klassifizierungseinheit (C) zur12. Device for determining an acoustic environmental situation with a feature extraction unit (M), which with a classification unit (C)
Verarbeitung eines Eingangssignals (IN) wirkverbunden ist, dadurch gekennzeichnet, dass mindestens zwei Verarbeitungsstufen (Sl, ... , Sn) vorgesehen sind, wobei in mindestens einer der mindestens zwei Verarbeitungsstufen (Sl, ..., Sn) eineProcessing of an input signal (IN) is operatively connected, characterized in that at least two processing stages (Sl, ..., Sn) are provided, one in at least one of the at least two processing stages (Sl, ..., Sn)
Merkmalsextraktionseinheit (Fl, ..., Fn) enthalten ist und wobei in jeder Verarbeitungsstufe (Sl, ..., Sn) eine Klassifizierungseinheit (Cl, ..., Cn) enthalten ist, dass das Eingangssignal (IN) den Merkmalsextraktionseinheiten (Ml, ..., Mn) beaufschlagt ist und dass mit denFeature extraction unit (Fl, ..., Fn) is included and in each processing stage (Sl, ..., Sn) a classification unit (Cl, ..., Cn) is included that the input signal (IN) to the feature extraction units (Ml , ..., Mn) and that with the
Klassifiziereinheiten (Cl, ..., Cn) Klasseninformationen (KIl, ... , KIn) erzeugbar sind.Classification units (Cl, ..., Cn) class information (KIl, ..., KIn) can be generated.
13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass in jeder Verarbeitungsstufe (Sl, ... , Sn) eine13. The apparatus according to claim 12, characterized in that in each processing stage (Sl, ..., Sn)
Merkmalsextraktionseinheit (Ml, ..., Mn) vorgesehen ist.Feature extraction unit (Ml, ..., Mn) is provided.
14. Vorrichtung nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass die Klasseninformationen (KIl, ..., KIn; KIl' , ... , KIn' ) einer anderen Verarbeitungsstufe (Sl, ... , Sn) beaufschlagt sind.14. The apparatus according to claim 12 or 13, characterized in that the class information (KIl, ..., KIn; KIl ', ..., KIn') of a different processing level (Sl, ..., Sn).
15. Vorrichtung nach einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass die Klasseninformationen15. Device according to one of claims 12 to 14, characterized in that the class information
(KIl, ..., KIn; KIl', ..., KIn1) einer Verarbeitungsstufe i (Sl, ..., Sn) der nachfolgenden bzw. übergeordneten Verarbeitungsstufe i+1 (Sl, ..., Sn) beaufschlagt sind.(KIl, ..., KIn; KIl ', ..., KIn 1 ) of a processing stage i (Sl, ..., Sn) of the subsequent or higher processing stage i + 1 (Sl, ..., Sn) are.
16. Vorrichtung nach Anspruch 15, dadurch gekennzeichnet, dass die Klasseninformationen (KIl, ..., KIn; KIl1, ..., KIn') einer Verarbeitungsstufe i (Sl, ..., Sn) der Merkmalsextraktionseinheit (Ml, ..., Mn) einer nachfolgenden bzw. untergeordneten Verarbeitungsstufe i+1 (Sl, ... , Sn) und/oder der Klassifizierungseinheit (Cl, ... , Cn) der nachfolgenden bzw. untergeordneten Verarbeitungsstufe i+1 (Sl, ..., Sn) beaufschlagt sind.16. The apparatus according to claim 15, characterized in that the class information (KIl, ..., KIn; KIl 1 , ..., KIn ') of a processing stage i (Sl, ..., Sn) of the feature extraction unit (Ml,. .., Mn) of a subsequent or subordinate processing level i + 1 (Sl, ..., Sn) and / or the classification unit (Cl, ..., Cn) of the subsequent or subordinate processing level i + 1 (Sl,. .., Sn) are applied.
17. Vorrichtung nach einem der Ansprüche 12 bis 16, dadurch gekennzeichnet, dass in mindestens einer17. Device according to one of claims 12 to 16, characterized in that in at least one
Verarbeitungsstufe (Sl, ..., Sn) die erhaltenen Klasseninformationen (KIl, ..., KIn) einer Nachverarbeitungseinheit (Pl, ..., Pn) zur Erzeugung von bereinigten Klasseninformationen (KIl1, ..., KIn') beaufschlagt sind.Processing stage (Sl, ..., Sn) applies the received class information (KIl, ..., KIn) to a post-processing unit (Pl, ..., Pn) for generating cleaned class information (KIl 1 , ..., KIn ') are.
18. Vorrichtung nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass die Klasseninformationen (KIl, ..., KIn) aller Verarbeitungsstufen (Sl, ..., Sn) einer Entscheidungseinheit (ED) beaufschlagt sind.18. The apparatus according to claim 12 or 13, characterized in that the class information (KIl, ..., KIn) of all processing stages (Sl, ..., Sn) of a decision unit (ED).
19. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, dass die Entscheidungseinheit (ED) mit mindestens einer Merkmalsextraktionseinheit (Fl, ..., Fn) und/oder mit mindestens einer Klassifizierungseinheit (Cl, ..., Cn) wirkverbunden ist.19. The device according to claim 18, characterized in that the decision unit (ED) is operatively connected to at least one feature extraction unit (Fl, ..., Fn) and / or to at least one classification unit (Cl, ..., Cn).
20. Hörhilfegerät mit einer Übertragungseinheit (200), die eingangsseitig mindestens mit einem Mikrofon und ausgangsseitig mit einer Wandlereinheit, insbesondere einem Hörer, wirkverbunden ist, und mit einer Vorrichtung nach einem der Ansprüche 12 bis 17 zur Erzeugung von Klasseninformationen (KIl, ... , KIn; KIl' , ... , KIn' ) , wobei die Klasseninformationen (KIl, ... , KIn; KIl' , ... , KIn') der Übertragungseinheit (200) beaufschlagt sind.20. Hearing aid with a transmission unit (200) that is operatively connected on the input side at least to a microphone and on the output side to a transducer unit, in particular a receiver, and with a device according to one of claims 12 to 17 for generating class information (KIl, ... , KIn; KIl ', ..., KIn'), the class information (KIl, ..., KIn; KIl ', ..., KIn') of the transmission unit (200) being applied.
21. Hörhilfegerät nach Anspruch 20, dadurch gekennzeichnet, dass eine Eingabeeinheit (300) vorgesehen ist, die, vorzugsweise über eine Funkstrecke, mit der Übertragungseinheit (200) und/oder mit der Vorrichtung nach einem der Ansprüche 12 bis 17 wirkverbunden ist. 21. Hearing aid according to claim 20, characterized in that an input unit (300) is provided which is operatively connected, preferably via a radio link, to the transmission unit (200) and / or to the device according to one of claims 12 to 17.
PCT/CH2002/000049 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid WO2002032208A2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
AU2472202A AU2472202A (en) 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid
CA2439427A CA2439427C (en) 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid
JP2002535462A JP3987429B2 (en) 2002-01-28 2002-01-28 Method and apparatus for determining acoustic environmental conditions, use of the method, and listening device
EP02706499.7A EP1470735B1 (en) 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid
AU2002224722A AU2002224722B2 (en) 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid
PCT/CH2002/000049 WO2002032208A2 (en) 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH2002/000049 WO2002032208A2 (en) 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid

Publications (2)

Publication Number Publication Date
WO2002032208A2 true WO2002032208A2 (en) 2002-04-25
WO2002032208A3 WO2002032208A3 (en) 2002-12-05

Family

ID=4358282

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH2002/000049 WO2002032208A2 (en) 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid

Country Status (5)

Country Link
EP (1) EP1470735B1 (en)
JP (1) JP3987429B2 (en)
AU (2) AU2002224722B2 (en)
CA (1) CA2439427C (en)
WO (1) WO2002032208A2 (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1320281A2 (en) 2003-03-07 2003-06-18 Phonak Ag Binaural hearing device and method for controlling a such a hearing device
EP1326478A2 (en) 2003-03-07 2003-07-09 Phonak Ag Method for producing control signals, method of controlling signal transfer and a hearing device
WO2004114722A1 (en) * 2003-06-24 2004-12-29 Gn Resound A/S A binaural hearing aid system with coordinated sound processing
EP1532841A1 (en) * 2002-05-21 2005-05-25 Hearworks Pty Ltd. Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
EP1538874A2 (en) * 2003-12-01 2005-06-08 Siemens Audiologische Technik GmbH Hearing device with direction dependent signal processing and corresponding method
US6912289B2 (en) 2003-10-09 2005-06-28 Unitron Hearing Ltd. Hearing aid and processes for adaptively processing signals therein
EP1691574A2 (en) 2005-02-11 2006-08-16 Phonak Communications Ag Method and system for providing hearing assistance to a user
EP1819195A2 (en) 2006-02-13 2007-08-15 Phonak Communications Ag Method and system for providing hearing assistance to a user
EP1858292A1 (en) 2006-05-16 2007-11-21 Phonak AG Hearing device and method of operating a hearing device
WO2007131815A1 (en) * 2006-05-16 2007-11-22 Phonak Ag Hearing device and method for operating a hearing device
EP2192794A1 (en) 2008-11-26 2010-06-02 Oticon A/S Improvements in hearing aid algorithms
WO2010133703A2 (en) 2010-09-15 2010-11-25 Phonak Ag Method and system for providing hearing assistance to a user
US7889879B2 (en) 2002-05-21 2011-02-15 Cochlear Limited Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
US7957548B2 (en) 2006-05-16 2011-06-07 Phonak Ag Hearing device with transfer function adjusted according to predetermined acoustic environments
US7986790B2 (en) 2006-03-14 2011-07-26 Starkey Laboratories, Inc. System for evaluating hearing assistance device settings using detected sound environment
US8027495B2 (en) 2003-03-07 2011-09-27 Phonak Ag Binaural hearing device and method for controlling a hearing device system
US8068627B2 (en) 2006-03-14 2011-11-29 Starkey Laboratories, Inc. System for automatic reception enhancement of hearing assistance devices
WO2012010218A1 (en) 2010-07-23 2012-01-26 Phonak Ag Hearing system and method for operating a hearing system
US8111848B2 (en) 2003-03-07 2012-02-07 Phonak Ag Hearing aid with acoustical signal direction of arrival control
EP2249586A3 (en) * 2003-03-03 2012-06-20 Phonak AG Method for manufacturing acoustical devices and for reducing wind disturbances
US8249284B2 (en) 2006-05-16 2012-08-21 Phonak Ag Hearing system and method for deriving information on an acoustic scene
US8494193B2 (en) 2006-03-14 2013-07-23 Starkey Laboratories, Inc. Environment detection and adaptation in hearing assistance devices
WO2013170885A1 (en) * 2012-05-15 2013-11-21 Phonak Ag Method for operating a hearing device as well as a hearing device
US8605923B2 (en) 2007-06-20 2013-12-10 Cochlear Limited Optimizing operational control of a hearing prosthesis
US8873780B2 (en) 2010-05-12 2014-10-28 Phonak Ag Hearing system and method for operating the same
US8958586B2 (en) 2012-12-21 2015-02-17 Starkey Laboratories, Inc. Sound environment classification by coordinated sensing using hearing assistance devices
CN112954569A (en) * 2021-02-20 2021-06-11 深圳市智听科技有限公司 Multi-core hearing aid chip, hearing aid method and hearing aid

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738666B2 (en) 2006-06-01 2010-06-15 Phonak Ag Method for adjusting a system for providing hearing assistance to a user
JP2012083746A (en) * 2010-09-17 2012-04-26 Kinki Univ Sound processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001020965A2 (en) * 2001-01-05 2001-03-29 Phonak Ag Method for determining a current acoustic environment, use of said method and a hearing-aid
WO2001076321A1 (en) * 2000-04-04 2001-10-11 Gn Resound A/S A hearing prosthesis with automatic classification of the listening environment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001076321A1 (en) * 2000-04-04 2001-10-11 Gn Resound A/S A hearing prosthesis with automatic classification of the listening environment
WO2001020965A2 (en) * 2001-01-05 2001-03-29 Phonak Ag Method for determining a current acoustic environment, use of said method and a hearing-aid

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889879B2 (en) 2002-05-21 2011-02-15 Cochlear Limited Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
EP1532841A4 (en) * 2002-05-21 2008-12-24 Hearworks Pty Ltd Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
EP1532841A1 (en) * 2002-05-21 2005-05-25 Hearworks Pty Ltd. Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
US8532317B2 (en) 2002-05-21 2013-09-10 Hearworks Pty Limited Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
EP2249586A3 (en) * 2003-03-03 2012-06-20 Phonak AG Method for manufacturing acoustical devices and for reducing wind disturbances
US8027495B2 (en) 2003-03-07 2011-09-27 Phonak Ag Binaural hearing device and method for controlling a hearing device system
US8111848B2 (en) 2003-03-07 2012-02-07 Phonak Ag Hearing aid with acoustical signal direction of arrival control
US7286672B2 (en) 2003-03-07 2007-10-23 Phonak Ag Binaural hearing device and method for controlling a hearing device system
EP1320281A2 (en) 2003-03-07 2003-06-18 Phonak Ag Binaural hearing device and method for controlling a such a hearing device
EP1326478A2 (en) 2003-03-07 2003-07-09 Phonak Ag Method for producing control signals, method of controlling signal transfer and a hearing device
US7773763B2 (en) 2003-06-24 2010-08-10 Gn Resound A/S Binaural hearing aid system with coordinated sound processing
CN108882136B (en) * 2003-06-24 2020-05-15 Gn瑞声达A/S Binaural hearing aid system with coordinated sound processing
WO2004114722A1 (en) * 2003-06-24 2004-12-29 Gn Resound A/S A binaural hearing aid system with coordinated sound processing
CN108882136A (en) * 2003-06-24 2018-11-23 Gn瑞声达A/S With the binaural hearing aid system for coordinating acoustic processing
US6912289B2 (en) 2003-10-09 2005-06-28 Unitron Hearing Ltd. Hearing aid and processes for adaptively processing signals therein
EP1538874A3 (en) * 2003-12-01 2010-01-20 Siemens Audiologische Technik GmbH Hearing device with direction dependent signal processing and corresponding method
EP1538874A2 (en) * 2003-12-01 2005-06-08 Siemens Audiologische Technik GmbH Hearing device with direction dependent signal processing and corresponding method
EP1691574A2 (en) 2005-02-11 2006-08-16 Phonak Communications Ag Method and system for providing hearing assistance to a user
EP1819195A2 (en) 2006-02-13 2007-08-15 Phonak Communications Ag Method and system for providing hearing assistance to a user
US9264822B2 (en) 2006-03-14 2016-02-16 Starkey Laboratories, Inc. System for automatic reception enhancement of hearing assistance devices
US7986790B2 (en) 2006-03-14 2011-07-26 Starkey Laboratories, Inc. System for evaluating hearing assistance device settings using detected sound environment
US8068627B2 (en) 2006-03-14 2011-11-29 Starkey Laboratories, Inc. System for automatic reception enhancement of hearing assistance devices
US8494193B2 (en) 2006-03-14 2013-07-23 Starkey Laboratories, Inc. Environment detection and adaptation in hearing assistance devices
EP1858292A1 (en) 2006-05-16 2007-11-21 Phonak AG Hearing device and method of operating a hearing device
US7957548B2 (en) 2006-05-16 2011-06-07 Phonak Ag Hearing device with transfer function adjusted according to predetermined acoustic environments
US8249284B2 (en) 2006-05-16 2012-08-21 Phonak Ag Hearing system and method for deriving information on an acoustic scene
WO2007131815A1 (en) * 2006-05-16 2007-11-22 Phonak Ag Hearing device and method for operating a hearing device
US8605923B2 (en) 2007-06-20 2013-12-10 Cochlear Limited Optimizing operational control of a hearing prosthesis
EP2192794A1 (en) 2008-11-26 2010-06-02 Oticon A/S Improvements in hearing aid algorithms
US8873780B2 (en) 2010-05-12 2014-10-28 Phonak Ag Hearing system and method for operating the same
WO2012010218A1 (en) 2010-07-23 2012-01-26 Phonak Ag Hearing system and method for operating a hearing system
US9167359B2 (en) 2010-07-23 2015-10-20 Sonova Ag Hearing system and method for operating a hearing system
US9131318B2 (en) 2010-09-15 2015-09-08 Phonak Ag Method and system for providing hearing assistance to a user
WO2010133703A2 (en) 2010-09-15 2010-11-25 Phonak Ag Method and system for providing hearing assistance to a user
WO2013170885A1 (en) * 2012-05-15 2013-11-21 Phonak Ag Method for operating a hearing device as well as a hearing device
US9584930B2 (en) 2012-12-21 2017-02-28 Starkey Laboratories, Inc. Sound environment classification by coordinated sensing using hearing assistance devices
US8958586B2 (en) 2012-12-21 2015-02-17 Starkey Laboratories, Inc. Sound environment classification by coordinated sensing using hearing assistance devices
CN112954569A (en) * 2021-02-20 2021-06-11 深圳市智听科技有限公司 Multi-core hearing aid chip, hearing aid method and hearing aid

Also Published As

Publication number Publication date
JP2005504325A (en) 2005-02-10
WO2002032208A3 (en) 2002-12-05
JP3987429B2 (en) 2007-10-10
EP1470735B1 (en) 2019-08-21
CA2439427A1 (en) 2002-04-25
AU2472202A (en) 2002-04-29
EP1470735A2 (en) 2004-10-27
CA2439427C (en) 2011-03-29
AU2002224722B2 (en) 2008-04-03

Similar Documents

Publication Publication Date Title
EP1470735B1 (en) Method for determining an acoustic environment situation, application of the method and hearing aid
DE60120949T2 (en) A HEARING PROSTHESIS WITH AUTOMATIC HEARING CLASSIFICATION
DE69432943T2 (en) Method and device for speech detection
WO2001020965A2 (en) Method for determining a current acoustic environment, use of said method and a hearing-aid
EP1247425B1 (en) Method for operating a hearing-aid and a hearing aid
EP1647972A2 (en) Intelligibility enhancement of audio signals containing speech
EP2405673B1 (en) Method for localising an audio source and multi-channel audio system
EP3386215B1 (en) Hearing aid and method for operating a hearing aid
DE112016007138T5 (en) DEVICE AND METHOD FOR MONITORING A WEARING STATE OF AN EARPHONE
EP2200341B1 (en) Method for operating a hearing aid and hearing aid with a source separation device
DE69511602T2 (en) Signal source characterization system
DE102015221764A1 (en) Method for adjusting microphone sensitivities
DE19948907A1 (en) Signal processing in hearing aid
DE102006001730A1 (en) Sound system, method for improving the voice quality and / or intelligibility of voice announcements and computer program
DE10114101A1 (en) Processing input signal in signal processing unit for hearing aid, involves analyzing input signal and adapting signal processing unit setting parameters depending on signal analysis results
EP2792165B1 (en) Adaptation of a classification of an audio signal in a hearing aid
EP1303166B1 (en) Method of operating a hearing aid and assembly with a hearing aid
EP3403260B1 (en) Method and apparatus for conditioning an audio signal subjected to lossy compression
EP1649719B1 (en) Device and method for operating voice-assisted systems in motor vehicles
EP1348315B1 (en) Method for use of a hearing-aid and corresponding hearing aid
EP0540535B1 (en) Process for speaker adaptation in an automatic speech-recognition system
DE19813512A1 (en) Hearing aid with noise signal suppression
DE10137685C1 (en) Speech signal detection method for hearing aid provides evaluation index from correlation between instant amplitude signal and instant frequency signal
EP1366617B1 (en) Method and device for improving voice quality on transparent telecommunication-transmission paths
DE10137395C1 (en) Noise interference suppression method in hearing aid, involves performing non-linear modification of instant amplitude signal to obtain modified signal for linking with instant phase signal to output voice signal

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
AK Designated states

Kind code of ref document: A3

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A3

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2002706499

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2002224722

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2439427

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2002535462

Country of ref document: JP

WWP Wipo information: published in national office

Ref document number: 2002706499

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642