Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne informieren wir Sie über den nächsten Termin unseres
Kommunikationstechnischen Kolloquiums.
*Donnerstag, 4. Juli 2019*
*Vortragender*: David Hilkert
*Ort*: Hörsaal 4G IKS
*Zeit*: 11:15 Uhr
*Master-Vortrag*: Aktive Störgeräuschunterdrückung für Kopfhörer unter
Berücksichtigung statistischer und psychoakustischer Eigenschaften
Um Störgeräusche über die Grenzen der passiven Dämpfung hinaus zu
reduzieren, kann ein System zur aktiven Störgeräuschreduktion
(ANC-System) verwendet werden. Für die Auslegung eines ANC-System werden
die akustischen Übertragungsfunktionen des Primärpfads P(z) und des
Sekundärpfads S(z) benötigt. Diese stellen die elektro-akustischen
Übertragungsfunktionen zwischen den Mikrofonen und dem Lautsprecher dar.
Jedoch variieren diese Übertragungsfunktionen zwischen Personen,
Situationen und der Störgeräuschausrichtung. Um die Abweichungen
zwischen Personen festzustellen, wird in dieser Arbeit eine
zeitkontinuierliche Messreihe vorgestellt und die daraus resultierenden
Primär- und Sekundärpfade verglichen. Die Messung wurde mit 25
Testpersonen im Alter zwischen 21 und 61 in einem reflexionsarmen Raum
durchgeführt.
Die Korrelation zwischen Primär- und Sekundärpfad wird untersucht, um
eine Annäherung an den aktuell vorliegenden Primärpfad zu erhalten und
das ANC-System besser an die tragende Person anzupassen. Es werden
/Hybrid/ ANC-Systeme entwickelt, welche für verschiedene Personen und
Situationen stabil sind und perfomant dämpfen. Die Systeme werden anhand
psychoakustischer Gewichtungen auf das menschliche Gehör zugeschnitten.
Die entwickelten ANC-Systeme werden im Rahmen eines Hörtests untersucht.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeine Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium/
--
Irina Ronkartz
Institute of Communication Systems (IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958 (phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne laden wir Sie zu einem Promotionsvortrag ein.
Vortragender: Herr Dipl.-Ing. Thomas Schlien
Thema: *HD-Telephony by Artificial Bandwidth Extenstion*
Zeit: Donnerstag, 18. Juli 2019, 10:00 Uhr
Ort: Institut für Kommunikationssysteme, Muffeter Weg 3A, Hörsaal 4G
The audio bandwidth of digital landline and mobile telephone networks is
still mostly restricted to the frequency range of 200 Hz to 3.4 kHz.
This is due to compatibility requirements in the transition phase from
analogue to digital transmission technology. The resulting
characteristic "telephone speech" is widely accepted, but the
intelligibility of syllables is only 91%.
Meanwhile, improved coding standards for so-called "HD voice" or
"Wideband Speech" are available which are gradually being introduced
into the networks. They support an audio frequency bandwidth of 50 Hz to
7.0 kHz with significantly increased audio quality and speech
intelligibility. For a very long time however, new HD-telephones and old
narrowband telephones have to co-exist. If an HD-terminal is connected
over a narrowband link to an old telephone, the improved coding scheme
cannot be used.
In this thesis, signal-processing concepts are developed for improving
audio quality and intelligibility of narrowband speech by artificial
bandwidth extension (ABWE). From a system theoretical point of view,
this seems to be questionable. However, in the case of speech signals,
redundancy of the source-filter model of speech production as well as
the mechanisms of human hearing can be exploited to recover or mimic
missing parts to a certain extent. These algorithms can be applied in HD
terminals or in the network, to transform narrowband speech to HD voice.
In comparison to the state-of-the-art of ABWE approaches, the main
contributions are:
* a new concept of estimating the wideband spectral envelope in terms
of the model filter by interpolation in the acoustic tube domain
* novel algorithms for spectral extension of the excitation signal
* new insights concerning the relative importance of the excitation,
the temporal envelope and the spectral envelope
* remarkable improvements of the speech quality and computational
complexity
The improvements are verified by objective evaluation and subjective
listening tests.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
--
Irina Ronkartz
Institute of Communication Systems (IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958 (phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne informieren wir Sie über den nächsten Termin unseres
Kommunikationstechnischen Kolloquiums.
*Montag, 17. Juni 2019**
**Vortragender*: Wojciech Ruhnke
*Ort*: Hörsaal 4G IKS
*Zeit*: 11:00 Uhr
*Master-Vortrag*: Design of an Acoustic Front-End for Active Noise
Cancellation in Headphone Applications
Noise cancellation is desirable in many situations. Headphones offer a
convenient way to achieve passive noise attenuation directly at the
listener's ears. Additionally, noise can be attenuated by emitting a
counter wave which destructively interferes with the noise. Due to
rapidly evolving signal processors, active noise control methods improve
and gain better performance continuously. This performance however,
depends on large number of parameters. Design parameters like the choice
of the actuators (loudspeaker) and the sensors (microphones) have a
strong influence. Furthermore, the structure and construction of the
system influence the transfer characteristics. Only a suitable design
allows for good active noise cancellation.
The behavior of the system also depends on situation dependent
parameters (uncertainties) that impede the active control of sound.
Three different driver types are investigated in the course of this
thesis, considering the system performance in the presence of
uncertainties. In addition, structure design parameters such as front
and back volume of headphones are investigated. Physical models of the
human ear canal and an in-ear headphone structure are used to measure
the influence of the parameters described above. Furthermore, lumped
parameter modeling of headphone applications is considered.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeine Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium/
--
Irina Ronkartz
Institute of Communication Systems (IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958 (phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne informieren wir Sie über die nächsten Termine unseres
Kommunikationstechnischen Kolloquiums.
*Mittwoch, 5. Juni 2019*
*Vortragender*: Andreas Behler
*Ort:* Hörsaal 4G IKS
*Zeit:* 11:15 Uhr
*Master-Vortrag:* Investigations on the Translational Displacement
within a Higher Order Ambisonics Sound Field Representation
With the advance of video recordings in the field of six degrees of
freedom, the audio recordings have to adapt. The availability of
spherical microphone arrays and a growing research interest make
Ambisonics an attractive tool and its possible ability to facilitate
soundfield navigation is intriguing.
This thesis explored a way to enable a position change within higher
order Ambisonics recording with a single spherical microphone array. For
this a parametric decomposition of the recorded sound field was used
based on the /coding and multidirectional parametrisation of Ambisonic
sound scenes/ method. With it an algorithm was developed with the
ability to adjust the loudness and rotate primary signal parts to
compute a translational shift. As a prerequisite the algorithm needs
distance information of the recorded scene. Furthermore, a way to adapt
to differently conditioned signals was developed. It was evaluated along
with the proposed algorithm in a realistic surrounding with objective
measurements.
For a subjective impression a listening test was conducted with 31
participants using a spherical loudspeaker setup. The objective and
subjective tests included a comparison to higher oder Ambisonics
warping, a zooming method for Ambisonics. The evaluations of both tests
returned positive results.
und
*Donnerstag, 6. Juni 2019*
*Vortragender*: Marcel Czaplinski
*Ort:* Hörsaal 4G IKS
*Zeit:* 11:15 Uhr
*Master-Vortrag*: Machine Learning Techniques to Reconstruct Lost Parts
of Speech Signals
Applications for Speech transmission and mobile communication have high
demands for speech intelligibility and authenticity. Errors and
corruptions of different types are commonly occuring. Often, parts of
the speech signal are missing completely.
A major task in speech processing and transmission is the enhancement of
a speech signal and minimizing distortions that occur as a result of
corruptions. If the distorted signal parts of the speech signal cannot
be restored, they can be dropped completely and reconstructed to a
certain degree from the uncorrupted parts of the signal. This technique
is the core idea of the well-known /packet loss concealment/ (PLC) and
/bandwidth extension/ (BWE). However, these tools assume the missing
parts to be of time or frequency limited shape.
/Speech inpainting/, the task of the reconstruction of lost parts of a
speech signal of any shape, extends BWE and PLC to a generalized
concept. Some dictionary based speech inpainters have been proposed from
various researchers in the past. Despite the progress and promising
results of recent machine learning research from related topics like
image inpainting, not many endeavours have been made to use signal
processing and machine learning jointly to build speech inpainters.
A general framework and overview of a machine learning assisted speech
inpainter will be provided. A selection of preprocessing tools and
algorithms will be analyzed in the context of different corruption types
and the results compared to a simple interpolation algorithm.
Furthermore, time and frequency interpolation capabilities of algorithms
and speech features will become interpretable and new insights into
existing problems will be granted.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeine Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium/
--
Irina Ronkartz
Institute of Communication Systems (IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958 (phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne informieren wir Sie über den nächsten Termin unseres
Kommunikationstechnischen Kolloquiums.
*Mittwoch, 8. Mai 2019*
*Vortragender*: Jonathan Domm
*Ort:* Hörsaal 4G IKS
*Zeit: *11:15 Uhr
*Master-Vortrag*: Signaladaptive Verbesserung räumlicher Audiosignale
mit Hilfe von Stützmikrofonen
In vielen verschiedenen Anwendungen ist ein Mix an räumlichen
Audiosignalen vorhanden. Diese können verschiedene Sprach- aber auch
Musiksignale sein, die mit einem Hauptmikrofon aufgenommen werden. Nun
ist es möglich, dass eine bestimmte Quelle im Mix im Nachhinein
manipuliert werden soll. Diese Arbeit evaluiert die Frage, ob es
sinnvoll sein kann, während der Laufzeit der Aufnahme, ein zusätzliches
Referenzmikrofon vor der zu manipulierenden Quelle zu platzieren, um im
Anschluss diese zusätzlichen Informationen zu nutzen, um das Signal des
Mix entsprechend zu manipulieren.
Zuerst wurde getestet, ob das Referenzmikrofonsignal die gewünschte
Quelle gut genug aufnimmt und inwieweit die anderen Quellen das
Referenzmikrofonsignal stören. Danach wurde die Systemidentifikation
evaluiert, um zu wissen, wie der Raum den Schall zwischen dem Referenz-
und Hauptmikrofon beeinflusst. Sobald dieser Übertragungspfad bekannt
ist, kann das Hauptmikrofonsignal manipuliert werden. Dies wurde in
dieser Arbeit im HOA-Bereich durchgeführt, um die räumlichen
Informationen am Ort des Hauptmikrofons zu berücksichtigen. Dabei ist es
beispielsweise möglich die räumliche Position einer gewünschten Quelle
zu ändern. Zum Schluss wurde der Ansatz einer Energieimpulsantwort
evaluiert. Bei ihr werden nicht der komplette Übertragungspfad zwischen
dem Referenz- und Hauptmikrofon, sondern nur die Energieimpulse in
Blöcken betrachtet.
Diese Arbeit zeigt, dass es möglich ist eine bestimmte Quelle im Signal
des Hauptmikrofons zu manipulieren, auch wenn die Störung anderer
Quellen dabei einen Einfluss hat. Es hat sich herausgestellt, dass auf
Grund von Korrelationseigenschaften von Sprachsignalen der Ansatz der
Energieübertragungsfunktion in dieser Arbeit nicht anwendbar ist.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeinen Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium/
--
Irina Ronkartz
Institute of Communication Systems (IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958 (phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne informieren wir Sie über den nächsten Termin unseres
Kommunikationstechnischen Kolloquiums.
*Donnerstag, 2. Mai 2019**
**Vortragender:* Patrick von Platen
*Ort: *Hörsaal 4G IKS
*Zeit:* 14:00 Uhr
*Master-Vortrag: *Speech Recognition with Deep Neural Networks for Raw
Multichannel Signals
Traditional automatic speech recognition (ASR) systems often use an
acoustic model (AM) built on handcrafted acoustic features, such as log
Mel-filter bank (FBANK) values. Recent studies found that AMs with
convolutional neural networks (CNNs) can directly use the raw waveform
signal as input. Given sufficient training data, these AMs can yield a
competitive word error rate (WER) to those built on FBANK features.
In this thesis a novel multi-span structure for acoustic modelling based
on both single- and multi-channel raw waveform signal is proposed, which
is based on multiple streams of CNN input layers, each processing a
different span of the raw waveform signal. Experiments on both CHiME4
and AMI single-channel data show that the multi-span structure can
significantly outperform conventional AMs based on FBANKs.
Furthermore, it is shown that a widely used single-span raw waveform AM
can be improved significantly by using a smaller CNN kernel size and
increased stride to yield improved WERs. Experiments on CHiME4
multi-channel data show that CNN input layer kernels can learn to filter
frequencies synchronously on multiple channel inputs. While the WERs
obtained for multi-channel raw waveform acoustic modelling are
encouraging, they still lag behind WERs obtained by AMs built on more
robust log-Mel filterbank acoustic features, which are preprocessed by
beamforming.
Analysis reveals that, the AM's increased set of parameters for
multi-channel raw waveform signal input aggravates its CNN input layer
kernels to learn robust feature representations. In further work more
sophisticated regularization techniques and additional experiments for
multi-channel raw waveform acoustic modelling can be investigated.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeine Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium/
--
Irina Ronkartz
Institute of Communication Systems(IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958(phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne informieren wir Sie über die nächsten Termine unseres
Kommunikationstechnischen Kolloquiums.
*Montag, 29. April 2019*
*Vortragender:* Pascal Mousel
*Ort:* Hörsaal 4G IKS
*Zeit*: 11:00 Uhr
*Master-Vortrag*: Signalzerlegung für die Kalman-Filter basierte
Stereo-Echokompensation
In der adaptiven Stereo-Echokompensation stellt die starke Korrelation
zwischen den beiden Kanälen des Stereo-Eingangssignals eine große
Herausforderung dar. Diese verursacht ein Non-Uniqueness Problem bei der
Berechnung der Signalschätzung zur Echokompensation im adaptiven Filter.
Die nur langsam gegen eine richtige Lösung konvergierende
Echokompensation wird aus diesem Grund bei jeder Signalveränderung
abfallen und die Schätzung neu angesetzt werden.
Um diesem Problem entgegenzuwirken, werden in dieser Arbeit Methoden
erarbeitet das Stereo-Eingangssignal in zwei stark korrelierte
Primäranteile und zwei von diesen aber auch untereinander unkorrelierte
Ambientanteile aufzuteilen. Diese können durch einen mehrkanaligen
adaptiven Stereo-Echokompensator auf Kalman-Filter Basis getrennt
bearbeitet werden. Dadurch kann das Schätzproblem verbessert werden,
weil die Schätzungen der Ambientanteile eine bessere Konvergenz haben,
auch wenn die Primäranteile nach wie vor sehr langsam konvergieren.
In der Arbeit wird gezeigt, dass die Methoden zur Signalzerlegung einen
positiven Einfluss auf die erreichte Echokompensation haben. Es wird
anhand von Simulationen analysiert, wie die Methoden die besten
Ergebnisse erzielen können. Mit dem Splitter verbundene Probleme oder
Schwachstellen werden aufgezeigt und diskutiert. Es werden Ergebnisse
präsentiert und Möglichkeiten zur Erweiterung dieser Arbeit angegeben.
und
*Dienstag, 30. April 2019*
*Vortragender:* Jan Stephan
*Ort:* Hörsaal 4G IKS
*Zeit:* 11:15 Uhr
*Bachelor-Vortrag*: Optimierung von Übersprechkompensationsfiltern für
die binaurale Wiedergabe über Lautsprecher
Bei der Wiedergabe von Binauralsignalen über Lautsprecher müssen das
Übersprechen und die Frequenzgänge der Lautsprecher mittels einer sog.
Übersprechkompensation entzerrt werden, um eine korrekte Wiedergabe des
Binauralsignals an den Ohren des Zuhörers zu ermöglichen. Dabei ist es
möglich, dass sehr große Verstärkungen in den
Übersprechkompensationsfiltern auftreten. Dies birgt zahlreiche Nachteile.
In dieser Arbeit wurde daher eine frequenzabhängige Regularisierung
untersucht, um diese Verstärkungen zu begrenzen. Dazu wurde ein
Optimierungskriterium basierend auf einem symmetrischen Modell der
Freifeldübertragung auf beliebige (asymmetrische) Übertragungsfunktionen
erweitert. Die Untersuchungen wurden mit einer Anordnung von zwei
Lautsprechern durchgeführt.
Die erarbeitete frequenzabhängige Regularisierung erfüllt das geforderte
Optimierungskriterium. Erste Auswertungen legen eine Robustheit
gegenüber leichten Kopfdrehungen nahe. Eine weitergehende
psychoakustische Auswertung steht noch aus.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeine Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium/
--
Irina Ronkartz
Institute of Communication Systems(IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958(phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne informieren wir Sie über den nächsten Termin unseres
Kommunikationstechnischen Kolloquiums.
*Dienstag, 23. April 2019*
*Vortragender*: Si Hu
*Ort:* Hörsaal 4G IKS
*Zeit*: 14:00 Uhr
*Master-Vortrag*: Investigations on Joint Application of Blind Source
Separation and Primary-Ambient Extraction to Stereo Signals
Due to the rapid development of surround sound systems, audio files in
multi-channel format are increasingly required. In consideration of the
fact that most legacy audio recordings are in stereo format, it is
favorable to convert these audio recordings in stereo multi-channel
format which refers to upmixing technology. In the upmixing process,
so-called primary and ambient components play an important role. They
are extracted from the input stereo signal by means of Primary-Ambient
Extraction (PAE). There are many PAE approaches available, but they have
a common shortcoming. When they handle audio signals with multiple
concurrent primary sources, the extraction quality will dastically
degrade and the listening experience will be significantly impaired.
In order to address this issue, we consider to incorporate Blind Source
Separation (BSS) into the PAE process. In BSS, it is investigated how to
recover every single sound source form a mixed audio signal. The basic
idea is that an audio signal with multiple concurrent primary sources
can be separated into several sub-signals by means of BSS. Each
sub-signal is expected to contain only on primary source. Then PAE is
executed for every single sub-signal. Theoretically, PAE processing
should be facilitated, because PAE works well when dealing with the
signals with only a single primary soure.
In this thesis, the feasibility of this idea is validated. Non-negative
Tensor Factorization (NTF), as a prevalent BSS technique, is employed in
the experiments. We propose several NTF based strategies to execute PAE
on audio input signals with three primary sources. A series of numerical
experimental results and subjective listening tests show that the PAE
performance can be enhanced in this way in the case of multiple primary
sources.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeine Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium/
--
Irina Ronkartz
Institute of Communication Systems(IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958(phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquiums-Newsletters,
gerne informieren wir Sie über den nächsten Termin unseres
Kommunikationstechnischen Kolloquiums.
*Mittwoch, 16. Januar 2019*
*Vortragender*: Christoph Weyer
*Ort*: Hörsaal 4G IKS
*Zeit*: 11:00 Uhr
*Master-Vortra**g*: Analyse und Modifikation binauraler akustischer Szenen
Binauralaufnahmen ermöglichen eine Reproduktion der interaulen Merkmale
einer akustischen Szene und damit des räumlichen Höreindrucks.
Entsprechende Aufnahmen können zum Beispiel mit einem Kunstkopf erzeugt
werden. Da der Kunstkopf während der Aufnahme jedoch statisch ist, nimmt
er die interauralen Merkmale nur für eine bestimmte Drehung des Kopfes
auf. Bewegt der Hörer nun bei der Wiedergabe seinen Kopf, wird der
räumliche Höreindruck abgeschwächt, da sich die interauralen Merkmale
nicht wie in einer realen akustischen Szene in Abhängigkeit der Drehung
des Kopfes verändern.
Der von Nagel und Jax entwickelte Binaural-Cue-Adaption-Algorithmus
(BCA-Algorithmus) adaptiert die interauralen Merkmale in der
Kunstkopfaufnahme entsprechend der aktuellen Kopfrotation des Hörers.
Die Kopfrotation wird dabei mit einem Headtracker gemessen. Nagel und
Jax zeigen, dass dadurch der räumliche Höreindruck verbessert wird. Der
Algorithmus verzerrt den Klang des Signals jedoch auch auf unerwünschte
Weise.
In der vorliegenden Arbeit werden diese Verzerrungen des Klangs
analysiert. Es wird gezeigt, dass Nachhall die Verzerrungen des Klangs
verursachen kann, da er vom Algorithmus nicht korrekt verarbeitet wird.
Die Verzerrungen des Klangs schlagen sich zumindest teilweise in
Verzerrungen des Power Spectrums nieder.
Auf dieser Erkenntnis aufbauend werden zwei Verfahren zur Verbesserung
des BCA-Algorithmus entwickelt und evaluiert: Eine Abtrennung und
separate Verarbeitung des Halls mittels einer von He für Binauralsignale
modifizierten Primary-Ambient Extraction und eine Entzerrung des Signals
aufgrund der empirisch ermittelten Verzerrungen des Power Spectrums.
Während die in der Arbeit vorgestellte Implementierung der modifizierten
Primary-Ambient Extraction aufgrund starker Audioartefakte insgesamt
keine Verbesserung des Klangs ermöglicht, zeigt die Entzerrung Potential
zur Verbesserung des Algorithmus.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeine Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium
--
Irina Ronkartz
Institute of Communication Systems(IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958(phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/
Sehr geehrte Abonnenten des Kolloquium-Newsletters,
gerne informieren wir Sie über den nächsten Termin unseres
Kommunikationstechnischen Kolloquiums.
*Montag, 3. Dezember 2018*
*Vortragender*: Jakob Wunsch
*Ort*: Hörsaal 4G IKS
*Zeit*: 11:00 Uhr
*Master-Vortrag*: Erstellung einer Methode zur Anforderungsbewertung von
Fahrszenarien mit Reinforcement Learning
Während die technische Entwicklung hochautomatisierter Fahrfunktionen
immer weiter voranschreitet, ist die Suche nach einer geeigneten
Freigabemethode zum Nachweis der Sicherheit der Fahrfunktion im
Straßenverkehr noch immer Gegenstand aktueller Forschung. Eine mögliche
Freigabemethode stellt hierbei der Szenarienbasierte Freigabeansatz dar,
welcher die Erprobung einer zukünftigen, hochautomatisierten
Fahrfunktion einzig auf die Situationen und Szenarien begrenzt, welche
die Fahrfunktion vor eine Herausforderung stellen.
Um in diesem Zusammenhang die für Erprobung relevanten, herausfordernden
Situationen und Szenarien identifizieren zu können, gilt es zunächst
alle in Messdaten vorhandene Situationen und Szenarien hinsichtlich
ihrer Anforderungen an die Fahrfunktion zu bewerten. Bestehende
Bewertungsmethoden besitzen den Nachteil, dass sie bei der Bewertung der
Anforderung zum einen nicht die zum Zeitpunkt der Betrachtung
vorherrschende, gesamte Verkehrssituation, sowie zum anderen nicht die
weiteren, zukünftigen Verläufe des momentanen Szenarios berücksichtigen.
Aus diesem Grund wird in dieser Arbeit eine Methode zur
Anforderungsbewertung entwickelt, welche die Anforderung die eine
Situation oder ein Szenario an eine Fahrfunktion stellt, objektiv
bewertet und dabei sowohl die gesamte, momentane Verkehrssituation als
auch mögliche weitere Verläufe des momentanen Fahrszenarios
berücksichtigt. Als Neuerung kommt zur Bewertung der Anforderung hierbei
erstmals ein tiefes neuronales Netz zur Anwendung, welches mittels
Reinforcement Learning trainiert wird.
Alle Interessierten sind herzlich eingeladen, eine Anmeldung ist nicht
erforderlich.
Allgemeine Informationen zum Kolloquium, sowie eine aktuelle Liste der
Termine des Kommunikationstechnischen Kolloquiums finden Sie unter:
http://www.iks.rwth-aachen.de/aktuelles/kolloquium/
--
Irina Ronkartz
Institute of Communication Systems(IKS)
RWTH Aachen University
Muffeter Weg 3a, 52074 Aachen, Germany
+49 241 80 26958(phone)
ronkartz(a)iks.rwth-aachen.de
http://www.iks.rwth-aachen.de/