Skip to content

Commit b301d62

Browse files
Merge pull request #12 from schuler-henry/master
Bring documentation to 7-lpc
2 parents a58ed0a + 8915ab4 commit b301d62

File tree

8 files changed

+333
-11
lines changed

8 files changed

+333
-11
lines changed

chapter/Basisarchitektur.tex

Lines changed: 0 additions & 1 deletion
This file was deleted.

chapter/Einleitung.tex

Lines changed: 26 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1 +1,27 @@
11
\section{Einleitung}\label{sec:Einleitung}
2+
Im Rahmen des Informatikstudiums an der \ac{DHBW} Ravensburg muss im dritten Studienjahr eine Studienarbeit abgelegt werden.
3+
Die Hochschule stellt dafür eine Auswahl an Themen zur Verfügung.
4+
Eines dieser Themen beschäftigt sich mit der Problematik der Sprecherauthentifizierung, wobei es Nutzern ermöglicht werden soll, sich über ihre Stimme zu authentifizieren.
5+
In dieser Arbeit sollen die Grundlagen für die Bearbeitung dieser Studienarbeit behandelt werden.
6+
7+
\subsection{Kontext}
8+
Damit ein Zusammenhang zwischen Stimme und Audioaufzeichnung hergestellt werden kann, müssen stimm\-spezifische Merkmale aus dem aufgezeichneten Stimmsignal extrahiert werden.
9+
Im Bereich der Sprecherauthentifizierung haben sich zwei Verfahren zur Berechnung stimm\-spezifischer Merkmale etabliert: \ac{MFCC} und \ac{LPC} \autocite[vgl.][S. 116]{sidorov_text-independent_2010}\autocite[vgl.][S. 726]{chelali_text_2017}.
10+
Während mittels des \ac{MFCC} Verfahrens versucht wird, die Funktionsweise des menschlichen Ohrs abzubilden, versucht das \ac{LPC} Verfahren die Eigenschaften des menschlichen Vokaltrakts aus dem Audiosignal zu extrahieren \autocite[vgl.][S. 117]{sidorov_text-independent_2010}.
11+
Die erhaltenen Werte können anschließend für das Training eines \acp{NN} verwendet werden, welches die Klassifizierung neuer Datensätze während des Authentifizierungsprozesses übernimmt.
12+
13+
\subsection{Ziel der Arbeit}
14+
Im Rahmen dieser Arbeit, soll das \ac{LPC} Verfahren genauer untersucht werden.
15+
Dazu soll ein Programm erstellt werden, welches ein gegebenes Audiosignal mittels \ac{LPC} in eine vordefinierte Anzahl an Koeffizienten umwandelt.
16+
In einem weiteren Schritt soll der Zusammenhang zwischen den berechneten Koeffizienten und der sprechenden Person unter Verwendung eines vereinfachten \acp{NN} aufgezeigt werden.
17+
18+
\subsection{Vorgehensweise}
19+
% 2. Grundlagen: Signalvorverarbeitung + LPC berechnung
20+
% 3. Technische Umsetzung: Applikation
21+
% 4. Validierung: NN Aufbau + Ergebnis.
22+
% 5. Kritische Reflexion und Ausblick
23+
Die Arbeit unterteilt sich in fünf Kapitel.
24+
Im Anschluss an die Einleitung stellt Kapitel~\ref{sec:Grundlagen} die für diese Arbeit relevanten Grundlagen vor.
25+
Kapitel~\ref{sec:TechnischeUmsetzung} kombiniert die vorgestellten Verfahren zu einem ausführbaren Programm.
26+
Die Ergebnisse des erstellten Programms werden in Kapitel~\ref{sec:Validierung} validiert.
27+
Abschließend werden die Erkenntnisse in Kapitel~\ref{sec:Ausblick} interpretiert und die Arbeit wird mit einem Ausblick abgeschlossen.

chapter/Grundlagen.tex

Lines changed: 80 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -1,10 +1,81 @@
11
\section{Grundlagen}\label{sec:Grundlagen}
2-
\subsection{Framing}
3-
\subsection{Windowing (Zeitfenster)}
4-
\begin{itemize}
5-
\item Spektral leakage
6-
\item Hamming und Han Fenster
7-
\item Unterschied zu Framing
8-
\end{itemize}
9-
\subsection{Auto regressive moving average filter}
10-
\subsection{Cepstral vectors}
2+
Der Schwerpunkt dieser Arbeit unterteilt sich in zwei Teile, die Signalvorverarbeitung und das \ac{LPC} Verfahren.
3+
Im Folgenden werden die theoretischen Grundlagen für beide Prozesse beschrieben.
4+
5+
\subsection{Signalvorverarbeitung}
6+
Um ein gegebenes Audiosignal einheitlich verarbeiten zu können, muss dieses zunächst mittels verschiedener Verfahren vorbereitet werden.
7+
Ziel dieser Vorverarbeitung ist es, die Effizienz und Effektivität des anschließenden Verarbeitungsprozesses zu erhöhen und somit ein verbessertes Ergebnis zu erzielen \autocite[vgl.][S. 11672]{lokesh_speech_2019}.
8+
Die Vorverarbeitung im Rahmen dieser Arbeit beinhaltet die vier Schritte Rauschreduzierung, Pausen entfernen, Framing und Windowing, welche in den folgenden Unterkapiteln genauer erläutert werden.
9+
10+
\subsubsection{Rauschreduzierung}
11+
Um störende Frequenzen aus dem Audiosignal zu entfernen wird eine Rauschreduzierungsfunktion verwendet.
12+
Die in dieser Arbeit verwendete Funktion nutzt den sogenannten Spectral Noise Gate Algorithmus.
13+
Dabei wird zunächst die Signatur des Rauschens ermittelt.
14+
Basierend darauf kann das Rauschen anschließend verringert werden \autocite[vgl.][S. 25]{kiapuchinski_spectral_2012}.
15+
16+
\subsubsection{Pausen entfernen}
17+
Die für die Sprecherauthentifizierung relevanten Daten stecken in dem aufgezeichneten Signal der Stimme.
18+
Sprechpausen innerhalb des Audiosignals enthalten somit keine brauchbaren Informationen, weshalb diese herausgefiltert werden müssen.
19+
Durch den vorangehenden Schritt der Rauschreduzierung kann hier ein stark vereinfachtes Verfahren gewählt werden.
20+
Liegt das Signal für einen definierten Zeitraum unterhalb einer definierten Lautstärke, werden die entsprechenden Signalwerte aus dem Gesamtsignal entfernt.
21+
22+
\subsubsection{Framing}\label{sec:Framing}
23+
Für eine detaillierte Analyse des Audiosignals muss dieses in kleinere Blöcke unterteilt werden.
24+
Dieser Prozess wird als Framing bezeichnet.
25+
Dabei muss zunächst eine einheitliche Blockgröße festgelegt werden.
26+
Da Stimmsignale aufgrund der Eigenschaften des Vokaltrakts über eine Periode von 10-30 ms stationär sind, wird eine Blockgröße in dieser Zeitordnung verwendet.
27+
Zusätzlich wird eine Überlagerungszeit definiert, welche eine Überlappung der einzelnen Blöcke verursacht.
28+
Durch die Überlappung wird ein Zusammenhang zwischen zwei benachbarten Frames und damit auch den anschließend berechneten Koeffizienten hergestellt \autocite[vgl.][S. 457]{richter_signal_2022}.
29+
30+
\subsubsection{Windowing}
31+
\begin{figure}
32+
\centering
33+
\includegraphics[width=0.8\textwidth, keepaspectratio]{images/hann_window.png}
34+
\caption{Von Hann Fensterfunktion \autocite{noauthor_numpyhanning_nodate}}
35+
\label{fig:vonHannFenster}
36+
\end{figure}
37+
Um die bei der Unterteilung des Audiosignals entstandenen Diskontinuitäten aufzulösen, wird eine Fensterfunktion auf die einzelnen Blöcke angewendet.
38+
Abbildung~\ref{fig:vonHannFenster} zeigt die von Hann Fensterfunktion, welche neben dem Hamming Fenster zu den typischen Fensterfunktionen in der Audiosignalverarbeitung zählt.
39+
Durch den Nulldurchgang am Anfang und Ende der Fensterfunktion werden die Amplituden des Blocksignals nach Anwenden der Funktion an den Grenzen auf Null gezogen, wodurch sich ein kontinuierlicher, periodischer Signalverlauf ergibt \autocite[vgl.][S. 462]{richter_signal_2022}.
40+
41+
Wird der Schritt des Windowing nicht durchgeführt, führt dies zu einem Phänomen namens Spectral leakage.
42+
Bei der Transformation des Signals von dem Zeitbereich in den Frequenzbereich, resultiert der Amplitudensprung an den Blockenden in der Registrierung einer vielzahl von Frequenzen.
43+
Wie der Name bereits beschreibt, wird aus einer eindeutigen Frequenz, ein Spektrum aus Frequenzen, die nicht Teil des Signals sind \autocite[vgl.][S. 1296]{wu_new_2012}.
44+
% TODO: Bessere Quelle finden
45+
46+
\subsection{Linear Predictive Coding Koeffizientenberechnung}
47+
Ausgehend von dem in Frames unterteilten Audiosignal, müssen nun für jeden Frame \ac{LPC} Koeffizienten berechnet werden, welche anschließend für die Zuordnung des Audiosignals zu einer spezifischen Stimme genutzt werden können.
48+
Die Grundlage von \ac{LPC} bildet das \ac{AR} Modell, welches zunächst beschrieben wird.
49+
Anschließend wird der theoretische Zusammenhang zwischen \ac{AR}, \ac{LPC} und der menschlichen Stimme dargestellt.
50+
51+
\subsubsection{Autoregression Modell}
52+
Die \ac{AR} basiert auf dem Konzept der multiplen Regression und wird auf zeitlich veränderliche Prozesse angewandt.
53+
Dabei wird eine Kriteriumsvariable unter Betrachtung von n Prädiktorvariablen vorhergesagt \autocite[vgl.][S. 37-38]{canela_multiple_2019}.
54+
Im Speziellen Fall der \ac{AR}, handelt es sich bei den Prädiktorvariablen um vorhergehende Werte des Prozesses.
55+
Ein \ac{AR} Modell sagt somit den Wert zu einem Zeitpunkt $n$, basierend auf $p$ Vorgängerwerten des Prozesses voraus.
56+
Es gilt somit der in Formel~\ref{eq:autoregression} dargestellte Zusammenhang, wobei $\hat{s}_n$ den vorausgesagten Wert, $s_{n-k}$ die vorhergehenden Werte, $a_{k}$ die Regressionsgewichte und $p$ die Anzahl an verwendeten Vorgängerwerten darstellt \autocite[][S. 1304]{atal_effectiveness_1974}.
57+
\begin{equation}
58+
\hat{s}_{n} = \sum_{k=1}^{p} s_{n-k}a_{k}
59+
\label{eq:autoregression}
60+
\end{equation}
61+
62+
Zur Bestimmung der Regressionsgewichte wurden verschiedene rekursive Verfahren entwickelt.
63+
Neben der Yule-Walker Methode stellt der Burg Algorithmus eine beliebte Alternative dar, welcher in \citeauthor[][S. 443]{marple_new_1980} beschrieben ist.
64+
% Evtl: Formeln des Burg Algorithmus auflisten und erklären
65+
% Evtl: Was hat Yule-Walker und Levinson damit zu tun?
66+
67+
\subsubsection{Linear Predictive Coding}
68+
Wie bereits zu Beginn der Arbeit erwähnt, wird bei dem Verfahren \ac{LPC} der Ansatz verfolgt, Rückschlüsse von dem akustischen Signal auf die Stimmerzeugung zu ziehen.
69+
Dazu wird ein \ac{AR} Filter verwendet um ein vereinfachtes Modell des menschlichen Stimmtrakts zu erstellen.
70+
Die Regressionsgewichte $a_k$ entsprechen dabei den \ac{LPC} Koeffizienten.
71+
\newline
72+
\newline
73+
Bei der Stimmerzeugung spielen die sogenannten Formanten eine Rolle.
74+
Diese beschreiben die akustische Energie in einem unveränderlichen Frequenzbereich, welche wiederum von den Resonanz- und Interferenzeigenschaften des Artikulationsraums abhängen.
75+
Dadurch werden bestimmte Frequenzen verstärkt, während andere gedämpft werden \autocite[vgl.][S. 259]{fitch_evolution_2000}.
76+
Das durch die \ac{LPC} Koeffizienten erstellte Modell erfasst die Resonanzeigenschaften des Signals, wodurch Rückschlüsse auf die Formanten geschlossen werden können.
77+
Da die Struktur der Formanten Sprecherspezifisch ist, kann der Sprecher somit über die \ac{LPC} Koeffizienten identifiziert werden \autocite[vgl.][S. 117]{sidorov_text-independent_2010}.
78+
\newline
79+
\newline
80+
Zur Berechnung der \ac{LPC} Koeffizienten wird zunächst die selbe Annahme wie in Kapitel~\ref{sec:Framing} getroffen, dass sich die Form des Vokaltrakts und das in den Stimmritzen erzeuge Signal über den betrachteten Zeitraum nicht verändert \autocite[vgl.][S. 1304]{atal_effectiveness_1974}.
81+
Somit lassen sich die Koeffizienten des \ac{AR} Filters mittels des Burg Algorithmus berechnen.

chapter/Validierung.tex

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1 @@
1+
\section{Validierung}\label{sec:Validierung}

images/hann_window.png

15.3 KB
Loading

literatur/literatur.bib

Lines changed: 218 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,218 @@
1+
2+
@book{institute_of_electrical_and_electronics_engineers_2014_2014,
3+
address = {Piscataway, NJ},
4+
title = {2014 {IEEE} {International} {Conference} on {Signal} {Processing}, {Communications} and {Computing} ({ICSPCC} 2014): {Guilin}, {China}, 5 - 8 {August} 2014},
5+
isbn = {978-1-4799-5274-8 978-1-4799-5275-5},
6+
shorttitle = {2014 {IEEE} {International} {Conference} on {Signal} {Processing}, {Communications} and {Computing} ({ICSPCC} 2014)},
7+
language = {eng},
8+
publisher = {IEEE},
9+
editor = {Institute of Electrical {and} Electronics Engineers},
10+
year = {2014},
11+
keywords = {LPC, LPCC, MFCC, Pre-Processing},
12+
annote = {Literaturangaben},
13+
file = {Speaker_recognition_based_on_principal_component_analysis_of_LPCC_and_MFCC.pdf:/home/henry/Zotero/storage/4ZJ4KIT4/Speaker_recognition_based_on_principal_component_analysis_of_LPCC_and_MFCC.pdf:application/pdf;Table of Contents PDF:/home/henry/Zotero/storage/FKZKW2TM/Institute of Electrical and Electronics Engineers - 2014 - 2014 IEEE International Conference on Signal Proce.pdf:application/pdf},
14+
}
15+
16+
@incollection{satapathy_svm_2015,
17+
address = {Cham},
18+
title = {{SVM} and {HMM} {Modeling} {Techniques} for {Speech} {Recognition} {Using} {LPCC} and {MFCC} {Features}},
19+
volume = {327},
20+
isbn = {978-3-319-11932-8 978-3-319-11933-5},
21+
url = {http://link.springer.com/10.1007/978-3-319-11933-5_58},
22+
urldate = {2023-01-18},
23+
booktitle = {Proceedings of the 3rd {International} {Conference} on {Frontiers} of {Intelligent} {Computing}: {Theory} and {Applications} ({FICTA}) 2014},
24+
publisher = {Springer International Publishing},
25+
author = {Ananthi, S. and Dhanalakshmi, P.},
26+
editor = {Satapathy, Suresh Chandra and Biswal, Bhabendra Narayan and Udgata, Siba K. and Mandal, J.K.},
27+
year = {2015},
28+
doi = {10.1007/978-3-319-11933-5_58},
29+
note = {Series Title: Advances in Intelligent Systems and Computing},
30+
pages = {519--526},
31+
}
32+
33+
@article{bimbot_tutorial_2004,
34+
title = {A {Tutorial} on {Text}-{Independent} {Speaker} {Verification}},
35+
volume = {2004},
36+
issn = {1687-6180},
37+
url = {https://asp-eurasipjournals.springeropen.com/articles/10.1155/S1110865704310024},
38+
doi = {10.1155/S1110865704310024},
39+
language = {en},
40+
number = {4},
41+
urldate = {2023-01-17},
42+
journal = {EURASIP Journal on Advances in Signal Processing},
43+
author = {Bimbot, Frédéric and Bonastre, Jean-François and Fredouille, Corinne and Gravier, Guillaume and Magrin-Chagnolleau, Ivan and Meignier, Sylvain and Merlin, Teva and Ortega-García, Javier and Petrovska-Delacrétaz, Dijana and Reynolds, Douglas A.},
44+
month = dec,
45+
year = {2004},
46+
pages = {22},
47+
}
48+
49+
@article{lokesh_speech_2019,
50+
title = {Speech recognition system using enhanced mel frequency cepstral coefficient with windowing and framing method},
51+
volume = {22},
52+
issn = {1386-7857, 1573-7543},
53+
url = {http://link.springer.com/10.1007/s10586-017-1447-6},
54+
doi = {10.1007/s10586-017-1447-6},
55+
language = {en},
56+
number = {S5},
57+
urldate = {2023-02-07},
58+
journal = {Cluster Computing},
59+
author = {Lokesh, S. and Devi, M. Ramya},
60+
month = sep,
61+
year = {2019},
62+
keywords = {MFCC, Pre-Processing, Framing, Windowing},
63+
pages = {11669--11679},
64+
}
65+
66+
@misc{noauthor_numpyhanning_nodate,
67+
title = {numpy.hanning — {NumPy} v1.24 {Manual}},
68+
url = {https://numpy.org/doc/stable/reference/generated/numpy.hanning.html},
69+
urldate = {2023-02-07},
70+
file = {numpy.hanning — NumPy v1.24 Manual:/home/henry/Zotero/storage/65F33M93/numpy.hanning.html:text/html},
71+
}
72+
73+
@incollection{sidorov_text-independent_2010,
74+
address = {Berlin, Heidelberg},
75+
title = {Text-{Independent} {Speaker} {Identification} {Using} {VQ}-{HMM} {Model} {Based} {Multiple} {Classifier} {System}},
76+
volume = {6438},
77+
isbn = {978-3-642-16772-0 978-3-642-16773-7},
78+
url = {http://link.springer.com/10.1007/978-3-642-16773-7_10},
79+
urldate = {2023-01-23},
80+
booktitle = {Advances in {Soft} {Computing}},
81+
publisher = {Springer Berlin Heidelberg},
82+
author = {Zulfiqar, Ali and Muhammad, Aslam and Martinez-Enriquez, Ana Maria and Escalada-Imaz, G.},
83+
editor = {Sidorov, Grigori and Hernández Aguirre, Arturo and Reyes García, Carlos Alberto},
84+
year = {2010},
85+
doi = {10.1007/978-3-642-16773-7_10},
86+
note = {Series Title: Lecture Notes in Computer Science},
87+
keywords = {LPC, MFCC, HMM, unused, Vector Quantization},
88+
pages = {116--125},
89+
file = {Zulfiqar et al. - 2010 - Text-Independent Speaker Identification Using VQ-H.pdf:/home/henry/Zotero/storage/GBRNZ6B7/Zulfiqar et al. - 2010 - Text-Independent Speaker Identification Using VQ-H.pdf:application/pdf},
90+
}
91+
92+
@article{marple_new_1980,
93+
title = {A new autoregressive spectrum analysis algorithm},
94+
volume = {28},
95+
issn = {0096-3518},
96+
url = {http://ieeexplore.ieee.org/document/1163429/},
97+
doi = {10.1109/TASSP.1980.1163429},
98+
language = {en},
99+
number = {4},
100+
urldate = {2023-02-17},
101+
journal = {IEEE Transactions on Acoustics, Speech, and Signal Processing},
102+
author = {Marple, L.},
103+
month = aug,
104+
year = {1980},
105+
pages = {441--454},
106+
}
107+
108+
@incollection{canela_multiple_2019,
109+
address = {Cham},
110+
title = {Multiple {Regression}},
111+
isbn = {978-3-030-17553-5 978-3-030-17554-2},
112+
url = {http://link.springer.com/10.1007/978-3-030-17554-2_4},
113+
language = {en},
114+
urldate = {2023-02-17},
115+
booktitle = {Quantitative {Methods} for {Management}},
116+
publisher = {Springer International Publishing},
117+
author = {Canela, Miguel Ángel and Alegre, Inés and Ibarra, Alberto},
118+
collaborator = {Canela, Miguel Ángel and Alegre, Inés and Ibarra, Alberto},
119+
year = {2019},
120+
doi = {10.1007/978-3-030-17554-2_4},
121+
keywords = {Multiple Regression},
122+
pages = {37--45},
123+
}
124+
125+
@article{atal_effectiveness_1974,
126+
title = {Effectiveness of linear prediction characteristics of the speech wave for automatic speaker identification and verification},
127+
volume = {55},
128+
issn = {0001-4966},
129+
url = {http://asa.scitation.org/doi/10.1121/1.1914702},
130+
doi = {10.1121/1.1914702},
131+
language = {en},
132+
number = {6},
133+
urldate = {2023-02-16},
134+
journal = {The Journal of the Acoustical Society of America},
135+
author = {Atal, B. S.},
136+
month = jun,
137+
year = {1974},
138+
keywords = {LPCC},
139+
pages = {1304--1312},
140+
}
141+
142+
@article{chelali_text_2017,
143+
title = {Text dependant speaker recognition using {MFCC}, {LPC} and {DWT}},
144+
volume = {20},
145+
issn = {1381-2416, 1572-8110},
146+
url = {http://link.springer.com/10.1007/s10772-017-9441-1},
147+
doi = {10.1007/s10772-017-9441-1},
148+
language = {en},
149+
number = {3},
150+
urldate = {2023-01-23},
151+
journal = {International Journal of Speech Technology},
152+
author = {Chelali, Fatma Zohra and Djeradi, Amar},
153+
month = sep,
154+
year = {2017},
155+
keywords = {LPC, MFCC, unused},
156+
pages = {725--740},
157+
file = {Chelali und Djeradi - 2017 - Text dependant speaker recognition using MFCC, LPC.pdf:/home/henry/Zotero/storage/GKPS5493/Chelali und Djeradi - 2017 - Text dependant speaker recognition using MFCC, LPC.pdf:application/pdf},
158+
}
159+
160+
@inproceedings{kiapuchinski_spectral_2012,
161+
address = {Irvine, CA, USA},
162+
title = {Spectral {Noise} {Gate} {Technique} {Applied} to {Birdsong} {Preprocessing} on {Embedded} {Unit}},
163+
isbn = {978-1-4673-4370-1 978-0-7695-4875-3},
164+
url = {http://ieeexplore.ieee.org/document/6424625/},
165+
doi = {10.1109/ISM.2012.12},
166+
urldate = {2023-02-27},
167+
booktitle = {2012 {IEEE} {International} {Symposium} on {Multimedia}},
168+
publisher = {IEEE},
169+
author = {Kiapuchinski, Davi Miara and Lima, Carlos Raimundo Erig and Kaestner, Celso Antonio Alves},
170+
month = dec,
171+
year = {2012},
172+
keywords = {Spectral Noise Gate},
173+
pages = {24--27},
174+
}
175+
176+
@book{richter_signal_2022,
177+
address = {Cham},
178+
title = {Signal processing and machine learning with applications},
179+
isbn = {978-3-319-45372-9},
180+
abstract = {Signal processing captures, interprets, describes and manipulates physical phenomena. Mathematics, statistics, probability, and stochastic processes are among the signal processing languages we use to interpret real-world phenomena, model them, and extract useful information. This book presents different kinds of signals humans use and applies them for human machine interaction to communicate. Signal Processing and Machine Learning with Applications presents methods that are used to perform various Machine Learning and Artificial Intelligence tasks in conjunction with their applications. It is organized in three parts: Realms of Signal Processing; Machine Learning and Recognition; and Advanced Applications and Artificial Intelligence. The comprehensive coverage is accompanied by numerous examples, questions with solutions, with historical notes. The book is intended for advanced undergraduate and postgraduate students, researchers and practitioners who are engaged with signal processing, machine learning and the applications.},
181+
language = {eng},
182+
publisher = {Springer},
183+
author = {Richter, Michael and Paul, Sheuli and Kepuska, Veton and Silaghi, Marius},
184+
year = {2022},
185+
note = {OCLC: 1347386653},
186+
}
187+
188+
@article{wu_new_2012,
189+
title = {New {Spectral} {Leakage}-{Removing} {Method} for {Spectral} {Testing} of {Approximate} {Sinusoidal} {Signals}},
190+
volume = {61},
191+
issn = {0018-9456, 1557-9662},
192+
url = {http://ieeexplore.ieee.org/document/6134664/},
193+
doi = {10.1109/TIM.2011.2180971},
194+
number = {5},
195+
urldate = {2023-03-07},
196+
journal = {IEEE Transactions on Instrumentation and Measurement},
197+
author = {Wu, Minshun and Chen, Degang and Chen, Guican},
198+
month = may,
199+
year = {2012},
200+
pages = {1296--1306},
201+
}
202+
203+
@article{fitch_evolution_2000,
204+
title = {The evolution of speech: a comparative review},
205+
volume = {4},
206+
issn = {13646613},
207+
shorttitle = {The evolution of speech},
208+
url = {https://linkinghub.elsevier.com/retrieve/pii/S1364661300014947},
209+
doi = {10.1016/S1364-6613(00)01494-7},
210+
language = {en},
211+
number = {7},
212+
urldate = {2023-03-07},
213+
journal = {Trends in Cognitive Sciences},
214+
author = {Fitch, W.Tecumseh},
215+
month = jul,
216+
year = {2000},
217+
pages = {258--267},
218+
}

0 commit comments

Comments
 (0)