opgaver:Uge5

From Eksperimentel Fysik WIKI
(Difference between revisions)
Jump to: navigation, search
(Created page with "I denne uge skal I arbejde med lidt mere avanceret statisk, som en forsmag på hvad I kan lære i mere avancerede statistik-kurser, som f.eks. Anvendt Statistik, der afholdes ...")
 
 
(13 intermediate revisions by one user not shown)
Line 1: Line 1:
I denne uge skal I arbejde med lidt mere avanceret statisk, som en forsmag på hvad I kan lære i mere avancerede statistik-kurser, som f.eks. Anvendt Statistik, der afholdes i blok 1.
+
I denne uge skal I arbejde med lidt mere avanceret statisk, som en forsmag på hvad I kan lære i mere avancerede statistik-kurser, som f.eks. Anvendt Statistik, der afholdes i blok 1. I skal kun gå i gang med disse opgaver hvis I faktisk er nået at blive færdige med de sidste ugers opgaver!
  
 +
Som en forberedelse på at kunne lave disse opgaver, skal I læse et lille dokument skrevet af Morten Dam Jørgensen, der desuden også lavede nedenstående opgaver.
  
== Opgave 1 - ==
+
* Dokument om multivariat statistik: [[Media:multivariatstatistik.pdf|multivariatstatistik.pdf]]
 +
 
 +
Det kan også hjælpe at læse nogle Wikipedia-sider om emnerne, som f.eks.
 +
 
 +
* [http://en.wikipedia.org/wiki/Multivariate_analysis Multivariate analysis]
 +
** [http://en.wikipedia.org/wiki/Covariance_matrix Covariance Matrix]
 +
** [http://en.wikipedia.org/wiki/Correlation_matrix Correlations]
 +
** [http://en.wikipedia.org/wiki/Autocorrelation Autocorrelations] (valgfri)
 +
* [http://en.wikipedia.org/wiki/Principal_component_analysis Principal Component Analysis]
 +
** Linear models
 +
** Non-linear models ([http://en.wikipedia.org/wiki/Kernel_principal_component_analysis kernel methods])
 +
<!--* Visualisation-->
 +
* [http://en.wikipedia.org/wiki/Fast_Fourier_transform Fast fourier transforms] - [http://altdevblogaday.org/2011/05/17/understanding-the-fourier-transform/ cool blog om FFT] (valgfri)
 +
 
 +
 
 +
== Opgave 1 - Lineær korrelation ==
 
Disse øvelser viser hvordan lineære korrelationer kan beregnes og visualiseres, metoder som er anvendelige på det meste data med flere parametre.  
 
Disse øvelser viser hvordan lineære korrelationer kan beregnes og visualiseres, metoder som er anvendelige på det meste data med flere parametre.  
  
Line 9: Line 25:
 
=== Spørgsmål 1 ===
 
=== Spørgsmål 1 ===
 
Start med at indlæse datafilen, og plot så populationen i forhold til landenes størrelse.
 
Start med at indlæse datafilen, og plot så populationen i forhold til landenes størrelse.
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
[[File:uge5fig1.png|frame|Antal indbyggere som en funktion af landeareal.]]
 +
Datafilen kan indlæses med koden
 +
 +
:<code>lande  = importdata('lande.txt',';');</code>
 +
 +
For nemmere at kunne arbejde med data sorteres de nu i rækkefølge efter landeareal, og population og areal skrives ind i hvert sit array:
 +
 +
:<code>sorted = sortrows(lande.data,1);</code>
 +
:<code>A = sorted(:,1);</code>
 +
:<code>P = sorted(:,2);</code>
 +
 +
Plottet laves med
 +
 +
:<code>figure</code>
 +
:<code>plot(A,P,'.')</code>
 +
:<code>xlabel('lands størrelse [miles^2]')</code>
 +
:<code>ylabel('antal indbyggere')</code>
 +
:<code>title('Lineær sammenhæng')</code>
 +
 +
Dette plot kan ses her til højre.
 +
:<code></code>
 +
{{hidden end}}
  
 
=== Spørgsmål 2 ===
 
=== Spørgsmål 2 ===
Beregn den linære korrelation, manuelt. Er de to variable korrelerede?   
+
Beregn den linære korrelation manuelt (altså uden at bruge de indbyggede MATLAB funktioner til at gøre det). Er de to variable korrelerede?   
Hint: Beregn først kovarians matricen (ligning 1).
+
{{hidden begin|toggle=right|title=Hint|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Beregn først kovarians matricen (ligning 1 i [[Media:multivariatstatistik.pdf|multivariatstatistik.pdf]] dokumentet).
 +
{{hidden end}}
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Covariansen mellem to vektorer er givet ved $\Sigma_{i,j} = \text{cov}(X_i,X_j) = E[(X_i-\mu_i)(X_j-\mu_j)]$, hvor $E[\cdot]$ er forventningsværdien - simpelthen gennemsnittet. Dermed kan man manuelt udregne covariansmatricen ved først at udregne
  
 +
:<code>X1 = A - mean(A);</code>
 +
:<code>X2 = P - mean(P);</code>
 +
 +
og kan man simpelthen manuelt indsætte i kovarians matricen,
 +
 +
:<code>C_man = [ mean( X1 .* X1 )  mean( X1 .* X2 ) ; ...</code>
 +
::<code>mean( X2 .* X1 )  mean( X2 .* X2 ) ];</code>
 +
 +
Tilsvarende kan man manuelt finde den lineære korrelation med
 +
 +
:<code>r_man = mean( X1 .* X2 ) / ( std(A) * std(P) );</code>
 +
 +
Værdien af <code>r_man</code> er ca. 0.45, så de variable er korrelerede, men ikke super-godt.
 +
{{hidden end}}
  
 
=== Spørgsmål 3 ===
 
=== Spørgsmål 3 ===
Beregn kovariansmatricen og korrelationsmatricen med MATLAB's indbyggedefunktioner, og sammenlign resultatet med dine egne beregninger.
+
Beregn kovariansmatricen og korrelationsmatricen med MATLAB's indbyggede funktioner, og sammenlign resultatet med dine egne beregninger.
 +
{{hidden begin|toggle=right|title=Hint|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Læs om funktionerne <code>cov</code> og <code>corr</code> i MATLAB hjælpen.
 +
{{hidden end}}
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Man bruger simpelthen de to funktioner <code>cov</code> og <code>corr</code> på <code>A</code> og <code>P</code> vektorerne,
 +
 
 +
:<code>C_aut = cov(A,P);</code>
 +
:<code>r_aut = corr(A,P);</code>
 +
{{hidden end}}
  
 
=== Spørgsmål 4 ===
 
=== Spørgsmål 4 ===
Tag logaritmen af begge værdier, og plot resultatet igen. Diskuter forskellen, er korrelationen tydligere nu?  
+
Tag logaritmen af begge værdier, og plot resultatet igen. Diskutér forskellen - er korrelationen tydeligere nu? Beregn korrelationen for de logaritmiske værdier. Hvorfor er korrelationen anderledes end i spørgsmål 2?
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
[[File:uge5fig2.png|frame|Antal indbyggere som en funktion af landeareal, logaritmisk.]]
 +
Man plotter simpelthen
 +
 
 +
:<code>figure</code>
 +
:<code>plot(log(A),log(P),'.')</code>
 +
:<code>xlabel('log( lands størrelse [miles^2] )')</code>
 +
:<code>ylabel('log( antal indbyggere )')</code>
 +
:<code>title('Dobbeltlogaritmisk sammenhæng')</code>
 +
 
 +
Nu er det meget nemmere at se på data, da den tydeligvis er mere eksponentielt fordelt. Ud fra figuren forventer man også at korrelationen mellem de logaritmiske vektorer er mere lineær, da den faktisk ser lineær ud nu!
 +
 
 +
:<code>C_log = cov(log(A),log(P));</code>
 +
:<code>r_log = corr(log(A),log(P));</code>
 +
 
 +
Det viser sig at <code>r_log</code> er omkring 0.86, hvilket præcis er som forventet - korrelationen er bedre for de logaritmiske.
 +
{{hidden end}}
 +
 
 +
=== Spørgsmål 5 ===
 +
Lav et lineært fit af resultatet i spørgsmål 4. Hvor godt er fittet? Beskriver en lineær relation forholdet?
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
[[File:uge5fig3.png|frame|Antal indbyggere som en funktion af landeareal, logaritmisk, sammen med et lineært fit.]]
 +
Fittet laves bare med
 +
 
 +
:<code>[cfun good] = fit(log(A),log(P),'poly1');</code>
 +
 
 +
og kan plottes oven i den forrige figur med
 +
 
 +
:<code>hold on</code>
 +
:<code>plot(log(A),cfun(log(A)),'-g')</code>
 +
 
 +
For at finde ud af hvor godt fittet er, kan man udregne $\chi^2$ for det. Man kan også bruge den $R^2$ værdi som <code>fit</code> funktionen giver. Denne er givet i
 +
 
 +
:<code>good.rsquare;</code>
 +
 
 +
Denne viser sig at være meget tæt på 1, hvilket fortæller at fittet er ret godt.
 +
 
 +
Altså er en lineær relation god til at beskrive forholdet mellem logaritmen af antallet af indbyggere i et lang og logaritmen af arealet af landet.
 +
{{hidden end}}
 +
 
 +
 
 +
== Opgave 2 - Flere korrelationer ==
 +
Disse øvelser viser mere med korrelationer.
 +
 
 +
* Du skal starte med at hente datasættet [[Media:opg2data.txt|opg2data.txt]].
 +
 
 +
=== Spørgsmål 1 ===
 +
Indlæs datasættet og beregn korrelationerne mellem de to variable. Er variablene korrelerede?
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Først indlæses datasættet med
 +
 
 +
:<code>tal = importdata([datadir,'opg2data.txt'],',');</code>
 +
:<code>x = tal(:,1);</code>
 +
:<code>y = tal(:,2);</code>
 +
 
 +
Korrelationerne mellem de to variable findes med de indbyggede MATLAB funktioner,
 +
 
 +
:<code>C = cov(x,y);</code>
 +
:<code>r = corr(x,y);</code>
 +
 
 +
Det viser sig at der er cirka 1.1 % korrelation mellem variablene, og derfor er de slet ikke korrelerede!
 +
{{hidden end}}
 +
 
 +
=== Spørgsmål 2 ===
 +
Lav et scatter plot af de to variable. Ved visuel inspektion, forklar hvorfor der ikke var en korrelation mellem de to akser i beregningen.
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
[[File:uge5fig4.png|frame|Disse variable er ikke lineært korrelerede.]]
 +
Plottet laves simpelthen med koden
 +
 
 +
:<code>figure</code>
 +
:<code>plot(x,y,'.')</code>
 +
:<code>xlabel('data fra første kolonne')</code>
 +
:<code>ylabel('data fra anden kolonne')</code>
 +
:<code>title('Scatter plot af data')</code>
 +
 
 +
Dette plot er vist her til højre.
 +
 
 +
Det er tydeligt at se at der er en eller anden sammenhæng mellem de to akser, men den er absolut ikke lineær. Den lineære korrelation tager kun (logisk nok) linearitet med i beregningen, så alle højere ordens korrelationer bliver ikke fundet. For at kunne se højere ordens korrelationer skal man bruge mere avancerede statistiske værktøjer, som der bliver taget hul på i næste opgave.
 +
{{hidden end}}
 +
 
 +
=== Spørgsmål 3 ===
 +
Datasættet er genereret med følgende udtryk:
 +
 
 +
:<code>n = 2000; </code>
 +
:<code>x = linspace(-1, 1, n);</code>
 +
:<code>y = - 5 * (x.^2 - 1/2).^2 + unifrnd(-1, 1, [1 n])/3;</code>
 +
 
 +
Der er tydeligvis en afhængighed mellem $x$- og $y$-aksen. I hvilke tilfælde vil en lineær korrelation være et acceptabelt mål for korrelationen mellem to værdier?
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Lineær korrelation er et acceptabelt mål for korrelation i tilfælde hvor der er overordnet linearitet, uden symmetrier og højere-ordens effekter.
 +
{{hidden end}}
 +
 
 +
 
 +
== Opgave 3 - Principal component analysis ==
 +
Disse øvelser handler om radial acceleration (med Principal Component Analysis - PCA).
 +
 
 +
* Du skal starte med at hente datasættet [[Media:ipod_4.txt|ipod_4.txt]], der er et datasæt taget med app'en [http://www.iseismometer.com/ iSeismometer] på en Ipod Touch som del af et eksperiment på kurset i 2011.
 +
 
 +
=== Spørgsmål 1 ===
 +
Indlæs datasættet. De fire variable er hhv. acceleration langs $x$-, $y$- og $z$-akserne samt tid i sekunder. Plot de tre accelerationskomponenter som funktion af tiden.
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
[[File:uge5fig5.png|frame|De tre accelerations-retninger.]]
 +
Data indlæses med
 +
 
 +
:<code>data = importdata([datadir,'ipod_4.txt']);</code>
 +
 
 +
og man kan plotte de tre retnings-akser i samme figur med <code>subplot</code>
 +
 
 +
:<code>figure</code>
 +
:<code>subplot(3,1,1)</code>
 +
:<code>plot(data(:,4), data(:,1))</code>
 +
:<code>title('acceleration x-akse (g)')</code>
 +
:<code>subplot(3,1,2)</code>
 +
:<code>plot(data(:,4), data(:,2))</code>
 +
:<code>title('acceleration y-akse (g)')</code>
 +
:<code>subplot(3,1,3)</code>
 +
:<code>plot(data(:,4), data(:,3))</code>
 +
:<code>title('acceleration z-akse (g)')</code>
 +
 
 +
Disse tre plots kan ses i figuren til højre.
 +
{{hidden end}}
 +
 
 +
=== Spørgsmål 2 ===
 +
I dette spørgsmål skal du finde de dominerende komponenter, ved at benytte PCA metoden beskrevet afsnit 2 i [[Media:multivariatstatistik.pdf|multivariatstatistik.pdf]] dokumentet. For at hjælpe dig lidt på vej er spørgsmålet delt op i mindre dele:
 +
 
 +
==== Del 1 ====
 +
Transponér input matricen sådan at den er $M \times N$, hvor $M$ svarer til antallet af parametre og $N$ antallet af målinger. Centrér derefter dataen ved først at beregne middelværdien for de fire parametre, og fratræk denne de enkelte komponenter.
 +
{{hidden begin|toggle=right|title=Hint|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
For at centrere dataen kan det være praktisk at bruge en kode a la
 +
 
 +
:<code>data_center = data - repmat(middelværdierne, 1, antallet_af_målinger)</code>
 +
 
 +
Prøv at læse lidt om <code>repmat</code> i MATLAB hjælpen.
 +
{{hidden end}}
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Transponeringen gøres med den simple <code>'</code> operator, og <code>size</code> kan bruges til at få <code>M</code> og <code>N</code>,
 +
 
 +
:<code>dat = data';</code>
 +
:<code>[M N] = size(dat);</code>
 +
 
 +
Centreringen af dataen kan nu gøres som vist i hintet ovenfor, ved først at finde gennemsnittene i et nyt array,
 +
 
 +
:<code>m = mean(dat,2);</code>
 +
 
 +
og derefter bruge <code>repmat</code> til at lave et array der kan trækkes fra de oprindelige data (leg lidt med den, hvis du ikke forstår hvordan den virker).
 +
 
 +
:<code>dat = dat - repmat(m, 1, N);</code>
 +
{{hidden end}}
 +
 
 +
==== Del 2 ====
 +
Beregn kovariansmatricen af den centrerede data, og beregn så egenværdierne og egenvektorerne af den, med den indbyggede funktion i MATLAB. Gem diagonalen af egenværdimatricen i en vektor ($M \times 1$).
 +
{{hidden begin|toggle=right|title=Hint|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Man kan finde egenværdier og egenvektorer for en matrice i MATLAB ved at bruge <code>eig</code> funktionen. Man kan trække diagonalen af en matrice ud til en vektor med <code>diag</code> funktionen.
 +
{{hidden end}}
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Kovariansmatricen udregnes som sædvanligt, med
 +
 
 +
:<code>cor = cov(dat');</code>
 +
 
 +
Egenværdierne og egenvektorerne for denne matrice findes ved hjælp af den indbyggede funktion i MATLAB, der giver
 +
 
 +
:<code>[V E] = eig(cor);</code>
 +
 
 +
Her er <code>V</code> en matrice der indeholder egenvektorerne, mens <code>E</code> er en matrice der indeholder egenværdierne i diagonalen. Denne diagonal gemmes med
 +
 
 +
:<code>eval = diag(E);</code>
 +
{{hidden end}}
 +
 
 +
==== Del 3 ====
 +
Sorter egenværdierne efter faldende orden, og gem de indekser som sorteringsmetoden retunerer i en vektor.
 +
{{hidden begin|toggle=right|title=Hint|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Læs lidt om <code>sort</code> funktionen i MATLAB hjælpen. Man kan få den til at spytte indekser ud ved hjælp kode på formen
 +
 
 +
:<code>[smidvæk indices] = sort(egenværdier, 'descend')</code>
 +
{{hidden end}}
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Dette gøres simpelthen med koden
 +
 
 +
:<code>[drop indices] = sort(eval, 'descend');</code>
 +
 
 +
hvor <code>drop</code> ikke skal bruges til noget videre.
 +
{{hidden end}}
 +
 
 +
==== Del 4 ====
 +
Sorter egenvektorerne og egenværdierne med indeks-vektoren.
 +
{{hidden begin|toggle=right|title=Hint|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Brug de indices som du gemte i del 3 til at bytte rundt på dine egenværdier og egenvektorer. Dette kan gøres med kode som
 +
 
 +
:<code>egenvec = egenvec(:,indices); egenværdier = egenværdier(indices)</code>
 +
{{hidden end}}
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
Egenvektorerne i den ønskede rækkefølge findes med
 +
 
 +
:<code>egvec = V(:, indices);</code>
 +
 
 +
mens egenværdierne i samme rækkefølge findes med
 +
 
 +
:<code>eval = eval(indices);</code>
 +
{{hidden end}}
 +
 
 +
==== Del 5 ====
 +
Projektér den oprindelige data langs den nye basis (egenvektor matricen).
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
For at projicere skal man bare gange egenvektor matricen (transponeret, for at dimensionerne passer) sammen med dataen, som
 +
 
 +
:<code>data_pca = egvec' * dat;</code>
 +
{{hidden end}}
 +
 
 +
=== Spørgsmål 3 ===
 +
Plot hvert komponent af det transformerede datasæt som funktion af tiden. Ved at sammenligne værdierne fra egenvektorne med de fire plots, forklar hvad de enkelte komponenter beskriver.
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
[[File:uge5fig6.png|frame|De fire komponenter efter PCA analysen.]]
 +
Igen kan man plotte flere plots i samme figur ved at bruge <code>subplot</code>.
 +
 
 +
:<code>figure</code>
 +
:<code>subplot(4,1,1)</code>
 +
:<code>plot(data(:,4), data_pca(1, :))</code>
 +
:<code>title('1. Komponent')</code>
 +
:<code>subplot(4,1,2)</code>
 +
:<code>plot(data(:,4), data_pca(2, :))</code>
 +
:<code>title('2. Komponent')</code>
 +
:<code>subplot(4,1,3)</code>
 +
:<code>plot(data(:,4), data_pca(3, :))</code>
 +
:<code>title('3. Komponent')</code>
 +
:<code>subplot(4,1,4)</code>
 +
:<code>plot(data(:,4), data_pca(4, :))</code>
 +
:<code>title('4. Komponent')</code>
 +
 
 +
For at kunne vurdere hvad de forskellige komponenter er, er det nødvendigt at se på egenvektorerne fundet med PCA metoden. I MATLAB findes det at
 +
 
 +
:<code>egvec =</code>
 +
::<code>    0.0019  -0.7804  -0.6252    0.0092</code>
 +
::<code>  -0.0098  -0.6253    0.7803  -0.0096</code>
 +
::<code>    0.0001  -0.0012  -0.0132  -0.9999</code>
 +
::<code>    1.0000  -0.0046    0.0088    0.0000</code>
 +
 
 +
I første omgang kan man altså se at første komponent efter analysen næsten kun indeholder 4.-komponenten af dataen (tid), hvilket også giver fin mening med den monotont stigende kurve set i figuren. På samme måde kan man se at den fjerde komponent efter analysen næsten kun indeholder (den negative) 3.-komponent af dataen ($z$-accelerationen). Denne kurve ligner meget godt den støj der også blev set på den oprindelige $z$-acceleration komponent i dataen.
 +
 
 +
Derimod er anden og tredje komponenterne efter analysen givet som et miks imellem $x$- og $y$-accelerationerne fra den oprindelige data.
 +
{{hidden end}}
 +
 
 +
=== Spørgsmål 4 ===
 +
(Frivillig) Benyt MATLABs indbyggede PCA rutiner i stedet:
 +
 
 +
:<code>[C, latent, explained] = pcacov(cov(data'))</code>
 +
:<code>biplot(egenvec(:,1:2), 'scores', signals(1:2,:)', 'varlabels',datalabels)</code>
 +
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
 +
 
 +
{{hidden end}}
  
 
=== Spørgsmål 5 ===
 
=== Spørgsmål 5 ===
Beregn korrelationen for de logaritmiske værdier. Hvorfor er korrelationen anderledes end i opgave 1.2?
+
(Frivillig) PCA teknikken afhænger af lineære relationer mellem de forskellige variable. Der findes en anden metode til ikke-lineære data, der benytter det såkaldte "kernel-kneb". I zip-filen medfølger en funktion kaldet "kernelpca_tutorial.m", gentag spørgsmål 4 for resultatet fra funktionen.  
  
=== Spørgsmål 6 ===
+
Mere info: http://en.wikipedia.org/wiki/Kernel_principal_component_analysis
Lav et lineært fit af resultatet i spørgsmål 4.
+
{{hidden begin|toggle=right|title=Løsning|titlestyle=background:#ccccff|bg2=#eeeeee}}
  
 +
{{hidden end}}
  
== Opgave 2 -  ==
 
  
  
== Opgave 3 -  ==
+
== Samlede løsninger ==
 +
* Et samlet dokument med MATLAB kode til at løse alle opgaverne ovenfor kan hentes her: [[Media:opgaver_uge5_kovarians.m|opgaver_uge5_kovarians.m]]

Latest revision as of 12:34, 23 May 2012

I denne uge skal I arbejde med lidt mere avanceret statisk, som en forsmag på hvad I kan lære i mere avancerede statistik-kurser, som f.eks. Anvendt Statistik, der afholdes i blok 1. I skal kun gå i gang med disse opgaver hvis I faktisk er nået at blive færdige med de sidste ugers opgaver!

Som en forberedelse på at kunne lave disse opgaver, skal I læse et lille dokument skrevet af Morten Dam Jørgensen, der desuden også lavede nedenstående opgaver.

Det kan også hjælpe at læse nogle Wikipedia-sider om emnerne, som f.eks.


Contents

Opgave 1 - Lineær korrelation

Disse øvelser viser hvordan lineære korrelationer kan beregnes og visualiseres, metoder som er anvendelige på det meste data med flere parametre.

  • Du skal starte med at hente datasættet lande.txt, der stammer fra [1].

Spørgsmål 1

Start med at indlæse datafilen, og plot så populationen i forhold til landenes størrelse.

Spørgsmål 2

Beregn den linære korrelation manuelt (altså uden at bruge de indbyggede MATLAB funktioner til at gøre det). Er de to variable korrelerede?

Spørgsmål 3

Beregn kovariansmatricen og korrelationsmatricen med MATLAB's indbyggede funktioner, og sammenlign resultatet med dine egne beregninger.

Spørgsmål 4

Tag logaritmen af begge værdier, og plot resultatet igen. Diskutér forskellen - er korrelationen tydeligere nu? Beregn korrelationen for de logaritmiske værdier. Hvorfor er korrelationen anderledes end i spørgsmål 2?

Spørgsmål 5

Lav et lineært fit af resultatet i spørgsmål 4. Hvor godt er fittet? Beskriver en lineær relation forholdet?


Opgave 2 - Flere korrelationer

Disse øvelser viser mere med korrelationer.

Spørgsmål 1

Indlæs datasættet og beregn korrelationerne mellem de to variable. Er variablene korrelerede?

Spørgsmål 2

Lav et scatter plot af de to variable. Ved visuel inspektion, forklar hvorfor der ikke var en korrelation mellem de to akser i beregningen.

Spørgsmål 3

Datasættet er genereret med følgende udtryk:

n = 2000;
x = linspace(-1, 1, n);
y = - 5 * (x.^2 - 1/2).^2 + unifrnd(-1, 1, [1 n])/3;

Der er tydeligvis en afhængighed mellem $x$- og $y$-aksen. I hvilke tilfælde vil en lineær korrelation være et acceptabelt mål for korrelationen mellem to værdier?


Opgave 3 - Principal component analysis

Disse øvelser handler om radial acceleration (med Principal Component Analysis - PCA).

  • Du skal starte med at hente datasættet ipod_4.txt, der er et datasæt taget med app'en iSeismometer på en Ipod Touch som del af et eksperiment på kurset i 2011.

Spørgsmål 1

Indlæs datasættet. De fire variable er hhv. acceleration langs $x$-, $y$- og $z$-akserne samt tid i sekunder. Plot de tre accelerationskomponenter som funktion af tiden.

Spørgsmål 2

I dette spørgsmål skal du finde de dominerende komponenter, ved at benytte PCA metoden beskrevet afsnit 2 i multivariatstatistik.pdf dokumentet. For at hjælpe dig lidt på vej er spørgsmålet delt op i mindre dele:

Del 1

Transponér input matricen sådan at den er $M \times N$, hvor $M$ svarer til antallet af parametre og $N$ antallet af målinger. Centrér derefter dataen ved først at beregne middelværdien for de fire parametre, og fratræk denne de enkelte komponenter.

Del 2

Beregn kovariansmatricen af den centrerede data, og beregn så egenværdierne og egenvektorerne af den, med den indbyggede funktion i MATLAB. Gem diagonalen af egenværdimatricen i en vektor ($M \times 1$).

Del 3

Sorter egenværdierne efter faldende orden, og gem de indekser som sorteringsmetoden retunerer i en vektor.

Del 4

Sorter egenvektorerne og egenværdierne med indeks-vektoren.

Del 5

Projektér den oprindelige data langs den nye basis (egenvektor matricen).

Spørgsmål 3

Plot hvert komponent af det transformerede datasæt som funktion af tiden. Ved at sammenligne værdierne fra egenvektorne med de fire plots, forklar hvad de enkelte komponenter beskriver.

Spørgsmål 4

(Frivillig) Benyt MATLABs indbyggede PCA rutiner i stedet:

[C, latent, explained] = pcacov(cov(data'))
biplot(egenvec(:,1:2), 'scores', signals(1:2,:)', 'varlabels',datalabels)

Spørgsmål 5

(Frivillig) PCA teknikken afhænger af lineære relationer mellem de forskellige variable. Der findes en anden metode til ikke-lineære data, der benytter det såkaldte "kernel-kneb". I zip-filen medfølger en funktion kaldet "kernelpca_tutorial.m", gentag spørgsmål 4 for resultatet fra funktionen.

Mere info: http://en.wikipedia.org/wiki/Kernel_principal_component_analysis


Samlede løsninger



Personal tools
Namespaces
Variants
Actions
Navigation
Opgaver
Andet
Toolbox
Commercial