ODHDOVNIE PREDIKI EFEKTOV VO VYV ZEN YH MODELOH NL YZY ROZPTYLU RNDr Viktor Witkovsky, Sc Ustav merania SV Dubravska cesta 9 84 9 ratislava, Slovenska republika E-mail: umerwitksavbask Estimation and prediction of the eects in balanced NOV models bstract alanced analysis of variance (NOV) models are well-known tool for analysis of biometrical data The goal of the paper is to make a short overview of some mathematical tools wich are used for estimation and prediction of the eects of such models Key words: alanced NOV model, LUE, OLSE, GLSE, P, LP, LUP bstrakt Vyvazene modely analyzy rozptylu su znamym nastrojom na analyzu biometrickych udajov iel'om tohto prspevku je urobit' strucny prehl'ad niektorych matematickych nastrojov, ktore sa vyuzvaju pri odhadovan a predikcii efektov v tychto modeloch Kl'ucove slova: Vyvazeny NOV model, najleps linearny nevychyleny odhad, odhad metodou najmenschstvorcov, najleps prediktor, najleps linearny prediktor, najleps linearny nevychyleny prediktor Vyvazeny NOV model Modely analyzy rozptylu su strukturovane modely, ktore vysvetl'uju (modeluju) variabilitu pozorovanej veliciny len pomocou prirodzenej a l'ahko interpretovatel'nej organizacie do hierarchickej struktury Prave tato vlastnost'je d^ovodom vel'kej obl'ubenosti tychto modelov pri analyze biometrickych udajov Jednoduchost' a l'ahka interpretovatel'nost' je obzvlast' zrejma pre vyvazene modely s menej komplikovanou strukturou vstupnych faktorov (napr vyvazeny model jednoducheho triedenia) V prpade, ze pocet uvazovanych vstupnych faktorov je vyss, a navyse pripust'ame aj mozne interakcie medzi nimi, model sa komplikuje a samotna jeho konstrukcia a nasledna analyza sa stava komplikovanou Preto je d^olezite poznat' formalne pravidla konstrukcie vyvazenych NOV modelov Faktory, urovne a interakcie Struktura NOV modelov je popsana pomocou faktorov Rozlisujeme dva zakladne (hlavne) typy faktorov: krzove a vnorene Krzove faktory budeme oznacovat',, Pocet urovni jednotlivych faktorov potom oznacme n, n, n Pokial' jenapr faktor " zahniezdeny" v (teda vsetky jeho urovne sa vyskytuju v kazdej urovni nadradeneho faktora ), potom ide o vnoreny faktor, ktory oznacme : Potom n oznacuje pocet jeho urovni v kazdej urovni faktorov, v ktorych je vnoreny, (iny prklad vnoreneho faktora je :) Okrem tychto faktorov kazdy NOV model ma specialny vnoreny faktor, ktory zodpoveda variabilite vo vnutri jednotlivych faktorov Oznacujeme ho W, resp W: (z anglictiny " within" vo vnutri), pocet jeho urovn jen W
Fakt, ze pocet urovn kazdeho vnoreneho faktora je rovnaky pre kazdu uroven nadradeneho faktora vyjadruje vyvazenost' NOV modelu elkovy pocet pozorovan vo vyvazenom NOV modeli je teda N = n n n :::n W Zo zakladnych faktorov su odvodene interakcie, ktore su zahrnute ako d'alsie faktory do modelu analyzy rozptylu Symbolicky vznikaju ako suciny hlavnych faktorov L'ubovol'ny mozny sucin dvoch alebo viacerych krzovych alebo vnorenych faktorov vytvara interakciu k krzove faktory budeme reprezentovat' znacenm :, :, :, potom kazda interakcia tvor novy faktor typu :XYZ Naprklad, sucin krzovych faktorov, vytvara interakciu, sucin a : vyvara interakciu :, sucin a : symbolicky vytvor interakciu :, ktora vsak neexistuje Pri vytvaran interakci platia tieto pravila: k sa na niektorej strane dvojbodky vyskytne opakovane to iste psmeno, potom ho treba zapsat' len jedenkrat Pokial' sa na oboch stranach dvojbodky vyskytne to iste psmeno, interakcia neexistuje Neexistuju interakcie so specialnym faktorom W Prklad Uvazujme model s dvomi hlavnymi faktormi, :, a specialnym faktorom W: Z uvedeneho vyplyva, ze neexistuju ziadne d'alsie interakcie (: neexistuje) Tento model nazyvame hierarchicky model dvojiteho triedenia Matematicky ho m^ozme zapsat': y ijk = + i + ij + " ijk i = ::: n j = ::: n k = ::: n W () kde y ijk reprezentuje pozorovania, vseobecny priemer, i efekty krzoveho faktora, ij efekty vnoreneho faktora : a " ijk reprezentuje efekty specialneho faktora W: Prklad Uvazujme model s dvomi hlavnymi faktormi,, a specialnym faktorom W: Z uvedeneho vyplyva, ze existuje interakcia Tento model nazyvame krzovy model dvojiteho triedenia s interakciami: y ijk = + i + j + ij + " ijk i = ::: n j = ::: n k = ::: n W () kde y ijk reprezentuje pozorovania, vseobecny priemer, i efekty faktora, j efekty faktora, ij reprezentuje efekty interakcie a " ijk reprezentuje efekty specialneho faktora W: Linearny model Vyvazeny NOV model je z pohl'adu matematickej statistiky specialnym prpadom linearneho modelu typu y = Xb+ " (3) kde y je N-rozmerny vektor pozorovan, X je matica planu reprezentujuca strukturu faktorov a interakci a vektor b zdruzuje vsetky efekty faktorov a interakci Vektor " reprezentuje efekty nevysvetlene uvazovanymi faktormi a interakciami Prklad 3 (Vyvazeny model jednoducheho triedenia) Uvazujme model s faktormi a W:: y ij = + i + " ij i = ::: n j = ::: n W : (4) Tento model mozno zapsat' v maticovom tvare: y y nw y y nw y nn W = + ::: ::: ::: ::: ::: n + " " nw " " nw " nn W (5) alebo strucne y =( n nw ) +(I n nw ) +(I n I nw )" (6)
kde y =(y ::: y nn W ), N =( n nw ) oznacuje N-rozmerny st lpec jednotiek, =( ::: n ), " =(" ::: " nn W ) a(i n nw ) oznacuje Kroneckerov sucin identickej matice avektora jednotiek (pre matice a plat ( ) =fa ij g ij, teda ide o blokovu maticu s blokmi a ij ) k oznacme X =[( n nw ):(I n nw )] a b =( ) ( " " oznacuje transpozciu), potom dostavame maticovu reprezentaciu v tvare linearneho modelu y = Xb+ ": (7) Postup z prkladu 3 mozno zovseobecnit' na l'ubovol'ny vyvazeny model analyzy rozptylu: Pocet faktorov m (m; hlavych faktorov plus specialnyfaktorw) denuje pocet " poschod" struktury modelu Jednotlive matice planu stojace pri jednotlivych efektoch faktorov a interakci potom mozno vyjadrit'ako Kroneckerov sucin m I-matc, resp -vektorov, prslusnych rozmerov Platia tieto pravidla: Vseobecny priemer je spolocna konstanta pre vsetky pozorovania, takze jeho matica planu je sucinom jednotkovych vektorov Pre kazdy faktor resp interakciu typu :XYZ matica planu pozostava zo sucinu identickych matc, ktore stoja na miestach prisluchajucich jednotlivym psmenam (tj premenlivym indexom) a sucinu jednotkovych vektorov na zvysnych miestach Matica planu specialneho faktora typu W je N-rozmerna identicka matica Prklad 4 (Vyvazeny model krzoveho trojiteho triedenia s interakciami) Uvazujme model s tromi hlavnymi faktormi,, a specialnym faktorom W: Z uvedeneho vyplyva, ze existuju interakcie,, a Teda y ijkl = + i + i + k + ij + ik + jk + ijk + " ijkl : (8) ko reprezentaciu modelu v maticovom tvare dostavame: y = ( n n n nw ) +(I n n n nw ) +( n I n n nw ) +( n n I n nw ) +(I n I n n nw ) +(I n n I n nw ) +( n I n I n nw ) +(I n I n I n nw ) +(I n I n I n I nw )": (9) 3 Pevne a nahodne efekty Modely analyzy rozptylu vysvetl'uju napozorovane veliciny ako linearnu kombinaciu efektov (urovn) jednotlivych faktorov resp interakci, ktorazavisodstruktury modelu (vyjadrenej pomocou jednotlivych matc planu) Kazdy NOV model ma aspon jeden pevny (nenahodny) efekt vseobecny priemer a aspon jeden nahodny efekt, ktory zodpoveda specialnemu faktoru W Efekty prisluchajuce ostatnym hlavnym faktorom a interakciam m^ozu byt' pevne (nenahodne konstanty) alebo nahodne premene Rozlisujeme tri typy NOV modelov: model s pevnymi efektami, model s nahodnymi efektami a zmiesany model s pevnymi aj nahodnymi efektami Nahodne efekty su reprezentovanenahodnymi vektormi, ktoresu charakterizovanesvojou distribuciou Obycajne predpokladame iba znalost'struktury prvych dvoch momentov vektora strednej hodnoty a kovariancnej matice k reprezentuje nahodny vektor efektov prisluchajuci faktoru :XYZ, potom predpokladame: E() = Var() = :XY ZI: () k je nahodny efekt prisluchajuci inemu faktoru (interakcii), potom predpokladame ich vzajomnu nekorelovanost', teda ov( ) =E( )= Niekdey budeme predpokladat' uplnu znalost' distribucie nahodnych efektov obycajne budeme predpokladat' normalitu rozdelenia, teda N( :XY Z I) Prklad 5 (Vyvazeny hierarchicky model dvojiteho triedenia s nahodnymi efektami) Uvazujeme model s faktormi, : a W: Efekty prisluchajuce faktorom su nekorelovane nahodne vektory Teda y =( n n nw ) +(I n n nw ) +(I n I n nw ) +(I n I n I nw )" () pricom E() =,E() =,E(") =,Var() = I n, Var() = : I n n, Var(") = W: I n n n W, a ov( ) =,ov( ") =,ov( ") = Za danych predpokladov dostavame: E(y) = ( n n nw ) Var(y) = (I n J n J nw )+ : (I n I n J nw )+W : (I n I n I nw ) ()
pricom J = je matica jednotiek Parametre, : a W: nazyvame variancne komponenty Kazdy NOV model (s f pevnymi efektami a r nahodnymi efektami) mozno vhodnym zdruzenm jednotlivych matc planu avektorov efektov vyjadrit'vtvare linearneho modelu: y = Xb+ Zu (3) kde X =[X : ::: X f ] je matica planu pre pevne efekty zlozena z jednotlivych matc pri pevnych efektoch (vratane efektu ), b =(b ::: b f ) je usporiadanyvektor vsetkych pevnych efektov, Z =[Z : :::: Z r ]je matica planu pre nahodne efekty zlozena z jednotlivych matc pri nahodnych efektoch(vratane chyboveho efektu "), u = (u ::: u r) je usporiadany vektor vsetkych nahodnych efektov, pricom E(u i ) =, Var(u i )= i I a ov(u i u j ) = pre vsetky i 6= j Potom teda E(y) =Xb Var(y) =ZVar(u)Z =[Z : :::: Z r ]Diag( i I)[Z : :::: Z r ] = rx i= i Z iz i = (4) kde V i = Z i Z i su zname pozitvne semidenitne matice a ::: r su variancnekomponenty Vzhl'adom na specialnu strukturu matc X i a Z i (vsetky su tvorene ako Kroneckerov sucin identickych matc I- matc, resp jednotkovych vektorov -vektorov), aj matice V i maju specialnu strukturu: su tvorene ako Kroneckerov sucin I-matc resp J-matc Model (3) nazyvame vseobecnym (vyvazenym) zmiesanym NOV modelom rx i= i V i 4 Inverzia kovariancnej matice Searle a Henderson (979) odvodili vseobecny vysledok pre inverziu kovariancnej matice vo vseobecnom (vyvazenom) zmiesanom NOV modeli Ide o zovseobecnenie znameho vysledku z maticovej algebry: (ai n + bj n ) ; = I n ; b a a + nb J n a 6= a 6= ;nb: (5) Kazdy vyvazeny NOV model s m faktormi mozno matematicky zapsat'ako y = m X i= ( im n m im; n m; ::: i n )a i : (6) Suma prebieha cez vektorovy index i = (i m ::: i ), pricom kazde i j, j = ::: m m^oze nadobudat' len dve hodnoty, alebo Teda existuje celkom m r^oznych indexov i, ktore mozno lexikogracky usporiadat' od :::, ::: az ::: Vtomto oznacen plat reprezantacia: = a = I Teda permutovanm indexov i j dosiahneme vsetky mozne kombinacie matc planu, ktore pozostavaju len z Kroneckerovych sucinov -vektorov a I-matc Takychto matc je obycajne viac ako je potrebnych pre klasickcke NOV modely, preto v reprezentacii (6) a i oznacuju bud' jednotlive vektory efektov (pevnych alebo nahodnych) alebo nulove vektory Nech Var(a i ) = i I Pokial' a i reprezentuje pevny efekt, alebo nulovy vektor, potom i = a kovariancnu maticu mozno teda zapsat'ako: pricom J = J a J = I V = Var(y) = m X i= i (J im n m J im; n m; Ji n ) (7) Denujme vektor koecientov =(::: ::: ::: :::) a transformacnu maticu T = : (8) n m n m; n Potom = T je m -rozmernyvektor obsahujuci vlastnecsla matice V Oznacme vektor prevratenych hodn^ot (teda vektor obsahujuci vlastne csla matice V ; ), tj: = ::: : (9) ::: ::: :::
Potom rovnost' = T ;,kde T ; = nm n m ; nm; n m; ; n n ; denuje vektor koecientov =( ::: ::: ::: ::: ) inverznej matice V ; : V ; = Viac podrobnost mozno najst' v Searle et al (99), str 44 m X i= () i (J im n m J im; n m; Ji n ): () Odhadovanie pevnych efektov Reprezentacia vyvazenych NOV modelov v tvare linearneho modelu (3) s maticami X a Z specickeho tvaru (Kroneckerov sucin I-matc a -vektorov) umoznuje vyuzit'vysledky teorie linearnych modelov Podl'a Gauss-Markovovej vety (pozri napr Pazman (993), str 3-5) v linearnom modeli (y Xb V ) platrovnost' LUE(Xb)=GLSE(Xb), pricom LUE(Xb) oznacuje najleps linearny nevychyleny odhad vektora Xb v modeli (y Xb V ) a GLSE(Xb) = X(X V ; X) ; X V ; y je vseobecny odhad metodou najmenschstvorcovvektora Xb Zuvedeneho priamo vyplyva, ze v modeli (y Xb I) plat GLSE(Xb)= OLSE(Xb), pricom OLSE(Xb)=X(X X) ; Xy je obycajny odhad metodou najmenschstvorcov Veta Uvazujme vseobecny vyvazeny P NOV model so zmiesanymi efektami y = Xb + e, e = Zu, r pricom E(e) =a Var(e) =V = i= i V i Nech g R(X )=R(X X) (teda vektor g je vnoreny do linearneho priestoru generovaneho riadkami matice X, tj existuje taky vektor v R k,ze g = X Xv = X w, w = Xv)anech g b oznacuje linearnu funkciu pevnych efektov Potom OLSE(g b) = g (X X) ; X y = v X y = w OLSE(Xb) GLSE(g b) = g (X V ; X) ; X V ; y = w GLSE(Xb) LUE(Xb) = GLSE(Xb)=OLSE(Xb) teda aj LUE(g b)=olse(g b) () kde OLSE(Xb)=X(X X) ; X y a GLSE(Xb)=X(X V ; X) ; X V ; y Teda najlepslinearny nevychyleny odhad (LUE est Linear Unbiased Estimator) nevychylene odhadnutel'nej funkcie pevnych efektov g b sa zhoduje s obycajnym odhadom metodou najmensch stvorcov (OLSE Ordinary Least Squares Estimator) Navyse Var(LUE(g b)) = Var(GLSE(g b)) = Var(OLSE(g b)) = g (X V ; X) ; g = v (X VX)v: (3) Uvedene odhady a variancia odhadu nezavisia od vyberu pseudoinverznychmatc (X X) ; a (X V ; X) ; Vetu mozno dokazat' priamo s vyuzitm specialneho tvaru matc planu vyvazenych NOV modelov a vzt'ahu () pre vypocet inverznej kovariancnej matice Iny d^okaz vety jezalozeny na tvrden nasledovnej lemy (pozri Rao-Mitra (97), veta 8 a jej d^osledky): Lema Nutnou a postacujucou podmienkou k tomu, aby pre kazdu nevychylene odhadnutel'nu funkciu g b vlinearnom modeli (y Xb V ) platila rovnost' LUE(g b)=olse(g b) je platnost' jednej z podmienok: X VZ=, kde Z je matica ortogonalna k X, tj Z X = VX= XQ pre nejaku maticu Q D^okaz Nech g b je nevychylene odhadnutel'na funkcia parametrov, teda existuje, ze g = X X Potom OLSE(g b)= X y = g (X X) ; X y Podl'a Gauss-Markovovej vety v modeli (y Xb I) plat OLSE(g b) = LUE(g b) Rovnost' OLSE(g b) = LUE(g b) plat aj v modeli (y Xb V ) prave vtedy, ked'odhadolse(g b)jenekorelovany s linearnym odhadom l'ubovol'nej nulovej funkcie parametrov, tj p b = Pritom kazdy linearny odhad nulovej funkcie parametrovmozno zapsat'vtvare c p b = `Z y, kde Z je matica ortogonalna k X, tj Z X =, pretoze E(`Z y)=`z Xb =
Potom dostavame: teda plat tvrdenie lemy ov( X y `Z y)=, X VZ`=prevsetky, `, X VZ= (4) Navyse ak VX = XQ pre nejaku maticu Q potom X VZ = Q X Z = Naopak ak = X VZ = (V X) Z potom VX R(X) a teda existuje matica Q, ze VX = XQ Teda dostavame aj tvrdenie lemy D^okaz D^odledkom tvrdenia lemy je tvrdenie vety : Vo vseobecnom vyvazenom zmiesanom NOV modeli matica planu pre pevne efekty X = [X : ::: : X f ] pozostava z blokov X i, z ktorych kazdy je Kroneckerovym sucinom I-matc a -vektorov akovariancna P P r matica V = i= i V i,pricom P kazda V i je Kroneckerovym sucinom I-matc a J-matc Sucin VX =( i V i)[x : ::: : X f ] =[ i V ix : ::: P : i V i X f ], pricom V i X j = X j Q ij, kde Q ij su matice tvorene Kroneckerovym sucinom konstant, I-matc a J-matc Mozne kombinacie sucinov pre kazdu uroven sucinu V i X j = X j Q ij su dane v tabul'ke: V (l) i X (l) j V (l) i X (l) j =X (l) j Q (l) ij Q (l) ij I I I=II I I =I I J I J=IJ J J n=ni ni Prklad 6 (Vyvazeny hierarchicky zmiesany model dvojiteho triedenia Uvazujeme model s faktormi, : a W:: y =( n n nw ) +(I n n nw ) +(I n I n nw ) +(I n I n I nw )" (5) pricom E() =,E(") =,Var() = : I n n, Var(") = W: I n n n W,aov( ") = Za danych predpokladovdostavame model y = Xb+e, X =[X : X ], pricom X =( n n nw ), X =(I n n nw )ab =( ) a V = Var(y) = : (I n I n J nw )+ W: (I n I n I nw ) Nevychylene odhadnutel'nesuvsetky funkcie g b,kdeg je riadok matice planu X, aleboichl'ubovol'na linearna kombinacia Z toho vyplyva, ze nevychylene odhadnutel'ne su vsetky funkcie + i, ale tiez naprklad kontrasty i ; j =( + i ) ; ( + j ) Naopak, bez d'alsej dodatocnej informacie (danej vo forme restrikci) o efektoch, nemozno nevychylene odhadnut'ani a ani jednotlive efekty i Nech g = ( ; ::: ), teda g b = ; Potom LUE( ; ) = OLSE( ; ) = g (X X) ; X y = v X y, kde v je taky vektor, ze g = X Xv a X X = X X X X X X X X n = n n n W X n I y = n X y X y = y ::: y :: y n:: (6) pretoze X X =( )( ) =( )=(n n n W )=n n n W = N, podobne X X =(X X ) =( )(I ) =( P n n W )=n n W, X X P P =(I )(I P ) P = n n W I n Nakoniec y ::: =( )y = i j k y ijk, podobne z X y dostavame y i:: = j k y ijk pre i = ::: n L'ahko vidiet', ze plat g = n n W X Xg atedav = n n W g Potom teda LUE( ; )=v X y = P (y :: ; y :: )=(n n W )=y :: ; y ::,kdey i:: = n n W Pj k y ijk oznacuje vyberovy priemer pozorovan v danej bunke urcenej kombinaciou urovn Variancia Var(LUE( ; )) = v (X VX)v a teda X Var(LUE( ; )) = v VX X VX X VX X VX = : + W: n n W v = (n W : + W: ) g n n g n n W n I n : (7)
3 Predikovanie nahodnych efektov Uvazujme vseobecny zmiesany NOV model v tvare y = Xb+ Zu + " (8) pricom E(y) =Xb, Var(u) =D = Diag( i I), Var(y) =V = ZDZ + "I a ov(u y) = = DZ Zakladnym kriteriom optimality pre prediktor vektora nahodnych efektov u je minimalizacia zovseobecnenej strednej kvadratickej chyby (MSE Mean Square Error) predikcnej chyby (~u ; u), teda minimalizacia E[(~u ; u) (~u ; u)], kde je l'ubovol'na pozitvne denitna matica Dencia Podl'a mnozstva informacie o rozdelen, resp o neznamych parametroch rozdelenia, zdru- zeneho vektora nahodnych efektov avektora pozorovan (u y ) denujeme tri druhy prediktorov, ktore su zalozene na kriteriu minimalnej MSE: Najleps prediktor (P est Predictor) vektora nahodnych efektov u denujeme ako kde je l'ubovol'na pozitvne denitna matica P(u) =argmin MSE(~u ; u) (9) ~u Najlepslinearny prediktor (LP est Linear Predictor) vektora nahodnych efektov u denujeme ako ~u = a + y, pricom LP(u) =argmin MSE(~u ; u) (3) ~u=a+y kde je l'ubovol'na pozitvne denitna matica a a, je l'ubovol'ny vektor, resp matica, vhodnych rozmerov 3 Najleps linearny nevychyleny prediktor (LUP est Linear Unbiased Predictor) funkcie pevnych anahodnych efektov w = L b+u,kdel je znama matica, a taka, ze Lb je nevychylene odhadnutel'na funkcia parametra b, potom denujeme ako ~w = a + y, pricom E(~w ; w) =a LUP(w) = argmin MSE(~w ; w) (3) ~w=a+y E(~w;w)= kde je l'ubovol'na pozitvne denitna matica a a, je l'ubovol'ny vektor, resp matica, vhodnych rozmerov Veta Uvazujme vseobecny NOV model s nahodnymi efektami (8), potom: Najleps prediktor vektora nahodnych efektov u je dany ako P(u) =E(ujy) (3) kde E(ujy) = R uf(ujy) du = R uf(u y)=( R f(u y) dy) du oznacuje podmienenu strednu hodnotu vektora u, pri danom vektore pozorovan y (data) f(u y) oznacuje zdruzenu hustotu rozdelenia vektora (u y ) a f(ujy) oznacuje podmienenu hustotu rozdelenia Najleps linearny prediktor vektora nahodnych efektov u je dany ako LP(u) = u + ov(u y)(var(y)) ; (y ; y )=DZ (ZDZ + " I) ; (y ; Xb) (33) kde u = E(u) =, y = E(y) =Xb, D = Diag( i I) 3 Najleps linearny nevychyleny prediktor funkcie pevnych anahodnych efektov w = L b + u, pricom L je znama matica a L R(X X), je dany ako LUP(w) = LUE(L b)+ov(u y)(var(y)) ; (y ; LUE(Xb)) = LUE(L b)+dz (ZDZ + " I) ; (y ; LUE(Xb)) (34) kde LUE(L b)=l (X V ; X) ; X V ; y, LUE(Xb)=X(X V ; X) ; X V ; y a D = Diag( i I)
D^okaz D^okaz vety priamo vyplyva z ulohy minimalizacie MSE za danych podmienok Podrobnosti mozno najst' v Searle et al (99), str 58{75 Prklad 7 (Vyvazeny hierarchicky model jednoducheho triedenia s nahodnymi efektami) Uvazujeme model s faktormi a W:: y =( n nw ) +(I n nw ) +(I n I nw )" (35) alebo y = Xb+Zu+",kdeX =( n nw )= N, Z =(I n nw ), b = a u = Pritom D = Var(u) = I n, V = Var(y) =ZDZ + W: I N = (I n J nw )+W: (I n I nw )=(I n ( J n W + W: I n W )) a ov(u y) = DZ = (I n n W ) Pretoze plat ( ) ; = ( ; ; ), potom podl'a (5) dostavame: V ; = I n ; W:I nw + J nw ; = I n I W: nw ; W: + n W J nw Najleps linearny prediktor vektora nahodnych efektov, LP() = LP(u) je podl'a (33) LP() = ov(u y)(var(y)) ; (y ; N ) = (I n n W ) I n I W: nw ; W: + n W = I n n W W: n W ; W: + n W = kde y i: = n W P nw j= y ij n W (y ; N ) W: + n (I W n n W n W )(y ; N )= W: + n W J nw (y ; N ) y : ; y n: ; : (36) (37) Podl'a ()LUE( N )=X(X X) ; X y = N ( N N ) ; N y = y :: N, kde y :: = N P n i= P nw j= y ij, potom najleps linearny nevychyleny prediktor vektora nahodnych efektov, LUP() = LUP(u) je podl'a (34) LUP() = W: + n (I W n n W n W )(y ; y :: N )= W: + n W y : ; y :: y n: ; y :: : (38) Prediktory nahodnych efektov, uvedene vo vete, zavisia od uplnej znalosti rozdelenia (v prpade najlepsieho prediktora), alebo zavisia od neznamych parametrov rozdelenia Najleps linearny prediktor zavis od parametrov prveho aj druheho radu, najleps linearny nevychyleny prediktor zavis len od parametrov druheho radu variancnych komponentov Odhady variancnych komponentov maju preto vel'ky vyznam pre aplikacie, ked' skutocne, ale nezname parametre v optimalnych prediktoroch su nahradene ich odhadmi Viac o odhadochvariancnychkomponentovmozno najst'vknihach Rao a Klee (988) a Searle et al (99) Kratky uvod je tiez vpracachhyanek (994) a Witkovsky (994) Zoznam literatury [] Searle, SR and Henderson, HV Dispersion matrices for variance components models J mer Stat ssoc, 74, 465{47, 979 [] Hyanek, J Linearn modely v selekci hospodarskych zvrat odhad slozek rozptylu In: Sbornk prac XI letn skola biometriky: " Linearn modely v zemedelskem vyzkumu a vyrobe", 9 august { september 994, Lednice na Morave, 6{66, 994 [3] Pazman, Nonlinear Statistical Models Kluwer cademic Publishers, Dordrecht, 993 [4] Rao, R and SK Mitra Generalized Inverse of Matrices and its pplications John Wiley & Sons, Inc, New York, 97 [5] Rao, R and J Klee Estimation of Variance omponents and pplications North-Holland Publishing ompany, msterdam, 988 [6] Searle, SR, G asella and E Mculloch Variance omponents John Wiley & Sons, New York, 99 [7] Witkovsky, V Metody odhadovania variancnych komponentov v linearnych modeloch In: Sbornk prac XI letn skola biometriky: " Linearn modely v zemedelskem vyzkumu a vyrobe", 9 august { september 994, Lednice na Morave, 67{76, 994