Student'in t dağılımı

Student'in t
Olasılık yoğunluk fonksiyonu
Yığmalı dağılım fonksiyonu
Parametreler ν > 0 {\displaystyle \nu >0} serbestlik dereceleri (reel)
Destek x ( ; + ) {\displaystyle x\in (-\infty ;+\infty )\!}
Olasılık yoğunluk fonksiyonu (OYF) Γ ( ν + 1 2 ) ν π Γ ( ν 2 ) ( 1 + x 2 ν ) ( ν + 1 2 ) {\displaystyle {\frac {\Gamma ({\frac {\nu +1}{2}})}{{\sqrt {\nu \pi }}\,\Gamma ({\frac {\nu }{2}})}}\left(1+{\frac {x^{2}}{\nu }}\right)^{-({\frac {\nu +1}{2}})}\!}
Birikimli dağılım fonksiyonu (YDF) 1 2 + x Γ ( ν + 1 2 ) 2 F 1 ( 1 2 , ν + 1 2 ; 3 2 ; x 2 ν ) π ν Γ ( ν 2 ) {\displaystyle {\begin{matrix}{\frac {1}{2}}+x\Gamma \left({\frac {\nu +1}{2}}\right)\cdot \\[0.5em]{\frac {\,_{2}F_{1}\left({\frac {1}{2}},{\frac {\nu +1}{2}};{\frac {3}{2}};-{\frac {x^{2}}{\nu }}\right)}{{\sqrt {\pi \nu }}\,\Gamma ({\frac {\nu }{2}})}}\end{matrix}}}
burada 2 F 1 {\displaystyle \,_{2}F_{1}} birhipergeometrik fonksiyon olur
Ortalama 0  eğer  ν > 1 {\displaystyle 0{\text{ eğer }}\nu >1} , diğer hallerde tanımlanmamış
Medyan 0 {\displaystyle 0}
Mod 0 {\displaystyle 0}
Varyans ν ν 2  eğer  ν > 2 {\displaystyle {\frac {\nu }{\nu -2}}{\text{ eğer }}\nu >2\!} , diğer hallerde tanımlanmamış
Çarpıklık 0  for  ν > 3 {\displaystyle 0{\text{ for }}\nu >3}
Fazladan basıklık 6 ν 4  for  ν > 4 {\displaystyle {\frac {6}{\nu -4}}{\text{ for }}\nu >4\!}
Entropi ν + 1 2 [ ψ ( 1 + ν 2 ) ψ ( ν 2 ) ] + log [ ν B ( ν 2 , 1 2 ) ] {\displaystyle {\begin{matrix}{\frac {\nu +1}{2}}\left[\psi ({\frac {1+\nu }{2}})-\psi ({\frac {\nu }{2}})\right]\\[0.5em]+\log {\left[{\sqrt {\nu }}B({\frac {\nu }{2}},{\frac {1}{2}})\right]}\end{matrix}}}
  • ψ {\displaystyle \psi } : digamma fonksiyonu,
  • B {\displaystyle B} : beta fonksiyonu
Moment üreten fonksiyon (mf) ()
Karakteristik fonksiyon

Olasılık kuramı ve istatistik bilim dallarında t-dağılımı ya da Student'in t dağılımı genel olarak örneklem sayısı veya sayıları küçük ise ve anakütle normal dağılım gösterdiği varsayılırsa çıkartımsal istatistik uygulaması için çok kullanılan bir sürekli olasılık dağılımıdır. Çok popüler olarak tek bir anakütle ortalaması için güven aralığı veya hipotez sınaması ve iki anakütle ortalamasının arasındaki fark için güven aralığı veya hipotez sınamasında, yani çıkarımsal istatistik analizlerde, uygulama görmektedir.

t-dağılımı ilk olarak 1908'de Dublin'de Guinness Bira Fabrikası'nda çalışan William Sealy Gosset tarafından yayımlanan bir makale ile ortaya konmuştur. Guinness'in, şirket sırlarının yayımlanmasını önlemek amacıyla çalışanlarının bilimsel yayın yapmasını yasaklamasından ötürü, bu yayının yazarı Student (öğrenci) olarak belirtilmişti. Gosset bu makalesinde "t" yerine "z" harfini kullanmıştır fakat sonradan "z" harfinin standart normal dağılım bağlamında kullanılmaya başlanmasıyla Student'in dağılımı "t" harfiyle anılmaya başlanmıştır.[1] t-sınamaları ve ilişkili teori R.A. Fisher tarafından geliştirilmiş ve bu dağılım Student'in t dağılımı adıyla tanınmıştır.

Çıkarımsal istatistiksel çalışmalarda normal dağılımın yerine küçük orneklem bulunan problemler için kullanılmakla (ve bu nedenle normal dağılımın bir özel hali olarak yanlış intiba vermekle) beraber Student'in t-dağılımı teorik bakımdan genelleştirilmiş hiperbolik dağılımının bir özel halidir.

Farz edelim ki X1, ..., Xn istatistiksel olarak birbirlerinden bağımsız rassal değişkenlerdir ve beklenen değer μ ile dağılma σ değerleri ile normal dağılmaktadırlar.

X ¯ n = ( X 1 + + X n ) / n {\displaystyle {\overline {X}}_{n}=(X_{1}+\cdots +X_{n})/n}

örneklem ortalaması ve

S n 2 = 1 n 1 i = 1 n ( X i X ¯ n ) 2 {\displaystyle S_{n}^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}_{n}\right)^{2}}

Bu Z den, kesin standart sapma ifadesi olan σ {\displaystyle \scriptstyle \sigma } yerine bir rassal değişken olan S n {\displaystyle \scriptstyle S_{n}} konulması suretiyle değişiklik gösterir. Teknik olarak : ( n 1 ) S n 2 / σ 2 {\displaystyle \scriptstyle (n-1)S_{n}^{2}/\sigma ^{2}} Cochran'ın teoremine göre bir ki-kare dağılımı gösterir. Gosset yazısında Tnin şu olasılık yoğunluk fonksiyonu gösterdiğini ispat etmiştir:

f ( t ) = Γ ( ν + 1 2 ) ν π Γ ( ν 2 ) ( 1 + t 2 ν ) ( ν + 1 2 ) , {\displaystyle f(t)={\frac {\Gamma ({\frac {\nu +1}{2}})}{{\sqrt {\nu \pi }}\,\Gamma ({\frac {\nu }{2}})}}\left(1+{\frac {t^{2}}{\nu }}\right)^{-({\frac {\nu +1}{2}})}\!,}

Burada ν, n - 1 ifadesine eşittir ve Γ bir Gamma fonksiyonudur.

Bu ifade şöyle de yazılabilir:

f ( t ) = 1 ν B ( 1 2 , ν 2 ) ( 1 + t 2 ν ) ( ν + 1 2 ) , {\displaystyle f(t)={\frac {1}{{\sqrt {\nu }}\,B\left({\frac {1}{2}},{\frac {\nu }{2}}\right)}}\left(1+{\frac {t^{2}}{\nu }}\right)^{-({\frac {\nu +1}{2}})}\!,}

Burada B bir Beta fonksiyonudur.

Sonradan T dağılımı t-dağılımı olarak anılmaya başlanmıştır. ν parametresi serbestlik derecesi olarak anılmaktadır. Dikkat edilirse t-dağılımı sadece ν parametresine dayanır ve (çıkarımsal istatistik analizi için bilinmeyen anakütle değerleri olan) μ veya σ t-dağılımı için parametre değildirler. İşte bu gerçek (yani μ ve σ nin parametre olmaması) hem teorik bakımdan ve daha belirgin olarak pratik çıkarımsal istatistik analizi bakımından, t-dağılımı istatistik bilimi için çok önemlidir.

t-dağılımının momentleri şunlardır:

E ( T k ) = { 0 k tek , 0 < k < ν Γ ( k + 1 2 ) Γ ( ν k 2 ) ν k / 2 π Γ ( ν 2 ) k cift , 0 < k < ν NaN k tek , 0 < ν k k cift , 0 < ν k {\displaystyle E(T^{k})={\begin{cases}0&{\mbox{k tek}},\quad 0<k<\nu \\{\frac {\Gamma ({\frac {k+1}{2}})\Gamma ({\frac {\nu -k}{2}})\nu ^{k/2}}{{\sqrt {\pi }}\Gamma ({\frac {\nu }{2}})}}&{\mbox{k cift}},\quad 0<k<\nu \\{\mbox{NaN}}&{\mbox{k tek}},\quad 0<\nu \leq k\\\infty &{\mbox{k cift}},\quad 0<\nu \leq k\\\end{cases}}}

Bir diğer işlemle de 0 < k < ν terimi, k çift sayı ise, Gamma fonksiyonunun özellikleri kullanılarak daha basitleştirilebilinir:

E ( T k ) = i = 1 k / 2 2 i 1 ν 2 i ν k / 2 k  cift , 0 < k < ν . {\displaystyle E(T^{k})=\prod _{i=1}^{k/2}{\frac {2i-1}{\nu -2i}}\nu ^{k/2}\qquad k{\mbox{ cift}},\quad 0<k<\nu .}

Daha ileri teori

Gosset'in sonuçlarının daha da genelleştirilmesi mümkündür.[2]

Z, standart normal dağılıma ve V ise, ν {\displaystyle \nu } serbestlik derecesi ile ki-kare dağılımına sahip olsun, Z ve V bağımsız ise, Cochran'in teoremine göre, şu orantı

Z V / ν   {\displaystyle {\frac {Z}{\sqrt {V/\nu \ }}}}

ν serbestlik derecesi olan bir t-dağılımı olur.

Serbestlik derecesi ν olan bir t-dağılımı için beklenen değer 0 dır ve varyans

ν/(ν - 2) eğer ν > 2.

Çarpıklık 0 olur ve basıklık eğer ν > 4 ise.

6/(ν - 4)

olur. Yığmalı dağılım fonksiyonu bir tamamlanmamış beta fonkiyonu olup

t f ( u ) d u = I x ( ν 2 , ν 2 ) {\displaystyle \int _{-\infty }^{t}f(u)\,du=I_{x}\left({\frac {\nu }{2}},{\frac {\nu }{2}}\right)}

ifadesi ile verilir ve burada

x = t + t 2 + ν 2 t 2 + ν . {\displaystyle x={\frac {t+{\sqrt {t^{2}+\nu }}}{2{\sqrt {t^{2}+\nu }}}}.}

olur.

t-dağılımı ile F-dağılımı ilişkisi şöyle açıklanabilir; ν serbestlik derecesi olan t için kare değeri serbestlik derecesi 1 ve ν olan bir F-dağılımıdır.

t-dağılımının olasılık yoğunluk fonksiyonunu grafik şekli, ortalaması 0 ve varyansı 1 olan standart normal dağılımı grafik şekline benzerlik gösterir. Ancak t-dağılımı daha yaygındır ve biraz daha basıktır. Serbestlik derecesi büyüdükçe, t-dağılımı standart normal dağılımına yaklaşım göstermektedir. Serbestlik derecesi 30 olduğu zaman t-dağılımı ve standart normal dağılım nerede ise aynı şekildedirler.

Aşağıdaki gösterimler ν serbestlik derecesi artış gösterirse t-dağılımı yoğunluk fonksiyonunun nasıl değiştiğini gösterirler. Karşılaştırma sağlamak için normal dağılım mavi çizgi ile gösterilmiştir. t-dağılımını gösteren kırmızı çizginin ν değeri artıkça normal dağılıma yakınlaşma gösterdiği açıkça gözlenebilmektedir. Eğer ν=30 t-dağılımı hemen hemen normal dağılım ile aynı olmaktadır.

Serbestlik dereceleri 1, 2, 3, 5, 10 ve 30 için t-dağılımı yoğunluk fonksiyonu (kırmızı ve yeşil). Normal dağılımla (mavi) karşılaştırın.

Özel haller

Serbestlik derecesini ν için belli değerler özellikle basit olan bazı şekilleri verirler:

ν = 1

Dağılım fonksiyonu şu olur:

F ( x ) = 1 2 + 1 π arctan ( x ) . {\displaystyle F(x)={\frac {1}{2}}+{\frac {1}{\pi }}\arctan(x).}

Yoğunluk fonksiyonu şudur:

f ( x ) = 1 π ( 1 + x 2 ) . {\displaystyle f(x)={\frac {1}{{\pi }(1+x^{2})}}.}

Bakın Cauchy dağılımı

ν = 2

Dağılım fonksiyonu şu olur:

F ( x ) = 1 2 [ 1 + x 2 + x 2 ] . {\displaystyle F(x)={\frac {1}{2}}\left[1+{\frac {x}{\sqrt {2+x^{2}}}}\right].}

Yoğunluk fonksiyonu şudur:

f ( x ) = 1 ( 2 + x 2 ) 3 / 2 . {\displaystyle f(x)={\frac {1}{\left(2+x^{2}\right)^{3/2}}}.}

Student'in t-dağılımı kullanarak kestirim aralığı bulunması

Bir sayı olan A öyle şekilde seçilsin ki

Pr ( A < T < A ) = 0.9 , {\displaystyle \Pr(-A<T<A)=0.9,\,}

olsun. Burada T n - 1 serbestlik derecesi bulunan bir t-dağılımı göstersin. Bu ifade

Pr ( T < A ) = 0.95 , {\displaystyle \Pr(T<A)=0.95,\,}

ifadesi ile aynı olup A bu olasılık dağılımının 95inci yüzdebirlik değeridir veya

A = t ( 0.05 , n 1 ) {\displaystyle A=t_{(0.05,n-1)}} .

Bu halde

Pr ( A < X ¯ n μ S n / n < A ) = 0.9 , {\displaystyle \Pr \left(-A<{{\overline {X}}_{n}-\mu \over S_{n}/{\sqrt {n}}}<A\right)=0.9,}

olmaktadır ve bu da

Pr ( X ¯ n A S n n < μ < X ¯ n + A S n n ) = 0.9. {\displaystyle \Pr \left({\overline {X}}_{n}-A{S_{n} \over {\sqrt {n}}}<\mu <{\overline {X}}_{n}+A{S_{n} \over {\sqrt {n}}}\right)=0.9.}

ifadesine aynen eşittir. Bunun için uç-noktaları

X ¯ n ± A S n n {\displaystyle {\overline {X}}_{n}\pm A{\frac {S_{n}}{\sqrt {n}}}}

olan açıklık μ için bir %90 güven aralığıdır.

Böylece eğer normal dağılım gösterdiğine epeyce emin olabilaceğimiz bir grup gözlem için ortalama değeri bulursak, t-dağılımını kullanarak bulunan ortalama için güvenlik limitlerinin (belki bir sıfır hipotez için tahmin edilmiş değerin) yahut daha önce teorik olarak tahmin edilmiş bir değerin, bu limitlerin arasında bulunup bulunmadığı araştırılabilir.

Bu sonuc Student'in t-testlerinde kullanılmaktadır. İki normal dağılımdan alınan örneklemlerin ortalamalarının farkı da normal dağılım gösterdiği için, anakütle ortalamalarının arasındaki farkın sıfıra eşit olduğuna dair bir sonuç çıkarmanın makul olup olmadığını incelemede kullanılabilir.

Eğer veriler normal olarak dağılım gösterirlerse, ortalama için tek taraflı bir (1-a)-üst güvenlik limiti (UGL), şu verilen denklemi kullanarak hesaplanabilir.

U G L 1 a = X ¯ n + t a , n 1 S n n . {\displaystyle \mathrm {UGL} _{1-a}={\overline {X}}_{n}+{\frac {t_{a,n-1}S_{n}}{\sqrt {n}}}.}

Ortaya çıkarılan UGL değeri, bir verilmiş güvenlik aralığı ve anakütle büyüklüğü için ortaya çıkacak en büyük ortalama değeri olacaktır. Diğer bir terimle, X ¯ n {\displaystyle {\overline {X}}_{n}} değeri bir grup gözlemler için bir ortalama olursa, bu dağılımın ortalamasının U C L 1 a {\displaystyle \mathrm {UCL} _{1-a}} değerinden daha düşük olmasının olasılığı güvenlik oranına (yani 1 a {\displaystyle 1-a} ye) eşittir.

Uygun büyüklükteki örneklemler için t-dağılımlarının ilgili sıfır hipotezi için uygulanabileceği birkaç diğer istatistikler bulunmaktadır. Böylece t-dagılımı, yalnizca tek ortalama ve iki ortalama arasındaki fark problemleri için uygulanan sonuç verici istatistik için bir özel teknik olmadığı açıktır. Örneğin Spearman'ın sıralama korelasyon katsayısı için sıfır hipotez bu katsayının 0 olabileceği ise, bu sıfır korelasyon için, eğer örneklem büyüklüğü 20 civarında ise, yaklaşık olarak bir t-dağılımı kullanılabilir.

Güçlü parametrik modelleme

t-dağılımı çok kere veri modeli kurmak için normal dağılıma bir alternatif olarak kullanılır. Çok kere pratik hayattan gelen gerçek veriler normal dağılımın kabul ettiğinden daha fazla ağırlıklı dağılım (şişman-kuyruklu dağılım) gösterir. Bu halde klasik çözum yolu bu alışılanın çok dışında olan değerleri (aykırı değerleri) teşhis edip bunların ağırlıklarını özel işlemlerle azaltmaya çaba göstermekle yapılmaktaydı. Ancak aykırı değerlerin teşhis edilmesi (özellikle yüksek boyut gösteren veriler arasında) hiç kolay olmamaktadır. Bu nedenle bu türlü verileri modellemek için doğasal seçim konusu olan ve güçlü istatistikler için bir parametrik yaklaşım sağlayan t-dağılımının alternatif olarak kullanılması tavsiye edilmektedir.

Lange ve işbirlikçileri (1989) [3] çeşitli kullanım alanlarında sisman kuyruklu veriler için güçlü modelleme içinde t-dağılımının kullanılması sorunu ayrıntılı olarak incelemişlerdir. Gelman ve işbirlikçilerinin (2003) [4] yazısında bir Bayes-tipi yaklaşım gösterilmektedir. Serbestlik derecesi parametresi dağılımının basıklığını kontrol etmek için kullanılmakta ve bu ölçek parametresi ile korelasyon bağlantısı göstermektedir. Olabilirlilik çok sayıda yerel maksimum değerleri gösterdiği için, çok kere serbestlik derecesini ufak olan değerlerde sabitleştirmek ve bu sabit değer verilmiş gibi diğer parametreler için kestirimde bulunmak gerekmektedir. Bazı araştırıcılar bunun için en uygun değerlerin 3 ile 9 arasında olduğunu beyan etmişlerdir. Venebale ve Ripley (2002) [5] ise 5 değerinin iyi bir seçim olacağını bildirmektedirler.

İlişkili dağılımlar

  • Eğer σ 2 Inv- χ 2 ( ν , 1 ) {\displaystyle \sigma ^{2}\sim {\mbox{Inv-}}\chi ^{2}(\nu ,1)\!} bir ölçeği değişmiş ters-χ2 dağılımı ve X N ( 0 , σ 2 ) {\displaystyle X\sim \mathrm {N} (0,\sigma ^{2})\!} ise bir normal dağılım gösteriyorlarsa, o halde X t ( ν ) {\displaystyle X\sim \mathrm {t} (\nu )} bir t-dağılımı gösterir.
  • Eğer Y = X 2 {\displaystyle Y=X^{2}\!} ve X t ( ν ) {\displaystyle X\sim \mathrm {t} (\nu )\!} Student'in t-dağılımı gösteriyorlarsa Y F ( ν 1 = 1 , ν 2 = ν ) {\displaystyle Y\sim \mathrm {F} (\nu _{1}=1,\nu _{2}=\nu )} ifadesi bir F-dağılımı gösterir.
  • X t ( ν ) {\displaystyle X\sim \mathrm {t} (\nu )} iken Y = lim ν X {\displaystyle Y=\lim _{\nu \to \infty }X} ise Y N ( 0 , 1 ) {\displaystyle Y\sim \mathrm {N} (0,1)\!} bir normal dağılımı gösterir.
  • Eğer X t ( ν = 1 ) {\displaystyle X\sim \mathrm {t} (\nu =1)} ise X C a u c h y ( 0 , 1 ) {\displaystyle X\sim \mathrm {Cauchy} (0,1)} bir Cauchy dağılımı gösterir.

Ayrıca bakınız

  • Student'in t-testi
  • Gamma fonksiyonu
  • Hotelling'in T-kare dağılımı
  • Merkezsel olmayan t-dağılımı
  • Çokdeğişirli Student dağılımı
  • Güven aralıkları

Kaynakça

  1. ^ Salsburg, D. (2001). The lady tasting tea: How statistics revolutionized science in the twentieth century. Macmillan.
  2. ^ R.V.Hogg ve A.T.Craig [1978], Introduction to Mathematical Statistics, New York:Macmillan Kisimlar: 4.4 ve 4.8.
  3. ^ Lange,K.L., J.M.G. Taylor, R.J.A. Little (1989) "Robust Statistical Modeling Using the t Distribution", Journal of the American Statistical Association Cilt.84 say.881-896
  4. ^ Gelman,A., J.B.Carlin, H.S.Stern, D.B.Rubin (2003), Bayesian Data Analysis (2nd Ed.) CRC/Chapman ve Hall
  5. ^ Venables,W.N. ve B.D.Ripley (2002) Modern Applied Statistics with S (4. Ed.), Springer

Diğer

  • Student [William Sealy Gosset] (Mart 1908). "The probable error of a mean" (PDF). Biometrika. 6 (1). ss. 1-25. 8 Mart 2008 tarihinde kaynağından arşivlendi (PDF). Erişim tarihi: 4 Mart 2008. 
  • Fisher, R. A. (1925). "Applications of "Student's" distribution" (PDF). Metron. Cilt 5. ss. 90-104. 13 Nisan 2011 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 4 Mart 2008. 
  • Lange, K.L. (1989). "Robust Statistical Modeling Using the t Distribution". Journal of the American Statistical Association. Cilt 84. ss. 881-896. 
  • Hogg, R.V. (1978). Introduction to Mathematical Statistics. New York: Macmillan. 
  • Press, William H. (1992). Numerical Recipes in C: The Art of Scientific Computing. Cambridge University Press. 0-521-43108-5. 
  • Venables, W.N. (2002). Modern Applied Statistics with S (Fourth Edition). Springer. 
  • Gelman, Andrew (2003). Bayesian Data Analysis (Second Edition). CRC/Chapman & Hall. 1-584-88388-X. 

Dış bağlantılar

  • VassarStats Kullanıcı tarafından belirtilen serbestlik derecesi için yoğunluk grafiği, kritik değerler vb.
  • Earliest Known Uses of Some of the Words of Mathematics3 Ekim 1999 tarihinde Wayback Machine sitesinde arşivlendi. ("Student'in dağılımı" teriminin tarihi üzerine bazı görüşler)
  • Student'in t-dağılımı için yığmalı yoğunluk fonksiyonu hesaplayıcısı
  • Student'in t-dağılımı için olasılık yoğunluk fonksiyonu hesaplayıcısı
  • g
  • t
  • d
Ayrık tek değişkenli ve sonlu destekli

Ayrık tekdüze · Benford · Bernoulli · Binom · Kategorik · Hipergeometrik · Rademacher · Zipf · Zipf-Mandelbrot

Ayrık tek değişkenli ve sonsuzluk
destekli

Boltzmann · Conway-Maxwell-Poisson · Bileşik Poisson · Ayrık faz tipi · Genişletilmiş negatif binom · Gauss-Kuzmin · Geometrik · Logaritmalı · Negatif binom · Parabolik fraktal · Poisson · Skellam · Yule-Simon · Zeta

Sürekli tek değişkenli ve
[0,1] gibi bir sınırlı aralıkta destekli

Beta · Irwin-Hall · Kumaraswamy · Kabartılmış kosinus · Üçgensel · U-kuadratik · Sürekli tekdüze · Wigner yarımdaire

Sürekli tek değişkenli ve
genellikle (0,∞) yarı-sonsuz aralığında
destekli

Beta prime · Bose–Einstein · Burr · Ki-kare · Coxian · Erlang · Üstel · F-dağılımı · Fermi-Dirac · Katlanmış normal · Fréchet · Gamma · Genelleştirilmiş uçsal değer · Genelleştirilmiş ters Gauss-tipi · Yarı-logistik · Yarı-normal · Hotelling'in T-kare · Hiper-üstel · Hipo-üstel · Ters ki-kare (Ölçeklenmiş ters ki-kare) · Ters Gauss-tipi · Ters gamma · Lévy · Log-normal · Log-logistik · Maxwell-Boltzmann · Maxwell hız · Nakagami · Merkezsel olmayan ki-kare · Pareto · Faz-tipi · Rayleigh · Relativistik Breit–Wigner · Rice · Rosin–Rammler · Kaydırılmış Gompertz · Kesilmiş normal · 2.tip Gumbel · Weibull · Wilks'in lambda

Sürekli tek değişkenli ve
(-∞,∞) arasındaki tüm reel doğru
üzerinde destekli

Cauchy · Uçsal değer · Üstel güç · Fisher'in z  · Genelleştirilmiş hiperbolik  · Gumbel · Hiperbolik sekant · Landau · Laplace · Lévy çarpık alfa-durağan · Logistik · Normal (Gauss tipi) · Normal ters Gauss-tipi · Çarpık normal · Student'in t · 1.tip Gumbel · Varyans-Gamma · Voigt

Çok değişkenli (birleşik)

Ayrık: Ewens · Beta-binom · Multinom · Çokdeğişirli Polya
Sürekli: Dirichlet · Genelleştirilmiş Dirichlet · Çokdeğişirli normal · Çokdeğişirli Student  · normal-ölçeklenmiş ters gamma  · Normal-gamma
Matris-değerli: Ters-Wishart · Matris normal · Wishart

Yönsel, Bozulmuş ve singuler

Yönsel: Kent  · von Mises · von Mises–Fisher
Bozulmuş: Ayrık bozulmuş ·
Dirac delta fonksiyonu
Singuler: Cantor ·

Aileler

Üstel · Doğasal üstel · Konum-ölçekli · Maksimum entropi · Pearson · Tweedie