概率论与数理统计公式整理
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
概率论与数理统计公式整理
在现代数学中,概率论与数理统计是两个重要的分支。
其中概率论是研究随机事件发生的可能性或概率的科学。
而数理统计则是利用概率论的方法,对已经发生的随机事件进行统计分析和推断。
本文将整理概率论与数理统计中常用的公式。
一、基本概率公式
1.概率:$P(A)=\frac{n(A)}{n(S)}$
其中,$P(A)$表示事件$A$发生的概率,$n(A)$表示事件
$A$所包含的基本事件的个数,$n(S)$表示所有基本事件的个数。
2.加法原理:$P(A\cup B)=P(A)+P(B)-P(A\cap B)$
其中,$A$和$B$是两个事件,$A\cup B$表示事件$A$和事件$B$中至少有一个发生的概率,$A\cap B$表示两个事件同时发生的概率。
3.条件概率:$P(B|A)=\frac{P(A\cap B)}{P(A)}$
其中,$P(B|A)$表示在事件$A$发生的条件下,事件$B$发生的概率。
4.乘法定理:$P(A\cap B)=P(A)P(B|A)$
其中,$P(A\cap B)$表示两个事件同时发生的概率,
$P(B|A)$表示在事件$A$发生的条件下,事件$B$发生的概率。
二、概率分布
1.离散随机变量的概率分布律:
$\sum\limits_{i=1}^{+\infty}{p(x_i)}=1$
其中,$p(x_i)$表示离散随机变量取值为$x_i$的概率。
2.连续随机变量的概率密度函数:$\int_{-
\infty}^{+\infty}{f(x)}\mathrm{d}x=1$
其中,$f(x)$表示连续随机变量在$x$处的概率密度。
3.数学期望:$E(x)=\sum\limits_{i=1}^{+\infty}{x_ip(x_i)}$或$E(x)=\int_{-\infty}^{+\infty}{xf(x)}\mathrm{d}x$
其中,$E(x)$表示随机变量$x$的数学期望,$p(x_i)$表示
$x_i$这一离散随机变量取到的带权概率。
4.方差:$D(x)=E[(x-E(x))^2]$
其中,$D(x)$表示随机变量$x$的方差,$E(x)$表示随机变量
$x$的数学期望。
5.标准差:$\sigma(x)=\sqrt{D(x)}$
其中,$\sigma(x)$表示随机变量$x$的标准差,$D(x)$表示随机变量$x$的方差。
三、常用分布
1.正态分布:$f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-
\mu)^2}{2\sigma^2}}$
其中,$f(x)$表示正态分布在$x$处的概率密度,$\mu$表示正态分布的均值,$\sigma$表示正态分布的标准差。
2.伯努利分布:$P(x=k)=p^k(1-p)^{1-k}$
其中,$P(x=k)$表示伯努利分布在$x=k$处的概率,$p$表示伯努利分布中某一个事件发生的概率。
3.泊松分布:$P(x=k)=\frac{\lambda^k}{k!}e^{-\lambda}$
其中,$P(x=k)$表示泊松分布在$x=k$处的概率,$\lambda$表示泊松分布的均值和方差。
4.指数分布:$f(x;\lambda)=\begin{cases}
\lambda e^{-\lambda x}&x\geqslant0\\
0&x<0
\end{cases}$
其中,$f(x;\lambda)$表示指数分布在$x$处的概率密度,
$\lambda$表示指数分布的参数。
四、假设检验
1.显著性水平:$\alpha$
其中,$\alpha$表示显著性水平,是指在检验过程中所容许的
拒绝原假设的最大错误概率。
2.备择假设:$H_1$
其中,$H_1$表示备择假设,是指所要证明的假设。
3.拒绝域:$W=\{x|x\in X,H_1\}$
其中,$W$表示拒绝域,是指若$X$取到$W$中的任意一个值,则拒绝原假设。
4.假设检验统计量:$T(X)$
其中,$T(X)$表示假设检验统计量,是指通过样本得到的用于判断拒绝或接受原假设的量。
以上是概率论与数理统计中常用的公式,通过掌握这些公式,可以更好地理解和应用概率论与数理统计的知识。
五、置信区间
1.置信区间:$P(\mu_1\leqslant\mu\leqslant\mu_2)=1-\alpha$
其中,$\mu_1$和$\mu_2$表示$\mu$的置信区间,$1-\alpha$表示置信水平。
2.样本均值的置信区间:$\bar{x}\pm
z_{\frac{\alpha}{2}}\frac{\sigma}{\sqrt{n}}$
其中,$\bar{x}$表示样本均值,$z_{\frac{\alpha}{2}}$表示标准正态分布在$\frac{\alpha}{2}$处的分位数,$\sigma$表示总体标准差,$n$表示样本容量。
3.样本比例的置信区间:$\hat{p}\pm
z_{\frac{\alpha}{2}}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}}$
其中,$\hat{p}$表示样本比例,$z_{\frac{\alpha}{2}}$表示标准正态分布在$\frac{\alpha}{2}$处的分位数,$n$表示样本容量。
4.两个总体均值的差的置信区间:$(\bar{x}_1-\bar{x}_2)\pm z_{\frac{\alpha}{2}}\sqrt{\frac{{s_1}^2}{n_1}+\frac{{s_2}^2}{ n_2}}$
其中,$\bar{x}_1$和$\bar{x}_2$分别表示第一组和第二组样本的均值,$s_1$和$s_2$分别表示第一组和第二组样本的标准差,$n_1$和$n_2$分别表示第一组和第二组样本的容量,
$z_{\frac{\alpha}{2}}$表示标准正态分布在
$\frac{\alpha}{2}$处的分位数。
六、假设检验
1.单个总体均值的假设检验:
$H_0:\mu=\mu_0$,$H_1:\mu\neq\mu_0$(双侧检验)
$H_0:\mu\leqslant\mu_0$,$H_1:\mu>\mu_0$(右侧检验)
$H_0:\mu\geqslant\mu_0$,$H_1:\mu<\mu_0$(左侧检验)
其中,$\mu$表示总体均值,$\mu_0$为给定值。
检验统计量$T=\frac{\bar{x}-\mu_0}{\frac{s}{\sqrt{n}}}$,拒
绝域为:
双侧检验:$|T|>t_{\frac{\alpha}{2},n-1}$
右侧检验:$T>t_{\alpha,n-1}$
左侧检验:$T<-t_{\alpha,n-1}$
其中,$t_{\alpha,n-1}$表示$t$分布在$\alpha$处、自由度为$n-
1$的分位数。
2.两个总体均值的假设检验:
$H_0:\mu_1=\mu_2$,$H_1:\mu_1\neq\mu_2$(双侧检验)
$H_0:\mu_1\leqslant\mu_2$,$H_1:\mu_1>\mu_2$(右侧检验)
$H_0:\mu_1\geqslant\mu_2$,$H_1:\mu_1<\mu_2$(左侧检验)其中,$\mu_1$和$\mu_2$分别表示两个总体的均值。
检验统计量$T=\frac{(\bar{x}_1-\bar{x}_2)-(\mu_1-
\mu_2)}{s_p\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}}$,其中
$s_p$为合并方差。
拒绝域为:
双侧检验:$|T|>t_{\frac{\alpha}{2},n_1+n_2-2}$
右侧检验:$T>t_{\alpha,n_1+n_2-2}$
左侧检验:$T<-t_{\alpha,n_1+n_2-2}$
其中,$t_{\alpha,n_1+n_2-2}$表示$t$分布在$\alpha$处、自由
度为$n_1+n_2-2$的分位数。
七、线性回归
1.简单线性回归方程:$Y=\beta_0+\beta_1X+\epsilon$
其中,$Y$表示因变量,$X$表示自变量,$\beta_0$和
$\beta_1$分别表示截距和斜率,$\epsilon$为误差项。
2.OLS估计量:$\widehat{\beta}_1=\frac{\sum_{i=1}^n(X_i-
\bar{X})(Y_i-\bar{Y})}{\sum_{i=1}^n(X_i-\bar{X})^2}$
其中,$\widehat{\beta}_1$表示斜率的OLS估计量,$X_i$和$Y_i$分别表示第$i$个样本点的自变量和因变量,
$\bar{X}$和$\bar{Y}$分别表示自变量和因变量的样本均值。
3.OLS截距的估计量:$\widehat{\beta}_0=\bar{Y}-
\widehat{\beta}_1\bar{X}$
其中,$\widehat{\beta}_0$表示截距的OLS估计量,
$\bar{Y}$和$\bar{X}$分别表示因变量和自变量的样本均值。
4.回归方程的残差:$e_i=Y_i-\widehat{Y}_i$
其中,$e_i$表示第$i$个观测值的残差,$Y_i$表示第$i$个观测值的因变量实际值,$\widehat{Y}_i$表示第$i$个观测值的因变量的预测值。
5.回归方程的拟合优度:
$R^2=\frac{\sum_{i=1}^n(\widehat{Y}_i-
\bar{Y})^2}{\sum_{i=1}^n(Y_i-\bar{Y})^2}$
其中,$R^2$表示回归方程的拟合优度,$\widehat{Y}_i$表示第$i$个观测值的因变量的预测值,$\bar{Y}$表示因变量的样本均值。
以上是概率论与数理统计中常用的公式,通过掌握这些公式,可以更好地完成概率论与数理统计的学习和应用。
非常好,希
望能对您有所帮助。
如果还有其他问题或需要进一步解释,请随时联系我。