切换科目
重点科目
主要科目
次要科目
科数网
首页
刷题
学习
VIP会员
赞助
组卷
集合
教材
VIP
写作
游客,
登录
注册
在线学习
概率论与数理统计
第五篇 大数定律与中心极限定理
切比雪夫Chebyshev大数定律
最后
更新:
2025-12-03 16:19
查看:
68
次
反馈
能力测评
会员8.2元/月
赞助
切比雪夫Chebyshev大数定律
> 大数定律这个名字看起来有点唬人哟,什么叫做“大数”?就是重复次数很多的数据。 本文介绍的几个大数定理其实都差不多,一句话:可以用 [用频率估计概率](https://kb.kmath.cn/kbase/detail.aspx?id=198) , 阅读本文前,建议已经了解了[依概率收敛](https://kb.kmath.cn/kbase/detail.aspx?id=559) > 独立同分布名词解释,独立同分布包含“独立”和“同分布”两个意思,所谓独立是值每次测试结果互不影响,同分布是指数据服从同一个分布。例如 分两个批次每次各测量100个学生的身高。这里“第一次测量”的结果不影响“第二次”测量的结果,所以是“独立的”。 而身高都是服从正态分布的,因此,这就是独立同分布的意思。再例如测量一批次产品是否合格等,都是“独立同分布” ## 弱大数定律与强大数定律 大数定理严格的数学定义分为两种,一是弱大数定理,一种是强大数定律。 **弱大数定律** 设 $ X_1, X_2, X_3, \dots $ 是独立同分布的随机变量序列,期望 $ \mu = \mathbb{E}[X_i] $ 存在且有限。弱大数定律指出,样本均值**依概率收敛于期望值**: $$ \frac{X_1 + X_2 + \dots + X_n}{n} \xrightarrow{\text{P}} \mu \quad \text{当} \quad n \to \infty $$ 其中,“$ \xrightarrow{\text{P}}$”表示依概率收敛。 **强大数定律** 设 $ X_1, X_2, X_3, \dots $ 是独立同分布的随机变量序列,期望$ \mu = \mathbb{E}[X_i] $ 存在且有限。强大数定律指出,样本均值**几乎必然收敛于期望值**: $$ \frac{X_1 + X_2 + \dots + X_n}{n} \xrightarrow{\text{a.s.}} \mu \quad \text{当} \quad n \to \infty $$ 其中,“a.s.”表示几乎必然收敛。 不管是弱大数定律还是强大数定理,本质上没太大区别,一句话就是:当样本数量很大的时候,样本均值和真实期望值充分接近。 ## 切比雪夫Chebyshev大数定律 **切比雪夫Chebyshev大数定律** 设随机变量序列 $X_1, X_2, \cdots, X_n, \cdots$ 两两不相关,各有数学期望$E(X_1),E(X_2)...$ 与方差 $D(X_1),D(X_2)...$ ,且方差小于一个常数$c$ ,则对任意 $\varepsilon>0$ 有 $$ \boxed{ \begin{gathered} P\left(\left|\frac{1}{n} \sum_{i=1}^n X_i-\frac{1}{n} \sum_{i=1}^n E\left(X_i\right)\right| \leq \varepsilon\right) = 1 \end{gathered} ...(1) } $$ 证明 因为随机变量 $X_1, X_2, \cdots, X_n$ 两两不相关,根据期望和方差的性质得 $$ E\left(\frac{1}{n} \sum_{i=1}^n X_i\right)=\frac{1}{n} \sum_{i=1}^n E\left(X_i\right), \quad D\left(\frac{1}{n} \sum_{i=1}^n X_i\right)=\frac{1}{n^2} \sum_{i=1}^n D\left(X_i\right) \leq \frac{c}{n} $$ 由切比雪夫不等式知,对任意 $\varepsilon>0$ , 当 $n \rightarrow \infty$ 时, $$ P\left(\left|\frac{1}{n} \sum_{i=1}^n X_i-\frac{1}{n} \sum_{i=1}^n E\left(X_i\right)\right| \geq \varepsilon\right) \leq \frac{1}{\varepsilon^2} D\left(\frac{1}{n} \sum_{i=1}^n X_i\right) \leq \frac{c}{n \varepsilon^2} \rightarrow 0 \text { 。 } $$ 这里随机变量序列 $X_1, X_2, \cdots, X_n, \cdots$ 两两不相关指序列中的任意两个随机变量线性无关。 切比雪夫大数定律的通俗解释清参考[切比雪夫不等式](https://kb.kmath.cn/kbase/detail.aspx?id=558) ### 理解切比雪夫大数定律 如果我们把切比雪夫大数定律拆分来看: ① $ \dfrac{1}{n} \sum_{i=1}^n X_i$ ... 这个是$n$次取样的平均值。 ② $\dfrac{1}{n} \sum_{i=1}^n E\left(X_i\right)$ ... 这个是$n$次取样的期望的平均值。 ③ 在《高等数学》例已经学过,$\varepsilon$表示任意一个小的数。 所以,
免费注册 查看余下70%
《高等数学》难点解析
高数教程
泰勒公式
切线与法线
切平面与法平面
驻点·拐点·极值点·零点
间断点
渐进线
瑕积分
欧拉方程
伯努利方程
Abel 收敛定理
偏导数的几何意义
偏导数的几何意义
梯度
数量场与向量场
多元函数极值
拉格朗日算子
通量与散度
环流量与旋度
格林公式
高斯公式
斯托克斯公式
三大公式比较
傅里叶级数
极坐标微元
点法式方程
变上限定积分
X型计算面积
Y型计算面积
微分的意义
渐近线
间断点
y''+py'+qy=f(x)方程
高斯
黎曼
傅里叶变换(复数)
拉普拉斯变换(复数)
高等数学测评
函数与极限
一元函数微分学
一元函数积分学
微分方程
空间向量与代数
多元微分学
多元积分学
无穷级数
《线性代数》难点解析
线代教程
近世代数对数学的整体思考
线性的意义
矩阵乘法(列视角)
矩阵乘法(行视角)
矩阵左乘
矩阵右乘
逆矩阵求解方程组
阶梯形矩阵的求法
方程组解的判定
四阶行列式的计算
线性变换的意义
线性空间
向量组的等价
线性空间的几何意义
基础解系的求法
施密特正交化
特征值与特征向量的意义
矩阵相似的几何意义
矩阵可对角化的理解
秩的意义(向量版)
秩的意义(方程版)
二次型的意义
线性代数测评
行列式
矩阵
向量空间
《概率论与数理统计》难点解析
概率教程
置信区间与上a分位数
概率中的“取”与“放”
贝叶斯公式
全概率公式
泊松分布
指数分布
伽玛分布
二维密度图的意义
卷积的意义
相关系数的意义
k阶矩是与矩母函数
卡方分布的作用
单正态区间估计理解
假设检验理解
切比雪夫不等式
中心极限定理
概率统计测评
事件与概率
一维随机变量与事件
多维随机变量与事件
随机变量的数字特征
大数定律与中心极限定理
统计量与抽样分布
参数估计
假设检验
上一篇:
切比雪夫不等式★★★★★
下一篇:
伯努利Bernoulli大数定律
本文对您是否有用?
有用
(
0
)
无用
(
0
)
学习首页
数学试卷
同步训练
投稿
会议预约系统
数学公式
关于
Mathhub
赞助我们
科数网是专业专业的数学网站 版权所有
本站部分教程采用AI制作,请读者自行判别内容是否一定准确
如果页面无法显示请联系 18155261033 或 983506039@qq.com