北邮概率论与数理统计3.3随机变量的独立性

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

§3.3随机变量的独立性

随机变量的独立性

我们可利用事件间的独立性的定义给出随机变量间的独立性之概念。

随机变量X 和Y 相互独立,如果对于任意有关X 的事件和有关Y 的事件都相互独,换言之,对于任意两个实数集I 和J ,有

},{J Y I X P ∈∈}{}{J Y P I X P ∈∈= (1)

理论上可证明(其证明超出了我们的知识范围)(1)式成立当且仅当对),(,+∞-∞∈∀y x ,有

},{y Y x X P ≤≤}(){y Y P x X P ≤≤=.

于是有以下定义。

定义 设二维随机变量),(Y X 的联合分布函数为),(y x F ,两个边际分布函数分别为)(x F X 和)(y F Y ,如果),(,+∞-∞∈∀y x ,有

),(y x F )()(y F x F Y X = (2)

则称Y X ,相互独立。

当),(Y X 为离散随机向量时,独立的条件(2)等价于等式 }{}{},{j i j i y Y P x X P y Y x X P ===== (3)

对所有的),(j i y x ),2,1,( =j i 成立。

当),(Y X 为连续随机向量时,独立的条件(2)等价于等式 )()(),(y f x f y x f Y X = (4)

几乎处处成立。

例3.3.1 设二维随机向量),(Y X 的联合分布函数为

⎩⎨⎧≥≥+--=λ-----其他

,00,0,1),(y x e e e y x F xy y x y x , 则Y X ,相互独立的充要条件是0=λ。

例3.3.2 (续3.1.2)问X 与Y 是否相互独?

对于离散随机向量),(Y X ,若说明X 与Y 不相互独立,则只需找一个数对),(j i y x ,使得}{}{},{j i j i y Y P x X P y Y x X P ==≠==;若要说明X 与Y 相互独立,则需要验证,对),(Y X 所有可能取的数对),(j i y x ,都有}{}{},{j i j i y Y P x X P y Y x X P =====, 2,1,=j i 。

例3.3.3 设二维随机向量),(Y X 的联合密度函数为

⎩⎨⎧<<<<=其他

,010,10,4),(y x xy y x f 判断X 与Y 的独立性。

解:由联合密可得两个边缘密度分别为

⎩⎨

⎧<<==⎰∞+∞-其他,010,2),()(x x dy y x f x f X , ⎩⎨⎧<<==⎰∞+∞-其他

,010,2),()(y y dx y x f y f Y 故有)()(),(y p x p y x p Y X =,y x ,∀,所以X 与Y 相互独立。

在上例子中,),(Y X 的联合密度函数可以分解成两部分,其中一部分仅与x 有关,而另一部分仅与y 有关。一般地若),(Y X 的联合密度函数可以分解为

)()(),(y g x h y x p =

则X 与Y 的相互独立。

例3.3.4 设二维随机向量),(Y X 的联合密度函数为

⎩⎨⎧<<<<=其他

,00,10,8),(x y x xy y x f 判断X 与Y 的独立性。

解:由联合密可得两个边缘密度分别为

⎩⎨⎧<<==⎰∞+∞

-其他,010,4),()(3x x dy y x f x f X , ⎩⎨⎧<<-==⎰∞+∞-其他

,010),(4),()(3y y y dx y x f y f Y 故有)()(),(y p x p y x p Y X ≠,所以X 与Y 不相互独立.

比较以上两个例子,直观上看,后一例子中,),(y x p 似乎也可分离变量,但实际上是不可分离的,原因是该密度),(y x f 的非零区域}0,10:),{(x y x y x D <<<<=中的y x ,相互交积,不能分解为两个一维区间的直积.

例3.3.5 设),(Y X ~),,,,(2

22121ρσσμμN ,证明X 与

Y 相互独立的充要条件是0=ρ。

证明:边缘密度分别为

)(x f X 21212)(121σμ--σπ=

x e , )(y f Y 22222)(221

σμ--σπ=y e ,

从而=)()(y f x f Y X ])()([2121222

2212121σμ-+σμ--σπσy x e

先证充分性,如果0=ρ,那么 =σπσ=σμ-+σμ--])()([21212222212121),(y x e y x f )()(y f x f Y X ,y x ,∀,

所以 X 与Y 相互独立.

再证必要性,如果X 与Y 相互独立,那么y x ,∀,有)()(),(y f x f y x f Y X =,特别地取21,μ=μ=y x ,则有)()(),(2121μμ=μμY X f f f ,即得

221121

ρ-σπσ2

121σπσ= 所以 0=ρ.

随机变量间的独立性是概率论中的一个非常重要的概念.如果多个随机变量相互独立,那么其联合分布就可由各个分量的边缘分布确定,这样许多问题就可得到方便的解决。在实际中,多个变量的联合分布往往难以把握。如果从变量产生的实际背景可以判断这些变量是独立的(或相依性很弱,以至于可忽略他们的相依性),那么就可以通过对单个变量的概率分布的把握获得联合分布,并且可以使用独立性所赋予的性质和有关定理去解决问题.

例3.3.6 设X ~)1,0(U ,Y ~)(λExp ,且X 与Y 相互独立,求

(1)}1,2

1{>>Y X P ;(2)}1{<+Y X P 。

解:(1)由于X 与Y 相互独立,所以 }1,21

{>>Y X P 11221}1{}21{-+∞-==>>=⎰e dy e Y P X P y ; (2)),(Y X 的联合概率密度函数为

)()(),(y f x f y x f Y X =

⎩⎨⎧><<=-其他

,00,10,y x e y

所以

}1{<+Y X P 110101),(---<+===

⎰⎰⎰⎰e dy e dx dxdy y x p x y y x 。

上一节讨论的边缘分布及本节讨论的独立性的概念及有关性质可

相关文档
最新文档