【0】随机事件与概率的基本定义

摘要:
第一章随机事件与概率概率论与数理统计研究对象是随机现象:概率论:研究随机现象的模型;数理统计:随机现象的数据收集和处理。抽样模型放回抽样箱模型确定生日概率的几何方法确定概率的主观方法
第一章 随机事件与概率

概率论与数理统计研究对象是随机现象:

  • 概率论:研究随机现象的模型(概率分布);
  • 数理统计:随机现象的数据收集与处理。

§1.1 随机事件及其运算

随机现象:在一定条件下并不总是出现相同的结果的现象;

随机试验:对在相同条件下可以重复的随机现象的观察、记录、实验;

样本空间:随机现象的一切可能基本结果组成的集合;(Omega={omega})(omega)基本结果、又称样本点

  • 样本空间的元素可以是数也可以不是数;
  • 样本空间至少有两个样本点,仅含有两个样本点的样本空间是最简单的样本空间;
  • 从样本空间含有样本点的个数来区分:
    • 离散样本空间:样本点个数为有限个或可列个;
    • 连续样本空间:样本点个数为不可列无限个。

随机事件:随机现象的某些样本点组成的集合,简称事件;

  • 任意事件是相应样本空间的一个子集;(Venn图);

  • 当子集中某个样本点出现了,就说事件发生了;

  • 事件可以用集合表示,也可以用明白无误的语言描述;

    基本事件由样本空间Ω中的单个元素组成的子集;
    必然事件样本空间最大子集
    不可能事件样本空间Ω最小子集,即空集

随机变量:用来表示随机现象的结果的变量,表示时应写明随机变量的含义;

事件间的关系

  • 包含关系:事件A发生必然导致事件B发生;
  • 相等关系;
  • 互不相容:A、B没有相同的样本点。

事件间的运算:并、交、差、余。

  • $Acup B $:事件A、B中所有的样本点组成的新事件,两个事件中至少有一个发生;

  • (A cap B):事件A、B中公共的样本点组成的新事件;

(cup_{i=1}^n A_i,cap_{i=1}^infty A_i) 交并运算可以推广至无限的情况;

  • (A setminus B):由在A中而不在事件B中的样本点组成的新事件;

    [{X=a}={Xleq a}-{X<a},{a<Aleq b}={Xleq b}-{Xleq a} ]
  • (overline{A}) :对立事件;

[ A setminus B= A cap B^c ]

事件的运算性质

  • 交换律:A (cap) B=B (cap) A
  • 结合律:((Acup B)cup C=Acup(Bcup C))
  • 分配律:((Acup B)cap C=ACcup BC)
  • De Morgen公式:(overline{cup_{i=1}^infty A_i}=cup_{i=1}^infty overline{A_i})

事件域

  • 一个样本空间中某些子集及其运算结果而组成的集合类,记为(F),事件域要对集合的运算有封闭性,而:

    交的运算可以通过并与对立实现;
    差的运算可通过交与对立来实现;

  • 这样,并与对立是最基本的运算,于是事件域的定义如下:

    (Ω)为一样本空间,(F)(Ω)的某些子集所组成的集合类,如果(F)满足:

    • (Ω∈F)
    • (A∈F),则对立事件(overline{A}∈F)
    • (A_n∈F,n=1,2…..),则可列并属于(F)

    则称(F)为一个事件域,又称为(sigma)域 或(sigma)代数。

  • 在概率论中,又称((Omega ,F)) 为可测空间。


§1.2 概率的定义及其确定方法

概率的公理化定义(Kolmogrov)

(Omega)为一个样本空间,(F)(Omega)的某些子集组成的一个事件域,如果对任意事件(Ain F),定义在(F)上的一个实值函数(P(A))满足:

  • 非负性定理(Ain F),则(P(A)geq 0)

  • 正则性公理(P(Omega)=1)

  • 可列可加性(若A_1,A_2,cdots ,A_n,cdots互不相容,则:P(cup_{i=1}^infty A_i)=sum_{i=1}^infty (A_i))

则称(P(A))为事件A的概率,称三元素((Omega,F,P))概率空间

确定概率的频率方法

在大量重复实验中,用频率的稳定值去获得概率

  • 与考察事件A有关的随机现象可大量重复进行;

  • 在n次重复实验中,记(n(A))为事件A出现的次数,又称(n(A))为事件A的频数

[ f_n(A)=frac{n(A)}{n} ]
  • 为事件A出现的频率

  • 随着实验重复次数n的增加,频率(f_n(A))会稳定在某一常数a 附近,这个常数称为频率的稳定值

确定概率的古典方法

  • 所涉及到的随机现象只是有限个样本点;

  • 每个样本点发生的可能性相等;

  • 若事件A含k个样本点,则事件A的概率为

[P(a)=frac{事件A所含样本点个数}{Omega中所有样本点个数}=frac kn ]

在古典方法中,求事件A的概率归结为计算A中含有的样本点个数和(Omega)中含有的样本点的总数。

  1. 抽样模型
  2. 放回抽样
  3. 盒子模型
  4. 生日问题

确定概率的几何方法

确定概率的主观方法

免责声明:文章转载自《【0】随机事件与概率的基本定义》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇web性能优化--缓存Python的map、filter、reduce函数下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

【西瓜书】周志华《机器学习》学习笔记与习题探讨(一)

【第1章 绪论】 1.1 引言 学习算法:机器学习所研究的主要内容,是关于在计算机上从数据中产生“模型”的算法,即“学习算法”。 学习算法的作用:1.基于提供的经验数据产生模型; 2.面对新情况时,模型可提供相应的判断。 模型:泛指从数据中学得的结果。 学习器:学习算法在给定数据和参数空间上的实例化。                         ...

Zero-shot learning(零样本学习)

一、介绍 在传统的分类模型中,为了解决多分类问题(例如三个类别:猫、狗和猪),就需要提供大量的猫、狗和猪的图片用以模型训练,然后给定一张新的图片,就能判定属于猫、狗或猪的其中哪一类。但是对于之前训练图片未出现的类别(例如牛),这个模型便无法将牛识别出来,而ZSL就是为了解决这种问题。在ZSL中,某一类别在训练样本中未出现,但是我们知道这个类别的特征,然后通...

宋浩《概率论与数理统计》笔记---1..1.1-1.1.3、概率论基本概念

宋浩《概率论与数理统计》笔记---1..1.1-1.1.3、概率论基本概念 一、总结 一句话总结: 1、随机试验 条件? 1、在相同条件下可重复 2、结果不止一个 3、无法预测 4、用字母E表示 2、事件、随机事件、基本事件、复合事件 分别是什么? 事件:每次随机试验的结果 随机事件:随机的事件,通常用大写字母ABC等来表示 基本事件:要看实验目的:相对于...

Halcon学习笔记之支持向量机(一)

例程:class_overlap_svm.hdev 说明:这个例程展示了如何用一个支持向量机来给一幅二维的图像进行分类。使用二维数据的原因是因为它可以很容易地联想成为区域和图像。本例程中使用了三个互相重叠的类(由二维平面三个不同颜色的像素点集组成)。三类不同颜色的像素点作为样本,将那些样本代入支持向量机进行训练。选取像素在二维平面的坐标作为特征向量,使...

维数灾难与梯度爆炸

本文章讨论的话题是“curse of dimension”,即维数灾难,并解释在分类它的重要性,在下面的章节我会对这个概念做一个直观的解释,并清晰的描述一个由维数灾难引起的过度拟合的问题。 下面不如正题,考虑我们有一堆猫和狗的图片,现在要做一个分类器,它可以把猫和狗自动并且正确分类。所以对这个两个类别,首先需要一组描述符,使这两个类别可以被表示为数字,分类...

SVM支持向量机

SVM有如下主要几个特点:(1)非线性映射是SVM方法的理论基础,SVM利用内积核函数代替向高维空间的非线性映射;(2)对特征空间划分的最优超平面是SVM的目标,最大化分类边际的思想是SVM方法的核心;(3)支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量。(4)SVM 是一种有坚实理论基础的新颖的小样本学习方法。它基本上不涉及概率测度...