概率与期望在oi中的有关公式及其应用

摘要:
我从THUSC2019考试回来,发现我对概率和期望一无所知……因此,这篇文章应该是关于填补(为我自己)挖了近两年的坑……接下来,我将详细介绍概率和期望:!

考完THUSC2019回来的我发现自己对概率与期望一无所知...

因此这一篇应该是填一个(给自己)挖了差不多两年的坑...

接下来详细介绍概率与期望问题:

(接下来所有内容均是按个人理解进行的表述,如有问题请不吝指出!)

一.概率

定义:在大量进行的实验中,一个事件发生的频率会稳定在一个定值,这个定值称为这个事件的概率

古典概型:如果可能发生的结果数量为$p$,而事件A发生的数量为$q$,且这$p$个事件是等可能的,那么事件A发生的概率为:$P(A)=frac{q}{p}$

概率的一般加法公式:$P(Acup B)=P(A)+P(B)-P(Acap B)$

贝叶斯公式的引理:$P(A|B)=frac{P(Acap B)}{P(B)}$,$P(B|A)=frac{P(Acap B)}{P(A)}$,即$P(Acap B)=P(A)*P(B|A)=P(B)*P(A|B)$

贝叶斯公式:$P(A|B)=frac{P(A)*P(B|A)}{P(B)}$,$P(B|A)=frac{P(B)*P(A|B)}{P(A)}$

(是的,这一堆其实就是互相移项得到的)

互斥事件:两个不可能同时发生的事件称作互斥事件,对于互斥事件A,B,有:

$P(Acup B)=P(A)+P(B)$,$P(Acap B)=0$

对立事件:两个不可能同时发生且必有一个发生的事件称作对立事件,对于对立事件A,B,有:

$P(Acup B)=1=P(A)+P(B)$,$P(Acap B)=0$

对第一个公式移项,得:

$P(A)=1-P(B)$,$P(B)=1-P(A)$

这提示了我们一个很重要的思想:正难则反!对于某一个事件的概率,如果不容易计算,我们可以计算出他的对立事件的概率然后用1去减即可

 二.期望

对于一个随机变量的分布列X,X的每个取值与对应概率的乘积之和即为期望

表达式:$E(X)=sum_{i=1}^{n}P_{i}*x_{i}$

期望的性质:

线性性质:$E(aX+bY)=aE(X)+bE(Y)$

特别地,当$a=b=1$时,有:

$E(X+Y)=E(X)+E(Y)$

这就是“期望的和等于和的期望”

 接下来是一些特殊的性质:

对于一个分布列X,满足$P_{i}=C_{n}^{i}*frac{q}{p}^{i}*frac{p-q}{p}^{n-i}$,可以发现这里的概率均满足二项式定理中每一项的系数,因此这个分布列被称作二项分布

二项分布的实际意义:有A,B两种物品,分别有q,p-q个,现在有放回的取出n个,那么恰好有i个A的概率即为上述

二项分布的公式:$E(X)=n*frac{q}{p}$,$D(X)=n*frac{q}{p}*frac{p-q}{p}$

 对于一个分布列X,满足$P_{i}=frac{C_{M}^{i}*C_{N-M}^{n-i}}{C_{N}^{n}}$,这样的分布称为超几何分布

实际意义:在总共N件产品中抽出n件物品,其中有i件物品属于类别M的概率

公式:$E(X)=n*frac{M}{N}$

(方差的公式过于长,这里不做展示)

免责声明:文章转载自《概率与期望在oi中的有关公式及其应用》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇每天记命令:lscpu 和 cat /proc/cpuinfoDjango数据操作F和Q、model多对多操作、Django中间件、信号、读数据库里的数据实现分页下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

机器学习 —— 概率图模型(推理:团树算法)

  在之前的消息传递算法中,谈到了聚类图模型的一些性质。其中就有消息不能形成闭环,否则会导致“假消息传到最后我自己都信了”。为了解决这种问题,引入了一种称为团树(clique tree)的数据结构,树模型没有图模型中的环,所以此模型要比图模型更健壮,更容易收敛。 1.团树模型   链模型是一种最简单的树模型,其结构如下图所示,假设信息从最左端传入则有以下式...

Logistic模型原理详解以及Python项目实现

此文转载自:https://blog.csdn.net/master_hunter/article/details/111158447#commentBox 目录 前言 一、Logistic回归模型 二、Logit模型 三、几率 四、Logistic模型 五、基于最优化方法的最佳回归系数确定 5.1梯度上升算法 5.1.1梯度 5.1.2使用梯度上升找到最...

信用评分卡模型分析(基于Python)--理论部分

信用风险计量体系包括主体评级模型和债项评级两部分。主体评级和债项评级均有一系列评级模型组成,其中主体评级模型可用“四张卡”来表示,分别是A卡、B卡、C卡和F卡;债项评级模型通常按照主体的融资用途,分为企业融资模型、现金流融资模型和项目融资模型等。 我们主要讨论主体评级模型的开发过程。 在互金公司等各种贷款业务机构中,普遍使用信用评分,对客户实行打分制,...

机器学习分类算法之朴素贝叶斯

一、概念 朴素贝叶斯模型(Naive Bayesian Model,NBM)是以条件概率为基础的分类器,是一种监督算法,常被用于文本分类和垃圾邮件过滤。贝叶斯理论解决的是逆向概率问题,即通过已经发生的已知的概率来推测未发生的事将会发生的概率。  二、计算 朴素贝叶斯各个事件发生的概率是彼此独立的,即m事件概率P(m)和n事件概率P(n)同时发生的概率为P(...

取快递的数学问题:手机尾号的重复概率

学校门口,四位手机尾号取快递。问:设有 (n) 个包裹,则存在两个包裹号码(收件人手机尾号,假设均匀分布)相同的概率 (P(n)) 是多少? 答曰:手机尾号一共有 (10^4=10000) 个,所以 ( P(n)=frac{A_{10000}^n}{(10000)^n} ), 其中 (A_n^r) 为排列数。 求出表达式非常简单,然而计算具体值时却遇到了麻...

R语言代写之文本分析:主题建模LDA

原文:http://tecdat.cn/?p=3897 文本分析:主题建模 library(tidyverse) theme_set( theme_bw()) 目标 定义主题建模 解释Latent Dirichlet分配以及此过程的工作原理 演示如何使用LDA从一组已知主题中恢复主题结构 演示如何使用LDA从一组未知主题中恢复主题结构 确定为k 选择适...