【b301】神经网络

摘要:
神经元以一定的顺序排列,形成整个神经网络。在兰兰的模型中,神经网络不分为几层;它被称为输入层、输出层和几个中间层。当Ci大于0时,神经元处于兴奋状态,否则处于平静状态。这样,在输入层的神经元被激活后,整个网络系统在信息传输的推动下运行。

神经网络(NOIP2003第1题)

Time Limit: 1 second
Memory Limit: 50 MB

【问题背景】
人工神经网络(Artificial Neural Network)是一种新兴的具有自我学习能力的计算系统,在模式识别、函数逼近及贷款风险评估等诸多领域有广泛的应用。对神经网络的研究一直是当今的热门方向,兰兰同学在自学了一本神经网络的入门书籍后,提出了一个简化模型,他希望你能帮助他用程序检验这个神经网络模型的实用性。

【问题描述】
在兰兰的模型中,神经网络就是一张有向图,图中的节点称为神经元,而且两个神经 元之间至多有一条边相连,下图是一个神经元的例子:

图中,X1—X3是信息输入渠道,Y1-Y2是信息输出渠道,C1表示神经元目前的状态, Ui是阈值,可视为神经元的一个内在参数。 神经元按一定的顺序排列,构成整个神经网络。在兰兰的模型之中,神经网络中的神 经无分为几层;称为输入层、输出层,和若干个中间层。每层神经元只向下一层的神经元 输出信息,只从上一层神经元接受信息。下图是一个简单的三层神经网络的例子。

兰兰规定,Ci服从公式:(其中n是网络中所有神经元的数目)

公式中的Wji(可能为负值)表示连接j号神经元和 i号神经元的边的权值。当 Ci大于0时,该神经元处于兴奋状态,否则就处于平静状态。当神经元处于兴奋状态时,下一秒它会向其他神经元传送信号,信号的强度为Ci。 如此.在输入层神经元被激发之后,整个网络系统就在信息传输的推动下进行运作。 现在,给定一个神经网络,及当前输入层神经元的状态(Ci),要求你的程序运算出最后网 络输出层的状态。

【输入】

共n+p+1行;
第一行是两个整数n(1≤n≤20)和p;
接下来的N行,每行两个整数,第i+1行是神经元i最初状态和其阈值(Ui),非输入层的神经元开始时状态必然为0。再下面P行,每行由两个整数i,j及一个整数Wij,表示连接神经元i、j的边权值为Wij。

【输出】

输出包含若干行,每行有两个整数,分别对应一个神经元的编号,及其最后的状 态,两个整数间以空格分隔。仅输出最后状态非零的输出层神经元状态,并且按照编号由小到大顺序输出!若输出层的神经元最后状态均为 0,则输出 NULL。

【输入样例】

5 6
1 0
1 0
0 1
0 1
0 1
1 3 1
1 4 1
1 5 1
2 3 1
2 4 1
2 5 1

【输出样例】

3 1
4 1
5 1

【题目链接】:http://noi.qz5z.com/viewtask.asp?id=b301

【题意】

【题解】

按照题目去模拟那个过程就好。
加上一个记忆化搜索。
题目最后输出的是大于0的状态,小于等于0的状态都不要输出哦。
N最大是200而不是20.。题目有误。

【完整代码】

#include <cstdio>
#include <cstring>
#include <vector>
#include <iostream>
using namespace std;
#define rei(x) scanf("%d",&x)
#define rep1(i,x,y) for (int i = x;i <= y;i++)
const int N = 200 + 10;
int n, p;
int c[N],u[N],ru[N],f[N],chu[N];
vector <int> G[N],W[N];
bool bo[N];

int dfs(int x)
{
    if (bo[x])
    {
        if (f[x] > 0)
            return f[x];
        else
            return 0;
    }
    int len = G[x].size();
    int sum = 0;
    rep1(i, 0, len - 1)
    {
        int y = G[x][i], w = W[x][i];
        sum += dfs(y)*w;
    }
    f[x] = sum - u[x];
    bo[x] = true;
    if (f[x] > 0)
        return f[x];
    else
        return 0;
}

int main()
{
    //freopen("D:\rush.txt", "r", stdin);
    //freopen("D:\rush_out.txt", "w", stdout);
    memset(f, 255, sizeof f);
    rei(n), rei(p);
    rep1(i, 1, n)
    {
        rei(c[i]), rei(u[i]);
    }
    rep1(i, 1, p)
    {
        int x, y, z;
        rei(x), rei(y), rei(z);
        G[y].push_back(x);
        W[y].push_back(z);
        ru[y]++,chu[x]++;
    }
    rep1(i, 1, n)
        if (ru[i] == 0)
            f[i] = c[i], bo[i] = true;
    rep1(i, 1, n)
        if (!bo[i])
            dfs(i);
    int cnt = 0;
    rep1(i, 1, n)
        if (chu[i] == 0)
        {
            if (f[i] > 0)
            {
                printf("%d %d
", i, f[i]);
                cnt++;
            }
        }
    if (cnt == 0)
        puts("NULL");
    //fclose(stdin);
    //fclose(stdout);
    return 0;
}

免责声明:文章转载自《【b301】神经网络》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇MySQL 双主 + keepalivedbackup3下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

《Graph Neural Networks: A Review of Methods and Applications》阅读笔记

本文是对文献 《Graph Neural Networks: A Review of Methods and Applications》 的内容总结,详细内容请参照原文。 引言 大量的学习任务都要求能处理包含丰富的元素间关联关系的图数据,例如物理系统建模、疾病分类以及文本和图像等非结构数据的学习等。图形神经网络(GNNs)是一种连接模型,通过图形节点之间的...

神经网络之dropout层

一:引言   因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。在训练bp网络时经常遇到的一个问题,过拟合指的是模型在训练数据上损失函数比较小,预测准确率较高(如果通过画图来表示的话,就是拟合曲线比较尖,不平滑,泛化能力不好),但是在测试数据上损失函数比较大,预测准确率较低。   常用的防治过拟合...

基于tensorflow的CNN卷积神经网络对Fasion-MNIST数据集的分类器(1)

写一个基于tensorflow的cnn,分类fasion-MNIST数据集 这个就是fasion-mnist数据集 这张图片是CNN的一般结构 先上代码,在分析: import tensorflow as tf import pandas as pd import numpy as np config = tf.ConfigProto() confi...

CNN网络的基本介绍(三)

七、全连接层 全连接层在整个网络卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的特征表示映射到样本的标记空间的作用。   一段来自知乎的通俗理解:   从卷积网络谈起,卷积网络在形式上有一点点像咱们正在召开的“人民代表大会”。卷积核的个数相当于候选人,图像中不同的特征会激活不...

多层神经网络及TensorFlow使用

一、文本的预处理---文本转数字列表 TensorFlow的Keras库有文本预处理功能。Tokenizer是一个用于向量化文本,或将文本转换为序列(即单词在字典中的下标构成的列表,从1算起)的类。如下面示例的: ['ha ha gua angry','howa ha gua excited naive'],按照每个词的位置重新编号为 [[1, 1, 2...

吴恩达老师深度学习课程第四周编程作业--一步步搭建多层神经网络以及应用

本文是吴恩达老师深度学习第四周的编程作业,我是参考的文章https://blog.csdn.net/u013733326/article/details/79767169完成的。 首先还是作业要求,此次的作业要求还是和第二周作业要求一样,搭建一个神经网络来识别图片是否是猫。只不过本次作业要求搭建两个网络,一个是两层的,一个是多层的,多层的网络层数可以自定。...