算法思想 设A为n阶有向图的邻接矩阵 先求出Bn=A+A2+⋅⋅⋅+An 然后把矩阵Bn的不为0的数变为1,为0的数不变 MATLAB实现 function P = dgraf(A) n = size(A,1); P = A; for i = 2 : n P = P + A^i; end P(P ~= 0) = 1; 测试 测试用例: A = [0,1,1,1;1,0,1,1;1,1,0,1;1,1,1,0];
转载自:https://www.cnblogs.com/guoyaohua/p/8724433.html Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先
Inception V2网络中的代表是加入了BN(Batch Normalization)层,并且使用 2个 3*3卷积替代 1个5*5卷积的改进版,如下图所示:其特点如下:学习VGG用2个 3*3卷积代替 Inception V1中的 5*5大卷积。这样做在减少参数(3*3*2+2 –> 5*5+1)的同时可以建立更多的非线性变换,增强网络对特征的学习能力。
Dense Nets的设计主要基于两点: 网络中的每一层都直接与其前面层相连,实现特征的重复利用;同时把网络的每一层设计得特别「窄」,即只学习非常少的特征图(最极端情况就是每一层只学习一个特征图),达到降低冗余性的目的。 DenseNets具有非常好的抗过拟合性能,尤其适合训练数据相对匮乏的应
高精度加法 #include<iostream>#include<string>#include<cstring>#include<algorithm>using namespace std;const int maxn = 1010;int an[maxn], bn[maxn];string add(string a, string b){ memset(an, 0, sizeof an); memset(bn, 0, sizeof bn)
面试流程: 部分面试题: 1.介绍一下Inception v3和Resnet。 2.什么是BN层,BN层有什么作用? 3.简介下CNN。 4.说下MaxPooling和AvgPooling。 5.BP数学推导。 6.说下R-CNN,Fast RCNN,FasterRCNN三者的区别。 7.说下yolov3。 8.画一下Inception v3和Resnet最核心的结构。