标签:dim layer sparse 自定义 sizes self feature 动态图
class DNN(paddle.nn.Layer): #DNN层,负责抽取high-order特征 def __init__(self, sparse_feature_number, sparse_feature_dim, dense_feature_dim, num_field, layer_sizes): super(DNN, self).__init__() self.sparse_feature_number = sparse_feature_number self.sparse_feature_dim = sparse_feature_dim self.dense_feature_dim = dense_feature_dim self.num_field = num_field self.layer_sizes = layer_sizes #利用FM模型的隐特征向量作为网络权重初始化来获得子网络输出向量 sizes = [sparse_feature_dim * num_field] + self.layer_sizes + [1] acts = ["relu" for _ in range(len(self.layer_sizes))] + [None] self._mlp_layers = [] for i in range(len(layer_sizes) + 1): linear = paddle.nn.Linear( in_features=sizes[i], out_features=sizes[i + 1], weight_attr=paddle.ParamAttr( initializer=paddle.nn.initializer.Normal( std=1.0 / math.sqrt(sizes[i])))) self.add_sublayer('linear_%d' % i, linear) self._mlp_layers.append(linear) if acts[i] == 'relu': act = paddle.nn.ReLU() self.add_sublayer('act_%d' % i, act) #得到输入层到embedding层该神经元相连的五条线的权重 #前向传播反馈 def forward(self, feat_embeddings): y_dnn = paddle.reshape(feat_embeddings, [-1, self.num_field * self.sparse_feature_dim]) for n_layer in self._mlp_layers: y_dnn = n_layer(y_dnn) return y_dnn
标签:dim,layer,sparse,自定义,sizes,self,feature,动态图 来源: https://www.cnblogs.com/zle1992/p/16196837.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。