ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

TensorFlow官方文档学习 Keras版MNIST Get Started with TensorFlow

2021-10-07 17:04:17  阅读:245  来源: 互联网

标签:acc 0s 10000 60000 Keras Started ETA loss TensorFlow


  1. import tensorflow as tf  
    mnist = tf.keras.datasets.mnist  #下载mnist图像的数据  
      
    (x_train, y_train),(x_test, y_test) = mnist.load_data() #划分训练集和测试集  
    x_train, x_test = x_train / 255.0, x_test / 255.0   #归一化处理[0,1]  
      
    #序贯(Sequential)模型  
    model = tf.keras.Sequential([                          
      tf.keras.layers.Flatten(input_shape=[28,28]),          #展平图像数据  
      tf.keras.layers.Dense(512, activation=tf.nn.relu),     #全连接层512列  
      tf.keras.layers.Dropout(0.2),                          #需要断开的神经元的比例  
      tf.keras.layers.Dense(10, activation=tf.nn.softmax)    #全连接层10列  
    ])  
    model.compile(optimizer='adam',                          #优化器  
                  loss='sparse_categorical_crossentropy',    #损失函数交叉熵  
                  metrics=['accuracy'])                      #评价指标列表  
      
    model.fit(x_train, y_train, epochs=5,batch_size=50)      #fit开始训练迭代5轮  
    model.evaluate(x_test, y_test)                           #对测试集进行测试  

  2. 运行得到输出结果:  
  3.   
  4. 55900/60000 [==========================>...]55900/60000 [==========================>...] - ETA: 0s - loss: 0.0460 - acc: 0.9857  
  5. 56400/60000 [===========================>..]56400/60000 [===========================>..] - ETA: 0s - loss: 0.0461 - acc: 0.9857  
  6. 56900/60000 [===========================>..]56900/60000 [===========================>..] - ETA: 0s - loss: 0.0460 - acc: 0.9856  
  7. 57400/60000 [===========================>..]57400/60000 [===========================>..] - ETA: 0s - loss: 0.0463 - acc: 0.9856  
  8. 57900/60000 [===========================>..]57900/60000 [===========================>..] - ETA: 0s - loss: 0.0464 - acc: 0.9856  
  9. 58400/60000 [============================>.]58400/60000 [============================>.] - ETA: 0s - loss: 0.0466 - acc: 0.9855  
  10. 58900/60000 [============================>.]58900/60000 [============================>.] - ETA: 0s - loss: 0.0465 - acc: 0.9855  
  11. 59400/60000 [============================>.]59400/60000 [============================>.] - ETA: 0s - loss: 0.0468 - acc: 0.9854  
  12. 59900/60000 [============================>.]59900/60000 [============================>.] - ETA: 0s - loss: 0.0469 - acc: 0.9853  
  13. 60000/60000 [==============================]60000/60000 [==============================] - 7s 116us/step - loss: 0.0469 - acc: 0.9853  
  14.   
  15.   
  16.    32/10000 [..............................]   32/10000 [..............................] - ETA: 8s  
  17.   928/10000 [=>............................]  928/10000 [=>............................] - ETA: 0s  
  18.  1856/10000 [====>.........................] 1856/10000 [====>.........................] - ETA: 0s  
  19.  2720/10000 [=======>......................] 2720/10000 [=======>......................] - ETA: 0s  
  20.  3584/10000 [=========>....................] 3584/10000 [=========>....................] - ETA: 0s  
  21.  4544/10000 [============>.................] 4544/10000 [============>.................] - ETA: 0s  
  22.  5376/10000 [===============>..............] 5376/10000 [===============>..............] - ETA: 0s  
  23.  6272/10000 [=================>............] 6272/10000 [=================>............] - ETA: 0s  
  24.  7136/10000 [====================>.........] 7136/10000 [====================>.........] - ETA: 0s  
  25.  8096/10000 [=======================>......] 8096/10000 [=======================>......] - ETA: 0s  
  26.  9056/10000 [==========================>...] 9056/10000 [==========================>...] - ETA: 0s  
  27.  9888/10000 [============================>.] 9888/10000 [============================>.] - ETA: 0s  
  28. 10000/10000 [==============================]10000/10000 [==============================] - 1s 60us/step  
  29.   
  30. [loss,accuracy]  
  31. [0.06254660903802142, 0.9796]  

标签:acc,0s,10000,60000,Keras,Started,ETA,loss,TensorFlow
来源: https://blog.csdn.net/m0_50617544/article/details/120638308

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有