Wiidede's blog Wiidede's blog
  • 前端
  • Python
  • 算法
  • 生活
  • 其他
  • 分类
  • 标签
  • 归档
  • 关于我
  • 赞赏
  • 我的小站 (opens new window)
GitHub (opens new window)

Wiidede

小的的写前端
  • 前端
  • Python
  • 算法
  • 生活
  • 其他
  • 分类
  • 标签
  • 归档
  • 关于我
  • 赞赏
  • 我的小站 (opens new window)
GitHub (opens new window)
  • 魅蓝 note6 使用体验
  • 写给学姐瞎讲的机器人比赛相关
  • 大三实训 MP3 播放器 硬件
  • 阿里云学习笔记
  • 深度学习笔记
    • 一个最基础的例子
    • 术语:
  • git 本地切换帐号
  • 毕业设计部署踩坑笔记
  • typora+picgo-core+github+compress 压缩后上传 github 图床
  • 其他
wiidede
2020-04-03

深度学习笔记

# 深度学习笔记

# 一个最基础的例子

l0 = tf.keras.layers.Dense(units=1, input_shape=[1])
model = tf.keras.Sequential([l0])
model.compile(loss='mean_squared_error', optimizer=tf.keras.optimizers.Adam(0.1))
history = model.fit(celsius_q, fahrenheit_a, epochs=500, verbose=False)
model.predict([100.0])
1
2
3
4
5

# 术语:

  • **特征:**模型的输入
  • **样本:**用于训练流程的输入/输出对
  • **标签:**模型的输出
  • **层级:**神经网络中相互连接的节点集合。
  • **模型:**神经网络的表示法
  • **密集全连接层 (FC):**一个层级中的每个节点都与上个层级中的每个节点相连。
  • **权重和偏差:**模型的内部变量
  • **损失:**期望输出和真实输出之间的差值
  • **MSE:**均方误差,一种损失函数,它会将一小部分很大的差值视作比大量很小的差值更糟糕。
  • **梯度下降法:**每次小幅调整内部变量,从而逐渐降低损失函数的算法。
  • **优化器:**梯度下降法的一种具体实现方法。(有很多算法。在这门课程中,我们将仅使用“Adam”优化器,它是 ADAptive with Momentum 的简称,并且被视为最佳优化器。)
  • **学习速率:**梯度下降过程中的损失改进“步长”。
  • **批次:**在训练神经网络的过程中使用的一组样本。
  • **周期:**完全经过整个训练数据集一轮
  • **前向传播:**根据输入计算输出值
  • **反向传播:**根据优化器算法计算内部变量的调整幅度,从输出层级开始,并往回计算每个层级,直到抵达输入层。
  • **扁平化:**将二维图像转换为一维向量的过程
  • **ReLU:**一种激活函数,使模型能够解决非线性问题
  • **Softmax:**一种函数,能够为每个潜在输出类别生成概率
  • **分类:**一种机器学习模型,用于区分两个或多个输出类别
#深度学习
上次更新: 2023/06/01, 12:40:50

← 阿里云学习笔记 git 本地切换帐号→

Theme by Vdoing | Copyright © 2021-2023 Wiidede | Website use MIT License | Article content & logo use CC-BY-SA-4.0 License
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式