导数的两种常用记法
1. 从 到
- 斜率最开始用的是
→ 表示两点之间的平均变化率(割线斜率)。
- 把区间越来越缩小 → 接近切线的斜率 → 记作
这里 和 表示无限小的变化量。
2. 两种导数记法
① Leibniz 记法
- 一般用 表示函数,导数记作
- 强调变量之间的关系(谁是自变量,谁是因变量)。
- 可以看作“对 求导”的操作符。
② Lagrange 记法
- 写作
- 强调函数的变化率,读作“ prime of ”。
- 更简洁,计算步骤里常用。
反函数与导数的关系
1. 反函数的定义
- 若 把 映射到 ,则它的反函数 会把 映射回 。
- 记作: 注意: 表示反函数,不是 。
- 性质:
2. 图像关系
- 反函数图像是原函数图像关于直线 的镜像对称。
- 对应点:
- 若 在 上,则 在 上。
3. 斜率的关系
- 在图像上,镜像对称会让切线斜率互为倒数: 其中 。
推导思路:
- 镜像对称:,
- 代入得:
- 将一阶偏导组成梯度向量:
H(f) = \begin{bmatrix} f_{xx} & f_{xy} \ f_{yx} & f_{yy} \end{bmatrix} = \begin{bmatrix} 4 & -1 \ -1 & 6 \end{bmatrix}
- 当一阶偏导都是连续可微时(满足**混合偏导相等定理**),$f_{xy} = f_{yx}$ 。 --- [[Exponential (e)]] - **梯度(Gradient)**:多维导数,指明最快下降方向。 - **优化(Optimization)**:用梯度来更新参数,最常用的是梯度下降(Gradient Descent)。 - **损失函数(Loss Function)**:衡量模型预测与真实值的差距,例如: - **平方损失(Square Loss)**:常用于回归。 - **对数损失(Log Loss)**:常用于分类。、 为什么平方损失用于回归,对数损失用于分类 ### 1. **平方损失([[Square Loss]]) → 回归** 公式:L_{\text{square}} = \frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)
**原因:** - 平方会放大大误差,促使模型精准拟合连续输出的数值。 --- ### 2. **对数损失([[Log Loss]]) → 分类** 二分类公式:L_{\text{log}} = -\frac{1}{n} \sum_{i=1}^n \left[ y_i \log(\hat{p}_i) + (1-y_i) \log(1-\hat{p}_i) \right]
**原因:** - 不只是判断对错,而是根据预测概率的正确程度给分数。 - 对“自信但错”的预测惩罚特别重,保证概率预测更接近真实分布。 ### 误差平方的原因 - 直接用 $e = y - \hat{y}$,正负误差会互相抵消 - 平方误差:$(y - \hat{y})^2$ 保证非负,并放大大误差 - 均方误差(MSE):取平均,稳定训练 - 系数 $\frac12$:求导时抵消平方项的系数 2,简化公式