1.3 深度学习——标量、向量、矩阵和张量复习和习题
len(X)标量是零维,向量是一维,矩阵是二维,张量是任意维度的数组。在深度学习和机器学习中,这些结构用于表示数据、模型参数和运算。
·
4. 定义形状 (2, 3, 4) 的张量 X,len(X)
的输出结果是什么?
答案:
len(X)
的输出结果是 2,因为张量的长度是它的第一个轴的大小。在这个例子中,张量的形状是 (2, 3, 4),所以第一维的长度是 2。
5. 对于任意形状的张量 X,len(X)
是否总是对应于 X 特定轴的长度?这个轴是什么?
答案:
len(X)
总是对应于张量的第一个轴的长度。对于形状为 (d1, d2, …, dn) 的张量,len(X)
返回的是 d1。
6. 运行 A / A.sum(axis=1)
,看看会发生什么?你能分析原因吗?
分析:
假设 ( A ) 是一个二维矩阵,A.sum(axis=1)
会对每一行求和,返回一个一维数组,其中包含每一行的和。当你用 ( A ) 除以这一维数组时,NumPy 会执行广播(broadcasting),将这个一维数组应用于每一行。这相当于将每个元素除以对应行的和,得到一个归一化的矩阵。
7. 在曼哈顿的两点之间旅行时,你需要在坐标上走多远,也就是说,街道和街道而言?你能斜着走吗?
答案:
在曼哈顿距离中,你只能沿着坐标轴移动,所以你需要走的距离是两点间的横向和纵向距离之和。你不能斜着走,因为曼哈顿距离是基于直角路径的。
8. 考虑一个具有形状 (2, 3, 4) 的张量,在轴 0, 1, 2 上的求和输出是什么形状?
答案:
- 沿轴 0 求和:输出形状为 (3, 4)
- 沿轴 1 求和:输出形状为 (2, 4)
- 沿轴 2 求和:输出形状为 (2, 3)
9. 向 linalg.norm
函数提供 3 个或更多轴的张量,并观察其输出。对于任意形状的张量,这个函数计算得到什么?
答案:
linalg.norm
可以计算张量的范数。对于 3 个或更多轴的张量,它会默认计算所有元素的 L2 范数(即平方和开根号)。对于任意形状的张量,输出是一个标量,表示该张量的大小。
标量 (Scalar)
- 定义:只有一个值的量,通常用一个数字表示。
- 维度:零维。
- 例子:温度 ( 25^\circ C )、质量 ( 5 \text{kg} )。
向量 (Vector)
- 定义:一维数组,包含多个数值,每个数值称为元素。
- 维度:一维,具有一个轴。
- 例子:位移向量 ([3, 4, 5]),表示在三维空间中的位置。
矩阵 (Matrix)
- 定义:二维数组,由行和列组成的数值集合。
- 维度:二维,具有两个轴。
- 例子:
表示一个 2 行 3 列的矩阵。
张量 (Tensor)
- 定义:多维数组,可以看作是标量、向量和矩阵的推广。
- 维度:任意维数,可以有多个轴。
- 例子:形状为 ( (2, 3, 4) ) 的张量,表示一个包含 2 个矩阵,每个矩阵有 3 行 4 列的结构。
总结
- 标量 是零维,向量 是一维,矩阵 是二维,张量 是任意维度的数组。
- 在深度学习和机器学习中,这些结构用于表示数据、模型参数和运算。
更多推荐
已为社区贡献12条内容
所有评论(0)