注意力机制
记录注意力机制相关知识,包括自注意力、Transformer、BERT、优化算法等
记录注意力机制相关知识,包括自注意力、Transformer、BERT、优化算法等
记录循环神经网络相关知识,包括RNN、GRU、LSTM、Seq2Seq、束搜索等
记录计算机视觉相关内容,包括目标检测、语义分割、样式迁移、微调等
记录卷积神经网络相关知识,包括卷积层、池化层、LeNet、AlexNet、VGG、ResNet等经典网络架构
记录深度学习基础知识,包括线性回归、softmax、多层感知机、自动求导与反向传播等
用于记录 git 使用过程中的一些经验和基础操作
生成树 Spanning Tree 给定连通图中的 $|V|=n$ 个节点,使用 n-1 条边将这些点连接起来。在这些点中选取一个根节点,即成为一颗生成树。生成树不是唯一的,可以选取不同的顶点作为根节点。 生成树可以很奇特: 最小生成树 Minimal Spanning Tree 如果我们将这个图的边添加权重,那么所包含的边权重最小的生成树就是最小生成树。对于没有显式给出权重...
图的基本定义 图是一种用于存储邻接关系(Adjacency) 的抽象数据类型 (ADT),由顶点和边组成: 顶点集合 $V={v_{1},v_{2},…,v_{n}}$ 连接顶点的边集合 $E$ 图又被分为无向图和有向图; 度(Degree) 一个顶点的度为与该顶点相邻的顶点数量(区分有向和无向) 。 无向图(Undirected) 无向图的边为无序对 ${v_{i},...
主要对学习过的排序算法进行时间、空间复杂度上的一些整理。 算法名称 类别 最好 平均 最坏 空间复杂度 核心思想 1. 冒泡排序(Bubble Sort) 交换排序 $O(n)$ $O(n^2)$ ...
在离散数学(Discrete Mathematics)中我们曾经学习过,“一个等价关系可以将一个集合中的元素划分为多个等价类”,这多个等价类就是多个不相交的集合,我们称其为并查集(Disjoint Set)。 从翻译的角度上来看,并查集和 Disjoint 好像并没有什么关系。中文上的“并查”指的是在这个数据结构上可以进行的操作:并(Union) 和查(Find)。但在英语上,只是说明了他...