Golang_GC
垃圾回收机制 垃圾回收(Garbage Collection,简称GC)是编程语言中提供的自动的内存管理机制,自动释放不需要的对象,让出存储器资源,无需程序员手动执行 参考 https://segmentfault.com/a/1190000044152767 https://zhuanlan.zhihu.com/p/334999060 发展历程 标记-清除(mark and sweep)算法 - golang1.2 第一步,暂停程序业务逻辑, 找出不可达的对象,然后做上标记。第二步,回收标记好的对象。 即找到不可达对象,然后进行删除 缺点 STW,stop the world;让程序暂停,程序出现卡顿 (重要问题)。 标记需要扫描整个heap 清除数据会产生heap碎片 三色并发法 -go 1.5 步骤 首先将所有的对象都标记为 白色,表示为默认对象 从根节点的集合开始进行遍历,将可以遍历到的对象标记为...
database_course
charpter 1 数据库系统概述 charpter 2 高级数据模型 charpter 3 关系数据模型
leedcode
差分数组 easy 2848 与车相交的点 text 12345678910111213141516171819202122232425262728293031class Solution {public: int numberOfPoints(vector<vector<int>>& nums) { int C = 0; for (const auto& interval: nums) { C = max(C, interval[1]); } vector<int> diff(C + 2); for (const auto& interval: nums) { ++diff[interval[0]]; --diff[interval[1] + 1]; } int ans = 0, count...
deep-learning-page-reading
缘由 写这篇文章的主要目的是为了记录阅读深度学习相关论文的体会与感受(其实是为了完成作业)。 Softmax 函数的相关变体 $ softmax(x)_i = e^{x_i} $ 这个公式存在有什么问题? 上溢:由于 exe^xex 会将值算到很大,甚至可能超出计算机所能表示的最大范围,而无法运算 下溢:由于 exe^xex 会将接近0的值算至很小,接近于0,但出现四舍五入的时候十分的容易出现问题 因此我们需要对 softmax(x)isoftmax(x)_isoftmax(x)i 进行相关的改进。 Large-Margin Softmax Loss for Convolutional Neural Networks paper link: text motivation current softmax loss does not explicitly encourage intra-class compactness and inter- class-separability. Our key intuition is that the...
机器学习作业
week 2 PROBLEM 1 Regression on Salary 123456789101112131. Description. As learned in class, you want to analyze what factors would affect the salary of graduates’ first jobs, and then you collect 500 graduates’ data for analysis. See the “salary.csv” file attached. There are 5 features (GPA, # of internships, # of Competitions, # of Penalties, and Nationality) and 1 label (Salary). Use a linear regression model to analyze this dataset.2. Visualization. The very first step is to familiarize...
深度学习
Knowledge 正则化(或者称为惩罚项) 一般而言,正则化的通项为$$w^* = arg min \sum_i L(y_i, f(x_i;w))+ \lambda \Omega(w)$$ 规则化函数Ω(w)也有很多种选择,一般是模型复杂度的单调递增函数,模型越复杂,规则化值就越大。比如,规则化项可以是模型参数向量的范数。然而,不同的选择对参数w的约束不同,取得的效果也不同,但我们在论文中常见的都聚集在:零范数、一范数、二范数、迹范数、Frobenius范数和核范数等等。 常见的优化是使用的L1与L2范数,这是为什么呢? ——>...
强化学习基础学习
前提 这段时间参加比赛需要利用到强化学习,但是强化学习中的概念和名词非常的多,再加上本人比较菜,容易混淆概念,故写篇博客来辅助学习。由于是学习时候遇到的不理解的内容,故可能结构比较松散。 (博客的公式好像有大问题,但是 markdown 显示没啥问题,好奇怪,估计是下载成 katex 了,算了,先学东西吧,后面再挑) 强化学习的基本思想 强化学习(reinforcement...