【2】Triplet loss通常是在个体级别的细粒度识别上应用,传统的分类是花鸟够的大类别的识别,但是有些需求要精确到个体级别,比如精确到哪一个人的人脸识别,所以triplet loss的最主要应用也就是face identification、person re-identification、vehicle re-identification的各种identification问题上。这个loss虽然很好,但是用起来真的很烦,而且不太好理解。最近一直被这个题目困扰,搜了一下,又看到metric learning和circle loss之类的词汇,真是一口老血,学无止境啊。
philipperemy deep-speaker有实现一种简单的实现方法Lazy Triplet Loss,实测有效,但是如果要精调模型,或者想获得更加深入理解TripletLoss,这显然是不能满足要求的。这个方法大底是即基于easy triplets公式来实现的。在诉说为啥叫lazy之前,先回顾一下triplets的基本概念。
triplets三胞胎的大哥刘备a是anchor,是扛把子baseline;二弟关羽p是positive,处处要学着a争取跟a一模一样;三弟张飞n是negative,处处要跟a对着干,离得越远越好。
distance作为评判这三兄弟的关系,其实就是二弟、三弟和哥哥靠的近不近,这个和谐的兄弟关系应该是这样: d ( a , p ) d(a,p) d(a,p)越近越好, d ( a , n ) d(a,n) d(a,n)越远越好,怎么个好法呢?需要一个诸葛亮 m a r g i n margin margin来搅和一下
诸葛亮刚来,觉得大哥和二弟关系太近,搅和了一下,争取平和一下刘关张的关系:
L = M A X ( d ( a , p ) − d ( a , n ) + m a r g i n , 0 ) L=MAX(d(a,p)-d(a,n) + margin, 0) L=MAX(d(a,p)−d(a,n)+margin,0)
d ( a , p ) + m a r g i n < d ( a , n ) d(a,p)+margin<d(a,n) d(a,p)+margin<d(a,n),那么Max算子肯定取0了。这时候说明刘备a和关羽p哥俩好的像一个人似的,基本没张飞n啥事,诸葛亮 m a r g i n margin margin上来也没办法疏远,那么此时的情况天下太平。当然这种case也没有用。
在诸葛亮margin的成功搅和下,关羽和刘备疏远了, d ( a , p ) + m a r g i n > d ( a , n ) d(a,p)+margin>d(a,n) d(a,p)+margin>d(a,n),但诸葛亮不在的时候两个人还可以 d ( a , p ) < d ( a , n ) d(a,p)<d(a,n) d(a,p)<d(a,n),按照通用的公式来就是 d ( a , p ) + m a r g i n > d ( a , n ) > d ( a , p ) d(a,p)+margin>d(a,n)>d(a,p) d(a,p)+margin>d(a,n)>d(a,p)。这种情况如果神经网络不处理,就会演变成下面的极端情况。
d ( a , p ) > d ( a , n ) d(a,p)>d(a,n) d(a,p)>d(a,n),不管有没有诸葛亮,关羽和刘备都闹掰了,这个时候有故事看了,需要神经网络来调理调理。
到此用三国人物来大致调侃了一下triplets的概念,主要为了加深理解。
理想的分类模型应该是这样,所有的关系都满足easy triplets,这时候就没有必要训练了,这组数据集合经过embedding,分类效果杠杆滴,t-sne图上同类散点紧密簇在一起,感官上很完美;退而求其次就是semi-hard triplets,其实这种模型也不错,类间距总是大于类内距,t-sne图上同类散点基本上簇在一起,但是在实际应用中容易受到噪声的干扰,少部分离散点跑到别的类上去了;那么最后一种hard triplets就很容易理解了,无法准确的分辨出类别,t-sne散点图糊了。都解释的这么直白了,triplets的终极目标,没有hard,尽量少semi,最好都easy。
Lazy Triplets Loss最投机取巧的办法是:
虽然训练结果还不错,但是从机制上不够严谨,应该在batch筛选上再下功夫。
在DeepLearning的世界里,每次我想结束一个议题的时候,结果是又推开了另一扇门,就比如说这个triplets loss已经让我毛发稀疏了,本来希望通过一遍笔记收敛这个话题,搞一个终极解决方案出来,结果发现这个triplets loss的mining非常深奥,往前一探,就是度量学习,翻了翻这块的东西,我觉得还是先关上它,聚焦到triplet mining上,争取找到一个比lazy更好的策略,提高embedding的分离度。面对浩如烟海、日新月易的AI世界,无力感满满,还好有无数的先行者为后面的人开辟了道路,不至于每件事情从头做,为了能取得更好的结果,翻了一下本站,发现Triplet-Loss原理及其实现、应用翻译Triplet Loss and Online Triplet Mining in TensorFlow并用numpy重写了里面的方法,因为采用了mask的办法,使得满足easy条件的数据不会再被选中,这样可以进一步的提高后期的训练效率,这个方法值得一试,但要确认好不好用得花点时间。参考中的最后一篇对loss有更多的介绍,肯定要仔细研究,但不是现在,留个彩蛋吧。
本章剩下的部分就是讨论triplets batch策略,这个与之前的均方差,交叉熵等等最大的区别是:筛选过程可能要走一遍inference,这样才能得到要度量的结果,提前签知道哪些属于easy,没必要进training,既费时有费事。而且每个epoch训练完,上一次easy的可能这次就semi或者hard了,三者的关系随着每个epoch动态变化,咔咔,想想就头大。不妨再回顾一下Triplet Loss and Online Triplet Mining in TensorFlow提到的策略,有了我这么多铺垫,应该就不难理解了。
根据上节提到的三种loss度量,训练中需要选取hard和semi-hard的train sets,丢弃easy的train sets,一般分为offline和online两种策略。
Offline就是训练完一个epoch之后,下一个epoch之前,将train sets所有的数据做一遍inference,根据inference得来的embedding计算满足hard和semi-hard的结果,计算最后的triplets loss平均值,启动下一个epoch的training。脑补一下计算量和麻烦的程度,就是知道这个虽然很理想主义,单不靠谱。所以Offline策略只是个策略,没见人用的。
Online是各大论文采用和研究的主题,主导思想就是定义好了batchsize,每次启动下一个epoch之前,提取batch,将满足要求(hard、semihard)的loss拿来计算,训练再次走起,很显然这个方法loss似乎更加显著,而且人工干预少。In Defense of the Triplet Loss for Person Re-Identification先假设一个输入的batchsize B = P K , P = P e r s o n N u m b e r , K = I m a g e N u m b e r f o r t h i s p e r s o n B=PK, P=Person Number, K = Image Number for this person B=PK,P=PersonNumber,K=ImageNumberforthisperson具体的策略还分为如下:
人名 | 空 | 刘备 | 刘备 | 关羽 | 关羽 | 关羽 | 张飞 | 张飞 | 张飞 |
---|---|---|---|---|---|---|---|---|---|
空 | 空 | d(a,p) | d(a,p) | d(a,n) | d(a,n) | d(a,n) | d(a,n) | d(a,n) | d(a,n) |
刘备 | anchor1 | anchor2 | anchor3 | anchor1 | anchor2 | anchor3 | anchor1 | anchor2 | anchor3 |
刘备 | anchor2 | anchor1 | anchor3 | anchor1 | anchor2 | anchor3 | anchor1 | anchor2 | anchor3 |
刘备 | anchor3 | anchor1 | anchor2 | anchor1 | anchor2 | anchor3 | anchor1 | anchor2 | anchor3 |
关羽 | anchor1 | ||||||||
关羽 | anchor2 | ||||||||
关羽 | anchor3 | ||||||||
张飞 | anchor1 | ||||||||
张飞 | anchor2 | ||||||||
张飞 | anchor3 |
论文说batch Hard好,那接下来就研究如何mine一下自己的triplet,希望能比lazy好点。
1.philipperemy deep-speaker
2.Triplet loss学习笔记
3.Deep Metric Learning
4.周志华《Machine Learning》学习笔记(12)–降维与度量学习
5.【论文笔记4】深入理解行人重识别网络的Loss
文章浏览阅读645次。这个肯定是末尾的IDAT了,因为IDAT必须要满了才会开始一下个IDAT,这个明显就是末尾的IDAT了。,对应下面的create_head()代码。,对应下面的create_tail()代码。不要考虑爆破,我已经试了一下,太多情况了。题目来源:UNCTF。_攻防世界困难模式攻略图文
文章浏览阅读2.9k次,点赞3次,收藏10次。偶尔会用到,记录、分享。1. 数据库导出1.1 切换到dmdba用户su - dmdba1.2 进入达梦数据库安装路径的bin目录,执行导库操作 导出语句:./dexp cwy_init/[email protected]:5236 file=cwy_init.dmp log=cwy_init_exp.log 注释: cwy_init/init_123..._达梦数据库导入导出
文章浏览阅读1.9k次。1. 在官网上下载KindEditor文件,可以删掉不需要要到的jsp,asp,asp.net和php文件夹。接着把文件夹放到项目文件目录下。2. 修改html文件,在页面引入js文件:<script type="text/javascript" src="./kindeditor/kindeditor-all.js"></script><script type="text/javascript" src="./kindeditor/lang/zh-CN.js"_kindeditor.js
文章浏览阅读2.3k次,点赞6次,收藏14次。SPI的详情简介不必赘述。假设我们通过SPI发送0xAA,我们的数据线就会变为10101010,通过修改不同的内容,即可修改SPI中0和1的持续时间。比如0xF0即为前半周期为高电平,后半周期为低电平的状态。在SPI的通信模式中,CPHA配置会影响该实验,下图展示了不同采样位置的SPI时序图[1]。CPOL = 0,CPHA = 1:CLK空闲状态 = 低电平,数据在下降沿采样,并在上升沿移出CPOL = 0,CPHA = 0:CLK空闲状态 = 低电平,数据在上升沿采样,并在下降沿移出。_stm32g431cbu6
文章浏览阅读1.2k次,点赞2次,收藏8次。数据链路层习题自测问题1.数据链路(即逻辑链路)与链路(即物理链路)有何区别?“电路接通了”与”数据链路接通了”的区别何在?2.数据链路层中的链路控制包括哪些功能?试讨论数据链路层做成可靠的链路层有哪些优点和缺点。3.网络适配器的作用是什么?网络适配器工作在哪一层?4.数据链路层的三个基本问题(帧定界、透明传输和差错检测)为什么都必须加以解决?5.如果在数据链路层不进行帧定界,会发生什么问题?6.PPP协议的主要特点是什么?为什么PPP不使用帧的编号?PPP适用于什么情况?为什么PPP协议不_接收方收到链路层数据后,使用crc检验后,余数为0,说明链路层的传输时可靠传输
文章浏览阅读587次。软件测试工程师移民加拿大 无证移民,未受过软件工程师的教育(第1部分) (Undocumented Immigrant With No Education to Software Engineer(Part 1))Before I start, I want you to please bear with me on the way I write, I have very little gen...
文章浏览阅读304次。Thinkpad X250笔记本电脑,装的是FreeBSD,进入BIOS修改虚拟化配置(其后可能是误设置了安全开机),保存退出后系统无法启动,显示:secure boot failed ,把自己惊出一身冷汗,因为这台笔记本刚好还没开始做备份.....根据错误提示,到bios里面去找相关配置,在Security里面找到了Secure Boot选项,发现果然被设置为Enabled,将其修改为Disabled ,再开机,终于正常启动了。_安装完系统提示secureboot failure
文章浏览阅读10w+次,点赞93次,收藏352次。1、用strtok函数进行字符串分割原型: char *strtok(char *str, const char *delim);功能:分解字符串为一组字符串。参数说明:str为要分解的字符串,delim为分隔符字符串。返回值:从str开头开始的一个个被分割的串。当没有被分割的串时则返回NULL。其它:strtok函数线程不安全,可以使用strtok_r替代。示例://借助strtok实现split#include <string.h>#include <stdio.h&_c++ 字符串分割
文章浏览阅读2.3k次。1 .高斯日记 大数学家高斯有个好习惯:无论如何都要记日记。他的日记有个与众不同的地方,他从不注明年月日,而是用一个整数代替,比如:4210后来人们知道,那个整数就是日期,它表示那一天是高斯出生后的第几天。这或许也是个好习惯,它时时刻刻提醒着主人:日子又过去一天,还有多少时光可以用于浪费呢?高斯出生于:1777年4月30日。在高斯发现的一个重要定理的日记_2013年第四届c a组蓝桥杯省赛真题解答
文章浏览阅读851次,点赞17次,收藏22次。摘要:本文利用供需算法对核极限学习机(KELM)进行优化,并用于分类。
文章浏览阅读1.1k次。一、系统弱密码登录1、在kali上执行命令行telnet 192.168.26.1292、Login和password都输入msfadmin3、登录成功,进入系统4、测试如下:二、MySQL弱密码登录:1、在kali上执行mysql –h 192.168.26.129 –u root2、登录成功,进入MySQL系统3、测试效果:三、PostgreSQL弱密码登录1、在Kali上执行psql -h 192.168.26.129 –U post..._metasploitable2怎么进入
文章浏览阅读257次。本文将为初学者提供Python学习的详细指南,从Python的历史、基础语法和数据类型到面向对象编程、模块和库的使用。通过本文,您将能够掌握Python编程的核心概念,为今后的编程学习和实践打下坚实基础。_python人工智能开发从入门到精通pdf