回顾理解Triplet-loss_online triplet loss-程序员宅基地

技术标签: 机器学习  深度学习  人工智能  神经网络  

开始之前

【2】Triplet loss通常是在个体级别的细粒度识别上应用,传统的分类是花鸟够的大类别的识别,但是有些需求要精确到个体级别,比如精确到哪一个人的人脸识别,所以triplet loss的最主要应用也就是face identification、person re-identification、vehicle re-identification的各种identification问题上。这个loss虽然很好,但是用起来真的很烦,而且不太好理解。最近一直被这个题目困扰,搜了一下,又看到metric learning和circle loss之类的词汇,真是一口老血,学无止境啊。

从Lazy Triplet Loss说起

philipperemy deep-speaker有实现一种简单的实现方法Lazy Triplet Loss,实测有效,但是如果要精调模型,或者想获得更加深入理解TripletLoss,这显然是不能满足要求的。这个方法大底是即基于easy triplets公式来实现的。在诉说为啥叫lazy之前,先回顾一下triplets的基本概念。

triplets里的三个兄弟和三种loss 标准

triplets三兄弟

triplets三胞胎的大哥刘备a是anchor,是扛把子baseline;二弟关羽p是positive,处处要学着a争取跟a一模一样;三弟张飞n是negative,处处要跟a对着干,离得越远越好。

triplets三兄弟的关系

distance作为评判这三兄弟的关系,其实就是二弟、三弟和哥哥靠的近不近,这个和谐的兄弟关系应该是这样: d ( a , p ) d(a,p) d(a,p)越近越好, d ( a , n ) d(a,n) d(a,n)越远越好,怎么个好法呢?需要一个诸葛亮 m a r g i n margin margin来搅和一下

评判triplets三兄弟关系的标准

诸葛亮刚来,觉得大哥和二弟关系太近,搅和了一下,争取平和一下刘关张的关系:

L = M A X ( d ( a , p ) − d ( a , n ) + m a r g i n , 0 ) L=MAX(d(a,p)-d(a,n) + margin, 0) L=MAX(d(a,p)d(a,n)+margin,0)

easy triplets: L = 0 L=0 L=0

d ( a , p ) + m a r g i n < d ( a , n ) d(a,p)+margin<d(a,n) d(a,p)+margin<d(a,n),那么Max算子肯定取0了。这时候说明刘备a和关羽p哥俩好的像一个人似的,基本没张飞n啥事,诸葛亮 m a r g i n margin margin上来也没办法疏远,那么此时的情况天下太平。当然这种case也没有用。

semi-hard triplets: L ! = 0 L!=0 L!=0

在诸葛亮margin的成功搅和下,关羽和刘备疏远了, d ( a , p ) + m a r g i n > d ( a , n ) d(a,p)+margin>d(a,n) d(a,p)+margin>d(a,n),但诸葛亮不在的时候两个人还可以 d ( a , p ) < d ( a , n ) d(a,p)<d(a,n) d(a,p)<d(a,n),按照通用的公式来就是 d ( a , p ) + m a r g i n > d ( a , n ) > d ( a , p ) d(a,p)+margin>d(a,n)>d(a,p) d(a,p)+margin>d(a,n)>d(a,p)。这种情况如果神经网络不处理,就会演变成下面的极端情况。

hard triplets: L ! = 0 L!=0 L!=0

d ( a , p ) > d ( a , n ) d(a,p)>d(a,n) d(a,p)>d(a,n),不管有没有诸葛亮,关羽和刘备都闹掰了,这个时候有故事看了,需要神经网络来调理调理。
到此用三国人物来大致调侃了一下triplets的概念,主要为了加深理解。

理想的分类模型应该是这样,所有的关系都满足easy triplets,这时候就没有必要训练了,这组数据集合经过embedding,分类效果杠杆滴,t-sne图上同类散点紧密簇在一起,感官上很完美;退而求其次就是semi-hard triplets,其实这种模型也不错,类间距总是大于类内距,t-sne图上同类散点基本上簇在一起,但是在实际应用中容易受到噪声的干扰,少部分离散点跑到别的类上去了;那么最后一种hard triplets就很容易理解了,无法准确的分辨出类别,t-sne散点图糊了。都解释的这么直白了,triplets的终极目标,没有hard,尽量少semi,最好都easy。

Lazy Triplets Loss最投机取巧的办法是:

  • 随机的获取batch,这是时候没有做任何筛选,不管刘关张的关系如何,lazy就在这里体现了。
  • train的时候,利用semi条件保留算出的loss,最后取平均,满足easy的batch没有被摘除,让训练到一定程度,由于满足easy的越来越多,导致均值loss很低,收敛越来越慢。

虽然训练结果还不错,但是从机制上不够严谨,应该在batch筛选上再下功夫。

不能从0开始,要站在巨人的肩膀上

在DeepLearning的世界里,每次我想结束一个议题的时候,结果是又推开了另一扇门,就比如说这个triplets loss已经让我毛发稀疏了,本来希望通过一遍笔记收敛这个话题,搞一个终极解决方案出来,结果发现这个triplets loss的mining非常深奥,往前一探,就是度量学习,翻了翻这块的东西,我觉得还是先关上它,聚焦到triplet mining上,争取找到一个比lazy更好的策略,提高embedding的分离度。面对浩如烟海、日新月易的AI世界,无力感满满,还好有无数的先行者为后面的人开辟了道路,不至于每件事情从头做,为了能取得更好的结果,翻了一下本站,发现Triplet-Loss原理及其实现、应用翻译Triplet Loss and Online Triplet Mining in TensorFlow并用numpy重写了里面的方法,因为采用了mask的办法,使得满足easy条件的数据不会再被选中,这样可以进一步的提高后期的训练效率,这个方法值得一试,但要确认好不好用得花点时间。参考中的最后一篇对loss有更多的介绍,肯定要仔细研究,但不是现在,留个彩蛋吧。
本章剩下的部分就是讨论triplets batch策略,这个与之前的均方差,交叉熵等等最大的区别是:筛选过程可能要走一遍inference,这样才能得到要度量的结果,提前签知道哪些属于easy,没必要进training,既费时有费事。而且每个epoch训练完,上一次easy的可能这次就semi或者hard了,三者的关系随着每个epoch动态变化,咔咔,想想就头大。不妨再回顾一下Triplet Loss and Online Triplet Mining in TensorFlow提到的策略,有了我这么多铺垫,应该就不难理解了。

triplets mining

根据上节提到的三种loss度量,训练中需要选取hard和semi-hard的train sets,丢弃easy的train sets,一般分为offline和online两种策略。

Offline mining

Offline就是训练完一个epoch之后,下一个epoch之前,将train sets所有的数据做一遍inference,根据inference得来的embedding计算满足hard和semi-hard的结果,计算最后的triplets loss平均值,启动下一个epoch的training。脑补一下计算量和麻烦的程度,就是知道这个虽然很理想主义,单不靠谱。所以Offline策略只是个策略,没见人用的。

Online mining

Online是各大论文采用和研究的主题,主导思想就是定义好了batchsize,每次启动下一个epoch之前,提取batch,将满足要求(hard、semihard)的loss拿来计算,训练再次走起,很显然这个方法loss似乎更加显著,而且人工干预少。In Defense of the Triplet Loss for Person Re-Identification先假设一个输入的batchsize B = P K , P = P e r s o n N u m b e r , K = I m a g e N u m b e r f o r t h i s p e r s o n B=PK, P=Person Number, K = Image Number for this person B=PK,P=PersonNumber,K=ImageNumberforthisperson具体的策略还分为如下:

  1. Batch All:选取所有有效的triplets,就算hard、semihard triplets的平均值。这样就屏蔽了easy triplets的个体数量,避免了训练后期loss过低的问题,当然要计算PK(K-1)(PK-K) triplets(PK anchors, K−1 possible positives per anchor, PK−K possible negatives) ,这个数其实看上去有点懵,没关系,画一个表格就容易理解了。假设刘关张三(P)个人,每人有三(K)个case,batchsize就是9(B=PK)。每次提取这九个测试样本,按照表格来看,刘备的某一个case d(a,p)是(K-1),(a,n)是K*(P-1)。每个triplets都是d(a,p)和d(a,n)的组合,就算刘备的triplets 数量=(K-1)* K *(P-1),所有人次的结果就是
    P ∗ K ∗ ( K − 1 ) ∗ K ∗ ( P − 1 ) = P K ( K − 1 ) ( P K − K ) P * K*(K-1)* K *(P-1)= PK(K-1)(PK-K) PKK1KP1=PK(K1)(PKK)
人名 刘备 刘备 关羽 关羽 关羽 张飞 张飞 张飞
d(a,p) d(a,p) d(a,n) d(a,n) d(a,n) d(a,n) d(a,n) d(a,n)
刘备 anchor1 anchor2 anchor3 anchor1 anchor2 anchor3 anchor1 anchor2 anchor3
刘备 anchor2 anchor1 anchor3 anchor1 anchor2 anchor3 anchor1 anchor2 anchor3
刘备 anchor3 anchor1 anchor2 anchor1 anchor2 anchor3 anchor1 anchor2 anchor3
关羽 anchor1
关羽 anchor2
关羽 anchor3
张飞 anchor1
张飞 anchor2
张飞 anchor3
  1. Batch Hard: 对于每个anchor( B = P K B=PK B=PK个),只留下来最硬的positive(biggest distance d(a,p))和最硬的negative(smallest distance d(a,n)),这样每个的算法batch B = P K B=PK B=PK个三兄弟拿去训练。这里应该很好理解了。

论文说batch Hard好,那接下来就研究如何mine一下自己的triplet,希望能比lazy好点。

参考

1.philipperemy deep-speaker
2.Triplet loss学习笔记
3.Deep Metric Learning
4.周志华《Machine Learning》学习笔记(12)–降维与度量学习
5.【论文笔记4】深入理解行人重识别网络的Loss

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/golfbears/article/details/109222257

智能推荐

攻防世界_难度8_happy_puzzle_攻防世界困难模式攻略图文-程序员宅基地

文章浏览阅读645次。这个肯定是末尾的IDAT了,因为IDAT必须要满了才会开始一下个IDAT,这个明显就是末尾的IDAT了。,对应下面的create_head()代码。,对应下面的create_tail()代码。不要考虑爆破,我已经试了一下,太多情况了。题目来源:UNCTF。_攻防世界困难模式攻略图文

达梦数据库的导出(备份)、导入_达梦数据库导入导出-程序员宅基地

文章浏览阅读2.9k次,点赞3次,收藏10次。偶尔会用到,记录、分享。1. 数据库导出1.1 切换到dmdba用户su - dmdba1.2 进入达梦数据库安装路径的bin目录,执行导库操作  导出语句:./dexp cwy_init/[email protected]:5236 file=cwy_init.dmp log=cwy_init_exp.log 注释:   cwy_init/init_123..._达梦数据库导入导出

js引入kindeditor富文本编辑器的使用_kindeditor.js-程序员宅基地

文章浏览阅读1.9k次。1. 在官网上下载KindEditor文件,可以删掉不需要要到的jsp,asp,asp.net和php文件夹。接着把文件夹放到项目文件目录下。2. 修改html文件,在页面引入js文件:<script type="text/javascript" src="./kindeditor/kindeditor-all.js"></script><script type="text/javascript" src="./kindeditor/lang/zh-CN.js"_kindeditor.js

STM32学习过程记录11——基于STM32G431CBU6硬件SPI+DMA的高效WS2812B控制方法-程序员宅基地

文章浏览阅读2.3k次,点赞6次,收藏14次。SPI的详情简介不必赘述。假设我们通过SPI发送0xAA,我们的数据线就会变为10101010,通过修改不同的内容,即可修改SPI中0和1的持续时间。比如0xF0即为前半周期为高电平,后半周期为低电平的状态。在SPI的通信模式中,CPHA配置会影响该实验,下图展示了不同采样位置的SPI时序图[1]。CPOL = 0,CPHA = 1:CLK空闲状态 = 低电平,数据在下降沿采样,并在上升沿移出CPOL = 0,CPHA = 0:CLK空闲状态 = 低电平,数据在上升沿采样,并在下降沿移出。_stm32g431cbu6

计算机网络-数据链路层_接收方收到链路层数据后,使用crc检验后,余数为0,说明链路层的传输时可靠传输-程序员宅基地

文章浏览阅读1.2k次,点赞2次,收藏8次。数据链路层习题自测问题1.数据链路(即逻辑链路)与链路(即物理链路)有何区别?“电路接通了”与”数据链路接通了”的区别何在?2.数据链路层中的链路控制包括哪些功能?试讨论数据链路层做成可靠的链路层有哪些优点和缺点。3.网络适配器的作用是什么?网络适配器工作在哪一层?4.数据链路层的三个基本问题(帧定界、透明传输和差错检测)为什么都必须加以解决?5.如果在数据链路层不进行帧定界,会发生什么问题?6.PPP协议的主要特点是什么?为什么PPP不使用帧的编号?PPP适用于什么情况?为什么PPP协议不_接收方收到链路层数据后,使用crc检验后,余数为0,说明链路层的传输时可靠传输

软件测试工程师移民加拿大_无证移民,未受过软件工程师的教育(第1部分)-程序员宅基地

文章浏览阅读587次。软件测试工程师移民加拿大 无证移民,未受过软件工程师的教育(第1部分) (Undocumented Immigrant With No Education to Software Engineer(Part 1))Before I start, I want you to please bear with me on the way I write, I have very little gen...

随便推点

Thinkpad X250 secure boot failed 启动失败问题解决_安装完系统提示secureboot failure-程序员宅基地

文章浏览阅读304次。Thinkpad X250笔记本电脑,装的是FreeBSD,进入BIOS修改虚拟化配置(其后可能是误设置了安全开机),保存退出后系统无法启动,显示:secure boot failed ,把自己惊出一身冷汗,因为这台笔记本刚好还没开始做备份.....根据错误提示,到bios里面去找相关配置,在Security里面找到了Secure Boot选项,发现果然被设置为Enabled,将其修改为Disabled ,再开机,终于正常启动了。_安装完系统提示secureboot failure

C++如何做字符串分割(5种方法)_c++ 字符串分割-程序员宅基地

文章浏览阅读10w+次,点赞93次,收藏352次。1、用strtok函数进行字符串分割原型: char *strtok(char *str, const char *delim);功能:分解字符串为一组字符串。参数说明:str为要分解的字符串,delim为分隔符字符串。返回值:从str开头开始的一个个被分割的串。当没有被分割的串时则返回NULL。其它:strtok函数线程不安全,可以使用strtok_r替代。示例://借助strtok实现split#include <string.h>#include <stdio.h&_c++ 字符串分割

2013第四届蓝桥杯 C/C++本科A组 真题答案解析_2013年第四届c a组蓝桥杯省赛真题解答-程序员宅基地

文章浏览阅读2.3k次。1 .高斯日记 大数学家高斯有个好习惯:无论如何都要记日记。他的日记有个与众不同的地方,他从不注明年月日,而是用一个整数代替,比如:4210后来人们知道,那个整数就是日期,它表示那一天是高斯出生后的第几天。这或许也是个好习惯,它时时刻刻提醒着主人:日子又过去一天,还有多少时光可以用于浪费呢?高斯出生于:1777年4月30日。在高斯发现的一个重要定理的日记_2013年第四届c a组蓝桥杯省赛真题解答

基于供需算法优化的核极限学习机(KELM)分类算法-程序员宅基地

文章浏览阅读851次,点赞17次,收藏22次。摘要:本文利用供需算法对核极限学习机(KELM)进行优化,并用于分类。

metasploitable2渗透测试_metasploitable2怎么进入-程序员宅基地

文章浏览阅读1.1k次。一、系统弱密码登录1、在kali上执行命令行telnet 192.168.26.1292、Login和password都输入msfadmin3、登录成功,进入系统4、测试如下:二、MySQL弱密码登录:1、在kali上执行mysql –h 192.168.26.129 –u root2、登录成功,进入MySQL系统3、测试效果:三、PostgreSQL弱密码登录1、在Kali上执行psql -h 192.168.26.129 –U post..._metasploitable2怎么进入

Python学习之路:从入门到精通的指南_python人工智能开发从入门到精通pdf-程序员宅基地

文章浏览阅读257次。本文将为初学者提供Python学习的详细指南,从Python的历史、基础语法和数据类型到面向对象编程、模块和库的使用。通过本文,您将能够掌握Python编程的核心概念,为今后的编程学习和实践打下坚实基础。_python人工智能开发从入门到精通pdf

推荐文章

热门文章

相关标签