深度学习图像搜索与识别

x33g5p2x  于2021-11-27 转载在 其他  
字(6.1k)|赞(0)|评价(0)|浏览(266)

github 搜索:

image retrieval

算法大合集:

GitHub - willard-yuan/awesome-cbir-papers: 📝Awesome and classical image retrieval papers

模型比较小:

https://github.com/rpautrat/LISRD

依赖项:

https://github.com/magicleap/SuperPointPretrainedNetwork.git

没看懂:

https://github.com/gtolias/how

有开源预训练,图像提取特征匹配的:

https://github.com/zju3dv/LoFTR

依赖项:

GitHub - magicleap/SuperGluePretrainedNetwork: SuperGlue: Learning Feature Matching with Graph Neural Networks (CVPR 2020, Oral)

模型45M

本机跑起来了,

LoFTR-master

数据和模型地址:

https://drive.google.com/drive/folders/1DOcOPZb3-5cWxLqn256AhwUVjBPifhuf

用到了Loftr:

GitHub - ufukefe/IME: Image Matching Evaluation

以下内容节选自**《深度学习图像搜索与识别(全彩)》**一书!

--正文--

作为电商场景的以图搜图 App,拍立淘于2014年首次上线,现已经成为拥有数千万日活用户的应用。随着业务的发展,也逐步建立了稳定的、可扩展的视觉搜索架构。

下图展示了拍立淘的整个图像搜索架构,分为离线和在线处理流程

(图1  图像搜索架构)

离线处理主要是指每天生成图像引擎索引的整个过程。

具体过程为,首先构建离线图像选品,通过目标检测在选品图像上提取感兴趣的商品,然后对商品进行特征提取,再通过图像特征构建大规模索引库,并放入图像搜索引擎等待查询。执行完成后,以一定频率更新索引库。

在线处理主要是指用户上传查询图片后,对图像的实时处理到返回最终图像列表的在线步骤。与离线处理相似,给定查询图像后,首先预测其具体的商品类目,然后提取图像目标区域的特征,再基于相似性度量在索引引擎中搜索,最后通过重排序返回搜索结果。

01

类目预测模块

1.图像选品构建

淘宝上有大量不同来源的商品图像,包括商品主图、SKU图、拆箱图等,涵盖了电子商务各个方面的图像。

我们需要从这些海量图像中选择用户相对感兴趣的图像作为宝贝图像进行索引。也就是根据图像附带的类目等属性以及图像质量过滤整个图像库。

由于淘宝上存在太多相同或高度相似的宝贝图像,不过滤会导致最终的搜索结果出现大量相同的商品宝贝,使得用户体验不佳。因此,我们添加了图像选品过滤模块,每天定时选择和删除重复或高度相似的商品图像,并优化索引文件。

2.基于模型和搜索融合的类目预测

考虑到一定的视觉和语义相似性,淘宝类目是基于叶子类目的层次化的类目体系。

类目体系不仅涉及技术问题,也涉及关于消费者认知的商业问题。

目前,我们在拍立淘中先预测图像的类目到14个大类目之一,如服饰、鞋、包等,以缩小图像库的搜索空间。可以采用基于模型和基于搜索的方式来进行类目预测(识别)。

对于基于模型的预测模块,我们采用GoogLeNet V1网络结构来权衡高精度和低延迟,使用包含不同商品类目标签的图像集进行训练。

这里使用单标签分类问题的算法(书中第3章介绍过),作为模型训练的输入图像,根据常用设置将每个图像的大小调整为256像素×256像素,随机裁剪为227像素×227像素 ,使用Softmax 损失函数作为分类任务的损失函数。

对于基于搜索的预测模块,我们不直接训练分类模型,而是利用一个特征模型(参考第6章)和一个待检索数据库完成基于搜索的加权KNN分类。

每当用户输入一张待分类图片,基于搜索的分类方法会先对该图片进行特征提取,然后利用该特征在待检索的数据库中,找出与其最相似的K个图片,根据这些图片的类目标签对输入图片进行预测。

具体来说,我们收集了2亿张附带真实类别标签的图像对   作为参考图像库,训练一个通用类目的特征模型对参考图像库离线提取通用特征并构建索引。预测时,对查询图像提取通用特征,并在图像参考集中检索Top 30的结果。通过查询图像的Top 30个邻居,再根据每个   的类目标签   加权投票,以预测待查询图像   的标签   。其中,加权函数   为查询图像   与   的距离函数。

为了提高类目预测的准确性,我们将基于模型和基于搜索的结果再一次加权融合。

其中,基于搜索的方法利用了特征的判别能力,纠正了部分混淆的类目,结合分类模型的优势提高了类目预测的精度。总的来说,我们的方法使类目预测的精度提高了2%以上。

02

目标检测和特征联合学习

接下来主要介绍基于用户点击行为的检测和特征联合学习方法。

在拍立淘图像搜索场景下,主要挑战来自用户和商家图像之间的巨大差异。

商家的图片通常是高质量的,是在受控环境下用高端相机拍摄的。然而,用户的查询图像通常是用手机摄像头拍摄的,并且可能存在光照、模糊和复杂的背景等问题。

为了减少复杂的背景影响,系统需要具备在图像中定位主体目标并提取主体特征的能力。

下图说明了用户在查询图像过程中主体检测对检索结果的重要性。

(图2  图中的第一行是没有进行主体检测的检索结果,明显受到了背景干扰;第二行显示了采用主体检测的检索结果,有非常显著的改进效果)

为了在没有背景干扰的情况下使用户实拍图像和商家的索引图像特征保持一致,我们提出了一个基于度量学习的分支网络CNN框架,来联合学习主体检测框和特征表示。

我们最大程度地利用用户点击行为反馈,来挖掘难样本数据。

通过用户点击图像构造有效的三元组,使得能够在不需要进一步对边界框进行标注的情况下,联合学习到对象的检测框和特征表示。

1.三元组挖掘

书中的第6章介绍过用三元组损失函数来学习特征的相似度度量。

在我们的场景中,给定一个输入图像   ,首要问题是利用CNN图像特征   可靠地匹配来自用户和卖家的不同源图像。

这意味着需要拉近查询图像   与其同款宝贝图像   之间的距离,并拉远查询图像   与不同款宝贝图像   之间的距离。

因此,这里采用三元组排序损失函数:

其中,L2表示两个向量之间的L2标准化距离,   是Margin参数   。    是需要学习的CNN参数,可以通过端到端的训练学习到。

这里的主要问题是如何挖掘较难的三元组样本。

一种简单的选择是从与查询图像相同的类目中选择正样本图像,从其他类目中选择负样本图像。但是,负样本图像与查询图像相比,存在较大的视觉差异,导致训练过程中三元组排序损失函数很容易为零,没有贡献任何损失。

因此,我们采用用户点击数据来挖掘较难的三元组样本,如下图所示。

(图3  使用用户点击数据来挖掘三元组样本示意图)

在图像检索场景下,很大一部分用户会在返回列表中点击同款的商品图像,这意味着点击的图像   可以被视为查询图像的正样本图像,未点击图像   可以作为难负样本图像,它们类似于查询图像但属于非同款宝贝图像。

然而,未点击的图像仍然可能是与查询图像具有同款宝贝的图像,因为当许多同款的宝贝图像被返回时,用户只会点击结果中的一个或两个。所以要过滤未点击且与查询图像具有同款宝贝的图像,查询图像   的负样本图像   计算如下:

其中,   为特征的距离函数,   为距离阈值。为了计算该距离,我们采用了多特征融合方法,结合了局部特征、不同版本特征和ImageNet预训练的通用特征等,从而更准确地发现噪声负样本。

同样,为了得到更精确的正样本,我们采用了类似的方法来过滤正样本图像。

为了扩展小批量中的所有可用三元组数据来增加更多训练数据,我们在小批量中获取的三元组之间共享所有负样本图像。

通过共享负样本,可以在进入损失层之前生成   个三元组,如果不采用共享机制,则生成   个三元组。为了进一步减少训练图像中的噪声,我们对原来的三元组排序损失函数   进行了改进:

其中,改进的损失函数是针对同一查询图像的所有三元组样本计算平均损失,这样可以最大程度地减少噪声三元组的影响。

通过查询图像层面的三元组损失函数,学习CNN 特征,从而将用户的实拍图像和商家的高质量图像映射到同一特征空间,使得不同来源的图像能够更可靠地匹配。

2.Deep ranking框架

如何处理图像中的背景噪声并检测出主体对象?

参考书中第4章关于检测的介绍,一种直接的方法是部署现成的主体检测算法,如Faster R-CNN或SSD。

然而,这种方法时延较长而且需要大量边界框的标注。

这里,我们提出两个分支的联合网络模型来同时学习检测和特征表示,下图所示是分支网络模型结构。

(图4  两个分支的深度联合网络模型,用于主体检测和特征学习。上面是主体检测分支,下面是特征学习分支)

如何学习这个联合模型的参数呢?

我们以之前挖掘的   三元组为监督信息,在Deep ranking框架下学习该联合模型,这样一来,可以通过三元组正负样本度量关系来学习出判别特征,同时,根据分支结构回归出对特征判别起到重要作用的对象主体掩膜。

在不需要边界框标注的情况下,主体掩膜通过分支结构以类似注意力的机制被学习出来(参考第3章中的细粒度识别内容)。

总体来说,Deep ranking框架如下图所示。

(图5  Deep ranking框架为以   为输入的3个深度联合模型组成,使用三元组进行网络训练,联合学习出主体检测区域和判别特征)

具体做法是,Deep ranking框架下的每个深度联合模型(图4)都共享参数,检测的掩膜函数   先利用检测分支回归出矩形坐标   ,再使用阶跃函数   表示,如下面公式所示:

主体边界框区域是输入图像   与   按位点乘得到的。然而,阶跃函数   是不可微的。为了端到端地训练,我们可以用Sigmoid函数   来逼近阶跃函数,当K足够大时使其可微化。

需要注意的是,这里只需要弱监督的用户点击数据,不需要依赖边界框的标注进行训练,这大大降低了人力资源成本,提高了训练效率。

03

图像索引和检索

1.10亿级的大规模图像检索引擎

为提高响应速度,我们使用大规模二值引擎进行查询和排序。一个实时稳定的搜索引擎是非常重要的,因为每天都有数以千万计的用户在使用拍立淘的视觉搜索服务。因此,我们采用Multi-shards和Multi-replications引擎架构,如下图所示,它不仅可以快速响应大量用户查询,而且具有很好的可扩展性。

(图6  Multi-shards和Multi-replications引擎架构)

Multi-shards:单机内存无法存储这么多的特征数据,因此特征被存储到多个节点上。对于单次查询,将从每个节点检索出的Top-K结果合并起来,得到最终的结果。

Multi-replications:单个特征数据库无法应对大量的查询流量,特征数据库被复制多份,从而将查询流量分流至不同的服务器集群上,以降低用户的平均查询时间。

在每个节点,使用两种类型的索引:粗筛选和精排序。

粗筛选采用的是一种改进的基于二值特征(CNN 特征二值化)的二值倒排索引(二值引擎的内容可以参考第7章)。以图像ID为关键字、二值特征为值,通过汉明距离计算,可以快速滤除大量不匹配数据。然后,根据返回的图像数据的二进制编码,对最近邻进行精排序。

精排序用于更精确的排序,根据附加元数据(如视觉属性和特征)对粗筛选出的候选项重新排序。

这一过程相对较慢,部分原因是元数据以非二进制形式存储,另一个原因是元数据的存储开销太大,无法将其全部载入内存中,所以缓存命中率是影响性能的关键因素。

通过粗筛选和精排序,可以达到无损精度的召回结果,并大幅提升检索效率。

2.质量感知的结果重排序

对于返回的商品列表,研究发现,即使是精准的同款结果,也不能保证它们是最能激发用户点击和购买的商品,所以最后会根据商品列表里每个商品的价格、好评度、用户画像等其他信息重排序。

考虑到最初的结果是通过表观相似度获得的同款结果,我们会进一步利用语义信息对Top-60的结果进行重新排序,包括使用销量、转化率、点击率、用户画像等。

我们利用GBDT+LR对不同维度的相关描述特征进行集成,将最终得分归一化到[0,1],这既保证了表观相似度,也保证了各维度的语义重要性。

重排序依据质量信息在保持整体表观相似性的同时,对相对质量差的图像进行精炼改善,获得更符合用户意图的商品图像。

至此,拍立淘的整个图像搜索架构的大概设计就基本介绍完了,如果你想了解更多细节,可阅读**《深度学习图像搜索与识别(全彩)》****一**书。

参考文献:

[1] Shaoqing Ren, Kaiming He, Ross B Girshick,et al. Faster R-CNN: Towards Real-Time Object Detection with Region ProposalNetworks. IEEE Transactions on Pattern Analysis and MachineIntelligence(T-PAMI), 2017:1137–1149.

[2] Wei Liu, Dragomir Anguelov, Dumitru Erhan,et al. SSD: Single Shot MultiBox Detector. In European Conference on ComputerVision (ECCV), 2016:21–37.

[3] YanhaoZhang, Pan Pan, Yun Zheng,et al. Visual Search at Alibaba. In Proceedings of the 24th InternationalConference on Knowledge Discovery and Data Mining (SIGKDD), 2018:993-1001

[4] Yushi Jing, David C Liu, Dmitry Kislyuk,et al. Visual Search at Pinterest. In Proceedings of the 21th InternationalConference on Knowledge Discovery and Data Mining (SIGKDD), 2015:1889–1898

[5] Christian Szegedy, Wei Liu, Yangqing Jia,et al. Going deeper with convolutions. In IEEE Conference on Computer Visionand Pattern Recognition(CVPR), 2015:1–9.

[6] Jiang Wang, Yang Song, Thomas Leung, etal. Learning Fine-Grained Image Similarity with Deep Ranking. In IEEEConference on Computer Vision and Pattern Recognition(CVPR), 2014:1386–1393.

[7] OlgaRussakovsky, Jia Deng, Hao Su, et al. ImageNet Large Scale VisualRecognition Challenge. (2014). arXiv:arXiv:1409.0575, 2014.

相关文章

微信公众号

最新文章

更多