BlooooooG


  • Home

  • Categories

  • Archives

  • Tags

  • Search

LeetCode Problem 2-Add Two Numbers

Posted on 2019-02-18 | In LeetCode | Visitors

给出两个 非空 的链表用来表示两个非负的整数。其中,它们各自的位数是按照 逆序 的方式存储的,并且它们的每个节点只能存储 一位 数字。

如果,我们将这两个数相加起来,则会返回一个新的链表来表示它们的和。

您可以假设除了数字 0 之外,这两个数都不会以 0 开头。

示例:

1
2
3
输入:(2 -> 4 -> 3) + (5 -> 6 -> 4)
输出:7 -> 0 -> 8
原因:342 + 465 = 807
1
2
3
4
5
# Definition for singly-linked list.
# class ListNode:
#     def __init__(self, x):
#         self.val = x
#         self.next = None
Read more »

LeetCode Problem 1-Two Sum

Posted on 2019-01-29 | In LeetCode | Visitors

给定一个整型数组和一个目标整数,返回数组中和等于目标的两个元素的下标。

Given an array of integers, return indices of the two numbers such that they add up to a specific target.

You may assume that each input would have exactly one solution, and you may not use the same element twice.

Example:

1
2
3
4
Given nums = [2, 7, 11, 15], target = 9,

Because nums[0] + nums[1] = 2 + 7 = 9,
return [0, 1].
Read more »

Production Quantization

Posted on 2018-11-29 | In Research Note | Visitors

Production Quantization(乘积量化)方法小结。

Production Quantization

目标

乘积量化的目标是对高维特征进行索引,减少特征存储消耗,同时加速检索速率。

Production Quantization

假设现在有特征向量 \(\mathbf{x} \in \mathbb{R}^d\),首先将向量划分为 \(M\) 个子向量,\(\mathbf{x} = [\mathbf{x}_1, ..., \mathbf{x}_m, ..., \mathbf{x}_M],\ \mathbf{x}_m\in \mathbb{R}^{d/M}\)。

我们的目标是建立 \(M\) 个codebook,\(C = [C_1, ..., C_m, ..., C_M]\),每个codebook由 \(k\) 个codeword 组成,即 \(C_m = [\mathbf{c}_{m1},...,\mathbf{c}_{mk}], \ \mathbf{c}_{mk} \in \mathbb{R}^{d/M}\),注意,这里的每个codeword \(\mathbf{c}_{mk}\) 与子向量 \(\mathbf{x}_m\) 的维度相同,那么,codebook是怎么建立起来的呢?

Read more »

Attention-aware Deep Adversarial Hashing for Cross-Modal Retrieval

Posted on 2018-10-11 | In Research Note | Visitors

Attention-aware Deep Adversarial Hashing for Cross-Modal Retrieval 阅读笔记。

image-20181011104959190

ECCV 2018

本文提出了一个新的深度对抗哈希方法,主要包含三个部分:

  1. 一个用来学习多模态数据的语义特征的特征学习模块;
  2. 一个用来生成自适应 attention masks 的注意力模块,该模块通过 attention masks 将特征表示分为两个部分,attended 特征和 unattended 特征;
  3. 一个用来学习多模态哈希码的哈希模块。

为了获得好的 attention masks 并产生有效的 hash 码,本文还提出了对抗检索损失和跨模态检索损失。

Read more »

Pairwise Relationship Guided Deep Hashing for Cross-Modal Retrieval

Posted on 2018-09-13 | In Research Note | Visitors

Pairwise Relationship Guided Deep Hashing for Cross-Modal Retrieval(PRDH)论文阅读笔记。

image-20180913110303751

AAAI 2017

本文提出了基于数据对关系的深度哈希方法,能同时学习每个模态的特征以及哈希码,并且将其整合到一个端到端的框架之中,还加入了模态间和模态内的基于关系对的约束,此外,本文还引入了去关联约束(decorrelation constraints),来提高每个哈希bit的辨别能力。

Read more »

Deep Visual-Semantic Hashing for Cross-Modal Retrieval

Posted on 2018-09-11 | In Research Note | Visitors

Deep Visual-Semantic Hashing for Cross-Modal Retrieval(DVSH)论文阅读笔记。

image-20180911095135825

KDD 2016

本文提出了一个深度图像语义哈希(DVSH)模型,用来为图像和句子生成哈希码。模型将对图像操作的CNN、对句子操作的RNN和一个结构化的最大间隔目标函数结合起来,同时有效地实现了多模态特征抽取和跨模态哈希表示。

Read more »

Supervised Discrete Hashing

Posted on 2018-09-09 | In Research Note | Visitors

Supervised Discrete Hashing(SDH)论文阅读笔记。

1536309561149

CVPR 2015

本文提出了一个有监督的哈希学习框架,旨在快速且高效地对二进制哈希码直接进行优化。为了利用监督标签信息,本文设计了一个分类框架进行哈希学习,即希望学到的哈希码能够获得更高的分类精度。哈希码相当于数据的特征,将源数据通过非线性转化到二值空间,然后在此空间下进行分类。

为了实现上述的框架,本文将二值特征学习和线性分类器联合起来进行优化。为了能更好的获得数据的非线性结构特征,哈希函数的学习在核空间下进行。整个的优化过程以迭代的方式进行,分为三个相互关联的子问题。

为了解决最复杂的子问题,即二值优化问题,本文提出了 discrete cyclic coordinate descent(DCC) 算法来一位一位(bit by bit)的生成哈希码。通过选择合适的分类损失函数,DCC 算法可以返回最优哈希码的闭合解,使得优化过程变得更加高效。

SDH的关键技术在于直接解决没有经过任何松弛操作的离散优化问题。首先引入了一个辅助变量,将目标函数转化成可以以正则化项的形式解决的问题;然后使用DCC算法解决二值优化问题。

Read more »

Asymmetric Deep Supervised Hashing

Posted on 2018-09-04 | In Research Note | Visitors

Asymmetric Deep Supervised Hashing(ADSH)论文阅读笔记。

1536025638322

AAAI 2018

现有的很多深度哈希方法,都是采用对称策略来学习一个深度哈希函数,该函数同时对查询点和数据库点作用,在基于对的监督学习中,这种方法训练时的存储和计算成本都很大。为了使训练更高效,很多方法只是从整个大规模数据集中采样一小部分数据进行训练,使得检索效果不够好。

本文提出了一个深度有监督的哈希方法,即非对称深度监督哈希(ADSH)。

ADSH将查询点和数据库点做非对称地处理,只为查询点学习一个深度哈希函数,而数据库点的二进制表示直接学习得到。

Read more »

Linux终端配置

Posted on 2018-09-03 | In Technical Blog | Visitors

Linux 终端的一些配置(macOS 也适用),令你的Terminal更好用,更美观。

Read more »

Dual Deep Neural Networks Cross-Modal Hashing

Posted on 2018-08-27 | In Research Note | Visitors

Dual Deep Neural Networks Cross-Modal Hashing(DDCMH)论文阅读笔记。

1535355287172

AAAI 2018

DDCMH采用两个深度神经网络分别为不同的模态生成哈希码,不同于其他的深度哈希方法,DDCMH的两个神经网络分别单独进行优化,因此,它可以避免基于数据对进行训练所带来的问题。

DDCMH训练有三个阶段,第一个阶段,DDCMH利用单模态的Hash函数为训练集中文本模态的数据生成二进制码;第二阶段,有上一阶段生成的二进制码作为监督信息来训练将图像映射成二进制表示的神经网络;第三阶段,经过重构过程对图像模态数据的二进制码进行重构(为了获得高质量的Hash码),并将重构后的二进制码作为监督信息来训练另一个单模态文本网络,使之生成比第一阶段更好的文本模态数据的Hash码。

模型可以利用任意的单模态Hash方法,这意味着DDCMH可以作为框架,扩展单模态Hash方法来进行跨模态检索。

Read more »
1 … 12 13 14
Wendell Gu

Wendell Gu

138 posts
4 categories
68 tags
GitHub
© 2021 Wendell Gu
Powered by Jekyll
Theme - NexT.Mist
Storage Service - UPYUN