论文笔记 | Less is More:CLIP BERT for Video-and-Language Learning via Sparse Sampling Posted on 2021-11-09 Edited on 2021-11-26 In Papers Disqus: Symbols count in article: 225 Reading time ≈ 1 mins.论文《Less is More: CLIP BERT for Video-and-Language Learning via Sparse Sampling》笔记背景和问题概述和总结针对task之间没有联系,以及多模特征之间没有联系的问题用采样的方式,降低复杂度,然后对特征进行finetune,以前都是固定的用预训练的权重提升性能,并且用2D的结构(也能降低计算量)就是用的ResNet50。后续训练会对权重做finetune模型和方法形式化表示模型结构初始化实验结果