仅显示平台推荐
AVID
${starItems[0]}

AViD数据集:来自不同国家的匿名视频,AViD是一个大型视频数据集,包含467k个视频和887个动作类。所收集的视频具有知识共享许可证。 https://github.com/piergiaj/AViD

2020-10-27 1 4
CIFAR-100
${starItems[1]}

该数据集有100个类别,每个类别包含600张图像。 每个课程有500张训练图像和100张测试图像, CIFAR-100中的100个类别分为20个超类。 https://www.cs.toronto.edu/~kriz/cifar.html

2020-11-02 0 15
LargeMovieReviewDataset
${starItems[2]}

用于二进制情感分类的数据集,提供了25,000张极地电影评论供培训,25,000张用于测试也有其他未标记的数据可供使用。 http://ai.stanford.edu/~amaas/data/sentiment/

2020-11-02 0 2
SVHNStreetViewHouseNumbers
${starItems[3]}

SVHN是一个现实世界的图像数据集,用于开发机器学习和对象识别算法,超过600,000位数的图像。SVHN是从Google街景图像中的门牌号获得的。http://ufldl.stanford.edu/housenumbers/

2020-11-09 0 0
TheGermanTrafficSignRecognitionBenchmark
${starItems[4]}

德国交通标志基准测试是在IJCNN 2011上举行的多类,单图像分类挑战。数据集包含:40多个类,总共50,000多张图像。http://benchmark.ini.rub.de/?section=gtsrb

2020-11-09 384 4
StanfordSentimentTreebank
${starItems[5]}

用于情感分析的数据集,其中包含11855个句子的语法分析树中215154个短语的细粒度情感标签,并为情感组成提出了新挑战。https://nlp.stanford.edu/sentiment/code.html

2020-11-09 113 2
BillionWords
${starItems[6]}

该项目的目的是为语言建模实验提供标准的培训和测试设置,包含10亿字。http://www.statmt.org/lm-benchmark/

2020-11-09 0 4
Paris500k
${starItems[7]}

Paris500k数据集包含从Flickr和Panoramio收集的501,356个带有地理标签的图像。 数据集是从地理边界框而不是使用关键字查询收集的。 https://www.vision.rwth-aachen.de/page/paris500k

2020-11-09 0 3
StanfordCars
${starItems[8]}

斯坦福汽车数据集包含196类汽车的16,185张图像。数据被分为8,144个训练图像和8,041个测试图像,其中每个类别已大致分为50-50个分割。 https://ai.stanford.edu/~jkrause/cars/car_dataset.html

2020-11-09 0 13
COCO
${starItems[9]}

COCO是大规模的对象检测,分割和字幕数据集。 它包含:330K图像(标为> 200K),150万个对象实例,80个对象类别。https://cocodataset.org/

2020-11-09 55 75
mirror
${starItems[10]}

本页面建立了SpikingJelly中集成的部分数据集的下载镜像。 只有原始数据集所使用的协议允许分发,或原始数据集作者已经同意分发的数据集才会被建立镜像。

2020-11-09 8 148
SNLI
${starItems[11]}

SNLI语料库(1.0版)是一组570k人工编写的英语句子对的集合,这些句子对经过手动标记以实现平衡分类,带有包含,矛盾和中立的标签,支持NLI(RTE)。https://nlp.stanford.edu/projects/snli/

2020-11-09 0 0
CIFAR-10
${starItems[12]}

CIFAR-10数据集包含10个类别的60000个32x32彩色图像,每个类别6000个图像。 有50000张训练图像和10000张测试图像。http://www.cs.toronto.edu/~kriz/cifar.html?usg=alkjrhjqbhw2llxlo8emqns-tbk0at96jq

2020-11-09 0 23
GoEmotions
${starItems[13]}

情感类别包括钦佩、娱乐、愤怒、烦恼、赞同、关心、困惑、好奇、渴望、失望、不赞成、厌恶、尴尬、兴奋、恐惧、感激、悲伤、喜悦、爱、紧张、乐观、骄傲、实现、解脱、悔恨、悲伤、惊

2020-11-18 0 6
BIMCV-COVID19
${starItems[14]}

BIMCV-COVID19+:COVID19患者RX和CT图像的大注释数据集。数据库的第一次迭代包括1380个CX,885个DX和163个CT研究。

2020-11-18 2056 4
MSeg
${starItems[15]}

MSeg:一个用于多域语义分割的复合数据集。80000多张图片中有超过220000个物体任务。

2020-11-18 10 3
VIOLIN
${starItems[16]}

VIOLIN(视频和语言推理),由来自15887个视频片段的95322个视频假设对组成,跨越582个小时的视频(YouTube和电视节目)。

2020-11-18 2 0
TAO
${starItems[17]}

TAO是一个用于跟踪任何对象的联邦数据集,包含2907个高分辨率视频,在不同的环境中捕获,这些视频的平均长度为半分钟。

2020-11-18 0 1
Condensed_Movies
${starItems[18]}

一个大规模的视频数据集,包含有详细字幕的电影片段。超过3000部不同类型、不同国家和不同年代的电影。

2020-11-18 0 1
VGG-Sound
${starItems[19]}

vggi - sound是一个视听对应的数据集,由从上传到YouTube的视频中提取的音频片段组成

2020-11-18 0 0
RISE_Video_Dataset
${starItems[20]}

介绍了RISE,第一个用于识别工业烟雾排放的大规模视频数据集。我们的数据集包含12,567个剪辑,其中19个不同的视角来自三个监控三个不同工业设施的站点。

2020-11-19 0 0
SciTLDR
${starItems[21]}

在“OpenReview”出版平台上,有将近4000名tldr撰写的关于人工智能研究论文。对于每篇论文,SciTLDR包含至少两个高质量的tldr。

2020-11-19 8 0
IMDB-WIKI_faces
${starItems[22]}

来自IMDb的20,284名名人和Wikipedia的62,328名名人共460,723张人脸图像,因此总计523,051张。 https://data.vision.ee.ethz.ch/cvl/rrothe/imdb-wiki/

2020-11-24 0 2
a111
${starItems[23]}

2020-11-24 7 0
VisualGenome
${starItems[24]}

视觉基因组是一个数据集,一个知识库,将结构化图像概念与语言联系在一起的持续努力。 它包含:108,077张图像540万个区域描述170万个视觉问题解答380万个对象实例。 http://visualgenome.org/

2020-11-30 0 2
Cityscapes
${starItems[25]}

大型数据集,其中包含来自50个不同城市的街道场景中记录的各种立体声视频序列集,此外,还有较大的20000个弱注释帧集以及5000个帧的高质量像素级注释。 https://www.cityscapes-dataset.com/

2020-11-30 16 26
Test_Openl
${starItems[26]}

2020-12-01 241 1
cccccc
${starItems[27]}

2020-12-01 0 3
SOT_datasets
${starItems[28]}

常用单目标跟踪数据集

2020-12-04 12 13
ACTIVITYNET
${starItems[29]}

ActivityNet是用于了解人类活动的新的大型视频基准。 ActivityNet提供203个活动类别的样本,每个类别平均137个未修整视频,每个影片1.41个活动实例,总共849个视频小时。 http://activity-net.org/

2020-12-07 0 1