发布于2019-08-17 21:39 阅读(2227) 评论(0) 点赞(1) 收藏(1)
keras框架为我们提供了一些常用的内置数据集。比如,图像识别领域的手写识别MNIST数据集、文本分类领域的电影影评imdb数据集等等。这些数据库可以用一条代码就可以调用:
- from keras.datasets import mnist
- from keras.datasets import imdb
-
- (x_train, y_train), (x_test, y_test) = mnist.load_data()
- (x_train, y_train), (x_test, y_test) = imdb.load_data()
-
- //load_data方法的源码如下
- path = get_file(path,
- origin='https://s3.amazonaws.com/text-datasets/imdb.npz',
- file_hash='599dadb1135973df5b59232a0e9a887c')
- with np.load(path) as f:
- x_train, labels_train = f['x_train'], f['y_train']
- x_test, labels_test = f['x_test'], f['y_test']
这些数据集是通过 url = https://s3.amazonaws.com进行下载的,但是目前这个网站不能用了,这些数据也使用不了。我们可以通过另一种方式去使用:先下载到本地,在本地调用就好。
keras数据集分享百度云:https://pan.baidu.com/s/1aZRp0uMkNj2QEWYstaNsKQ
提取码: 3a2u
还用很多其他数据集如图:
数据集相关介绍可参考(转载):https://blog.csdn.net/qq_37879432/article/details/78557234
下载后放在C:\Users\Administrator\.keras\datasets文件夹下
- //keras会自动找到数据集/.keras/dataset在这个路径下
- def load_data(path='imdb.npz', num_words=None, skip_top=0,
- maxlen=None, seed=113,
- start_char=1, oov_char=2, index_from=3, **kwargs):
- """Loads the IMDB dataset.
- # Arguments
- path: where to cache the data (relative to `~/.keras/dataset`).
- num_words: max number of words to include. Words are ranked
- by how often they occur (in the training set) and only
- the most frequent words are kept
结束。
作者:对不起你是个好人
链接:https://www.pythonheidong.com/blog/article/48487/8b1951cc71bdcc1adcd0/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!