程序员最近都爱上了这个网站  程序员们快来瞅瞅吧!  it98k网:it98k.com

本站消息

站长简介/公众号

  出租广告位,需要合作请联系站长

+关注
已关注

分类  

暂无分类

标签  

暂无标签

日期归档  

2023-06(6)

Keras的imdb和MNIST数据集无法下载问题解决

发布于2019-08-17 21:39     阅读(2227)     评论(0)     点赞(1)     收藏(1)


      keras框架为我们提供了一些常用的内置数据集。比如,图像识别领域的手写识别MNIST数据集、文本分类领域的电影影评imdb数据集等等。这些数据库可以用一条代码就可以调用:

  1. from keras.datasets import mnist
  2. from keras.datasets import imdb
  3. (x_train, y_train), (x_test, y_test) = mnist.load_data()
  4. (x_train, y_train), (x_test, y_test) = imdb.load_data()
  5. //load_data方法的源码如下
  6. path = get_file(path,
  7. origin='https://s3.amazonaws.com/text-datasets/imdb.npz',
  8. file_hash='599dadb1135973df5b59232a0e9a887c')
  9. with np.load(path) as f:
  10. x_train, labels_train = f['x_train'], f['y_train']
  11. x_test, labels_test = f['x_test'], f['y_test']

          这些数据集是通过 url = https://s3.amazonaws.com进行下载的,但是目前这个网站不能用了,这些数据也使用不了。我们可以通过另一种方式去使用:先下载到本地,在本地调用就好。

keras数据集分享百度云:https://pan.baidu.com/s/1aZRp0uMkNj2QEWYstaNsKQ

提取码: 3a2u 

还用很多其他数据集如图:

数据集相关介绍可参考(转载):https://blog.csdn.net/qq_37879432/article/details/78557234

下载后放在C:\Users\Administrator\.keras\datasets文件夹下

  1. //keras会自动找到数据集/.keras/dataset在这个路径下
  2. def load_data(path='imdb.npz', num_words=None, skip_top=0,
  3. maxlen=None, seed=113,
  4. start_char=1, oov_char=2, index_from=3, **kwargs):
  5. """Loads the IMDB dataset.
  6. # Arguments
  7. path: where to cache the data (relative to `~/.keras/dataset`).
  8. num_words: max number of words to include. Words are ranked
  9. by how often they occur (in the training set) and only
  10. the most frequent words are kept

结束。

 

 

 

 



所属网站分类: 技术文章 > 博客

作者:对不起你是个好人

链接:https://www.pythonheidong.com/blog/article/48487/8b1951cc71bdcc1adcd0/

来源:python黑洞网

任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任

1 0
收藏该文
已收藏

评论内容:(最多支持255个字符)