wiki.zh.bin
Wiki中文语料2020年版,经过opencc繁简转换,jieba分词,训练出的词向量模型,维度为20。。。。。。。。。。。。。。
Wiki中文语料2020年版,经过opencc繁简转换,jieba分词,训练出的词向量模型,维度为20。。。。。。。。。。。。。。
为所有只能源码安装fasttext的小伙伴。 Fasttext最大的特点是模型简单,只有一层的隐层以及输出层,因此训练速度非常快,在普通的CPU上可以实现分钟级别的训练,比深度模型的训练要快几个数量级。
从https://s3.amazonaws.com/img-datasets/mnist.pkl.gz 下载的,直接放置于..\envs\tf\Lib\site-packages\keras\datasets目录下即可
本资源可以接受中文的表内容(如果编码格式报错,在导入的部分修改编码格式gbk或者utf8即可),可以任意抽取原csv文件的多个列数据,重新制表生成新的csv文件。
本资源与另一个json转csv文件是配套的,可以互相转换,顺便附上符合转换规格的json文件。 如果需要csv文件的列提取重新制表功能,移步本人另一个csv文件列提取制表资源