阿升

V1

2023/02/12阅读:61主题:默认主题

中文的GPT2训练代码GPT2-Chinese

  中文的GPT2训练代码,使用BERT的Tokenizer或Sentencepiece的BPE model。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式或是BPE模式(需要略微修改train.py的代码)。支持大语料训练。

1.GPT2-Chinese GitHub

2.项目状态、使用方法和文件结构

3.注意事项和语料

4.模型分享、Demo和生成样例

参考文献:
[1]GPT2-Chinese:https://github.com/Morizeyao/GPT2-Chinese

分类:

人工智能

标签:

自然语言处理

作者介绍

阿升
V1

吾爱DotNet(公众号)