
阿升
V1
2023/02/12阅读:61主题:默认主题
中文的GPT2训练代码GPT2-Chinese
中文的GPT2训练代码,使用BERT的Tokenizer或Sentencepiece的BPE model。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式或是BPE模式(需要略微修改train.py的代码)。支持大语料训练。
1.GPT2-Chinese GitHub
2.项目状态、使用方法和文件结构
3.注意事项和语料
4.模型分享、Demo和生成样例
参考文献:
[1]GPT2-Chinese:https://github.com/Morizeyao/GPT2-Chinese
作者介绍

阿升
V1
吾爱DotNet(公众号)