CPT中文预训练模型:理解和生成

摘要:
微调任务

CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation

复旦大学,邱锡鹏老师团队

CPT中文预训练模型:理解和生成第1张
使用不平衡的Transformer编码器解码器架构,用MLM和DAE联合预训练,均可用于NLU和NLG。

CPT: a novel Chinese Pre-trained Unbalanced Transformer for both NLU and NLG tasks.

CPT中文预训练模型:理解和生成第2张

BERT、RoBERTa、ZEN、NEZHA、ERNIE-1.0/2.0可以文本理解,但是不能文本生成;
PanGu-α、CPM、CPM-2、BART可以文本生成,但是不能文本理解;
CPT既可以文本理解,又可以文本生成。

微调的任务
CPT中文预训练模型:理解和生成第3张

免责声明:文章转载自《CPT中文预训练模型:理解和生成》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇GRUB配置与应用,启动故障分析解决centos 64位系统如何使用XAMPP?下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章