diff --git "a/01.\345\244\247\350\257\255\350\250\200\346\250\241\345\236\213\345\237\272\347\241\200/1.llm\346\246\202\345\277\265/1.llm\346\246\202\345\277\265.md" "b/01.\345\244\247\350\257\255\350\250\200\346\250\241\345\236\213\345\237\272\347\241\200/1.llm\346\246\202\345\277\265/1.llm\346\246\202\345\277\265.md" index 47a77f2..b30c72e 100644 --- "a/01.\345\244\247\350\257\255\350\250\200\346\250\241\345\236\213\345\237\272\347\241\200/1.llm\346\246\202\345\277\265/1.llm\346\246\202\345\277\265.md" +++ "b/01.\345\244\247\350\257\255\350\250\200\346\250\241\345\236\213\345\237\272\347\241\200/1.llm\346\246\202\345\277\265/1.llm\346\246\202\345\277\265.md" @@ -29,7 +29,7 @@ Prefix LM其实是Encoder-Decoder模型的变体,为什么这样说?解释 下面的图很形象地解释了Prefix LM的Attention Mask机制(左)及流转过程(右)。 -Prefix LM的代表模型有UniLM、T5、GLM(清华滴\~) +Prefix LM的代表模型有UniLM、GLM #### 2.2 Causal LM