Răsfoiți Sursa

Add configs for smaller models

duzx16 2 ani în urmă
părinte
comite
61a6dfcb0d
2 a modificat fișierele cu 26 adăugiri și 0 ștergeri
  1. 13 0
      configs/model_glm_2b.sh
  2. 13 0
      configs/model_glm_roberta_large.sh

+ 13 - 0
configs/model_glm_2b.sh

@@ -0,0 +1,13 @@
+MODEL_TYPE="glm-2b"
+CHECKPOINT_PATH="/zhangpai21/checkpoints/glm-2b-sat"
+MP_SIZE=1
+MODEL_ARGS="--model-parallel-size ${MP_SIZE} \
+            --vocab 50304 \
+            --num-layers 36 \
+            --hidden-size 2048 \
+            --num-attention-heads 32 \
+            --max-sequence-length 1025 \
+            --tokenizer-type glm_GPT2BPETokenizer \
+            --tokenizer-model-type gpt2 \
+            --task-mask \
+            --load ${CHECKPOINT_PATH}"

+ 13 - 0
configs/model_glm_roberta_large.sh

@@ -0,0 +1,13 @@
+MODEL_TYPE="glm-roberta-large"
+CHECKPOINT_PATH="/zhangpai21/checkpoints/glm-large-en-blank"
+MP_SIZE=1
+MODEL_ARGS="--model-parallel-size ${MP_SIZE} \
+            --vocab 50304 \
+            --num-layers 24 \
+            --hidden-size 1024 \
+            --num-attention-heads 16 \
+            --max-sequence-length 513 \
+            --tokenizer-type glm_GPT2BPETokenizer \
+            --tokenizer-model-type roberta \
+            --task-mask \
+            --load ${CHECKPOINT_PATH}"