Commit Verlauf

Autor SHA1 Nachricht Datum
  Guillaume Wenzek 1756897d23 simplify _finalize_hypothesis vor 1 Jahr
  Guillaume Wenzek f49763de86 fix beam size and scores vor 1 Jahr
  Guillaume Wenzek c28db8c8ac wip beam-size=2 vor 1 Jahr
  Guillaume Wenzek b24dbe3030 batching -> TransformerEmbeddingFrontend_forward vor 1 Jahr
  Guillaume Wenzek 86993cbd00 fix StandardTransformerEncoder vor 1 Jahr
  Guillaume Wenzek 28ed039370 fix MultiheadAttention_forward vor 1 Jahr
  Guillaume Wenzek 81cdf80eb9 WIP: MultiheadAttention_forward vor 1 Jahr
  Guillaume Wenzek eb80195345 use ggml_diag_mask_inf vor 1 Jahr
  Guillaume Wenzek 88b0690a72 split tests files vor 1 Jahr
  Guillaume Wenzek bfbafd9603 fix generation with beam_size=1 vor 1 Jahr
  Guillaume Wenzek 45f986055a add naive tweaking of lprobs vor 1 Jahr
  Guillaume Wenzek 7c9b2a1b95 pass correct prefix sequence in test vor 1 Jahr
  Guillaume Wenzek c7b89f32f4 disable flash attn because of cross attention vor 1 Jahr
  Guillaume Wenzek dcb9535666 wip: generate_sequence vor 1 Jahr
  Guillaume Wenzek 78e7c9a311 fix TransformerEmbeddingFrontend vor 1 Jahr
  Guillaume Wenzek 2238cea072 SinusoidalPositionEncoder + WIP: TransformerEmbeddingFrontend vor 1 Jahr
  Guillaume Wenzek 2fb09f34fb generate fairseq2.cpp vor 1 Jahr
  Guillaume Wenzek f1f33dbec1 has_layer + transformer decoder vor 1 Jahr
  Guillaume Wenzek e1faba0c5d text encoder vor 1 Jahr
  Guillaume Wenzek b81061704c StandardTransformerEncoderLayer_forward vor 1 Jahr
  Guillaume Wenzek e7c3b7a4ba allow flash attn vor 1 Jahr
  Guillaume Wenzek b07a08102a MultiheadAttention_forward vor 1 Jahr
  Guillaume Wenzek be236b8584 remove size/init functions vor 1 Jahr
  Guillaume Wenzek fa85f05545 test flash_attn vor 1 Jahr
  Guillaume Wenzek 06d4ed1475 ggml.ne != np.shape vor 1 Jahr
  Guillaume Wenzek c2e6384e29 nb vor 1 Jahr
  Guillaume Wenzek 3f5912b973 forward vor 1 Jahr
  Guillaume Wenzek 772f90dfdc load_fairseq2_ggml_file vor 1 Jahr
  Guillaume Wenzek 506dee42d8 move layers to fairseq2.cpp vor 1 Jahr