Commit History

Autor SHA1 Mensaxe Data
  Guillaume Wenzek 1756897d23 simplify _finalize_hypothesis hai 1 ano
  Guillaume Wenzek f49763de86 fix beam size and scores hai 1 ano
  Guillaume Wenzek c28db8c8ac wip beam-size=2 hai 1 ano
  Guillaume Wenzek b24dbe3030 batching -> TransformerEmbeddingFrontend_forward hai 1 ano
  Guillaume Wenzek 86993cbd00 fix StandardTransformerEncoder hai 1 ano
  Guillaume Wenzek 28ed039370 fix MultiheadAttention_forward hai 1 ano
  Guillaume Wenzek 81cdf80eb9 WIP: MultiheadAttention_forward hai 1 ano
  Guillaume Wenzek eb80195345 use ggml_diag_mask_inf hai 1 ano
  Guillaume Wenzek 88b0690a72 split tests files hai 1 ano
  Guillaume Wenzek bfbafd9603 fix generation with beam_size=1 hai 1 ano
  Guillaume Wenzek 45f986055a add naive tweaking of lprobs hai 1 ano
  Guillaume Wenzek 7c9b2a1b95 pass correct prefix sequence in test hai 1 ano
  Guillaume Wenzek c7b89f32f4 disable flash attn because of cross attention hai 1 ano
  Guillaume Wenzek dcb9535666 wip: generate_sequence hai 1 ano
  Guillaume Wenzek 78e7c9a311 fix TransformerEmbeddingFrontend hai 1 ano
  Guillaume Wenzek 2238cea072 SinusoidalPositionEncoder + WIP: TransformerEmbeddingFrontend hai 1 ano
  Guillaume Wenzek 2fb09f34fb generate fairseq2.cpp hai 1 ano
  Guillaume Wenzek f1f33dbec1 has_layer + transformer decoder hai 1 ano
  Guillaume Wenzek e1faba0c5d text encoder hai 1 ano
  Guillaume Wenzek b81061704c StandardTransformerEncoderLayer_forward hai 1 ano
  Guillaume Wenzek e7c3b7a4ba allow flash attn hai 1 ano
  Guillaume Wenzek b07a08102a MultiheadAttention_forward hai 1 ano
  Guillaume Wenzek be236b8584 remove size/init functions hai 1 ano
  Guillaume Wenzek fa85f05545 test flash_attn hai 1 ano
  Guillaume Wenzek 06d4ed1475 ggml.ne != np.shape hai 1 ano
  Guillaume Wenzek c2e6384e29 nb hai 1 ano
  Guillaume Wenzek 3f5912b973 forward hai 1 ano
  Guillaume Wenzek 772f90dfdc load_fairseq2_ggml_file hai 1 ano
  Guillaume Wenzek 506dee42d8 move layers to fairseq2.cpp hai 1 ano