Instytut Podstawowych Problemów Techniki
Polskiej Akademii Nauk

Partnerzy

T. Odrzygoźdź


Prace konferencyjne
1.  Ludziejewski J., Krajewski J., Adamczewski K., Pióro M., Krutul M., Antoniak S., Ciebiera K., Król K., Odrzygoźdź T., Sankowski P., Cygan M., Jaszczur S., Scaling Laws for Fine-Grained Mixture of Experts, ICML, The Forty-First International Conference on Machine Learning, 2024-07-21/07-27, Wiedeń (AT), pp.33270-33288, 2024

Streszczenie:
Mixture of Experts (MoE) models have emerged as a primary solution for reducing the computational cost of Large Language Models. In this work, we analyze their scaling properties, highlighting certain arbitrary assumptions present in the existing literature. In particular, we introduce a new hyperparameter, granularity, the modification of which allows for the optimal adjustment of the size of experts. Subsequently, we present scaling laws for fine-grained MoE, taking into account the number of training tokens, model size, and granularity. Using these scaling laws, we derive the optimal training configuration for a given computational budget. Furthermore, in contrast with previous works, we demonstrate that the gap in efficiency between dense and MoE models grows as we scale up the model size and training budget.

Afiliacje autorów:
Ludziejewski J. - inna afiliacja
Krajewski J. - inna afiliacja
Adamczewski K. - inna afiliacja
Pióro M. - IPPT PAN
Krutul M. - inna afiliacja
Antoniak S. - inna afiliacja
Ciebiera K. - inna afiliacja
Król K. - inna afiliacja
Odrzygoźdź T. - inna afiliacja
Sankowski P. - inna afiliacja
Cygan M. - inna afiliacja
Jaszczur S. - inna afiliacja

Kategoria A Plus

IPPT PAN

logo ippt            ul. Pawińskiego 5B, 02-106 Warszawa
  +48 22 826 12 81 (centrala)
  +48 22 826 98 15
 

Znajdź nas

mapka
© Instytut Podstawowych Problemów Techniki Polskiej Akademii Nauk 2024