DBRX

DBRX
ilustracja
Autor Databrics
Pierwsze wydanie 2024-03-27 27 marca 2024(dts)
Rodzaj Duży model językowy
Licencja Databricks Open License
Strona internetowa

DBRX – otwarty duży model językowy opracowany przez firmę Databricks i wydany 27 marca 2024[1][2][3]. Jest to model transformatora z architekturą mieszanki ekspertów, zawierający łącznie 132 miliardy parametrów. Dla każdego tokena aktywnych jest 36 miliardów parametrów (4 z 16 ekspertów)[4]. Wydany model jest dostępny w wersji bazowej lub w wersji dostrojonej do instrukcji.

W momencie wydania DBRX przewyższył inne znane modele open source, takie jak LLaMA 2 firmy Meta, Mixtral firmy Mistral AI i Grok firmy xAI, w kilku testach porównawczych, począwszy od rozumienia języka, umiejętności programowania i matematyki[5][6][7].

Szkolenie trwało 2,5 miesiąca[6] na 3072 kartach Nvidia H100 połączonych przepustowością 3,2 TB/s przez InfiniBand, a koszt szkolenia wyniósł 10 mln USD[1].

Przypisy

  1. 1 2 Introducing DBRX: A New State-of-the-Art Open LLM [online], Databricks, 27 marca 2024 [dostęp 2025-04-18] (ang.).
  2. New Databricks open source LLM targets custom development | TechTarget [online], Search Business Analytics [dostęp 2025-04-18] (ang.).
  3. Databricks’ open-source DBRX LLM beats Llama 2, Mixtral, and Grok [online], InfoWorld [dostęp 2025-04-18] (ang.).
  4. Anubhav, A New Open Source LLM, DBRX Claims to be the Most Powerful - Here are the Scores [online], Gizmochina, 28 marca 2024 [dostęp 2025-04-18] (ang.).
  5. Anubhav, A New Open Source LLM, DBRX Claims to be the Most Powerful - Here are the Scores [online], Gizmochina, 28 marca 2024 [dostęp 2025-04-18] (ang.).
  6. 1 2 Will Knight, Inside the Creation of the World’s Most Powerful Open Source AI Model, „Wired”, ISSN 1059-1028 [dostęp 2025-04-18] (ang.).
  7. Data and AI company DataBrix has launched a general-purpose large language model (LLM) DBRX that out.. - MK [online], 매일경제, 28 marca 2024 [dostęp 2025-04-18] (ang.).