BERT (Q61726893)
Aller à la navigation
Aller à la recherche
méthode de pré entraînement des algorithmes de traitement automatique du langage naturel
- Bidirectional Encoder Representations from Transformers
- BERT (traitement automatique du langage)
Langue | Libellé | Description | Également connu comme |
---|---|---|---|
français | BERT |
méthode de pré entraînement des algorithmes de traitement automatique du langage naturel |
|
anglais | Bidirectional Encoder Representations from Transformer |
deep learning artificial neural network language model |
|
Déclarations
1 référence
Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing (anglais)
16 mars 2023
1 référence
Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing (anglais)
31 juillet 2022
1 référence
Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing (anglais)
31 juillet 2022
2018
0 référence
1 référence
Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing (anglais)
31 juillet 2022
110 000 000 paramètre
0 référence
340 000 000 paramètre
0 référence
1 référence
0 référence
BERT
0 référence
Identifiants
Liens de site
Wikipédia(17 entrées)
- cawiki BERT (model de llenguatge)
- cswiki BERT
- enwiki BERT (language model)
- eswiki BERT (modelo de lenguaje)
- euwiki BERT (hizkuntz eredua)
- fawiki برت (مدل زبانی)
- frwiki BERT (modèle de langage)
- hiwiki बर्ट (भाषा मॉडल)
- itwiki BERT
- jawiki BERT (言語モデル)
- kowiki BERT (언어 모델)
- ltwiki BERT
- ptwiki BERT (modelo de linguagem)
- ukwiki BERT (модель мови)
- viwiki BERT (mô hình ngôn ngữ)
- zh_yuewiki BERT
- zhwiki BERT
Wikilivres(0 entrée)
Wikinews(1 entrée)
- ruwikinews Категория:BERT (языковая модель)
Wikiquote(0 entrée)
Wikisource(0 entrée)
Wikiversité(0 entrée)
Wikivoyage(0 entrée)
Wiktionnaire(0 entrée)
Autres sites(1 entrée)
- commonswiki Category:BERT