GPT-3

right|thumb|Architecture du modèle GPT

GPT-3 (sigle de Generative Pre-trained Transformer 3) est un modèle de langage, de type transformeur génératif pré-entraîné, développé par la société OpenAI, annoncé le 28 mai 2020, ouvert aux utilisateurs via l'API d'OpenAI en juillet 2020.

Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres. GPT-2, sorti en 2019, n'avait que 1,5 milliard de paramètres.

OpenAI ouvre une version bêta en juillet 2020 avec l'intention d'en faire un produit commercial.

En mars 2022, OpenAI a sorti de nouvelles versions de GPT-3 (« text-davinci-002 » et « code-davinci-002 »). En novembre 2022, OpenAI a commencé à faire référence à ces modèles comme faisant partie de la série « GPT-3.5 », et en a intégré une version ajustée dans ChatGPT.

En , OpenAI annonce le lancement de son successeur, GPT-4. GPT-3 et GPT-4 sont à la base de chatGPT, un robot conversationnel commercialisé par OpenAI. Informations fournies par Wikipedia
Résultat(s) 1 - 1 résultats de 1 pour la requête 'GPT-3 .', Temps de recherche: 0,02s Affiner les résultats
  1. 1