DeepSeek-R1 est un modèle d'intelligence artificielle avancé développé par la start-up chinoise DeepSeek, spécialisée dans le raisonnement complexe. Conçu pour exceller dans des domaines tels que les mathématiques, le codage et le traitement du langage naturel, il s'appuie sur une architecture innovante combinant un mélange d'experts (Mixture of Experts, MoE) et des techniques d'apprentissage par renforcement à grande échelle.
BioGPT est un modèle de langage développé par Microsoft, spécialement conçu pour le domaine biomédical. Basé sur l'architecture Transformer, il a été pré-entraîné sur un vaste corpus de littérature biomédicale, comprenant environ 15 millions de titres et résumés d'articles PubMed.
Mistral Small 3.1 est un modèle de langage développé par Mistral AI, comprenant 24 milliards de paramètres. Conçu pour être polyvalent, il excelle dans diverses tâches d'intelligence artificielle générative, notamment le suivi d'instructions, l'assistance conversationnelle, la compréhension d'images et l'appel de fonctions.
FLUX.1 Dev est un modèle d'intelligence artificielle développé par Black Forest Labs, conçu pour transformer des descriptions textuelles en images de haute qualité. Doté de 12 milliards de paramètres, il appartient à la série FLUX et se distingue par son architecture de transformateur de flux rectifié.
Open-Sora-v2 est un modèle avancé de génération vidéo développé par hpcai-tech, successeur de la version précédente Open-Sora 1.2. Cette version améliore significativement les performances, réduisant l'écart avec des modèles de pointe tels que Sora d'OpenAI, HunyuanVideo 11B et Step-Video 30B. Selon les évaluations sur VBench, Open-Sora 2.0 atteint une performance proche de celle de Sora, avec une réduction de l'écart de 4,52 % à 0,69 % par rapport à Open-Sora 1.2
Wan2.1-T2V-14B est un modèle d'intelligence artificielle développé par Wan-AI, spécialisé dans la génération vidéo à partir de texte. Doté de 14 milliards de paramètres, il offre des performances de pointe tout en étant optimisé pour fonctionner sur des GPU grand public avec seulement 8,19 Go de VRAM.