La version Llama-3 70B est bluffante ! Je viens de faire quelques tests, voici mes premières impressions.
L’IA Llama-3 (le LLM open source de Meta) a été lancée fin de semaine dernière.
Il est important de comprendre que Llama-3 est un modèle de langage open source qui utilise des paramètres pour générer des réponses.
La version 8B est plus légère, avec 8 milliards de paramètres, tandis que la version 70B est plus puissante, avec 70 milliards de paramètres.
J’ai créé un persona, un profil fictif représentatif d’un segment de clients ou d’utilisateurs typiques, et j’ai demandé à l’IA de jouer ce persona.
J’ai ensuite dialogué longuement avec le persona pour évaluer les performances des deux versions du modèle.
Sur la 8B, les premières impressions sont très bonnes et les résultats obtenus sont comparables à ceux obtenus avec ChatGPT 3.5. Des réponses correctes, mais plutôt stéréotypées.
Ensuite, je suis passé sur la version 70B, et là, waouh ! J’avais l’impression d’échanger avec une « vraie » personne. L’échange était plus fourni, les réponses plus étoffées, avec un vocabulaire plus riche et un ton plus proche de la réalité. Il y a une vraie différence avec ChatGPT-4, que j’ai trouvé moins bon sur cet exercice.
Meta prépare Une version à 400 milliards de paramètres qui pourrait rivaliser avec ChatGPT-5.
Avec ces nouvelles versions de LLM, nous allons clairement monter d’un cran dans le réalisme et les interactions de meilleure qualité.