Un LLM ne pourra JAMAIS faire mieux.

Un LLM ne pourra JAMAIS faire mieux.

899 Lượt nghe
Un LLM ne pourra JAMAIS faire mieux.
On va parler de la scalling law qui limite les modèles de LLM (Large Language Models). Mais aussi de GPU, de vraisemblance, de loss, et surtout de cette frontière qu’on pensait infranchissable… jusqu’à l’apparition de comportements émergents ! Que faut-il vraiment pour faire progresser l’intelligence artificielle ? Est-ce la puissance brute, la finesse des données, ou la manière dont on lui parle ? On explore tout ça avec clarté, exemples concrets et même un peu de maths (promis, c’est abordable). 🚀 💡 ------------ Chapitrage : 0:00 L’ordi Brûle 0:22 1 Peta quoi ? 1:14 DJ et Scaling Law 2:24 L’hydre à 3 têtes 3:21 Autorégre-quoi ? 4:19 Cross-Entropy 4:59 LLM une intuition 5:43 Emergence 6:28 AI trainning 7:06 Scaling Law round 2 7:44 Emergence round 2 9:12 Des math pour comprendre la cross-entropy ------------ Musiques : Music track: 1984 by Zambolino Source: https://freetouse.com/music Music track: River by Lukrembo Source: https://freetouse.com/music Music track: Night Drive by Walen Source: https://freetouse.com/music Music track: City Lights by Aylex Source: https://freetouse.com/music Music track: Jay by Lukrembo Source: https://freetouse.com/music Music track: Home by Lukrembo Source: https://freetouse.com/music Music track: Message by Chill Pulse Source: https://freetouse.com/music