On va parler de la scalling law qui limite les modèles de LLM (Large Language Models). Mais aussi de GPU, de vraisemblance, de loss, et surtout de cette frontière qu’on pensait infranchissable… jusqu’à l’apparition de comportements émergents !
Que faut-il vraiment pour faire progresser l’intelligence artificielle ? Est-ce la puissance brute, la finesse des données, ou la manière dont on lui parle ? On explore tout ça avec clarté, exemples concrets et même un peu de maths (promis, c’est abordable). 🚀 💡
------------
Chapitrage :
0:00 L’ordi Brûle
0:22 1 Peta quoi ?
1:14 DJ et Scaling Law
2:24 L’hydre à 3 têtes
3:21 Autorégre-quoi ?
4:19 Cross-Entropy
4:59 LLM une intuition
5:43 Emergence
6:28 AI trainning
7:06 Scaling Law round 2
7:44 Emergence round 2
9:12 Des math pour comprendre la cross-entropy
------------
Musiques :
Music track: 1984 by Zambolino
Source: https://freetouse.com/music
Music track: River by Lukrembo
Source: https://freetouse.com/music
Music track: Night Drive by Walen
Source: https://freetouse.com/music
Music track: City Lights by Aylex
Source: https://freetouse.com/music
Music track: Jay by Lukrembo
Source: https://freetouse.com/music
Music track: Home by Lukrembo
Source: https://freetouse.com/music
Music track: Message by Chill Pulse
Source: https://freetouse.com/music