Jakub Krajewski - Pretrening LLMów - jak działa i jak go poprawić? (PyData Bydgoszcz #31)

Jakub Krajewski - Pretrening LLMów - jak działa i jak go poprawić? (PyData Bydgoszcz #31)

991 Lượt nghe
Jakub Krajewski - Pretrening LLMów - jak działa i jak go poprawić? (PyData Bydgoszcz #31)
PyData Bydgoszcz spotkanie 31 czwartek 09.01.2025 Młyny Rothera (Spichrz Zbożowy, 2. piętro), Mennica 10, Bydgoszcz Jakub Krajewski Jestem doktorantem na Uniwersytecie Warszawskim, obecnie na drugim roku studiów. Zajmuję się efektywnością dużych modeli językowych. Swoje prace publikowałem na najważniejszych konferencjach w dziedzinie (NeurIPS, ICML), a ostatnio poszerzyłem doświadczenie podczas stażu w warszawskim biurze NVIDIA. "Pretrening LLMów - jak działa i jak go poprawić?" Duże modele językowe zmieniają naszą pracę, a w przyszłości ich wpływ na życie ludzi może stać się jeszcze większy. Jak więc działa trening LLMów i czy da się go poprawić, szczególnie z akademickim budżetem? Podczas mojej prezentacji opowiem trochę o aktualnych trendach i badaniach grupy llm-random na Uniwersytecie Warszawskim. PyData Bydgoszcz https://www.meetup.com/PyData-Bydgoszcz [email protected] https://facebook.com/PyDataBydgoszcz https://linkedin.com/company/pydatabydgoszcz #BydgoszczIT Nagranie sponsorowane przez firmę STX Next https://www.stxnext.com Realizacja wideo: Jacek Owczarz Jack Jack Films +48 884 391 000