AI

 0    9 kartičky    pablojakub
stáhnout mp3 Vytisknout hrát zkontrolovat se
 
otázka język polski odpověď język polski
Embedding to proces gdzie najpierw zamieniamy _ z _ a potem _, czyli _
začněte se učit
tokeny na wektory liczb, macierzy embeddingów, positional encoding, nakładanie wektorów pozycji
Model pipes and filters oznacza że najpierw jest _ czyli _ a potem _
začněte se učit
atencja czyli wyszukiwanie powiązań między wektorami, FFN czyli pogłębianie rozumienia
Transformery to _ czyli inaczej _ i _ które wykorzystują dwa ważne mechanizmy _ i _
začněte se učit
serce modelu, enkodery i dekodery, atencji i FFN
Co się dzieje podczas inputu?
začněte se učit
Dla każdego neuronu najpierw mnożymy inputy * wagi a potem dodajemy biasy
Sieć neuronowa to inaczej _ gdzie krawędzie to _ a węzły to _
začněte se učit
Graf skierowany, wagi, neurony
Im wyższa temperatura tym model _
začněte se učit
bardziej zmyśla
Logit to _ modelu przed zastosowaniem _ _
začněte se učit
końcowy wynik modelu, funkcji aktywacji (softmax)
Vocab size to rozmiar _ tokenów czyli liczba _.
začněte se učit
słownika, unikalnych słów które tokenizer zapamięta
Vocab size wpływa również na ilość _ macierzy embeddingów
začněte se učit
wierszy

Chcete-li přidat komentář, musíte se přihlásit.