Ekspertem nie jestem, ale kilka pojęć postaram się wyjaśnić dla zainteresowanych:
LLM (Large Language Model) - pol. Duży model językowy. ChatGpt jest LLMem. Ogólnie każdy "program" komputerowy z którym możemy rozmawiać. Są też mniejsze wyspecjalizowane modele na przykład do strukturyzowania danych, rozmowy ale tylko na jeden temat itp.
Jeżeli ciekawi Cię jak to działa to TUTAJ https://bbycroft.net/llm jest świetna wizualizacja
Transformer - technologia na której opiera się 90% współczesnej sztucznej inteligencji. Po raz pierwszy zaproponowany w 2017 roku przez badaczy z Google TUTAJ https://arxiv.org/pdf/1706.03762 w pracy naukowej o tytule "Attention Is All You Need" (pol. Mechanizm uwagi to wszystko czego potrzebujesz). W sumie od tego miejsca wszystkie współczesne AI się zaczęły.
Diffuser - pol Dyfuzer. Mechanizm dzięki któremu AI generuje obrazki. Jak to robi? Odszumia. Dyfuzer jest wytrenowany na normalnych obrazkach które w kolejnych krokach mają dodany losowy szum. Ale jest wytrenowany w taki sposób aby ten szum usuwał. W wyniku czego, możemy podać do dyfuzera kompletnie losowy szum i słowa sterujące na przykład "pomidor" i AI spróbuje w taki sposób usunąć losowy szum aby rzeczony pomidor wyszedł.
Finetune - pol Dopieszczenie ( ͡~ ͜ʖ ͡°) - kontynuowanie treningu Ai - Najczęśćiej robi się to aby dostosować swój model do własnych specyficznych potrzeb. Podając dziesiątki (najlepiej tysiące) zapytań w parze z dobrymi odpowiedziami jakie oczekujemy uczymy model pracować tak wymagamy. Na przykład odpowiadać wyłącznie w JSON, lub generować obrazek bardzo specyficznego furry.
Lora (Low-rank adaptation) - Nazwijmy to "nakładką" lub "wtyczką" do modelu AI. Lora odpowiada na pytanie: "Co jeżeli chcemy zrobić Finetune, ale jesteśmy biedni?" Zamiast robić pełny Finetune możemy wytrenować nakładkę, która z grubsza będzie realizowała te same zadania. Lora działa trochę jak finetune, jest znacznie szybsza w obliczeniu od pełnego finetune w związku z tym tańsza. Taki finetune ale na skróty.
Embedding - pol. Osadzanie? Zamienia słowa na liczby, ale w mądry sposób. Najczęściej wyglądają tak: [1.34, 4.68, 3,14,..., 2,56] Gdzie ta liczba ma kilkaset, czasami kilka tysięcy elementów. Ale sama zamiana na liczbę nie jest ciekawa, ciekawe są własności tej liczby.
Jeden z najsłynniejszych przykładów: Powiedzmy że słowo "KRÓL" embedujemy na liczbę Kr=[1.34, 4.68, 3,14,..., 2,56], "MĘŻCZYZNA" Me=[1.91,...,0.32], "KOBIETA" Ko=[2.56,..., 8,45]
Jeżeli teraz zapiszemy równanie: Kr-Me+Ko = Q To liczba Q będzie absurdalnie blisko embeddingu słowa "KRÓLOWA" Oznacza to że w "przestrzeni embeddingów jest kierunek odpowiedzialny za płeć. Lepiej graficznie wyjaśnia ten fakt 3b1b TUTAJ https://www.youtube.com/watch?v=FJtFZwbvkI4 (w 60sekund) ale po angielsku.
Quntization - pol. Kwantyzacja, upraszczanie modelu. Nazwijmy to zmianą "rozdzielczości" jakby to do gier porównać. Na ogół modele są dostarczane "tak jak je autor stworzył". Najczęściej nic nie zmieniał i wszystkie liczby w modelu są zapisane jako liczba zmiennoprzecinkowa o dokładności 16 lub 32 bitów (powiedzmy, że to po przecinku). Często można obciąć kilka miejsc po przecinku bez wyraźnej lub z minimalną stratą jakości. Ma to na celu uruchomienie dużego modelu na tańszym komputerze, bo duży model po lobotomii wciąż będzie miał lepszą jakość jak mały na 100% swojej wydajności.
Przykład co znaczą te dziwne znaczki przy nazwach modeli z kwantyzacją:
Q32, Q16, Q4, Q2 to dosłownie rozdzielczość, 32 bity, 16 bitów i tak dalej. Czasami będzie napisane FP32 lub FP16.
Qx_K_M Qx_K_S Przykładowy zapis: Q4_K_M Oznacza, że większość modelu jest w 4 bitach, ale niektóre ważne częśći mają większą rozdzielczość
Jeżeli nie wiesz co potrzebujesz to najczęściej chcesz pobrać: Q4_K_M - Nie potrzeba superkomputera z nasa do włączenia modelu i jednocześnie jakość na akceptowalnym poziomie.
Ch*ja się znam na tym temacie ale jak kogoś coś jeszcze ciekawi to zapraszam do pytań.
#sztucznainteligencja #ai #uczsiezhejto #ciekawostki
