Wielki słowniczek pojęć AI - Sztuczna Inteligencja
Ekspertem nie jestem, ale kilka pojęć postaram się wyjaśnić dla zainteresowanych:

LLM (Large Language Model) - pol. Duży model językowy. ChatGpt jest LLMem. Ogólnie każdy "program" komputerowy z którym możemy rozmawiać. Są też mniejsze wyspecjalizowane modele na przykład do strukturyzowania danych, rozmowy ale tylko na jeden temat itp.
Jeżeli ciekawi Cię jak to działa to TUTAJ https://bbycroft.net/llm jest świetna wizualizacja

Transformer - technologia na której opiera się 90% współczesnej sztucznej inteligencji. Po raz pierwszy zaproponowany w 2017 roku przez badaczy z Google TUTAJ https://arxiv.org/pdf/1706.03762 w pracy naukowej o tytule "Attention Is All You Need" (pol. Mechanizm uwagi to wszystko czego potrzebujesz). W sumie od tego miejsca wszystkie współczesne AI się zaczęły.

Diffuser - pol Dyfuzer. Mechanizm dzięki któremu AI generuje obrazki. Jak to robi? Odszumia. Dyfuzer jest wytrenowany na normalnych obrazkach które w kolejnych krokach mają dodany losowy szum. Ale jest wytrenowany w taki sposób aby ten szum usuwał. W wyniku czego, możemy podać do dyfuzera kompletnie losowy szum i słowa sterujące na przykład "pomidor" i AI spróbuje w taki sposób usunąć losowy szum aby rzeczony pomidor wyszedł.

Finetune - pol Dopieszczenie ( ͡~ ͜ʖ ͡°) - kontynuowanie treningu Ai - Najczęśćiej robi się to aby dostosować swój model do własnych specyficznych potrzeb. Podając dziesiątki (najlepiej tysiące) zapytań w parze z dobrymi odpowiedziami jakie oczekujemy uczymy model pracować tak wymagamy. Na przykład odpowiadać wyłącznie w JSON, lub generować obrazek bardzo specyficznego furry.

Lora (Low-rank adaptation) - Nazwijmy to "nakładką" lub "wtyczką" do modelu AI. Lora odpowiada na pytanie: "Co jeżeli chcemy zrobić Finetune, ale jesteśmy biedni?" Zamiast robić pełny Finetune możemy wytrenować nakładkę, która z grubsza będzie realizowała te same zadania. Lora działa trochę jak finetune, jest znacznie szybsza w obliczeniu od pełnego finetune w związku z tym tańsza. Taki finetune ale na skróty.

Embedding - pol. Osadzanie? Zamienia słowa na liczby, ale w mądry sposób. Najczęściej wyglądają tak: [1.34, 4.68, 3,14,..., 2,56] Gdzie ta liczba ma kilkaset, czasami kilka tysięcy elementów. Ale sama zamiana na liczbę nie jest ciekawa, ciekawe są własności tej liczby.
Jeden z najsłynniejszych przykładów: Powiedzmy że słowo "KRÓL" embedujemy na liczbę Kr=[1.34, 4.68, 3,14,..., 2,56], "MĘŻCZYZNA" Me=[1.91,...,0.32], "KOBIETA" Ko=[2.56,..., 8,45]
Jeżeli teraz zapiszemy równanie: Kr-Me+Ko = Q To liczba Q będzie absurdalnie blisko embeddingu słowa "KRÓLOWA" Oznacza to że w "przestrzeni embeddingów jest kierunek odpowiedzialny za płeć. Lepiej graficznie wyjaśnia ten fakt 3b1b TUTAJ https://www.youtube.com/watch?v=FJtFZwbvkI4 (w 60sekund) ale po angielsku.

Quntization - pol. Kwantyzacja, upraszczanie modelu. Nazwijmy to zmianą "rozdzielczości" jakby to do gier porównać. Na ogół modele są dostarczane "tak jak je autor stworzył". Najczęściej nic nie zmieniał i wszystkie liczby w modelu są zapisane jako liczba zmiennoprzecinkowa o dokładności 16 lub 32 bitów (powiedzmy, że to po przecinku). Często można obciąć kilka miejsc po przecinku bez wyraźnej lub z minimalną stratą jakości. Ma to na celu uruchomienie dużego modelu na tańszym komputerze, bo duży model po lobotomii wciąż będzie miał lepszą jakość jak mały na 100% swojej wydajności.
Przykład co znaczą te dziwne znaczki przy nazwach modeli z kwantyzacją:
Q32, Q16, Q4, Q2 to dosłownie rozdzielczość, 32 bity, 16 bitów i tak dalej. Czasami będzie napisane FP32 lub FP16.
Qx_K_M Qx_K_S Przykładowy zapis: Q4_K_M Oznacza, że większość modelu jest w 4 bitach, ale niektóre ważne częśći mają większą rozdzielczość
Jeżeli nie wiesz co potrzebujesz to najczęściej chcesz pobrać: Q4_K_M - Nie potrzeba superkomputera z nasa do włączenia modelu i jednocześnie jakość na akceptowalnym poziomie.

Ch*ja się znam na tym temacie ale jak kogoś coś jeszcze ciekawi to zapraszam do pytań.

#sztucznainteligencja #ai #uczsiezhejto #ciekawostki
entropy_ userbar
13

Komentarze (13)

Wygląda na to że trochę pomieszałeś embedding i tokenizing. Tokenizing właśnie zamienia słowa na liczby które potem są używane w embeddingu.

W sumie to ciekawe czy można by użyć PCA do zmniejszenia ilości wymiarów dla transformera. Ale to niech wypowie się ktoś mądrzejszy.

@m_h i te liczby potem służą jako adres w wektorowej bazie danych

@m_h trochę pomieszałem, ale po prawdzie to i tak na jedno wychodzi. Token to słowo bezczelnie na liczbę zamienione, pies=14, kot=15 itp. Wartości tokenów (wewnętrzna numeryczna reprezentacja słowa pies) nie mają znaczenia bo na końcu i tak się ten proces odwraca, tokenowanie nazwał bym po prostu zmianą formatu na przystępny dla komputera a embedding to jest dopiero to gdzie dzieje się magia.

@entropy_ czyli to wszystko to po prostu dodawanie i odejmowanie wektorów i tensorów. Też mi coś, amatorzy.

@maximilianan dokładnie! Takie samo dodawanie i odejmiwanie potrafi nawet kalkulator biurkowy z lat 90!

Też mi innowacje

@entropy_ takie rzeczy to ja na zaliczeniu robiłem XD skalary kurwa iksy dupiksy i Altman se kupuje koenigsegga za to XD

@maximilianan na kolokwium macierze liczyłem na kartce!

Gdzie moje sto miliardów!?

@entropy_ TO WSZYSTKO I TAK SIĘ DODAJE DO ZERA!!!!!11

@maximilianan nawet liczb zespolonych tam nie ma. Matematyka z liceum i wielkie pieniądze chcą informatycy z owczej rzopy

@entropy_ liczby zespolone - kolejny fejk dla debili XD JAK CI NIE WYCHODZI WYNIK TO PO PROSTU ZMIEŃ ZNAKI LOL XDD matematycy to tacy sami idioci co fizycy, których rozwiązaniem na wszystko jest dodanie nowej zmiennej, której jeszcze nie wykazali, ale która zajebiście pasuje do wymyślonych na kiblu równań XD

@maximilianan no i nie zapominaj o przestrzeniach niekartezjańskich. To już w ogóle po jakichś grzybach wymyślają ćpuny na wydziałach matematycznych

@entropy_ kurwa no XD powierzchnia hiperboli raczej powierzchnia między moimi pośladami XD

@entropy_ jak jeszcze nie ogarnialem tematu i zacząłem czytać o dodawaniu wymiarów żeby UŁATWIAĆ kalkulacje to zrobiłem sobie dzień przerwy, bo to oszaleć idzie z tymi jajogłowymi

Zaloguj się aby komentować