Zgadliście! Publikuje zaawansowany model AI dostępny offline i bez cenzury, gdzie cenzura byłą piętą achillesową botów. xD
#twitter #aryocontent
w jaki sposób cenzura była piętą achillesową botów? Jest pełno modeli językowych bez cenzury. Pierwsze lepsze 3, które sprawdzałem - llama2, vicuna i wizardlm. Każdy dostępny w wersji uncensored.
edit:
tutaj na ollamie: https://ollama.com/library?q=uncensored
jest więcej w innych miejscach ale nie wiem jak z działaniem więc nie polecę.
@mortt Ale tamte były o wiele głupsze. Grok jest czymś pomiędzy GPT 3.5 a 4
@Aryo vicuna jest 90% gpt4 https://lmsys.org/blog/2023-03-30-vicuna/
oczywiście to nie jest rzetelne badanie ale stawiam, że jest w podobnej lidze co Grok właśnie.
edit: problem lokalnych llm nie jest ich "mądrość" tylko dostępne zasoby w lokalnym setupie przez co tnie się ich możliwości. Jak odpalisz pełny model jest dużo lepiej
@mortt a jaki jest najlepszy model w tej chwili? Z tych open source? Mam potężną maszynę z 27 gb vram więc ¯\_(ツ)_/¯
@Aryo no to nie jest potężna maszyna.
Ludzie mówią, że ten bez problemu bije gpt 3.5
https://huggingface.co/TheBloke/Nous-Capybara-34B-GGUF
Ale czy to odpalisz na 27? pewnie jak użyjesz kwantyzacji i paru innych sztuczek będzie się dało używać. Llama2 70b niby lepszy ale tu bez ~60gb nie podchodź. Do wielu zadań w zupełności styknie 15b, jak odpalam na 32gb vram można normalnie funkcjonować bez odczucia, że modele chodzą.
tak dla perspektywy - potężne maszyny (na warunki domowe) to mają ludzie ze ~140gb vram i dalej muszą się ograniczać w wyborze modeli.
edit jest tabelka:
Q5_K_S - 26gb ram - large, low quality loss - recommended
@mortt Czekaj, ale oni alokują też zwykły RAM? Bo jak wliczać RAM+vram to mam znacznie, znacznie więcej możliwości i korekta 24 gb vram a nie 27
@Aryo generalnie powinieneś jak najwięcej pchać do vram. Natomiast w związku z tym, że mało osób ma możliwość upchnięcia całego modelu do vram to ludzie robią wersje kombinowane. Tylko, że operowanie na CPU jest znacznie wolniejsze niż GPU. Zrobienie takiej "hybrydy" wymaga też trochę wiedzy, żeby to mądrze rozegrać. Powiem tak, próbowałem kiedyś na samym CPU i na samym GPU i na cpu było o wiele, wiele gorzej mimo większej ilości ram (zależy od cpu i wszystkiego dookoła). Popróbuj, są takie rozwiązania co dzielą automatycznie.
@mortt btw. Widzę że jest fajny edytor dla zielonych jak ja. Nazywa się LM Studio.
Komentarz usunięty
Nie rozumiem
wczoraj zainstalowałem ponownie twittera i już tego żałuje pełno takiego gówna w komentarzach (w ogole to sie wyswietla jako reklama...)
Oj tam, oj tam. Elon w końcu zrozumie, że zwalnianiem stałych devow zepsuł sobie zaplecze. X w końcu wprowadzi system zasięgów oparty na reputacji i weryfikacji. I boty pójdą precz.
Zaloguj się aby komentować