#programowanie #canalplus #it
Opus magnum C++11
Zaloguj się aby komentować
Opus magnum C++11
Zaloguj się aby komentować
Zaloguj się aby komentować
@MuojemuKotu "cośtam-managera"
@ParisPlatynov Nie mam pojęcia, jak dokładnie nazywało się jego stanowisko, ale przyjeżdżał do nas raz na tydzień ze stukrotnie większego miasta, w którym znajdował się tekturowy, reprezentacyjny oddział firmy, i próbował na siłę wdrażać korporacyjne reguły. To było niesamowite - patrzeć, jak kompletny januszex w mieścinie <10k mieszkańców usiłuje za wszelką cenę stać sie korporacją, jednocześnie żałując pieniedzy na śrubokręty, bo przecież "możecie sobie z produkcji pożyczyć"...
@MuojemuKotu pozwolę sobie cytować Twoje niektóre określenia jutro na statusie :3 wdrożył nam gościi jakiś system który zna tylko on sam. Więcej wyjątków niż reguł xD
Zaloguj się aby komentować
Tfu pedalstwo
Zaloguj się aby komentować
@sobear Zrobiłem jak doradziłeś, jednak nadal na YT mam autoplay włączony. Nie wiem, czy to wina FF, czy czegokolwiek innego.
@MauveVin wywal te dziwne wtyczki, zaktualizuj FF i wtedy sprawdź.
@sobear Doinstalowałem Enhancer for Youtube i tam opcja disable autoplay działa, a Unhook używam równolegle do zlikwidowania rekomendacji i shortów. Operacja zakończona sukcesem.
Zaloguj się aby komentować
gościnie xD
kiedy JSW nagra podcast o sile różnorodności w górnictwie?
Zaloguj się aby komentować
@ficoomiq do excela też możesz podpiąć źródło danych odbc.
Zaleta bazy danych na serwerze jest taka, że będziesz miał centralizację tego i wielodostęp w cywilizowany sposób, a nie poprzez przerzucanie plików na udziale sieciowym czy w inny pokrętny sposób.
Dodatkowo jeśli podefiniujesz użytkownikom ODBC poprawnie uprawnienia, to szansa, że coś popsują znacząco spada.
@globalbus ok, zaczyna to do mnie przemawiać, tylko tak:
baza accessa też nie może być na serwerze?
w powyższej opcji również kilku użytkowników mogłoby jednocześnie pracować?
"frontendem" niech by były formularze accessa lub excele z vba. Robię udział sieciowy w których są pliki excela tylko do odczytu. Po jego uruchomieniu zaciągają się dane z bazy do podglądu i jest makro do wprowadzania danych do bazy. Ujdzie?
nie chciałbym tylko by gdzieś w tych plikach excela dało się "odkryć" dane połączenia do bazy danych, jeśli np. będzie jakieś hasło
O ile pamiętam baza accessa jest wyłącznie plikowa. Tylko ostatnio to ja tego używałem w 2010.
Połączenie odbc konfiguruje się windowsowym rejestrem (lub gui w windows), tam jest hasło do bazy. Z poziomu excela to jest tylko wskazanie na źródło do odbc.
Zaloguj się aby komentować
@Mowi PowerBi
@Mowi Ale czego masz się nauczyć bo nie rozumiem?
W narzędziu/na kartce stwórz sobie tabele i ich relacje jeden do jednego czy jedne do wielu czy tabele pośrednie.
Bo to najważniejsze aby były dobrze stworzone relacje. Potem to juz jakoś wykombinujesz
@lexico tego też będę chciał się nauczyć, ale dopiero w późniejszym etapie. Teraz nie jest mi potrzebne stricte do tego zadania
@ParisPlatynov zastanawiam się, czy mój tok myślenia jest poprawny i jeżeli tak, to coś, co może mi w tym pomóc - np. jakiś tutorial/kurs do skryptów. I tabele oczywiście zaprojektuję, tak jak mówisz, nawet na kartce, bo jestem wzrokowcem i najłatwiej mi tak przyswoić wiedzę i ew znaleźć błąd
Zaloguj się aby komentować
@Betonowy_Makaron iPhone 2g jest z 2007, Asus też więc podejrzewam okolice 2008 roku
@bongiel @Betonowy_Makaron dokładnie
Ale nawiasem mówiąc z tym iPhonem to jednak mieli trochę racji. Bo pierwsze dwa modele były co najmniej średnie. Wtedy królowała Nokia z n97
@rms "średnie" to dla nich komplement. Pierwsze dwa modele oferowały ułamek tego co N95/N97
Zaloguj się aby komentować
@dziki jeszcze tylko zmiana nazwy wifi i już cacy:)
@johnyB mój router emituje 2 sieci, jedna 2.4 ghz, druga 5 ghz, jedna nazywa się "WYKOP WAS PRZEJRZAL", a druga "WYKOP JUZ WIE". Acz racja, przyszedł czas zmienić te nazwy xD
@dziki this made my day
Zaloguj się aby komentować
@ReInspire CCNP Może w perspektywie dwóch lat zrobię. Pracuję w Januszexie gdzie nie ma opcji na jakieś finansowanie. Od kilkunastu miesięcy zacząłem na własną rękę systematyzować i potwierdzać swoją wiedzę oraz umiejętności przez certyfikaty. Najpierw Zrobiłem CCNA, później Comptia Security+, następnie LPIC-1 a teraz przymierzam się do ITIL 4 Foundation. Po tym może coś z AZ-900 ruszę. W przyszłym tygodniu mam rozmowę na specjalistę IT/OT w jednej z największych fabryk w Polsce
@Trismagist Bardzo dobry plan połączenie certów specjalistycznych z ITILem.
@Trismagist No to gratulacje i życzę powodzenia. W OT jakieś nowe normy wchodzą i robi się ruch na rynku, Forti ostro wjeżdża ze swoimi produktami w OT, widziałem kilka fajnych integracji ostatnio. Jeśli chcesz to mogę coś na pw podrzucić.
Zaloguj się aby komentować
Kojarzę że Mikrotik hAP ac ma taką możliwość ale jest to drogie rozwiązanie.
Zaloguj się aby komentować
@belwarg ja nie wiem. Ale byłem w niemal identycznej sytuacji i poszedłem po prostu w frontend w korpo i na razie jest ok. Przynajmniej hajs o wiele większy niż w Januszexie.
O ziom, jakbym o sobie czytał, chociaż u mnie było prościej, bo chciałem po prostu programować cokolwiek. Devops wydaje się być spoko rzeczą, być może pomoże Ci zautomatyzować trochę aktualną pracę, z tym że nie potrzebujesz do tego chmury - to można już ogarniać chociażby z github actions albo postawić sobie jenkinsa na jakimś VPSie.
A jeżeli koniecznie chesz chmurę, to większość usług w jednej ma swoje odpowiedniki w innych, więc jak nauczysz się jednej to w razie konieczności inne też raczej ogarniesz. Ja uczę się Azure aktualnie - ma spoko dokumentacją, AWS słyszałem, że ma wysoki próg wejścia jeżeli chodzi o wiedzę, a Google Cloud ponoć najprzyjemniejszy na start.
@belwarg no jak dla mnie to jeśli ogarniasz systemowe rzeczy (tu bym się skupiał na serwerach www/proxy [nginx] + bazy danych) i programowanie, to ja bym szedł w DevOps.
Jako podstawy musisz poznać konteneryzację (Docker), narzędzia automatyzacji (Ansible) i CI/CD (Jenkins, GithubActions), plus ewentualnie jakąś chmurę - najpopularniejsze są AWS i Azure, ale chmurę odłuż na chwilę.
Zaloguj się aby komentować
sudo sh -c "wget -q https://github.com/nicrame/Linux-Scripts/raw/master/nextcloud-debian-ins.sh && chmod +x nextcloud-debian-ins.sh && ./nextcloud-debian-ins.sh"Po jej wykonaniu z poziomu terminala (lokalnie czy zdalnie po SSH), zostaną zainstalowane i wstępnie skonfigurowane wszystkie wymagane podprogramy (serwer WWW Apache z PHP, baza danych MariaDB, i inne wymagane elementy jak redis czy ntp). Na koniec wykonywania skrypt poda dane logowania z wygenerowanym losowo hasłem (trzeba je zachować, ponieważ nie jest ono nigdzie zapisywane). No i można korzystać.
sudo sh -c "wget -q https://github.com/nicrame/Linux-Scripts/raw/master/nextcloud-debian-ins.sh && chmod +x nextcloud-debian-ins.sh && ./nextcloud-debian-ins.sh mojadomena.com"Dodatkowo zostaną wprowadzone ustawienia umożliwiające użycie domeny.
Co do tej sieci, to akurat crashował iptables wtedy, teraz pewnie już nie ma tego problemu, ale niesmak pozostał
Opiszesz coś więcej? Jestem ciekaw co tam się działo.
Wbrew pozorom łatwo sobie wyobrazić jaki plik co robi
Miałem na myśli raczej wiedzę co gdzie się znajduje, bez szukania.
Baza danych znajduje się w kontenerze "postgresql", natomiast serwer www w kontenerze "nginx". Jak chcę zobaczyć co jest w środku, to wchodzę na githuba i patrzę w dockerfile z którego kontener jest zbudowany, potem już wiem.
zdarza się że jakiś soft nagle pobiera nowsza wersję jakiejś paczki bazy danych, stara jest wyłączona ale zostaje oczywiście, więc i tak trzeba samemu to wyłapywać i czyścić
Nie, nie zdarza się, dobrze przygotowany kontener z oprogramowaniem nie modyfikuje bibliotek ani plików wykonywalnych w środku. Jeśli chcesz nową wersję softu, zaciągasz obraz z nowego taga, a stare kontenery po prostu w całości usuwasz.
Wolę odschoolowo - każdy serwis w osobnej maszynie (najlepiej hardware a nie VMki)
Twoje prawo. Ja mam tak dobrze przygotowany workflow oparty o kontenery, że nie wyobrażam sobie sposobu wdrażania oprogramowania, który opisałeś. Wydaje mi się niewygodny, oporny w automatyzacji, trudny w zarządzaniu, kompletnie nieskalowalny i nieprzenaszalny, a do tego wszystkiego mało bezpieczny. Chociażby perspektywa konieczności rollbackowania aktualizacji wersji jakiegokolwiek komponentu w Twoim środowisku jest dla mnie niewyobrażalna. Ale co człowiek, to opinia.
Polecam jednak się lepiej z tym zapoznać, to jest zajebista technologia i jak już pokonasz trudności związane z jej stosowaniem, to nie sposób się w niej nie zakochać.
@PanPaweuDrugi Nie pamiętam kompletnie co to było, w jakich warunkach itp. Parę lat temu już, ale nawet nie pamiętam jakie distro to było. Dawniej głównie OpenBSD używałem, i nawet tam niechcący trafiłem na błąd w pfctl (się crashowało). Mam trochę pecha do przypadkowego trafiania na błędy, głównie wycieki pamięci to moja pasja
Nie umiem cytować niestety tutaj, odnośnie czytania plików dockera żeby wiedzieć co jest wcześniej, to zdecydowanie zrobić cd /lokalizacja i ls -a
Odnośnie pozostawiania syfu dockerowego, to nie chodziło mi o modyfikacje plików wewnętrznych, ale właśnie pobieranie nowych kontenerów, gdzie same jak napisałeś trzeba usuwać - samodzielnie pozostawione same sobie starsze wersje. Pół biedy kiedy to jest maszyna, do której masz normalnie dostęp - ale są rozwiązania gdzie to nie jest takie proste. Czasami testuje urządzenia (routery czy tam switche), które działają na własnych dystrybucjach i właśnie używają dockera. Często aktualizacje wtedy własnie zostawiają jakieś stare elementy, które spokojnie można by było usunąć, a tak leżą i marnują przestrzeń (najczęściej takie testowe urządzenia presale mają zwykle jakieś spore dyski zamontowane, ale finalne produkty to tam wiadomo, wszystko malutkie).
Rollbacki itp. sprawy załatwiają kopie zapasowe. Zarządzanie też nie problem jeżeli wie się, co chce się zrobić i jak. W dockerze po prostu jest dużo mniej opcji, więc łatwiej to usystematyzować - ale daje to dużo mniejsze pole manewru (np. kontener z apką, która jest skompilowana bez argumentu, który akurat potrzebujesz, możesz wtedy albo samemu budować kontenery, albo szukać i może coś gdzieś się jakoś znajdzie). Wszystko zależy imho od środowiska i potrzeb. Zakochac się raczej w dockerach nie dam rady, za duży syf, no i dodatkowy nakład czasu żeby je ogarniać wolę na inne rzeczy poświęcać
pobieranie nowych kontenerów, gdzie same jak napisałeś trzeba usuwać - samodzielnie pozostawione same sobie starsze wersje. Pół biedy kiedy to jest maszyna, do której masz normalnie dostęp
@nicram dlatego na urządzeniach innych niż maszyna deweloperska powinno się stosować orkiestratory, takie jak choćby Kubernetes, one to wszystko (i znacznie, znacznie więcej) robią za Ciebie. K8S ma garbage collector, który dba o wywalanie wyłączonych kontenerów i osieroconych obrazów. W przypadku gołego dockera:
docker system prune -af
i po problemie, wszystkie śmieci usunięte, nieużywane obrazy, stare wyłączone kontenery - wszystko leci w niebyt.
Czasami testuje urządzenia (routery czy tam switche), które działają na własnych dystrybucjach i właśnie używają dockera. Często aktualizacje wtedy własnie zostawiają jakieś stare elementy, które spokojnie można by było usunąć, a tak leżą i marnują przestrzeń
Pytanie czemu producent nie wie, że to można czyścić, ale to przecież nie jest wina dockera, bo on ma do tego narzędzia, tylko producenta, który o to nie zadbał. Wystarczy przecież dodać prune do crontaba i po problemie.
Rollbacki itp. sprawy załatwiają kopie zapasowe
No jak masz jedną usługę na maszynę, to kopia zapasowa rzeczywiście załatwi Ci rollback, no chyba że to rollback wersji bazy danych, to wtedy już masz problem, bo chcesz cofnąć wersję serwera, ale zostawić nowe dane. Tylko że często usługa wymaga bardzo mało zasobów i trzymanie się założenia jednej maszyny fizycznej na usługę to wtedy straszne marnowanie zasobów. Ciekaw jestem jakbyś w swoim modelu wdrożył system tworzony w architekturze mikroserwisowej, który ma np. 40 mikroserwisów, z czego każdy zużywa 0,1 CPU i średnio 100 MB RAMu.
kontener z apką, która jest skompilowana bez argumentu, który akurat potrzebujesz, możesz wtedy albo samemu budować kontenery, albo szukać i może coś gdzieś się jakoś znajdzie
Oczywiście, budując środowisko oparte o kontenery, powinieneś sobie zapewnić jakiś system CI/CD, który Ci będzie budował obrazy, których nie ma w publicznych źródłach, inaczej jesteś zdany na dockerhuba albo samodzielne budowanie tego na kompie, a nie po to się wchodzi w takie technologie jak konteneryzacja żeby sobie na głowę sprowadzać manualną pracę w postaci budowania obrazów.
Zakochac się raczej w dockerach nie dam rady, za duży syf
Ja właśnie jestem kompletnie przeciwnego zdania, po obserwowaniu adminów robiących
ssh root@produkcja1
cd /var/produkcyjna-aplikacja
git pull
make build
uważam kontenery za nirwanę porządku i systematyzacji w zarządzaniu środowiskami.
Nie umiem cytować niestety tutaj
Załączam zrzut ekranu
Zaloguj się aby komentować
@gacek Dziękuję! Poskutkowało! Myślałem, że to dodaje jakiś "efekt"
Zaloguj się aby komentować