#programowanie

244
1830
Nie ma gorzej wyglądających ludzi pracujących w korpo niż dział IT. Dział sprzedaży, helpdesk, HR, menedżment, no dosłownie wszyscy prezentują się dobrze tylko nie IT. Powiecie że programiści nie są oceniani po wyglądzie a po efektach ich pracy no i jest to dobra odpowiedź. Ale prosze was nie zakrzywiajcie rzeczywistości i nie piszcie że programiści wyglądają dobrze bo nikt kto robi w korpo tego baita nie łyknie. Wyraźnie odstają od reszty innych pracowników biurowych. I takie są fakty.

#programowanie #programista15k #pracait #korposwiat
psalek

@NaczelnyRusofob w sumie to zaciekawiło mnie coś. W moich dotychczasowych miejscach pracy Dział/Zespół IT w zasadzie nie zawierał programistów. Byli tam głównie spece od administracji, sieci, utrzymania, bezpieczeństwa.

Ale programiści byli głównie gdzie indziej.

Jak to u Was wyglądało?


U mnie było mniej więcej tak:

1. Cześć w miarę typowych rzeczy była zlecana na zewnątrz.

2. Programiści byli rozłożeni po innych działach/zespołach.

3. No i pracowali dużo zdalnie więc nie wiem jak się prezentowali

Dudleus

@NaczelnyRusofob o ile więcej by zarabiali gdyby lepiej wyglądali? To ja za brzydką mordę nigdzie pracy nie dostanę xD

Zaloguj się aby komentować

Vuaaas

@BilboBagosz grug brain developer try collect learns into small, easily digestible and funny page, not only for you, the young grug, but also for him because as grug brain developer get older he forget important things, like what had for breakfast or if put pants on


O, to o mnie xD

Zaloguj się aby komentować

ANKIETA: Co lepiej wziąć na BACKUP danych? HDD czy SSD? Czy nadal HDD są trwalsze i bardziej niezawodne od SSD?

#sysadmin #informatyka #komputery #gry #programowanie

Co lepiej wziąć na BACKUP: dysk HDD czy SSD?

264 Głosów
exprenpn

@gawafe1241

Wszystko zależy od tego co chcesz robić.


Jeśli chcesz szybką, konkretną odpowiedź to: kup jakieś dyski serii NAS. Ja używam Toshiba N300 4TB lub 8TB.


Backup danych jak sama nazwa wskazuje jest KOPIA ZAPASOWĄ danych. Czyli jest to kopia w przypadku problemów z głównym dyskiem.

Postawa przechowywania danych jest trzymanie ich w dwóch niezależnych miejscach. Ale jeśli będziesz miał kopie na dwóch dyskach wpiętych do tego samego kompa, w przypadku przecięcia mogą paść oba dyski i będzie kłopot.


Nie poleca się dysków SSD do przechowywania danych z wieku względów. Np w wspomniany wcześniej koszt per GB. W przypadku SSD będzie to kilka razy więcej niż w przypadku HDD. Dyski SSD mają większą prędkość odczytu ale przy kopii zapasowej nie jest to potrzebne.

Dysk HDD daje odznaki starzenia się, zaczyna się zacinać, wolno działać, SMART zaczyna pokazywać relokowane sektory, w przypadku SSD często nie widać takich oznak. Dzisiaj dysk działa normalnie, jutro nie wstaje.


Jeśli masz jakieś pytania dawaj śmiało. Trochę siedzę w tym temacie.

Dzemik_Skrytozerca

@gawafe1241


Zależy od strategii i potrzeb. Nośnik może być dowolny jeśli jest regularnie sprawdzany, kopia danych jest w co najmniej trzech miejscach, a sposób nanoszenia danych pozwala Ci je odzyskać wystarczająco szybko.


Dla domu i małej firmy polecam Google Drive lub oneDrive z planem komercyjnym 100-200 GB.

Oraz 2-3 dyski HDD do zamontowania na jakimś urządzeniu zewnętrznym ( https://www.amazon.com/external-hard-drive-enclosure/s?k=external+hard+drive+enclosure ).

Oraz oprogramowanie do zrobienia zrzutu danych do archiwum. Ważne by metoda zrzutu pozwoliła Ci znaleźć kopie pliku, która szukasz.


Plan jest taki:

1. Zrzucasz dane do archiwum typu .ZIP.

2. Kopie oznaczasz znacznikiem czasowym.

3. Kopie wrzucasz na nośniki.

4. Pierwsza kopia jest pełna, kolejne to tylko różnice.

5. Kolejna pełną kopię wykonujesz, gdy ilość różnic będzie zbyt niewygodna lub ryzykowna. Dla małej firmy polecam: dzień roznicowy/tydzień/miesiąc/rok. Dla domu: dzienny roznicowy/miesiąc lub rok.

6. Raz na rok robisz prosty test danych: bierzesz któregoś pełnego zipa i robisz mu test spójności. Sprawdzaj każdy nośnik.

Zaloguj się aby komentować

Zostań Patronem Hejto i odblokuj dodatkowe korzyści tylko dla Patronów

  • Włączona możliwość zarabiania na swoich treściach
  • Całkowity brak reklam na każdym urządzeniu
  • Oznaczenie w postaci rogala , który świadczy o Twoim wsparciu
  • Wcześniejszy dostęp, do wybranych funkcji na Hejto
Zostań Patronem
Kryzys w IT

Oczekiwania: Programiści będą masowo tracić pracę i będą pracować w urzędach za minimalną.

Rzeczywistość: Programiści będą wymieniać Mercedesa z salonu na nówkę sztukę nie co dwa, a co cztery lata.

#programowanie #programista15k #programista25k #pracait #korposwiat
ZohanTSW

Rzeczywistość jest taka, że widzę mniej ofert pracy, a takich konkretnych jeszcze mniej

Zaloguj się aby komentować

Napisałem libke pod #esp32, którą testowałem tylko na płytkach esp32 i esp32 s(3). Libka to multiframeworkowy wifiManager z paroma extra funkcjonalnościami. Nie mam na stanie płytek z z serii C jednak z tego co wiem to wifi, i serwer http obsługuje się identycznie jak na zwykłych esp-kah i esp-kach z serii S. Mógłby ktoś to potwierdzić albo zaprzeczyć? Readme będzie ładniej wyglądało jak usunę te "should work" z shieldów.

#arduino #programowanie #programista15k #elektronika #diy
564a801a-4e2a-419b-9866-9eb885f1b0e9
koszotorobur

@Gitler - zapomniałeś linka do repo?

Vuaaas

@Gitler mam esp32-cam ale z tego co widzę tam też jest s'ka w chipie

Zaloguj się aby komentować

Gdybym ja zarabiał takie pieniądze jak wy zarabiacie to bym się umawiał z samymi modelkami takimi 10/10 które mają max 25 lat. No ale bardzo rzadko ma się jednocześnie atrakcyjny wygląd i kupę siana. Jak macie lustra w domach to wiecie o co mi chodzi.

#programowanie #programista15k #pracait #korposwiat
cododiaska

Mędrcy tego świata zwykli powiadać, że w każdym pytaniu jest przynajmniej połowa odpowiedzi.

Jeśli wiecie o co mi chodzi.

lurker_z_internetu

@NaczelnyRusofob mówiłem ci już, żebyś tagi poprawił, 15k to może parę lat temu było coś. Myślę, że oprócz mnie jeszcze paru kolegów spod #programista30k tu znajdziesz. Mowa o netto na rękę oczywiście.


A ruchanie modelek interesuje tylko takich przegrywów jak ty. Normalni ludzie wolą stabilny związek z kimś kto ich kocha.

GrindFaterAnona

@NaczelnyRusofob #programista15k xD co ty za biedakow poznales? To ci tlustowlosi?

Zaloguj się aby komentować

Ehh, nie mam pomysłu co to może w ogóle być... Na początku widać listę plików, ale później spodziewałem sie plików .wav, a wygląda jakby było skompresowane...
To chyba nie pogmeram w tych plikach...
https://allegro.pl/oferta/edukacyjny-czytnik-kart-do-wczesnej-nauki-jezyka-angielskiego-224-slowka-14557331692

Jak ktoś chce się przyjrzeć to wrzucam plik bin zrzucony z flasha:
https://we.tl/t-wmcmJUMI98

#programowanie
f3d4f04c-f938-4e9f-b085-d7155f65c91c
ataxbras

@Felonious_Gru Tak, to raczej spakowane. `strings` wyrzuca mi same śmieci. FS nie wiem jaki, pakery też nie wiem jakie. Do czego tego potrzebujesz i z czego ten dump?

Felonious_Gru

@Deykun sk taki cwaniak jesteś to weź to rozgryź xd

Zaloguj się aby komentować

Hej ludzie z #it Czy to ja jestem jakiś dziwny, czy w ciągu roboczodnia (jak macie czas bo np urlop albo święto etc) też nie jesteście w stanie przeczytać więcej niż 30-50 stron książki technicznej?
Czy smarfon uszkodził mi mózg, czy to już starość po 30-tce? Jeśli książka ma 300+ stron to jeszcze spoko, ale sporo ma ich np 900..
A może to normalne i nie powinienem się przejmować?
.
.
.
I tak, czytam książki będąc w IT i uważam, że jest to ok, proszę mnie za to nie krytykować.

#pytanie #programowanie #czytajzhejto #ksiazki
5tgbnhy6

nigdy nie mialem w rece ksiazki zwiazanej z programowaniem, ucze sie tylko przez praktyke, a mam inzyniera CS z politechniki i dekade doswiadeczenia zawodowego w gamedevie

Dzemik_Skrytozerca

@maly_ludek_lego


Czytanie ze zrozumieniem lub z analizowaniem trwa wolniej. Ot cały sekret.

ttoommakkoo

@maly_ludek_lego Polecam książkę "Płytki umysł. Jak internet wpływa na nasz" (Nicholas Carr, Eng. "The Shallows: What the Internet Is Doing to Our Brains".)

Podobnie jak autor zauważyłem u siebie, że z czasem dłuższe książki czy nawet teksty sprawiają problem którego kiedyś nie było.


Smartfon wiadomo nie ułatwia bo po co się ma mózg wysilać jak na co dzień jest karmiony lekkimi lub ultra lekkimi dawkami.


Po książkę sięgnąłem właśnie przez to że troche mi to zaczęło przeszkadzać - niekoniecznie czytanie do pracy ale po prostu swoich zakolejkowanych książek 😅

Zaloguj się aby komentować

Kolejne 2 procesy rekrutacyjne z negatywną odpowiedzią. W pierwszym poszło mi świetnie na rozmowie techniczno-architektonicznej, świetnie poszło mi na części managersko-miekkiej. Jako ostatni etap wykonałem test CliftonStrengths, i to właśnie wyniki tego testu mnie zmiotły z planszy, bo o ile ja byłem z wyników bardzo zadowolony, to jednak zgodnie z nimi stwierdzono że nie będę pasował do projektu.

Drugi proces to była moja druga kandydatura do pewnej firmy w ciągu ostatnich 4 lat, i poległem potwornie na pair programmingu, gdyż ponieważ Pan Stres postanowił mi spuścić w trakcie spotkania wpierdol. A 5 minut po zakończeniu spotkania doskonale wiedziałem co miałem zrobić, co tam było do wyjebania/refraktoru, do tego kompletnie zapomniałem o testach jednostkowych.

Chuj ci w dupę @dziki - to chyba powiedział wszechświat 27 marca tego roku. I nie odwołał swoich słów.

#pracbaza #programowanie #programista0k #bezrobocie #zalesie
Legendary_Weaponsmith

@dziki nie poddawaj się dziki.

Jakie techniki na opanowanie stresu ćwiczysz? Może chociaż raz dziennie trochę oddychania brzuchem?


Jeśli jesteś ostrym zawodnikiem i jakieś oddychanie brzuchem nie dla ciebie to możesz zacząć na ostro, od 20 minut medytacji dziennie. Jeśli faktycznie jest najgorzej z tym pair programmingiem i stresem z nim, to płać za Headspace i nie ma zlituj, po pierwszym miesiącu rozgrzewki 20 minut dziennie medytacji z samego rana po wstaniu. Nie opuszczając ćwiczeń zadanych na resztę dnia.

Skup się na budowaniu detachment do swoich myśli, np. po Basics 3 program Managing Anxiety, który ćwiczy "nieangażowanie się" w negatywne myśli techniką "noting".


To tylko pomysł. Jeżeli przeanalizujesz kwestię stresu u siebie i zaczniesz ćwiczyć regularnie jakąkolwiek technikę to na pewno w ciągu miesiąca uda ci się osiągnąć efekty. Trzymam kciuki!

NaczelnyRusofob

@dziki To nie świat zawinił tylko ty jesteś lamusem i tyle. Nie pchaj się w branże na której się nie znasz. Złóż CV do Poczty Polskiej i tam w okienku sobie pracuj. Na nic więcej nie zasługujesz jak widać.

Zaloguj się aby komentować

Pytam prosto z mostu.
Jaki dysk sieciowy polecacie?
Potrzebuje 100 może 200GB miejsca, bardziej zależy mi na tym żeby dane się nie wysypały.

#informatyka #komputery #programowanie #siecikomputerowe #backup
myoniwy userbar
Odczuwam_Dysonans

@myoniwy używany QNAPik i dwie terówki NASowe spięte w RAID 1 (mirroring). Np. WD REDy, albo Seagate IronWolf. Synology są fajne, ale takiego dwubayowego QNAPa idzie wyrwać za kilka stówek. Idealnie 4 bayowy (możesz wtedy np. dorzucić trzeci dysk jako hot-swap, i wtedy jak padnie któryś z pary to tamten go automatycznie zastąpi), ale z tego co piszesz to taki podwójny Ci styknie, a tego jest sporo.

Można oczywiście kombinować ze zbudowaniem swojego NASa, albo szukanie jakiś wyrafinowanych sprzętów, ale jeśli nie jesteś na poziomie budowania szafy rackowej w domu to nie idź w tę stronę xD chociaż opensourcowe OSy pokroju TrueNASa są fajne, niektóre lepsze, "zwykłe" NASy mają dość zasobów żeby zastąpić seryjny system. Ale nawet starszy QNAP za 500-1000zł w zupełności się sprawdzi.

I pamiętaj o zasadzie 3-2-1. Przynajmniej 3 backupy, na przynajmniej 2 urządzeniach, z czego 1 jest w innej lokalizacji

UncleFester

@myoniwy

Blaszak z płytą obsługującą sprzętowy RAID1,

dwa dyski HDD 2TB (klasy surveillance) najlepiej tego samego typu lecz z różnych serii,

opcjonalnie mały SSD na OS,

Debian,

OwnCloud

i problem z głowy.

Gadu_gadu

@myoniwy dysk TYSIONC!!!!!111

Zaloguj się aby komentować

Tak naprawdę 90% przypadków gdy polskie programery wyjeżdżają do Azji na workation to wyjazd z nadzieja że wreszcie uda im się znaleźć jakąkolwiek zainteresowaną nimi kobietę. A tam Azjatki łase na pieniądze chętnie się przytulą do takiego progra-bankomatu. Sytuacja win-win.

#programowanie #programista15k #pracait #korposwiat #bekazprzegrywow #bekazinceli
d63810a4-3dca-46be-8c6f-df04f763566f
smieszneobrazkijuzniesmiesza

@NaczelnyRusofob programery wyjzedzaja do azji na workation aby poruchac... stare do tego znalem

rith

@NaczelnyRusofob był kiedyś taki jeden programer na wypoku co zapoczątkował ten trend. Pamiętam że bardzo lubił azjatyckie klify. Ale źle skończył xdd

KLH2

#bekazprzegrywow #bekazinceli


"Najpewniejszą oznaką pogodnej duszy jest zdolność śmiania się z samego siebie".

Brawo! Łap pioruna

Zaloguj się aby komentować

#programowanie #programista15k #pracait #korposwiat
43fbca20-ced4-438e-855b-1a5db85fe42a
maximilianan

@NaczelnyRusofob ewentualnie dowolny inżynier w roli "wspierającej" inne działy


(to zawsze jest odwalanie roboty za kilka dzialów)

kodyak

@NaczelnyRusofob oczywiście junior żeby nie był za drogi


Nosaczfejs.jpg

SpasticInk

I dyrygujący nim Jerry, scrum majster

Zaloguj się aby komentować

Mam ostatnio problemy z programem, który ubijam poleceniem timeout.

Program wykonuje setki(w zasadzie to grupowo robi 10000) operacji zapisu plików do określonego folderu z wątków rayona(rust) i wygląda na to, że bez względu czy ubijam go sygnałem TERM czy KILL, to nieco później (0-10s) po zabiciu programu, nie mogę usunąć całego folderu z plikami, bo wygląda, że program ciągle w tle tworzy nowe pliki, więc próba usunięcia takiego katalogu przez "rm -rf" wypisuje błąd "rm: cannot remove '/opt/tmp_folder/short_normal_1/16474004021118382402': Directory not empty"

Zatem by rozwiązać problem przerzucam timer końca działania do programu zamiast ubijać program z zewnątrz.

Jednak mam tutaj ponownie zagwozdkę.
Mam dwie koncepcje

Pierwsza to taka, że pierwszy wątek który złapie problem, to przerywa cały program:
fn check_for_exit() {
  if time_left < 0 {
      process::exit(127);
  }
}


files_chunks.into_par_iter().for_each(|| {
   check_for_exit();

   for file in files_chunks {
       fs::copy("file", output_dir);
   }
});

Druga to taka, że czekam aż wszystkie wątki się skończą i dopiero wtedy przerywam wykonywanie programu

fn check_for_exit() -> bool {
  return time_left < 0;
}

files_chunks.into_par_iter().map(|| {
   if check_for_exit() {
       return None;
   }

   for file in files_chunks {
       fs::copy("file", output_dir);
   }

   Some(())
}).while_some().collect<()>();

if check_for_exit() {
   process::exit(127);
}

Niby punkt drugi bezpieczniejszy, ale punkt pierwszy też przecież przecież powinien wszystkie wątki z kopiowaniem plików ubić. Dobrze kminię, czy jednak punkt pierwszy nie jest bezpieczny?

#programowanie
#rustlang
Orzech

@qarmin Nie pisałem dawno w rust, zwłaszcza na tym poziomie, ale zdecydowanie druga opcja. Wydaje mi się, że w pierwszej opcji będziesz miał proces w kolejce do ubicia/ubity, a to co zostanie to będą tzw. detached threads. Ale nie jestem (już) ekspertem, podpytaj może kogoś innego

globalbus

@qarmin a to nie jest kwestia tego, że operacje na plikach robi kernel? Ubicie procesu nie przerywa fs::copy.


Po drugie, obsługa sygnałów nie jest synchroniczna. Jak zrobisz kill PID && rm costam, to na pewno to nie zadziała. Musisz poczekać, aż proces obsłuży sygnał i się zamknie.


Jak robisz timeout na wątkach wewnątrz programu, to z pewnością da się to bardziej elegancko obsłużyć.

lexico

@qarmin Analizując obie koncepcje, które przedstawiłeś, można zauważyć kilka istotnych różnic w sposobie zarządzania zakończeniem wątków i zatrzymaniem programu.

Pierwsza koncepcja


  • Zalety:

  • Każdy wątek sprawdza warunek time_left < 0 przed rozpoczęciem kopiowania.

  • Jeśli warunek jest spełniony, natychmiast wywołuje process::exit(127), co natychmiastowo kończy cały program.

  • Wady:

  • process::exit(127) powoduje natychmiastowe zakończenie programu bez czekania na zakończenie pozostałych wątków. To może skutkować niekompletnym zakończeniem operacji IO, co może być przyczyną problemów z plikami.

  • Możliwe nieprzewidywalne zachowanie, jeśli process::exit(127) jest wywoływane z wielu wątków jednocześnie.


Druga koncepcja


  • Zalety:

  • Sprawdza warunek time_left < 0 przed rozpoczęciem kopiowania w każdym wątku, ale zamiast natychmiastowego zakończenia, wątki, które spełniają warunek, po prostu kończą swoją pracę.

  • Pozwala wszystkim aktywnym wątkom dokończyć swoje operacje kopiowania, zanim program sprawdzi, czy powinien zakończyć się process::exit(127).

  • Bezpieczniejsze podejście, ponieważ nie powoduje natychmiastowego zakończenia programu, co pozwala na bardziej przewidywalne zarządzanie zasobami.

  • Wady:

  • Może powodować krótkie opóźnienie w zakończeniu programu, jeśli trzeba czekać na zakończenie wszystkich wątków.


Wnioski

Druga koncepcja jest bardziej bezpieczna i elegancka, ponieważ pozwala na kontrolowane zakończenie programu i uniknięcie problemów związanych z nieskończonym tworzeniem plików po wywołaniu timeout.

Natychmiastowe zakończenie programu przy użyciu process::exit w pierwszej koncepcji może prowadzić do nieprzewidywalnych problemów związanych z niedokończonymi operacjami IO. W drugiej koncepcji wątki mogą bezpiecznie zakończyć swoje zadania, co zmniejsza ryzyko wystąpienia problemów z plikami i zasobami.

Zatem rekomenduję skorzystanie z drugiej koncepcji. Jeśli jednak decydujesz się na pierwszą koncepcję, warto wprowadzić mechanizm, który upewni się, że wszystkie wątki zakończyły swoją pracę przed zamknięciem programu, aby uniknąć problemów z niekompletnym przetwarzaniem plików.

Zaloguj się aby komentować

Jest taka sprawa: mam prosty skrypt w Pythonie, który chciałbym puszczać raz dziennie. Skrypt pobiera pewne dane i zapisuje do csv. Nie chce mi się pamiętać, żeby go ręcznie puszczać.
Z jakiej usługi mógłbym skorzystać, żeby wrzucić tam mój skrypt i niech się codziennie sam puszcza o określonej godzinie?

#programowanie #python

Zaloguj się aby komentować

:green_book:
Pracownicy, którzy dołączyli do Nvidia 5 lat temu, są teraz milionerami i prowadzą życie na "półemeryturze"
Nvidia (NASDAQ: NVDA) odnotowała niesamowity wzrost w ostatnich latach. Od początku 2024 roku akcje firmy wzrosły o 167%. W ciągu ostatnich pięciu lat wzrosły o imponujące 3,450%.
https://finance.yahoo.com/news/employees-joined-nvidia-5-years-160012281.html

W sumie ciekawy problem.

Źródło: https://www.tiktok.com/@trading101/video/7384254329965792555

#programowanie #programista15k #nvidia
m_h

W sumie ciekawe ilu jest takich pracowników co mają te ponad 10 000 000 $ w akcjach. Załóżmy że jakieś 10% wszystkich tam pracujących. Jak sprzedaż takiej ilości akcji wpłynie na cenę Nvidii na giełdzie oraz co się stanie jęzeli te osoby powiedzą: pierdole nie robię na tego prywaciarza złodzieja i pójdzie leżeć na trawkę pindolem do góry.

Zaloguj się aby komentować

czy?

11 Głosów
Odczuwam_Dysonans

@wombatDaiquiri

czy?

tak

nie

ogarnij

sie

eee

wombatDaiquiri

@Odczuwam_Dysonans sorki kolego, ale potrzebuję sprawdzić jak komentarze do komentarzy wyglądają

Zaloguj się aby komentować

#programowanie #hejto
Przeglądam pobieżnie dokumentacje hejto api, ale nie widzę opcji pobrania wszystkich komentarzy i postów jednego użytkownika. Ktoś może podpowiedzieć jak to ogarnąć?
lipa13

@redve Patrzcie no ludzie jakie te programisty teraz wygodne. Nic tylko po API by się komunikowały a na stary, dobry web scraping nawet nie spojrzą.

koszotorobur

@redve - BTW: a próbowałeś mojej Szukaczki Hejto: https://hejto-szukaczka.vercel.app/?

koszotorobur

@redve - Masz tu kod Pythona do https://docs.hejto.pl/#tag/Posts/operation/get_posts :

import requests


user = "koszotorobur"


client = "" # Get it from https://developer.hejto.pl/

secret = "" # Get it from https://developer.hejto.pl/


url = " https://auth.hejto.pl/token"

body = {

   "client_id": client,

   "client_secret": secret,

   "grant_type": "client_credentials",

}

headers = {"Content-type": "application/json"}


r = requests.post(url, json=body, headers=headers)

token = r.json().get("access_token")


for page in range(1_000_000_000):

   url = " https://api.hejto.pl/posts"

   headers = {"Authorization": f"Bearer {token}"}

   params = {

       "period": "all",

       "page": page + 1,

       "limit": 50, # 50 is the max

       "orderBy": "p.createdAt", # p.createdAt|p.numLikes|p.numComments|p.hot|p.hotness|rand|p.promoted

       "orderDir": "desc", # asc

       "users[]": user,

   }


   r = requests.get(url, params=params, headers=headers)


   items = r.json().get("_embedded").get("items")

   if items:

       for item in items:

           print(item.get("content"))

   else:

       break

Z tego co pamiętam Hajto API zwraca maksymalnie 50 stron gdzie może być maksymalnie 50 wpisów na jednej stronie - co daje maksymalnie 2500 wpisów, które można wyciągać na raz.... no chyba, że później posortujesz w drugą stronę to na dwa razy po 2500 wpisów wyciągniesz maksymalnie 5000).

Zaloguj się aby komentować