Zdjęcie w tle
francis0440

francis0440

Zawodowiec
  • 49wpisy
  • 49komentarzy

Wieloletni słuchacz szeroko pojętej muzyki elektronicznej i heavy metalu.

Zostań Patronem Hejto i odblokuj dodatkowe korzyści tylko dla Patronów

  • Włączona możliwość zarabiania na swoich treściach
  • Całkowity brak reklam na każdym urządzeniu
  • Oznaczenie w postaci rogala , który świadczy o Twoim wsparciu
  • Wcześniejszy dostęp, do wybranych funkcji na Hejto
Zostań Patronem
Jak na razie, poziom utrzymany.
#anime #animedyskusja #nier #nierautomata
becfa90b-ac61-4886-8a91-f82fd0ebde03
francis0440

@kinasato Wiem, czytałem (⇀‸↼‶) "Wirus w odwrocie"

kinasato

@francis0440 Ta jasne, wirus xD Studio A-1 ma potężne problemy produkcyjne i pewnie zawiesili by nadgonić z deadline gdzie indziej.

Kamry

@kinasato Produkcja anime i cała ta branża w Japoni to jest kompletna patologia kiedy to porównać do warunków pracy w Europie, jak można dać do telewizji produkcje która nawet nie jest skończona i studio goni z tygodnia na tydzień żeby to dokończyć, masakra.

Zaloguj się aby komentować

Czy ktoś z Tomeczków zna może polski odpowiednik pojęcia "attention" w kontekście uczenia maszynowego?
#pytanie #pytaniedoeksperta #informatyka #ai #uczeniemaszynowe
Niesporczak

@francis0440 Ciężko cokolwiek znaleźć na necie, ale widzę, że w większości przypadków autorzy tłumaczą to dosłownie jako "uwaga":

"natomiast BERT jest oparty na mechanizmie przeniesienia uwagi (ang. Transformer attention)."

https://nofluffjobs.com/blog/jak-wykorzystac-uczenie-maszynowe-by-wydobyc-istotna-tresc/


I tutaj akapit "Transformatory":

https://learn.microsoft.com/pl-pl/azure/machine-learning/concept-deep-learning-vs-machine-learning

Airani

Jestem niemalże pewien, że pisałem o "attention blocks" jak i o innych "blocks" w swojej magisterce o generatywnych sieciach neuronowych, na 99% przetłumaczyłem je jako "bloki uwagi".

francis0440

@Niesporczak @Airani Dzięki za pomoc, Panowie

Zaloguj się aby komentować