#pytanie #pytaniedoeksperta #informatyka #ai #uczeniemaszynowe
@francis0440 uwaga?
@DonDussy Nie wiem, czy dosłowne tłumaczenie w pełni oddaje naturę zjawiska - szczególnie, gdy opisuje np. bloki. "Attention block" to "blok uwagi", "blok uważny"?
@francis0440 Ciężko cokolwiek znaleźć na necie, ale widzę, że w większości przypadków autorzy tłumaczą to dosłownie jako "uwaga":
"natomiast BERT jest oparty na mechanizmie przeniesienia uwagi (ang. Transformer attention)."
https://nofluffjobs.com/blog/jak-wykorzystac-uczenie-maszynowe-by-wydobyc-istotna-tresc/
I tutaj akapit "Transformatory":
https://learn.microsoft.com/pl-pl/azure/machine-learning/concept-deep-learning-vs-machine-learning
Jestem niemalże pewien, że pisałem o "attention blocks" jak i o innych "blocks" w swojej magisterce o generatywnych sieciach neuronowych, na 99% przetłumaczyłem je jako "bloki uwagi".
@Niesporczak @Airani Dzięki za pomoc, Panowie
Zaloguj się aby komentować