francis0440
Zawodowiec
Czy ktoś z Tomeczków zna może polski odpowiednik pojęcia "attention" w kontekście uczenia maszynowego?
#pytanie #pytaniedoeksperta #informatyka #ai #uczeniemaszynowe
#pytanie #pytaniedoeksperta #informatyka #ai #uczeniemaszynowe
@francis0440 Ciężko cokolwiek znaleźć na necie, ale widzę, że w większości przypadków autorzy tłumaczą to dosłownie jako "uwaga":
"natomiast BERT jest oparty na mechanizmie przeniesienia uwagi (ang. Transformer attention)."
https://nofluffjobs.com/blog/jak-wykorzystac-uczenie-maszynowe-by-wydobyc-istotna-tresc/
I tutaj akapit "Transformatory":
https://learn.microsoft.com/pl-pl/azure/machine-learning/concept-deep-learning-vs-machine-learning