Do celów analizy danych można skutecznie traktować je jako tablice, być może wielowymiarowe. Zatem obejmują one skalary, wektory, macierze i wszystkie tablice wyższego rzędu.
Dokładna definicja matematyczna jest bardziej skomplikowana. Zasadniczo chodzi o to, że tensory przekształcają funkcje wieloliniowe w funkcje liniowe. Zobacz (1) lub (2) . (Funkcje wieloliniowe są funkcjami, które są liniowe w każdym z ich składników, przykładem jest wyznacznik uważany za funkcję wektorów kolumnowych).
Jedną konsekwencją tej matematycznej właściwości definiującej tensory jest to, że tensory ładnie przekształcają się w stosunku do jakobianów, które kodują przekształcenia z jednego układu współrzędnych na inny. Dlatego często uważa się definicję tensora za „obiekt, który przekształca się w określony sposób pod wpływem zmian współrzędnych” w fizyce. Zobacz na przykład ten film lub ten .
Jeśli mamy do czynienia z wystarczająco „ładnymi” obiektami (wszystkie pochodne, które chcielibyśmy istnieć i które są dobrze zdefiniowane), wówczas wszystkie te sposoby myślenia o tensorach są zasadniczo równoważne. Zauważ, że pierwszy sposób myślenia o tensorach, o których wspomniałem (tablice wielowymiarowe), ignoruje różnicę między tensorami kowariantnymi i przeciwwariantowymi. (Rozróżnienie dotyczy tego, jak zmieniają się ich współczynniki przy zmianie podstawy bazowej przestrzeni wektorowej, tj. Zasadniczo między wektorami rzędów i kolumn.) Zobacz inne pytania StackExchange: (1) (2) (3) (4)
W książce używanej przez naukowców badających zastosowania tensorów w sieciach neuronowych (na przykład w Technion w Izraelu) znajduje się Przestrzeń tensorowa i rachunek numeryczny Wolfganga Hackbuscha . Nie przeczytałem go jeszcze sam, chociaż niektóre późniejsze rozdziały wydają się wykorzystywać zaawansowaną matematykę.