Comment convertir une liste de tenseurs en torche :: Tensor?

Aug 23 2020

J'essaie de convertir le code Python suivant en sa libtorch équivalente:

tfm = np.float32([[A[0, 0], A[1, 0], A[2, 0]],
                  [A[0, 1], A[1, 1], A[2, 1]]
                 ])

Dans Pytorch, nous pourrions simplement utiliser torch.stackou simplement utiliser un torch.tensor()comme ci-dessous:

tfm = torch.tensor([[A_tensor[0,0], A_tensor[1,0],0],
                    [A_tensor[0,1], A_tensor[1,1],0]
                   ])

Cependant, dans libtorch, cela ne tient pas, c'est que je ne peux pas simplement faire:

auto tfm = torch::tensor ({{A.index({0,0}), A.index({1,0}), A.index({2,0})},
                           {A.index({0,1}), A.index({1,1}), A.index({2,1})}
                         });

ou même utiliser un std::vectorne fonctionne pas. la même chose s'applique à torch :: stack. J'en utilise actuellement trois torch::stackpour y parvenir:

auto x = torch::stack({ A.index({0,0}), A.index({1,0}), A.index({2,0}) });
auto y = torch::stack({ A.index({0,1}), A.index({1,1}), A.index({2,1}) });
tfm = torch::stack({ x,y });

Alors, y a-t-il une meilleure façon de faire cela? Pouvons-nous faire cela en utilisant une seule ligne?

Réponses

1 trialNerror Aug 24 2020 at 18:46

donc C ++ libtorch n'autorise en effet pas la construction de tenseurs à partir d'une liste de listes de tenseurs comme Pytorch (pour autant que je sache), mais vous pouvez toujours obtenir ce résultat avec torch::stack(implémenté ici si cela vous intéresse) et view:

auto tfm = torch::stack( {A[0][0], A[1][0], A[2][0], A[0][1], A[1][1], A[2][1]} ).view(2,3);