Taglia più fotogrammi dell'array numpy con più y1: y2, x1: x2
Ho un array numpy di più frame (multiple_frames) e voglio tagliare l'altezza e la larghezza di ogni frame con diversi y1, y2, x1, x2 per disegnare un quadrato di "1" in ogni frame. (slice_yyxx) è un array numpy e contiene un array di y1, y2, x1, x2 per ogni frame.
slice_yyxx = np.array(slice_yyxx).astype(int)
nbr_frame = slice_yyxx.shape[0]
multiple_frames = np.zeros(shape=(nbr_frame, target_shape[0], target_shape[1], target_shape[2]))
print(multiple_frames.shape)
# (5, 384, 640, 1)
print(slice_yyxx)
# Value ok
print(slice_yyxx.shape)
# (5, 4)
# Then 5 array of coord like [y1, y2, x1, x2] for slice each frames
print(slice_yyxx.dtype)
# np.int64
multiple_frames[:, slice_yyxx[:,0]:slice_yyxx[:,1], slice_yyxx[:,2]:slice_yyxx[:,3]] = 1
# ERROR: TypeError: only integer scalar arrays can be converted to a scalar index
Risposte
La vera domanda qui è come convertire sezioni arbitrarie in qualcosa che puoi usare su più dimensioni senza loop. Suppongo che il trucco sia usare una combinazione intelligente di indicizzazione fantasia arange, e repeat.
L'obiettivo è creare una matrice di indici di riga e colonna che corrisponda a ciascuna dimensione. Prendiamo un semplice caso che è facile da visualizzare: un set di 3 frame di matrici 3x3, dove vogliamo assegnare i sub-array 2x2 in alto a sinistra e in basso a destra ai primi due frame e l'intera cosa all'ultimo frame :
multi_array = np.zeros((3, 3, 3))
slice_rrcc = np.array([[0, 2, 0, 2], [1, 3, 1, 3], [0, 3, 0, 3]])
Proviamo a trovare gli indici che corrispondono a ciascuno, così come le dimensioni e le forme:
nframes = slice_rrcc.shape[0] # 3
nrows = np.diff(slice_rrcc[:, :2], axis=1).ravel() # [2, 2, 3]
ncols = np.diff(slice_rrcc[:, 2:], axis=1).ravel() # [2, 2, 3]
sizes = nrows * ncols # [4, 4, 9]
Abbiamo bisogno dei seguenti indici fantasiosi per essere in grado di svolgere l'assegnazione:
frame_index = np.array([0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2])
row_index = np.array([0, 0, 1, 1, 1, 1, 2, 2, 0, 0, 0, 1, 1, 1, 2, 2, 2])
col_index = np.array([0, 1, 0, 1, 1, 2, 1, 2, 0, 1, 2, 0, 1, 2, 0, 1, 2])
Se riusciamo a ottenere gli array frame_index
, row_index
e col_index
, possiamo impostare i dati per ogni segmento come segue:
multi_array[frame_index, row_index, col_index] = 1
frame_index
index è facile da ottenere:
frame_index = np.repeat(np.arange(nframes), sizes)
row_index
richiede un po 'più di lavoro. È necessario generare una serie di nrows
indici per ogni singolo fotogramma e ripeterli più ncols
volte. Puoi farlo generando un intervallo continuo e riavviando il conteggio ad ogni fotogramma usando la sottrazione:
row_range = np.arange(nrows.sum())
row_offsets = np.zeros_like(row_range)
row_offsets[np.cumsum(nrows[:-1])] = nrows[:-1]
row_index = row_range - np.cumsum(row_offsets) + np.repeat(slice_rrcc[:, 0], nrows)
segments = np.repeat(ncols, nrows)
row_index = np.repeat(row_index, segments)
col_index
sarà ancora meno banale. È necessario generare una sequenza per ogni riga con l'offset corretto e ripeterla a blocchi per ogni riga, quindi per ogni fotogramma. L'approccio è simile a quello per row_index
, con un indice di fantasia aggiuntivo per ottenere l'ordine giusto:
col_index_index = np.arange(sizes.sum())
col_index_resets = np.cumsum(segments[:-1])
col_index_offsets = np.zeros_like(col_index_index)
col_index_offsets[col_index_resets] = segments[:-1]
col_index_offsets[np.cumsum(sizes[:-1])] -= ncols[:-1]
col_index_index -= np.cumsum(col_index_offsets)
col_range = np.arange(ncols.sum())
col_offsets = np.zeros_like(col_range)
col_offsets[np.cumsum(ncols[:-1])] = ncols[:-1]
col_index = col_range - np.cumsum(col_offsets) + np.repeat(slice_rrcc[:, 2], ncols)
col_index = col_index[col_index_index]
Usando questa formulazione, puoi persino aumentarla e specificare un valore diverso per ogni fotogramma. Se vuoi assegnare values = [1, 2, 3]
i frame nel mio esempio, fallo
multi_array[frame_index, row_index, col_index] = np.repeat(values, sizes)
Vedremo se esiste un modo più efficiente per farlo. Una parte di cui ho chiesto è qui .
Prova delle prestazioni
Un confronto tra il tuo loop e la mia soluzione vettoriale per nframes
in {10, 100, 1000} e larghezza e altezza di multi_array
in {100, 1000, 10000}
:
def set_slices_loop(arr, slice_rrcc):
for a, s in zip(arr, slice_rrcc):
a[s[0]:s[1], s[2]:s[3]] = 1
np.random.seed(0xABCDEF)
for nframes in [10, 100, 1000]:
for dim in [10, 32, 100]:
print(f'Size = {nframes}x{dim}x{dim}')
arr = np.zeros((nframes, dim, dim), dtype=int)
slice = np.zeros((nframes, 4), dtype=int)
slice[:, ::2] = np.random.randint(0, dim - 1, size=(nframes, 2))
slice[:, 1::2] = np.random.randint(slice[:, ::2] + 1, dim, size=(nframes, 2))
%timeit set_slices_loop(arr, slice)
arr[:] = 0
%timeit set_slices(arr, slice)
I risultati sono in modo schiacciante a favore del loop, con la sola eccezione di un numero molto elevato di frame e di frame di piccole dimensioni. La maggior parte dei casi "normali" sono un ordine di grandezza più veloci con il loop:
Looping
| Dimension |
| 100 | 1000 | 10000 |
--------+---------+---------+---------+
F 10 | 33.8 µs | 35.8 µs | 43.4 µs |
r -----+---------+---------+---------+
a 100 | 310 µs | 331 µs | 401 µs |
m -----+---------+---------+---------+
e 1000 | 3.09 ms | 3.31 ms | 4.27 ms |
--------+---------+---------+---------+
Vettorializzare
| Dimension |
| 100 | 1000 | 10000 |
--------+---------+---------+---------+
F 10 | 225 µs | 266 µs | 545 µs |
r -----+---------+---------+---------+
a 100 | 312 µs | 627 µs | 4.11 ms |
m -----+---------+---------+---------+
e 1000 | 1.07 ms | 4.63 ms | 48.5 ms |
--------+---------+---------+---------+
TL; DR
Può essere fatto, ma non consigliato:
def set_slices(arr, slice_rrcc, value):
nframes = slice_rrcc.shape[0]
nrows = np.diff(slice_rrcc[:, :2], axis=1).ravel()
ncols = np.diff(slice_rrcc[:, 2:], axis=1).ravel()
sizes = nrows * ncols
segments = np.repeat(ncols, nrows)
frame_index = np.repeat(np.arange(nframes), sizes)
row_range = np.arange(nrows.sum())
row_offsets = np.zeros_like(row_range)
row_offsets[np.cumsum(nrows[:-1])] = nrows[:-1]
row_index = row_range - np.cumsum(row_offsets) + np.repeat(slice_rrcc[:, 0], nrows)
row_index = np.repeat(row_index, segments)
col_index_index = np.arange(sizes.sum())
col_index_resets = np.cumsum(segments[:-1])
col_index_offsets = np.zeros_like(col_index_index)
col_index_offsets[col_index_resets] = segments[:-1]
col_index_offsets[np.cumsum(sizes[:-1])] -= ncols[:-1]
col_index_index -= np.cumsum(col_index_offsets)
col_range = np.arange(ncols.sum())
col_offsets = np.zeros_like(col_range)
col_offsets[np.cumsum(ncols[:-1])] = ncols[:-1]
col_index = col_range - np.cumsum(col_offsets) + np.repeat(slice_rrcc[:, 2], ncols)
col_index = col_index[col_index_index]
if values.size == 1:
arr[frame_index, row_index, col_index] = value
else:
arr[frame_index, row_index, col_index] = np.repeat(values, sizes)
Questo è un post di benchmarking che utilizza il benchitpacchetto (pochi strumenti di benchmarking impacchettati insieme; disclaimer: io sono il suo autore) per confrontare le soluzioni proposte.
Stiamo confrontando set_slices
da soln @Mad Physicist con arr[frame_index, row_index, col_index] = 1
e set_slices_loop
senza modifiche per ottenere il runtime (sec)
.
np.random.seed(0xABCDEF)
in_ = {}
for nframes in [10, 100, 1000]:
for dim in [10, 32, 100]:
arr = np.zeros((nframes, dim, dim), dtype=int)
slice = np.zeros((nframes, 4), dtype=int)
slice[:, ::2] = np.random.randint(0, dim - 1, size=(nframes, 2))
slice[:, 1::2] = np.random.randint(slice[:, ::2] + 1, dim, size=(nframes, 2))
in_[(nframes, dim)] = [arr, slice]
import benchit
funcs = [set_slices, set_slices_loop]
t = benchit.timings(funcs, in_, input_name=['NumFrames', 'Dim'], multivar=True)
t.plot(sp_argID=1, logx=True, save='timings.png')
