Kısıtlanmamış Dizi Kazanımına "iyi bilinen" çözüm nasıl türetilir?
Birisi beni, Henry Cox'un 1987 IEEE makalesi "Robust Adaptive Beamforming" 'de hüzmeleyici Sınırsız Dizi Kazanç ifadesinin analitik olarak nasıl çözüleceğini gösteren bir web sayfasına veya başka bir kaynağa yönlendirebilir mi?
$$ \max_{\mathbf{w}} \frac{|\mathbf{w}^H\mathbf{d}|^2}{\mathbf{w}^H\mathbf{Q}\mathbf{w}} $$
Cox diyor ki:
İyi bilinen çözüm, $\mathbf{w} = \alpha\mathbf{Q}^{-1}\mathbf{d}$
Bunu kendim nasıl türeteceğimi öğrenerek bunu daha iyi anlamak istiyorum.
Yanıtlar
Lagrange çarpanları yöntemini kullanarak böyle bir sorunu çözebilirsiniz . İlk olarak, sorunuzdaki ifadeyi en üst düzeye çıkarmanın, ters işlevi en aza indirmeye eşdeğer olduğunu unutmayın:
$$\min_{\mathbf{w}}\frac{\mathbf{w}^H\mathbf{Q}\mathbf{w}}{|\mathbf{w}^H\mathbf{d}|^2}\tag{1}$$
Sonraki unutmayın çözümün $(1)$ ölçeklendirmeye değişmez $\mathbf{w}$yani değiştirme $\mathbf{w}$ tarafından $c\cdot\mathbf{w}$ içinde $(1)$ keyfi bir skaler sabit ile $c$işlevin değerini değiştirmeyecektir. Öyleyse öyle bir ölçeklendirme kullanabiliriz$\mathbf{w}^H\mathbf{d}=1$memnun. Bu ölçeklendirme, istenen sinyal için bir birlik yanıtına karşılık gelir. Bu kısıtlama ile sorun$(1)$ olarak yeniden formüle edilebilir
$$\min_{\mathbf{w}}\mathbf{w}^H\mathbf{Q}\mathbf{w}\qquad\textrm{s.t.}\qquad \mathbf{w}^H\mathbf{d}=1\tag{2}$$
Çözebiliriz $(2)$ en aza indirerek Lagrange çarpanları yöntemini kullanarak
$$\mathbf{w}^H\mathbf{Q}\mathbf{w}-\lambda(\mathbf{w}^H\mathbf{d}-1)\tag{3}$$
Resmen türevini almak $(3)$ göre $\mathbf{w}^H$ ve sıfıra ayarlamak
$$\mathbf{w}=\lambda\mathbf{Q}^{-1}\mathbf{d}\tag{4}$$
İçindeki kısıtlama $(2)$ için memnun
$$\lambda=\frac{1}{\mathbf{d}^H\mathbf{Q}^{-1}\mathbf{d}}\tag{5}$$
Nereden $(4)$ ve $(5)$ sonunda elde ettik
$$\mathbf{w}=\frac{\mathbf{Q}^{-1}\mathbf{d}}{\mathbf{d}^H\mathbf{Q}^{-1}\mathbf{d}}\tag{6}$$
Ölçeklendirmenin $(6)$ isteğe bağlıdır ve genel çözüm şu şekilde verilir: $(4)$.
İlk olarak, maksimum SINR hüzmeleyici problemi için çözümün bir taslağı $$ \text{max}_{\mathbf{w}} \frac{|\mathbf{w}^H\mathbf{d}|^2}{\mathbf{w}^H\mathbf{Q}\mathbf{w}} $$ İşlevsel bir not yazmakla başlayın $$ \mathbf{w}^H\mathbf{Q}\mathbf{w} $$en aza indirilecek ve bir dizi kısıtlama . Aslında, ağırlık vektörleri w ve w H , bu değişkenlere göre türev alırken iki bağımsız değişken kümesi olarak kabul edilir; bu nedenle, tipik olarak ağırlık-sinyal ortak ürününün kare modülü olarak yazılan çıkış sinyali enerjisi, karekökü alan norm hesaplanmadan analitik bir fonksiyon olarak yazılmalıdır:$$ |\mathbf{w}^H\mathbf{d}|^2 = \mathbf{w}^H\mathbf{d}·\mathbf{d}^H\mathbf{w} $$ Ortaya çıkan doğrusal sınırlamalar kümesi $$ \mathbf{w}^H\mathbf{d} = c \\ \mathbf{d}^H\mathbf{w} = c^* $$ ve iki Lagrange çarpanı, λ ve μ olan bir Lagrange yazmalıyız: $$ \mathbf{w}^H\mathbf{Q}\mathbf{w}-λ(\mathbf{w}^H\mathbf{d}-c)-μ(\mathbf{d}^H\mathbf{w}-c^*) $$İle ilgili olarak, ilk - Lagrange iki türevleri alarak ağırlık ile ilgili olarak, ve ikinci ağ H - biz ifadeler elde X ve ^ ı , ve varmak son olarak, kısıtlama ifadeler bu ikame ağırlık formülü:$$ \mathbf{w}=c\frac{\mathbf{Q}^{-1}\mathbf{d}}{\mathbf{d}^H\mathbf{Q}^{-1}\mathbf{d}} $$Şaşırtıcı bir şekilde, OP'nin talebi başına "hüzmeleyicinin analitik olarak nasıl çözüleceğini gösteren bir web sayfası veya başka bir kaynak" için bir web'de arama yaparken, bu formülün türetilmesinin yalnızca kısaltılmış, kusurlu versiyonlarını bulabildim, tipik bir belge , ders notları Optimal Hüzmeleme , diğer tüm yönleriyle konuya ayrıntılı ve yararlı bir giriş. Hatta OP'nin soruyu öğrenme kaynağının bu ihmalini yayınlamak amacıyla gönderdiğinden bile şüpheleniyorum (şaka yapmaya yönelik garip girişimimi affedin).
Şimdilik , optimal hüzmeleme ile ilgilenen öğrencilere genel doğrusal kısıtlı ikinci dereceden programlama üzerine öğrenme materyalini önerebilirim . Örneğin, ref.https://www.math.uh.edu/~rohop/fall_06/Chapter3.pdf ve https://www.cis.upenn.edu/~cis515/cis515-20-sl15.pdf. Bu belgelerde yalnızca gerçek değerli ikinci dereceden formlar ele alınmaktadır, ancak ana sonuçlar karmaşık alana genelleştirilebilir.