Najlepiej nagradzane artykuły naukowe z TOP 5 konferencji AI w 2022 roku

Nov 27 2022
W tym artykule chcę przedstawić najlepsze nagrodzone i wybitne referaty z konferencji TOP 5 AI w 2022 roku: CVPR, ICLR, NeurIPS, ICML i ECCV. CVPR 2022 (konferencja dotycząca widzenia komputerowego i rozpoznawania wzorców) Nauka rozwiązywania trudnych minimalnych problemów — Petr Hruby, Timothy Duff, Anton Leykin i Tomas Pajdla Optyczne wykrywanie drgań z podwójną migawką — Mark Sheinin, Dorian Chan, Matthew O'Toole, Srinivasa Narasimhan EPro -PnP: uogólniona perspektywa probabilistyczna typu end-to-end dla oceny położenia obiektu jednoocznego — Hansheng Chen, Pichao Wang, Fan Wang, Wei Tian, ​​Lu Xiong, Hao Li Ref-NeRF: strukturalny wygląd zależny od widoku dla promieniowania neuronowego Fields — Dor Verbin, Peter Hedman, Ben Mildenhall, Todd Zickler, Jonathan Barron, Pratul Srinivasan ICLR 2022 (International Conference on Learning Representations) Analityczny DPM:

W tym artykule chcę przedstawić najlepsze nagrodzone i wybitne referaty z konferencji TOP 5 AI w 2022 roku: CVPR, ICLR, NeurIPS, ICML i ECCV.

CVPR 2022 ( konferencja dotycząca widzenia komputerowego i rozpoznawania wzorców )

Nauka rozwiązywania trudnych minimalnych problemów — Petr Hruby, Timothy Duff, Anton Leykin i Tomas Pajdla

Optyczny czujnik drgań z podwójną migawką Mark Sheinin, Dorian Chan, Matthew O'Toole, Srinivasa Narasimhan

EPro-PnP: uogólniona, kompleksowa probabilistyczna perspektywa n-punktów do szacowania położenia obiektu jednoocznego — Hansheng Chen, Pichao Wang, Fan Wang, Wei Tian, ​​Lu Xiong, Hao Li

Ref-NeRF: uporządkowany wygląd zależny od widoku dla neuronowych pól promieniowania — Dor Verbin, Peter Hedman, Ben Mildenhall, Todd Zickler, Jonathan Barron, Pratul Srinivasan

ICLR 2022 (Międzynarodowa konferencja na temat reprezentacji uczenia się)

Analityczny DPM: analityczne oszacowanie optymalnej odwrotnej wariancji w modelach probabilistycznych dyfuzjiFan Bao, Chongxuan Li, Jun Zhu, Bo Zhang

Dostrajanie hiperparametrów z prywatnością różnicową RenyiNicolas Papernot, Thomas Steinke

Postępy w nauce konwolucyjnych sieci neuronowychRachid Riad, Olivier Teboul, David Grangier, Neil Zeghidour

Ekspresyjność i właściwości aproksymacji grafowych sieci neuronowychFloris Geerts, Juan L. Reutter

Porównanie rozkładów poprzez pomiar różnic wpływających na podejmowanie decyzjiShengjia Zhao, Abhishek Sinha, Yutong (Kelly) He, Aidan Perreault, Jiaming Song, Stefano Ermon

Zapaść nerwowa pod wpływem utraty MSE: bliskość i dynamika na ścieżce centralnejXY Han, Vardan Papyan, David L. Donoho

Bootstrapped Meta-learningSebastian Flennerhag, Yannick Schroecker, Tom Zahavy, Hado van Hasselt, David Silver, Satinder Singh

Zrozumienie nadmiernego zgniatania i wąskich gardeł na wykresach poprzez krzywiznęJake Topping, Francesco Di Giovanni, Benjamin Paul Chamberlain, Xiaowen Dong, Michael M. Bronstein

Efektywne modelowanie długich sekwencji za pomocą ustrukturyzowanych przestrzeni stanówAlbert Gu, Karan Goel, Christopher Re

PiCO: Kontrastowe ujednoznacznienie etykiet dla częściowego uczenia się etykiet - Haobo Wang, Ruixuan Xiao, Yixuan (Sharon) Li, Lei Feng, Gang Niu, Gang Chen, Junbo Zhao

NeurIPS 2022 (Konferencja na temat systemów przetwarzania informacji neuronowych)

Czy wykrywania braku dystrybucji można się nauczyć? — Zhen Fang, Yixuan Li, Jie Lu, Jiahua Dong, Bo Han, Feng Liu

Fotorealistyczne modele dyfuzji tekstu na obraz z głębokim zrozumieniem języka — Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S. Sara Mahdavi, Raphael Gontijo-Lopes, Tim Salimans, Jonathan Ho, David J Fleet, Mohammad Norouzi

Wyjaśnianie przestrzeni projektowej generatywnych modeli opartych na dyfuzji — Tero Karras, Miika Aittala, Timo Aila, Samuli Laine

ProcTHOR: Wbudowana sztuczna inteligencja na dużą skalę z wykorzystaniem generowania procedur Matt Deitke, Eli VanderBilt, Alvaro Herrasti, Luca Weihs, Kiana Ehsani, Jordi Salvador, Winson Han, Eric Kolve, Aniruddha Kembhavi, Roozbeh Mottaghi

Używanie języka naturalnego i abstrakcji programowych do zaszczepiania ludzkich uprzedzeń indukcyjnych w maszynachSreejan Kumar, Carlos G Correa, Ishita Dasgupta, Raja Marjieh, Michael Hu, Robert D. Hawkins, Jonathan Cohen, Nathaniel Daw, Karthik R Narasimhan, Thomas L. Griffiths

Neural Corpus Indexer do wyszukiwania dokumentów — Yujing Wang, Yingyan Hou, Haonan Wang, Ziming Miao, Shibin Wu, Hao Sun, Qi Chen , Yuqing Xia, Chengmin Chi, Guoshuai Zhao, Zheng Liu, Xing Xie, Hao Sun, Weiwei Deng, Qi Zhang, Mao Yang

Wielowymiarowe twierdzenia graniczne dla SGD: Efektywna dynamika i skalowanie krytyczne — Gerard Ben Arous, Reza Gheissari, Aukosh Jagannath

Gradient Descent: The Ultimate Optimizer — Kartik Chandra, Audrey Xie, Jonathan Ragan-Kelley, Erik Meijer

Modelowanie generatywne oparte na wynikach riemannowskich — Valentin De Bortoli, Emile Mathieu, Michael John Hutchinson, James Thornton, Yee Whye Teh, Arnaud Doucet

Szacowanie gradientu za pomocą dyskretnych operatorów Steina Jiaxin Shi, Yuhao Zhou, Jessica Hwang, Michalis Titsias, Lester Mackey

Empiryczna analiza optymalnego obliczeniowo treningu dużych modeli językowych — Jordan Hoffmann, Sebastian Borgeaud, Arthur Mensch, Elena Buchatskaya, Trevor Cai, Eliza Rutherford, Diego de las Casas, Lisa Anne Hendricks, Johannes Welbl, Aidan Clark, Tom Hennigan, Eric Noland , Katherine Millican, George van den Driessche, Bogdan Damoc, Aurelia Guy, Simon Osindero, Karen Simonyan, Erich Elsen, Oriol Vinyals, Jack William Rae, Laurent Sifre

Poza prawami skalowania neuronów: pokonywanie skalowania prawa mocy poprzez przycinanie danych — Ben Sorscher, Robert Geirhos, Shashank Shekhar, Surya Ganguli, Ari S. Morcos

Próbkowanie na żądanie: optymalne uczenie się z wielu dystrybucji — Nika Haghtalab, Michael Jordan, Eric Zhao

LAION-5B: Otwarty zbiór danych na dużą skalę do trenowania modeli obrazowo-tekstowych nowej generacji — Christoph Schuhmann, Romain Beaumont, Richard Vencu, Cade W Gordon, Ross Wightman, Mehdi Cherti, Theo Coombes, Aarush Katta, Clayton Mullis, Mitchell Wortsman, Patrick Schramowski, Srivatsa R Kundurthy, Katherine Crowson, Ludwig Schmidt, Robert Kaczmarczyk, Jenia Jitsev

MineDojo: budowanie otwartych, wcielonych agentów z wiedzą na skalę internetową Linxi Fan, Guanzhi Wang, Yunfan Jiang, Ajay Mandlekar, Yuncong Yang, Haoyi Zhu, Andrew Tang, De-An Huang, Yuke Zhu, Anima Anandkumar

ICML 2022 (Międzynarodowa konferencja na temat uczenia maszynowego)

Stabilne zestawy przewidywań konformalnych — Eugene Ndiaye

Przyczynowe koncepcje sprawiedliwości i ich konsekwencje — Hamed Nilforoshan, Johann Gaebler, Ravi Shroff, Sharad Goel

Zrozumienie trudności zbioru danych z informacjami V- Usable — Kawin Ethayarajh, Yejin Choi, Swabha Swayamdipta

Uczenie się mieszanin liniowych układów dynamicznych — Yanxi Chen, H. Vincent Poor

Prywatność za darmo: w jaki sposób Kondensacja Zestawów Danych pomaga w ochronie prywatności? — Tian Dong, Bo Zhao, Lingjuan Lyu

G-Mixup: Rozszerzanie danych wykresu w celu klasyfikacji wykresów — Xiaotian Han, Zhimeng Jiang, Ninghao Liu, Xia Hu

Czy różniczkowalne symulatory dają lepsze gradienty polityki? — Hyung Ju Suh, Max Simchowitz, Kaiqing Zhang, Russ Tedrake

Wybór modelu bayesowskiego, krańcowe prawdopodobieństwo i uogólnienie — Sanae Lotfi, Pavel Izmailov, Gregory Benton, Micah Goldblum, Andrew Gordon Wilson

Rozwiązywanie gry prognostycznej Stackelberga z utratą najmniejszych kwadratów poprzez przeformułowanie metodą najmniejszych kwadratów z ograniczonymi sferycznie — Jiali Wang, Wen Huang, Rujun Jiang, Xudong Li, Alex L Wang

Znaczenie niemarkowiaństwa w eksploracji maksymalnej entropii stanu — Mirco Mutti, Riccardo De Santi, Marcello Restelli

Minimalny koszt interwencji Projekt identyfikacji skutków przyczynowych — Sina Akbari, Jalal Etesami, Negar Kiyavash

Monarch: Ekspresyjne matryce strukturalne dla efektywnego i dokładnego treningu — Tri Dao, Beidi Chen, Nimit S Sohoni, Arjun Desai, Michael Poli, Jessica Grogan, Alexander Liu, Aniruddh Rao, Atri Rudra, Christopher Re

Aktor wyszkolony jako krytyk do uczenia się przez wzmacnianie offline — Ching-An Cheng, Tengyang Xie, Nan Jiang, Alekh Agarwal

Aktywny audyt rzetelności Tom Yan, Chicheng Zhang

Nauka składania odwrotnego z milionów przewidywanych struktur Chloe Hsu, Robert Verkuil, Jason Liu, Zeming Lin, Brian Hie, Tom Sercu, Adam Lerer, Alexander Rives

ECCV 2022 (Europejska Konferencja Wizji Komputerowej)

O wszechstronnych zastosowaniach częściowej korelacji odległości w uczeniu głębokim — Xingjian Zhen, Zihang Meng, Rudrasis Chakraborty, Vikas Singh

Pose-NDF: modelowanie rozmaitości pozycji człowieka za pomocą neuronowych pól odległości — Garvita Tiwari, Dimitrije Antic, Jan E. Lenssen, Nikolaos Sarafianos, Tony Tung, Gerard Pons-Moll

Teoria zestawu poziomów dla niejawnej ewolucji neuronów w przepływach jawnych — Ishit Mehta, Manmohan Chandraker, Ravi Ramamoorthi

Wszystkim autorom gratulujemy nagród za najlepsze referaty na najważniejszych konferencjach AI!!!