Los trabajos de investigación mejor premiados de las conferencias TOP 5 AI en 2022

En este artículo, quiero presentar los trabajos mejor premiados y destacados de las conferencias TOP 5 AI en 2022: CVPR, ICLR, NeurIPS, ICML y ECCV.
CVPR 2022 ( Conferencia de reconocimiento de patrones y visión artificial)
Aprendiendo a resolver problemas mínimos difíciles : Petr Hruby, Timothy Duff, Anton Leykin y Tomas Pajdla
Detección de vibración óptica de doble obturador : Mark Sheinin, Dorian Chan, Matthew O'Toole, Srinivasa Narasimhan
EPro-PnP: Puntos-n-perspectiva probabilísticos integrales generalizados para la estimación de poses de objetos monoculares — Hansheng Chen, Pichao Wang, Fan Wang, Wei Tian, Lu Xiong, Hao Li
Ref-NeRF: apariencia dependiente de la vista estructurada para campos de radiación neuronal — Dor Verbin, Peter Hedman, Ben Mildenhall, Todd Zickler, Jonathan Barron, Pratul Srinivasan
ICLR 2022 (Conferencia Internacional sobre Representaciones de Aprendizaje)
Analytic-DPM: una estimación analítica de la varianza inversa óptima en modelos probabilísticos de difusión — Fan Bao, Chongxuan Li, Jun Zhu, Bo Zhang
Ajuste de hiperparámetros con privacidad diferencial Renyi — Nicolas Papernot, Thomas Steinke
Avances en el aprendizaje de las redes neuronales convolucionales — Rachid Riad, Olivier Teboul, David Grangier, Neil Zeghidour
Expresividad y propiedades de aproximación de redes neuronales gráficas — Floris Geerts, Juan L Reutter
Comparación de distribuciones midiendo las diferencias que afectan la toma de decisiones : Shengjia Zhao, Abhishek Sinha, Yutong (Kelly) He, Aidan Perreault, Jiaming Song, Stefano Ermon
Colapso neuronal bajo pérdida de MSE: proximidad y dinámica en la ruta central : XY Han, Vardan Papyan, David L. Donoho
Metaaprendizaje Bootstrapped : Sebastian Flennerhag, Yannick Schroecker, Tom Zahavy, Hado van Hasselt, David Silver, Satinder Singh
Comprender el aplastamiento excesivo y los cuellos de botella en los gráficos a través de la curvatura : Jake Topping, Francesco Di Giovanni, Benjamin Paul Chamberlain, Xiaowen Dong, Michael M. Bronstein
Modelado eficiente de secuencias largas con espacios de estado estructurados — Albert Gu, Karan Goel, Christopher Re
PiCO: desambiguación de etiquetas contrastivas para el aprendizaje parcial de etiquetas : Haobo Wang, Ruixuan Xiao, Yixuan (Sharon) Li, Lei Feng, Gang Niu, Gang Chen, Junbo Zhao
NeurIPS 2022 (Conferencia sobre Sistemas de Procesamiento de Información Neural)
¿Se puede aprender la detección fuera de distribución? —Zhen Fang, Yixuan Li, Jie Lu, Jiahua Dong, Bo Han, Feng Liu
Modelos fotorrealistas de difusión de texto a imagen con comprensión profunda del lenguaje : Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S. Sara Mahdavi, Raphael Gontijo-Lopes, Tim Salimans, Jonathan Ho, David J. Fleet, Mohammad Norouzi
Esclarecimiento del espacio de diseño de los modelos generativos basados en la difusión — Tero Karras, Miika Aittala, Timo Aila, Samuli Laine
ProcTHOR: IA incorporada a gran escala mediante generación procedimental — Matt Deitke, Eli VanderBilt, Alvaro Herrasti, Luca Weihs, Kiana Ehsani, Jordi Salvador, Winson Han, Eric Kolve, Aniruddha Kembhavi, Roozbeh Mottaghi
Uso del lenguaje natural y abstracciones de programas para inculcar sesgos inductivos humanos en las máquinas : Sreejan Kumar, Carlos G Correa, Ishita Dasgupta, Raja Marjieh, Michael Hu, Robert D. Hawkins, Jonathan Cohen, Nathaniel Daw, Karthik R Narasimhan, Thomas L. Griffiths
Un indexador de corpus neuronal para la recuperación de documentos : Yujing Wang, Yingyan Hou, Haonan Wang, Ziming Miao, Shibin Wu, Hao Sun, Qi Chen , Yuqing Xia, Chengmin Chi, Guoshuai Zhao, Zheng Liu, Xing Xie, Hao Sun, Weiwei Deng, Qi Zhang, Mao Yang
Teoremas de límite de alta dimensión para SGD: dinámica efectiva y escalamiento crítico : Gerard Ben Arous, Reza Gheissari, Aukosh Jagannath
Descenso de gradiente: el optimizador definitivo — Kartik Chandra, Audrey Xie, Jonathan Ragan-Kelley, Erik Meijer
Modelado generativo basado en puntajes de Riemann : Valentin De Bortoli, Emile Mathieu, Michael John Hutchinson, James Thornton, Yee Whye Teh, Arnaud Doucet
Estimación de gradiente con operadores Stein discretos : Jiaxin Shi, Yuhao Zhou, Jessica Hwang, Michalis Titsias, Lester Mackey
Un análisis empírico del entrenamiento del modelo de lenguaje grande con optimización informática : Jordan Hoffmann, Sebastian Borgeaud, Arthur Mensch, Elena Buchatskaya, Trevor Cai, Eliza Rutherford, Diego de las Casas, Lisa Anne Hendricks, Johannes Welbl, Aidan Clark, Tom Hennigan, Eric Noland , Katherine Millican, George van den Driessche, Bogdan Damoc, Aurelia Guy, Simon Osindero, Karen Simonyan, Erich Elsen, Oriol Vinyals, Jack William Rae, Laurent Sifre
Más allá de las leyes de escala neuronal: superar la escala de la ley de potencia a través de la poda de datos : Ben Sorscher, Robert Geirhos, Shashank Shekhar, Surya Ganguli, Ari S. Morcos
Muestreo bajo demanda: aprendizaje óptimo de múltiples distribuciones — Nika Haghtalab, Michael Jordan, Eric Zhao
LAION-5B: un conjunto de datos abierto a gran escala para entrenar modelos de imagen y texto de próxima generación : Christoph Schuhmann, Romain Beaumont, Richard Vencu, Cade W Gordon, Ross Wightman, Mehdi Cherti, Theo Coombes, Aarush Katta, Clayton Mullis, Mitchell Wortsman, Patrick Schramowski, Srivatsa R. Kundurthy, Katherine Crowson, Ludwig Schmidt, Robert Kaczmarczyk, Jenia Jitsev
MineDojo: creación de agentes encarnados abiertos con conocimiento a escala de Internet : Linxi Fan, Guanzhi Wang, Yunfan Jiang, Ajay Mandlekar, Yuncong Yang, Haoyi Zhu, Andrew Tang, De-An Huang, Yuke Zhu, Anima Anandkumar
ICML 2022 (Conferencia Internacional sobre Aprendizaje Automático)
Conjuntos estables de predicción conforme — Eugene Ndiaye
Concepciones causales de la equidad y sus consecuencias : Hamed Nilforoshan, Johann Gaebler, Ravi Shroff, Sharad Goel
Comprensión de la dificultad del conjunto de datos con información utilizable en V : Kawin Ethayarajh, Yejin Choi, Swabha Swayamdipta
Mezclas de aprendizaje de sistemas dinámicos lineales — Yanxi Chen, H. Vincent Poor
Privacidad gratis: ¿Cómo ayuda la condensación de conjuntos de datos a la privacidad? —Tian Dong, Bo Zhao, Lingjuan Lyu
G-Mixup: aumento de datos de gráficos para la clasificación de gráficos : Xiaotian Han, Zhimeng Jiang, Ninghao Liu, Xia Hu
¿Los simuladores diferenciables dan mejores gradientes de políticas? —Hyung Ju Suh, Max Simchowitz, Kaiqing Zhang, Russ Tedrake
Selección del modelo bayesiano, probabilidad marginal y generalización : Sanae Lotfi, Pavel Izmailov, Gregory Benton, Micah Goldblum, Andrew Gordon Wilson
Resolver el juego de predicción de Stackelberg con pérdida de mínimos cuadrados a través de la reformulación de mínimos cuadrados restringidos esféricamente — Jiali Wang, Wen Huang, Rujun Jiang, Xudong Li, Alex L Wang
La importancia de la no markovianidad en la exploración de máxima entropía de estado — Mirco Mutti, Riccardo De Santi, Marcello Restelli
Diseño de intervención de costo mínimo para la identificación del efecto causal — Sina Akbari, Jalal Etesami, Negar Kiyavash
Monarch: Matrices estructuradas expresivas para un entrenamiento eficiente y preciso — Tri Dao, Beidi Chen, Nimit S Sohoni, Arjun Desai, Michael Poli, Jessica Grogan, Alexander Liu, Aniruddh Rao, Atri Rudra, Christopher Re
Crítico de actores capacitado adversariamente para el aprendizaje de refuerzo fuera de línea : Ching-An Cheng, Tengyang Xie, Nan Jiang, Alekh Agarwal
Auditoría de equidad activa : Tom Yan, Chicheng Zhang
Aprendiendo plegamiento inverso de millones de estructuras predichas : Chloe Hsu, Robert Verkuil, Jason Liu, Zeming Lin, Brian Hie, Tom Sercu, Adam Lerer, Alexander Rives
ECCV 2022 (Conferencia Europea de Visión por Computador)
Sobre los usos versátiles de la correlación de distancia parcial en el aprendizaje profundo : Xingjian Zhen, Zihang Meng, Rudrasis Chakraborty, Vikas Singh
Pose-NDF: modelado de variedades de poses humanas con campos de distancia neural — Garvita Tiwari, Dimitrije Antic, Jan E. Lenssen, Nikolaos Sarafianos, Tony Tung, Gerard Pons-Moll
Una teoría de conjuntos de niveles para la evolución implícita neuronal bajo flujos explícitos : Ishit Mehta, Manmohan Chandraker, Ravi Ramamoorthi
¡¡¡Felicitaciones a todos los autores por los premios a los mejores artículos en las principales conferencias de IA!!!