Los trabajos de investigación mejor premiados de las conferencias TOP 5 AI en 2022

Nov 27 2022
En este artículo, quiero presentar los trabajos mejor premiados y destacados de las conferencias TOP 5 AI en 2022: CVPR, ICLR, NeurIPS, ICML y ECCV. CVPR 2022 (Conferencia de reconocimiento de patrones y visión por computadora) Aprendiendo a resolver problemas mínimos difíciles: Petr Hruby, Timothy Duff, Anton Leykin y Tomas Pajdla Detección de vibración óptica de doble obturador: Mark Sheinin, Dorian Chan, Matthew O'Toole, Srinivasa Narasimhan EPro -PnP: Perspectiva probabilística de extremo a extremo generalizada-n-puntos para estimación de pose de objeto monocular — Hansheng Chen, Pichao Wang, Fan Wang, Wei Tian, ​​Lu Xiong, Hao Li Ref-NeRF: Aspecto estructurado dependiente de la vista para resplandor neuronal Campos: Dor Verbin, Peter Hedman, Ben Mildenhall, Todd Zickler, Jonathan Barron, Pratul Srinivasan ICLR 2022 (Conferencia internacional sobre representaciones de aprendizaje) Analytic-DPM:

En este artículo, quiero presentar los trabajos mejor premiados y destacados de las conferencias TOP 5 AI en 2022: CVPR, ICLR, NeurIPS, ICML y ECCV.

CVPR 2022 ( Conferencia de reconocimiento de patrones y visión artificial)

Aprendiendo a resolver problemas mínimos difíciles : Petr Hruby, Timothy Duff, Anton Leykin y Tomas Pajdla

Detección de vibración óptica de doble obturador : Mark Sheinin, Dorian Chan, Matthew O'Toole, Srinivasa Narasimhan

EPro-PnP: Puntos-n-perspectiva probabilísticos integrales generalizados para la estimación de poses de objetos monoculares — Hansheng Chen, Pichao Wang, Fan Wang, Wei Tian, ​​Lu Xiong, Hao Li

Ref-NeRF: apariencia dependiente de la vista estructurada para campos de radiación neuronal — Dor Verbin, Peter Hedman, Ben Mildenhall, Todd Zickler, Jonathan Barron, Pratul Srinivasan

ICLR 2022 (Conferencia Internacional sobre Representaciones de Aprendizaje)

Analytic-DPM: una estimación analítica de la varianza inversa óptima en modelos probabilísticos de difusiónFan Bao, Chongxuan Li, Jun Zhu, Bo Zhang

Ajuste de hiperparámetros con privacidad diferencial RenyiNicolas Papernot, Thomas Steinke

Avances en el aprendizaje de las redes neuronales convolucionalesRachid Riad, Olivier Teboul, David Grangier, Neil Zeghidour

Expresividad y propiedades de aproximación de redes neuronales gráficasFloris Geerts, Juan L Reutter

Comparación de distribuciones midiendo las diferencias que afectan la toma de decisiones : Shengjia Zhao, Abhishek Sinha, Yutong (Kelly) He, Aidan Perreault, Jiaming Song, Stefano Ermon

Colapso neuronal bajo pérdida de MSE: proximidad y dinámica en la ruta central : XY Han, Vardan Papyan, David L. Donoho

Metaaprendizaje Bootstrapped : Sebastian Flennerhag, Yannick Schroecker, Tom Zahavy, Hado van Hasselt, David Silver, Satinder Singh

Comprender el aplastamiento excesivo y los cuellos de botella en los gráficos a través de la curvatura : Jake Topping, Francesco Di Giovanni, Benjamin Paul Chamberlain, Xiaowen Dong, Michael M. Bronstein

Modelado eficiente de secuencias largas con espacios de estado estructuradosAlbert Gu, Karan Goel, Christopher Re

PiCO: desambiguación de etiquetas contrastivas para el aprendizaje parcial de etiquetas : Haobo Wang, Ruixuan Xiao, Yixuan (Sharon) Li, Lei Feng, Gang Niu, Gang Chen, Junbo Zhao

NeurIPS 2022 (Conferencia sobre Sistemas de Procesamiento de Información Neural)

¿Se puede aprender la detección fuera de distribución? —Zhen Fang, Yixuan Li, Jie Lu, Jiahua Dong, Bo Han, Feng Liu

Modelos fotorrealistas de difusión de texto a imagen con comprensión profunda del lenguaje : Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S. Sara Mahdavi, Raphael Gontijo-Lopes, Tim Salimans, Jonathan Ho, David J. Fleet, Mohammad Norouzi

Esclarecimiento del espacio de diseño de los modelos generativos basados ​​en la difusión — Tero Karras, Miika Aittala, Timo Aila, Samuli Laine

ProcTHOR: IA incorporada a gran escala mediante generación procedimental Matt Deitke, Eli VanderBilt, Alvaro Herrasti, Luca Weihs, Kiana Ehsani, Jordi Salvador, Winson Han, Eric Kolve, Aniruddha Kembhavi, Roozbeh Mottaghi

Uso del lenguaje natural y abstracciones de programas para inculcar sesgos inductivos humanos en las máquinas : Sreejan Kumar, Carlos G Correa, Ishita Dasgupta, Raja Marjieh, Michael Hu, Robert D. Hawkins, Jonathan Cohen, Nathaniel Daw, Karthik R Narasimhan, Thomas L. Griffiths

Un indexador de corpus neuronal para la recuperación de documentos : Yujing Wang, Yingyan Hou, Haonan Wang, Ziming Miao, Shibin Wu, Hao Sun, Qi Chen , Yuqing Xia, Chengmin Chi, Guoshuai Zhao, Zheng Liu, Xing Xie, Hao Sun, Weiwei Deng, Qi Zhang, Mao Yang

Teoremas de límite de alta dimensión para SGD: dinámica efectiva y escalamiento crítico : Gerard Ben Arous, Reza Gheissari, Aukosh Jagannath

Descenso de gradiente: el optimizador definitivo — Kartik Chandra, Audrey Xie, Jonathan Ragan-Kelley, Erik Meijer

Modelado generativo basado en puntajes de Riemann : Valentin De Bortoli, Emile Mathieu, Michael John Hutchinson, James Thornton, Yee Whye Teh, Arnaud Doucet

Estimación de gradiente con operadores Stein discretos : Jiaxin Shi, Yuhao Zhou, Jessica Hwang, Michalis Titsias, Lester Mackey

Un análisis empírico del entrenamiento del modelo de lenguaje grande con optimización informática : Jordan Hoffmann, Sebastian Borgeaud, Arthur Mensch, Elena Buchatskaya, Trevor Cai, Eliza Rutherford, Diego de las Casas, Lisa Anne Hendricks, Johannes Welbl, Aidan Clark, Tom Hennigan, Eric Noland , Katherine Millican, George van den Driessche, Bogdan Damoc, Aurelia Guy, Simon Osindero, Karen Simonyan, Erich Elsen, Oriol Vinyals, Jack William Rae, Laurent Sifre

Más allá de las leyes de escala neuronal: superar la escala de la ley de potencia a través de la poda de datos : Ben Sorscher, Robert Geirhos, Shashank Shekhar, Surya Ganguli, Ari S. Morcos

Muestreo bajo demanda: aprendizaje óptimo de múltiples distribuciones — Nika Haghtalab, Michael Jordan, Eric Zhao

LAION-5B: un conjunto de datos abierto a gran escala para entrenar modelos de imagen y texto de próxima generación : Christoph Schuhmann, Romain Beaumont, Richard Vencu, Cade W Gordon, Ross Wightman, Mehdi Cherti, Theo Coombes, Aarush Katta, Clayton Mullis, Mitchell Wortsman, Patrick Schramowski, Srivatsa R. Kundurthy, Katherine Crowson, Ludwig Schmidt, Robert Kaczmarczyk, Jenia Jitsev

MineDojo: creación de agentes encarnados abiertos con conocimiento a escala de Internet : Linxi Fan, Guanzhi Wang, Yunfan Jiang, Ajay Mandlekar, Yuncong Yang, Haoyi Zhu, Andrew Tang, De-An Huang, Yuke Zhu, Anima Anandkumar

ICML 2022 (Conferencia Internacional sobre Aprendizaje Automático)

Conjuntos estables de predicción conforme — Eugene Ndiaye

Concepciones causales de la equidad y sus consecuencias : Hamed Nilforoshan, Johann Gaebler, Ravi Shroff, Sharad Goel

Comprensión de la dificultad del conjunto de datos con información utilizable en V : Kawin Ethayarajh, Yejin Choi, Swabha Swayamdipta

Mezclas de aprendizaje de sistemas dinámicos lineales — Yanxi Chen, H. Vincent Poor

Privacidad gratis: ¿Cómo ayuda la condensación de conjuntos de datos a la privacidad? —Tian Dong, Bo Zhao, Lingjuan Lyu

G-Mixup: aumento de datos de gráficos para la clasificación de gráficos : Xiaotian Han, Zhimeng Jiang, Ninghao Liu, Xia Hu

¿Los simuladores diferenciables dan mejores gradientes de políticas? —Hyung Ju Suh, Max Simchowitz, Kaiqing Zhang, Russ Tedrake

Selección del modelo bayesiano, probabilidad marginal y generalización : Sanae Lotfi, Pavel Izmailov, Gregory Benton, Micah Goldblum, Andrew Gordon Wilson

Resolver el juego de predicción de Stackelberg con pérdida de mínimos cuadrados a través de la reformulación de mínimos cuadrados restringidos esféricamente — Jiali Wang, Wen Huang, Rujun Jiang, Xudong Li, Alex L Wang

La importancia de la no markovianidad en la exploración de máxima entropía de estado — Mirco Mutti, Riccardo De Santi, Marcello Restelli

Diseño de intervención de costo mínimo para la identificación del efecto causal — Sina Akbari, Jalal Etesami, Negar Kiyavash

Monarch: Matrices estructuradas expresivas para un entrenamiento eficiente y preciso — Tri Dao, Beidi Chen, Nimit S Sohoni, Arjun Desai, Michael Poli, Jessica Grogan, Alexander Liu, Aniruddh Rao, Atri Rudra, Christopher Re

Crítico de actores capacitado adversariamente para el aprendizaje de refuerzo fuera de línea : Ching-An Cheng, Tengyang Xie, Nan Jiang, Alekh Agarwal

Auditoría de equidad activa : Tom Yan, Chicheng Zhang

Aprendiendo plegamiento inverso de millones de estructuras predichas : Chloe Hsu, Robert Verkuil, Jason Liu, Zeming Lin, Brian Hie, Tom Sercu, Adam Lerer, Alexander Rives

ECCV 2022 (Conferencia Europea de Visión por Computador)

Sobre los usos versátiles de la correlación de distancia parcial en el aprendizaje profundo : Xingjian Zhen, Zihang Meng, Rudrasis Chakraborty, Vikas Singh

Pose-NDF: modelado de variedades de poses humanas con campos de distancia neural — Garvita Tiwari, Dimitrije Antic, Jan E. Lenssen, Nikolaos Sarafianos, Tony Tung, Gerard Pons-Moll

Una teoría de conjuntos de niveles para la evolución implícita neuronal bajo flujos explícitos : Ishit Mehta, Manmohan Chandraker, Ravi Ramamoorthi

¡¡¡Felicitaciones a todos los autores por los premios a los mejores artículos en las principales conferencias de IA!!!