Articles de recherche les mieux récompensés des conférences TOP 5 AI en 2022

Nov 27 2022
Dans cet article, je souhaite présenter les articles les mieux primés et les plus remarquables des conférences TOP 5 AI en 2022 : CVPR, ICLR, NeurIPS, ICML et ECCV. CVPR 2022 (Computer Vision and Pattern Recognition Conference) Apprendre à résoudre des problèmes minimaux difficiles - Petr Hruby, Timothy Duff, Anton Leykin et Tomas Pajdla Détection de vibrations optiques à double obturateur - Mark Sheinin, Dorian Chan, Matthew O'Toole, Srinivasa Narasimhan EPro -PnP : perspective-n-points probabiliste généralisée de bout en bout pour l'estimation de pose d'objet monoculaire — Hansheng Chen, Pichao Wang, Fan Wang, Wei Tian, ​​Lu Xiong, Hao Li Ref-NeRF : Apparence structurée dépendante de la vue pour la radiance neurale Fields — Dor Verbin, Peter Hedman, Ben Mildenhall, Todd Zickler, Jonathan Barron, Pratul Srinivasan ICLR 2022 (Conférence internationale sur les représentations de l'apprentissage) Analytique-DPM :

Dans cet article, je souhaite présenter les articles les mieux primés et les plus remarquables des conférences TOP 5 AI en 2022 : CVPR, ICLR, NeurIPS, ICML et ECCV.

CVPR 2022 ( Conférence sur la vision par ordinateur et la reconnaissance de formes)

Apprendre à résoudre des problèmes minimes difficiles - Petr Hruby, Timothy Duff, Anton Leykin et Tomas Pajdla

Détection optique des vibrations à double obturateur - Mark Sheinin, Dorian Chan, Matthew O'Toole, Srinivasa Narasimhan

EPro-PnP : perspective-n-points probabiliste généralisée de bout en bout pour l'estimation de pose d'objet monoculaire — Hansheng Chen, Pichao Wang, Fan Wang, Wei Tian, ​​Lu Xiong, Hao Li

Ref-NeRF : Apparence structurée dépendante de la vue pour les champs de rayonnement neuronal - Dor Verbin, Peter Hedman, Ben Mildenhall, Todd Zickler, Jonathan Barron, Pratul Srinivasan

ICLR 2022 (Conférence internationale sur les représentations de l'apprentissage)

Analytique-DPM : une estimation analytique de la variance inverse optimale dans les modèles probabilistes de diffusionFan Bao, Chongxuan Li, Jun Zhu, Bo Zhang

Réglage des hyperparamètres avec Renyi Differential PrivacyNicolas Papernot, Thomas Steinke

Apprentissage des progrès dans les réseaux de neurones convolutifsRachid Riad, Olivier Teboul, David Grangier, Neil Zeghidour

Propriétés d'expressivité et d'approximation des réseaux de neurones de graphes - Floris Geerts, Juan L Reutter

Comparaison des distributions en mesurant les différences qui affectent la prise de décisionShengjia Zhao, Abhishek Sinha, Yutong (Kelly) He, Aidan Perreault, Jiaming Song, Stefano Ermon

Effondrement neuronal sous perte de MSE : proximité et dynamique sur le chemin central - XY Han, Vardan Papyan, David L. Donoho

Méta-apprentissage bootstrappéSebastian Flennerhag, Yannick Schroecker, Tom Zahavy, Hado van Hasselt, David Silver, Satinder Singh

Comprendre le sur-écrasement et les goulots d'étranglement sur les graphiques via la courbure - Jake Topping, Francesco Di Giovanni, Benjamin Paul Chamberlain, Xiaowen Dong, Michael M. Bronstein

Modélisation efficace de longues séquences avec des espaces d'états structurés - Albert Gu, Karan Goel, Christopher Re

PiCO : Désambiguïsation contrastive des étiquettes pour l'apprentissage partiel des étiquettes - Haobo Wang, Ruixuan Xiao, Yixuan (Sharon) Li, Lei Feng, Gang Niu, Gang Chen, Junbo Zhao

NeurIPS 2022 (Conférence sur les systèmes de traitement de l'information neuronale)

La détection hors distribution est-elle apprenable ? — Zhen Fang, Yixuan Li, Jie Lu, Jiahua Dong, Bo Han, Feng Liu

Modèles de diffusion texte-image photoréalistes avec compréhension approfondie du langage — Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S. Sara Mahdavi, Raphael Gontijo-Lopes, Tim Salimans, Jonathan Ho, David J Fleet, Mohammad Norouzi

Élucider l'espace de conception des modèles génératifs basés sur la diffusion — Tero Karras, Miika Aittala, Timo Aila, Samuli Laine

ProcTHOR : IA incarnée à grande échelle utilisant la génération procédurale Matt Deitke, Eli VanderBilt, Alvaro Herrasti, Luca Weihs, Kiana Ehsani, Jordi Salvador, Winson Han, Eric Kolve, Aniruddha Kembhavi, Roozbeh Mottaghi

Utilisation du langage naturel et des abstractions de programme pour instiller des biais inductifs humains dans les machinesSreejan Kumar, Carlos G Correa, Ishita Dasgupta, Raja Marjieh, Michael Hu, Robert D. Hawkins, Jonathan Cohen, Nathaniel Daw, Karthik R Narasimhan, Thomas L. Griffiths

Un indexeur de corpus neuronal pour la récupération de documents — Yujing Wang, Yingyan Hou, Haonan Wang, Ziming Miao, Shibin Wu, Hao Sun, Qi Chen , Yuqing Xia, Chengmin Chi, Guoshuai Zhao, Zheng Liu, Xing Xie, Hao Sun, Weiwei Deng, Qi Zhang, Mao Yang

Théorèmes limites de grande dimension pour SGD : dynamique effective et mise à l'échelle critique - Gerard Ben Arous, Reza Gheissari, Aukosh Jagannath

Descente de gradient : l'optimiseur ultime — Kartik Chandra, Audrey Xie, Jonathan Ragan-Kelley, Erik Meijer

Modélisation générative basée sur les scores de Riemann — Valentin De Bortoli, Emile Mathieu, Michael John Hutchinson, James Thornton, Yee Whye Teh, Arnaud Doucet

Estimation de gradient avec des opérateurs Stein discrets Jiaxin Shi, Yuhao Zhou, Jessica Hwang, Michalis Titsias, Lester Mackey

Une analyse empirique de la formation de grands modèles linguistiques optimaux pour le calcul - Jordan Hoffmann, Sebastian Borgeaud, Arthur Mensch, Elena Buchatskaya, Trevor Cai, Eliza Rutherford, Diego de las Casas, Lisa Anne Hendricks, Johannes Welbl, Aidan Clark, Tom Hennigan, Eric Noland , Katherine Millican, George van den Driessche, Bogdan Damoc, Aurelia Guy, Simon Osindero, Karen Simonyan, Erich Elsen, Oriol Vinyals, Jack William Rae, Laurent Sifre

Au-delà des lois de mise à l'échelle neuronale : battre la mise à l'échelle de la loi de puissance via l'élagage des données — Ben Sorscher, Robert Geirhos, Shashank Shekhar, Surya Ganguli, Ari S. Morcos

Échantillonnage à la demande : apprendre de manière optimale à partir de plusieurs distributions — Nika Haghtalab, Michael Jordan, Eric Zhao

LAION-5B : Un ensemble de données ouvert à grande échelle pour la formation de modèles image-texte de nouvelle génération — Christoph Schuhmann, Romain Beaumont, Richard Vencu, Cade W Gordon, Ross Wightman, Mehdi Cherti, Theo Coombes, Aarush Katta, Clayton Mullis, Mitchell Wortsman, Patrick Schramowski, Srivatsa R Kundurthy, Katherine Crowson, Ludwig Schmidt, Robert Kaczmarczyk, Jenia Jitsev

MineDojo : Création d'agents incarnés ouverts avec des connaissances à l'échelle d'Internet Linxi Fan, Guanzhi Wang, Yunfan Jiang, Ajay Mandlekar, Yuncong Yang, Haoyi Zhu, Andrew Tang, De-An Huang, Yuke Zhu, Anima Anandkumar

ICML 2022 (Conférence internationale sur l'apprentissage automatique)

Ensembles de prédictions conformes stables — Eugene Ndiaye

Conceptions causales de l'équité et leurs conséquences - Hamed Nilforoshan, Johann Gaebler, Ravi Shroff, Sharad Goel

Comprendre la difficulté des ensembles de données avec des informations utilisables en V - Kawin Ethayarajh, Yejin Choi, Swabha Swayamdipta

Mélanges d'apprentissage de systèmes dynamiques linéaires - Yanxi Chen, H. Vincent Poor

Confidentialité gratuite : comment la condensation des ensembles de données aide-t-elle la confidentialité ? — Tian Dong, Bo Zhao, Lingjuan Lyu

G-Mixup : Augmentation des données de graphes pour la classification des graphes — Xiaotian Han, Zhimeng Jiang, Ninghao Liu, Xia Hu

Les simulateurs différentiables donnent-ils de meilleurs gradients de politique ? — Hyung Ju Suh, Max Simchowitz, Kaiqing Zhang, Russ Tedrake

Sélection du modèle bayésien, probabilité marginale et généralisation - Sanae Lotfi, Pavel Izmailov, Gregory Benton, Micah Goldblum, Andrew Gordon Wilson

Résoudre le jeu de prédiction de Stackelberg avec la perte des moindres carrés via la reformulation des moindres carrés sphériquement contraints - Jiali Wang, Wen Huang, Rujun Jiang, Xudong Li, Alex L Wang

L'importance de la non-markovianité dans l'exploration de l'entropie d'état maximale - Mirco Mutti, Riccardo De Santi, Marcello Restelli

Conception d'intervention à coût minimum pour l'identification des effets de causalité - Sina Akbari, Jalal Etesami, Negar Kiyavash

Monarque : Matrices structurées expressives pour un entraînement efficace et précis — Tri Dao, Beidi Chen, Nimit S Sohoni, Arjun Desai, Michael Poli, Jessica Grogan, Alexander Liu, Aniruddh Rao, Atri Rudra, Christopher Re

Acteur critique formé de manière contradictoire pour l'apprentissage par renforcement hors ligne - Ching-An Cheng, Tengyang Xie, Nan Jiang, Alekh Agarwal

Audit actif d'équité Tom Yan, Chicheng Zhang

Apprendre le pliage inverse à partir de millions de structures prédites - Chloe Hsu, Robert Verkuil, Jason Liu, Zeming Lin, Brian Hie, Tom Sercu, Adam Lerer, Alexander Rives

ECCV 2022 (Conférence européenne sur la vision par ordinateur)

Sur les utilisations polyvalentes de la corrélation de distance partielle dans l'apprentissage en profondeur - Xingjian Zhen, Zihang Meng, Rudrasis Chakraborty, Vikas Singh

Pose-NDF : Modélisation de collecteurs de pose humaine avec des champs de distance neuronaux — Garvita Tiwari, Dimitrije Antic, Jan E. Lenssen, Nikolaos Sarafianos, Tony Tung, Gerard Pons-Moll

Une théorie des ensembles de niveaux pour l'évolution implicite neuronale sous des flux explicites - Ishit Mehta, Manmohan Chandraker, Ravi Ramamoorthi

Félicitations à tous les auteurs pour les prix des meilleurs articles lors des principales conférences sur l'IA !!!