ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
Tableau de bord
Tarifs
Compte
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
October 21st, 2024
UCFE : Un référentiel d'expertise financière centré sur l'utilisateur pour les grands modèles de langage.
UCFE: A User-Centric Financial Expertise Benchmark for Large Language Models
Yuzhe Yang, Yifei Zhang, Yan Hu, Yilin Guo, Ruoli Gan, Yueru He, Mingcong Lei, Xiao Zhang, Haining Wang, Qianqian Xie, Jimin Huang, Honghai Yu, Benyou Wang
•
Oct 17, 2024
•
53
2
Agents Web avec Modèles du Monde : Apprentissage et Exploitation de la Dynamique de l'Environnement dans la Navigation Web
Web Agents with World Models: Learning and Leveraging Environment Dynamics in Web Navigation
Hyungjoo Chae, Namyoung Kim, Kai Tzu-iunn Ong, Minju Gwak, Gwanwoo Song, Jihoon Kim, Sunghwan Kim, Dongha Lee, Jinyoung Yeo
•
Oct 17, 2024
•
40
2
NaturalBench : Évaluation des modèles Vision-Language sur des échantillons adverses naturels
NaturalBench: Evaluating Vision-Language Models on Natural Adversarial Samples
Baiqi Li, Zhiqiu Lin, Wenxuan Peng, Jean de Dieu Nyandwi, Daniel Jiang, Zixian Ma, Simran Khanuja, Ranjay Krishna, Graham Neubig, Deva Ramanan
•
Oct 18, 2024
•
35
4
MagicTailor : Personnalisation contrôlable par composant dans les modèles de diffusion texte-vers-image
MagicTailor: Component-Controllable Personalization in Text-to-Image Diffusion Models
Donghao Zhou, Jiancheng Huang, Jinbin Bai, Jiaze Wang, Hao Chen, Guangyong Chen, Xiaowei Hu, Pheng-Ann Heng
•
Oct 17, 2024
•
35
7
SeerAttention : Apprentissage de l'Attention Intrinsèquement Éparse dans Vos LLMs
SeerAttention: Learning Intrinsic Sparse Attention in Your LLMs
Yizhao Gao, Zhichen Zeng, Dayou Du, Shijie Cao, Hayden Kwok-Hay So, Ting Cao, Fan Yang, Mao Yang
•
Oct 17, 2024
•
25
2
FiTv2 : Vision Transformer Flexible amélioré et évolutif pour la diffusion de modèles
FiTv2: Scalable and Improved Flexible Vision Transformer for Diffusion Model
ZiDong Wang, Zeyu Lu, Di Huang, Cai Zhou, Wanli Ouyang, and Lei Bai
•
Oct 17, 2024
•
22
3
Mini-Omni2 : Vers un GPT-4o open-source avec des capacités de vision, de parole et de duplex
Mini-Omni2: Towards Open-source GPT-4o with Vision, Speech and Duplex Capabilities
Zhifei Xie, Changqiao Wu
•
Oct 15, 2024
•
20
2
DPLM-2 : Un modèle de langue multimodal à diffusion de protéines
DPLM-2: A Multimodal Diffusion Protein Language Model
Xinyou Wang, Zaixiang Zheng, Fei Ye, Dongyu Xue, Shujian Huang, Quanquan Gu
•
Oct 17, 2024
•
19
3
Curriculum de Diffusion : Apprentissage de Curriculum Génératif Synthétique-à-Réel via Diffusion Guidée par Image
Diffusion Curriculum: Synthetic-to-Real Generative Curriculum Learning via Image-Guided Diffusion
Yijun Liang, Shweta Bhardwaj, Tianyi Zhou
•
Oct 17, 2024
•
15
3
HART : Génération Visuelle Efficace avec un Transformateur Autorégressif Hybride
HART: Efficient Visual Generation with Hybrid Autoregressive Transformer
Haotian Tang, Yecheng Wu, Shang Yang, Enze Xie, Junsong Chen, Junyu Chen, Zhuoyang Zhang, Han Cai, Yao Lu, Song Han
•
Oct 14, 2024
•
14
2
DAWN : Avatar de Cadre Dynamique avec Cadre de Diffusion Non-Autorégressif pour la Génération de Vidéos de Tête Parlante
DAWN: Dynamic Frame Avatar with Non-autoregressive Diffusion Framework for Talking Head Video Generation
Hanbo Cheng, Limin Lin, Chenyu Liu, Pengcheng Xia, Pengfei Hu, Jiefeng Ma, Jun Du, Jia Pan
•
Oct 17, 2024
•
10
2
Les détecteurs d'IA sont-ils suffisamment performants ? Une enquête sur la qualité des ensembles de données contenant des textes générés par des machines.
Are AI Detectors Good Enough? A Survey on Quality of Datasets With Machine-Generated Texts
German Gritsai, Anastasia Voznyuk, Andrey Grabovoy, Yury Chekhovich
•
Oct 18, 2024
•
9
5
BiGR : Exploiter les codes latents binaires pour la génération d'images et l'amélioration des capacités de représentation visuelle
BiGR: Harnessing Binary Latent Codes for Image Generation and Improved Visual Representation Capabilities
Shaozhe Hao, Xuantong Liu, Xianbiao Qi, Shihao Zhao, Bojia Zi, Rong Xiao, Kai Han, Kwan-Yee K. Wong
•
Oct 18, 2024
•
7
2
SHAKTI : Un petit modèle de langage de 2,5 milliards de paramètres optimisé pour l'IA embarquée et les environnements à faibles ressources.
SHAKTI: A 2.5 Billion Parameter Small Language Model Optimized for Edge AI and Low-Resource Environments
Syed Abdul Gaffar Shakhadri, Kruthika KR, Rakshit Aralimatti
•
Oct 15, 2024
•
6
3
Regarder vers l'intérieur : les modèles de langage peuvent apprendre à propos d'eux-mêmes par introspection.
Looking Inward: Language Models Can Learn About Themselves by Introspection
Felix J Binder, James Chua, Tomek Korbak, Henry Sleight, John Hughes, Robert Long, Ethan Perez, Miles Turpin, Owain Evans
•
Oct 17, 2024
•
5
11
Comment les méthodes d'entraînement influencent-elles l'utilisation des modèles de vision ?
How Do Training Methods Influence the Utilization of Vision Models?
Paul Gavrikov, Shashank Agnihotri, Margret Keuper, Janis Keuper
•
Oct 18, 2024
•
4
2
Le contexte est clé (NMF) : Modélisation de la dynamique de l'information thématique dans les médias de la diaspora chinoise
Context is Key(NMF): Modelling Topical Information Dynamics in Chinese Diaspora Media
Ross Deans Kristensen-McLachlan, Rebecca M. M. Hicke, Márton Kardos, Mette Thunø
•
Oct 16, 2024
•
4
3
Un piège courant de l'alignement de modèles de langage basé sur la marge : l'enchevêtrement de gradients.
A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement
Hui Yuan, Yifan Zeng, Yue Wu, Huazheng Wang, Mengdi Wang, Liu Leqi
•
Oct 17, 2024
•
3
2
Montessori-Instruct : Générer des données d'entraînement influentes adaptées à l'apprentissage des étudiants
Montessori-Instruct: Generate Influential Training Data Tailored for Student Learning
Xiaochuan Li, Zichun Yu, Chenyan Xiong
•
Oct 18, 2024
•
2
2
Enseigner aux modèles à équilibrer la résistance et l'acceptation de la persuasion.
Teaching Models to Balance Resisting and Accepting Persuasion
Elias Stengel-Eskin, Peter Hase, Mohit Bansal
•
Oct 18, 2024
•
2
2