ChatPaper.ai
Apri menu
Home
Articoli del Giorno
Prezzi
Account
Spazio di lavoro
🇮🇹
Italiano
Loading...
•
•
•
•
•
•
•
•
•
•
Articoli di Ricerca IA Giornalieri
Articoli di ricerca IA selezionati quotidianamente con traduzioni
January 8th, 2025
REINFORCE++: Un Approccio Semplice ed Efficiente per Allineare Grandi Modelli Linguistici
REINFORCE++: A Simple and Efficient Approach for Aligning Large Language Models
Jian Hu
•
Jan 4, 2025
•
82
2
Piattaforma modello della Fondazione Cosmos World per l'IA Fisica
Cosmos World Foundation Model Platform for Physical AI
NVIDIA, Niket Agarwal, Arslan Ali, Maciej Bala, Yogesh Balaji, Erik Barker, Tiffany Cai, Prithvijit Chattopadhyay, Yongxin Chen, Yin Cui, Yifan Ding, Daniel Dworakowski, Jiaojiao Fan, Michele Fenzi, Francesco Ferroni, Sanja Fidler, Dieter Fox, Songwei Ge, Yunhao Ge, Jinwei Gu, Siddharth Gururani, Ethan He, Jiahui Huang, Jacob Huffman, Pooya Jannaty, Jingyi Jin, Seung Wook Kim, Gergely Klár, Grace Lam, Shiyi Lan, Laura Leal-Taixe, Anqi Li, Zhaoshuo Li, Chen-Hsuan Lin, Tsung-Yi Lin, Huan Ling, Ming-Yu Liu, Xian Liu, Alice Luo, Qianli Ma, Hanzi Mao, Kaichun Mo, Arsalan Mousavian, Seungjun Nah, Sriharsha Niverty, David Page, Despoina Paschalidou, Zeeshan Patel, Lindsey Pavao, Morteza Ramezanali, Fitsum Reda, Xiaowei Ren, Vasanth Rao Naik Sabavat, Ed Schmerling, Stella Shi, Bartosz Stefaniak, Shitao Tang, Lyne Tchapmi, Przemek Tredak, Wei-Cheng Tseng, Jibin Varghese, Hao Wang, Haoxiang Wang, Heng Wang, Ting-Chun Wang, Fangyin Wei, Xinyue Wei, Jay Zhangjie Wu, Jiashu Xu, Wei Yang, Lin Yen-Chen, Xiaohui Zeng, Yu Zeng, Jing Zhang, Qinsheng Zhang, Yuxuan Zhang, Qingqing Zhao, Artur Zolkowski
•
Jan 7, 2025
•
63
2
LLaVA-Mini: Modelli Multimodali Grandi Efficienti per Immagini e Video con un Token di Visione
LLaVA-Mini: Efficient Image and Video Large Multimodal Models with One Vision Token
Shaolei Zhang, Qingkai Fang, Zhe Yang, Yang Feng
•
Jan 7, 2025
•
48
4
Sa2VA: Sposare SAM2 con LLaVA per una comprensione densa e basata del terreno di immagini e video
Sa2VA: Marrying SAM2 with LLaVA for Dense Grounded Understanding of Images and Videos
Haobo Yuan, Xiangtai Li, Tao Zhang, Zilong Huang, Shilin Xu, Shunping Ji, Yunhai Tong, Lu Qi, Jiashi Feng, Ming-Hsuan Yang
•
Jan 7, 2025
•
40
2
MotionBench: Valutazione e Miglioramento della Comprensione del Movimento Video Dettagliato per i Modelli di Visione Linguistica
MotionBench: Benchmarking and Improving Fine-grained Video Motion Understanding for Vision Language Models
Wenyi Hong, Yean Cheng, Zhuoyi Yang, Weihan Wang, Lefan Wang, Xiaotao Gu, Shiyu Huang, Yuxiao Dong, Jie Tang
•
Jan 6, 2025
•
40
2
Diffusione come shader: Diffusione video consapevole in 3D per un controllo versatile della generazione video.
Diffusion as Shader: 3D-aware Video Diffusion for Versatile Video Generation Control
Zekai Gu, Rui Yan, Jiahao Lu, Peng Li, Zhiyang Dou, Chenyang Si, Zhen Dong, Qifeng Liu, Cheng Lin, Ziwei Liu, Wenping Wang, Yuan Liu
•
Jan 7, 2025
•
22
2
PPTAgent: Generazione ed Valutazione di Presentazioni Oltre il Testo alle Diapositive
PPTAgent: Generating and Evaluating Presentations Beyond Text-to-Slides
Hao Zheng, Xinyan Guan, Hao Kong, Jia Zheng, Hongyu Lin, Yaojie Lu, Ben He, Xianpei Han, Le Sun
•
Jan 7, 2025
•
18
3
OpenOmni: Grandi modelli linguistici si orientano verso l'allineamento omni-modale zero-shot attraverso le lingue con sintesi vocale emotiva in tempo reale auto-consapevole.
OpenOmni: Large Language Models Pivot Zero-shot Omnimodal Alignment across Language with Real-time Self-Aware Emotional Speech Synthesis
Run Luo, Ting-En Lin, Haonan Zhang, Yuchuan Wu, Xiong Liu, Min Yang, Yongbin Li, Longze Chen, Jiaming Li, Lei Zhang, Yangyi Chen, Hamid Alinejad-Rokny, Fei Huang
•
Jan 8, 2025
•
16
3
Delfino: Ricerca automatica a ciclo chiuso e aperto tramite pensiero, pratica e feedback.
Dolphin: Closed-loop Open-ended Auto-research through Thinking, Practice, and Feedback
Jiakang Yuan, Xiangchao Yan, Botian Shi, Tao Chen, Wanli Ouyang, Bo Zhang, Lei Bai, Yu Qiao, Bowen Zhou
•
Jan 7, 2025
•
14
3
Specchio magico: Generazione di video preservando l'ID nei Transformers di diffusione video
Magic Mirror: ID-Preserved Video Generation in Video Diffusion Transformers
Yuechen Zhang, Yaoyang Liu, Bin Xia, Bohao Peng, Zexin Yan, Eric Lo, Jiaya Jia
•
Jan 7, 2025
•
14
2
Segmentazione del testo e apprendimento dei loro premi per migliorare l'RLHF nei modelli linguistici
Segmenting Text and Learning Their Rewards for Improved RLHF in Language Model
Yueqin Yin, Shentao Yang, Yujia Xie, Ziyi Yang, Yuting Sun, Hany Awadalla, Weizhu Chen, Mingyuan Zhou
•
Jan 6, 2025
•
9
2
MoDec-GS: Decomposizione del Movimento Globale-in-Locale e Regolazione degli Intervalli Temporali per la Splatting Gaussiana Dinamica 3D Compatta
MoDec-GS: Global-to-Local Motion Decomposition and Temporal Interval Adjustment for Compact Dynamic 3D Gaussian Splatting
Sangwoon Kwak, Joonsoo Kim, Jun Young Jeong, Won-Sik Cheong, Jihyong Oh, Munchurl Kim
•
Jan 7, 2025
•
9
2
Attenzione isomorfa consapevole del grafo per dinamiche adattive nei trasformatori
Graph-Aware Isomorphic Attention for Adaptive Dynamics in Transformers
Markus J. Buehler
•
Jan 4, 2025
•
8
2
MagicFace: Modifica ad alta fedeltà delle espressioni facciali con controllo delle unità d'azione.
MagicFace: High-Fidelity Facial Expression Editing with Action-Unit Control
Mengting Wei, Tuomas Varanka, Xingxun Jiang, Huai-Qian Khor, Guoying Zhao
•
Jan 4, 2025
•
5
2
Identificazione dell'origine generalizzabile per modelli di diffusione immagine-immagine guidati dal testo
Generalizable Origin Identification for Text-Guided Image-to-Image Diffusion Models
Wenhao Wang, Yifan Sun, Zongxin Yang, Zhentao Tan, Zhengdong Hu, Yi Yang
•
Jan 4, 2025
•
3
2