ChatPaper.ai
Apri menu
Home
Articoli del Giorno
arXiv
HuggingFace
Prezzi
Account
Spazio di lavoro
🇮🇹
Italiano
Loading...
•
•
•
•
•
•
•
•
•
•
Articoli di Ricerca IA Giornalieri
Articoli di ricerca IA selezionati quotidianamente con traduzioni
April 15th, 2025
InternVL3: Esplorazione di Metodologie Avanzate di Addestramento e Strategie in Fase di Test per Modelli Multimodali Open-Source
InternVL3: Exploring Advanced Training and Test-Time Recipes for Open-Source Multimodal Models
Jinguo Zhu, Weiyun Wang, Zhe Chen, Zhaoyang Liu, Shenglong Ye, Lixin Gu, Yuchen Duan, Hao Tian, Weijie Su, Jie Shao, Zhangwei Gao, Erfei Cui, Yue Cao, Yangzhou Liu, Weiye Xu, Hao Li, Jiahao Wang, Han Lv, Dengnian Chen, Songze Li, Yinan He, Tan Jiang, Jiapeng Luo, Yi Wang, Conghui He, Botian Shi, Xingcheng Zhang, Wenqi Shao, Junjun He, Yingtong Xiong, Wenwen Qu, Peng Sun, Penglong Jiao, Lijun Wu, Kaipeng Zhang, Huipeng Deng, Jiaye Ge, Kai Chen, Limin Wang, Min Dou, Lewei Lu, Xizhou Zhu, Tong Lu, Dahua Lin, Yu Qiao, Jifeng Dai, Wenhai Wang
•
Apr 14, 2025
•
223
8
PRIMA.CPP: Accelerazione dell'Inferenza di LLM su Scala 70B su Cluster Domestici a Basse Risorse
PRIMA.CPP: Speeding Up 70B-Scale LLM Inference on Low-Resource Everyday Home Clusters
Zonghang Li, Tao Li, Wenjiao Feng, Mohsen Guizani, Hongfang Yu
•
Apr 7, 2025
•
112
7
Abbiamo già unificato la generazione e la comprensione delle immagini? Uno studio empirico sulle capacità di generazione di immagini di GPT-4o.
Have we unified image generation and understanding yet? An empirical study of GPT-4o's image generation ability
Ning Li, Jingran Zhang, Justin Cui
•
Apr 9, 2025
•
44
2
VL-Rethinker: Incentivare l'Auto-Riflessione dei Modelli Visione-Linguaggio con Apprendimento per Rinforzo
VL-Rethinker: Incentivizing Self-Reflection of Vision-Language Models with Reinforcement Learning
Haozhe Wang, Chao Qu, Zuming Huang, Wei Chu, Fangzhen Lin, Wenhu Chen
•
Apr 10, 2025
•
39
2
FUSION: Integrazione Completa delle Rappresentazioni Visivo-Linguistiche per una Profonda Comprensione Cross-Modale
FUSION: Fully Integration of Vision-Language Representations for Deep Cross-Modal Understanding
Zheng Liu, Mengjie Liu, Jingzhou Chen, Jingwei Xu, Bin Cui, Conghui He, Wentao Zhang
•
Apr 14, 2025
•
36
3
Addestramento Iterativo Automatico per la Generazione di Codice tramite Riordinamento Rinforzato
Iterative Self-Training for Code Generation via Reinforced Re-Ranking
Nikita Sorokin, Ivan Sedykh, Valentin Malykh
•
Apr 13, 2025
•
32
2
Mavors: Rappresentazione Video a Multi-granularità per Modelli Linguistici Multimodali di Grande Scala
Mavors: Multi-granularity Video Representation for Multimodal Large Language Model
Yang Shi, Jiaheng Liu, Yushuo Guan, Zhenhua Wu, Yuanxing Zhang, Zihao Wang, Weihong Lin, Jingyun Hua, Zekun Wang, Xinlong Chen, Bohan Zeng, Wentao Zhang, Fuzheng Zhang, Wenjing Yang, Di Zhang
•
Apr 14, 2025
•
28
2
AgentRewardBench: Valutazione delle Valutazioni Automatiche delle Traiettorie degli Agenti Web
AgentRewardBench: Evaluating Automatic Evaluations of Web Agent Trajectories
Xing Han Lù, Amirhossein Kazemnejad, Nicholas Meade, Arkil Patel, Dongchan Shin, Alejandra Zambrano, Karolina Stańczak, Peter Shaw, Christopher J. Pal, Siva Reddy
•
Apr 11, 2025
•
24
2
S1-Bench: Un Benchmark Semplice per Valutare la Capacità di Pensiero di Sistema 1 nei Modelli di Ragionamento su Grande Scala
S1-Bench: A Simple Benchmark for Evaluating System 1 Thinking Capability of Large Reasoning Models
Wenyuan Zhang, Shuaiyi Nie, Xinghua Zhang, Zefeng Zhang, Tingwen Liu
•
Apr 14, 2025
•
19
3
DUMP: Apprendimento Automatico a Livello di Distribuzione per il Post-Addestramento di LLM Basati su RL
DUMP: Automated Distribution-Level Curriculum Learning for RL-based LLM Post-training
Zhenting Wang, Guofeng Cui, Kun Wan, Wentian Zhao
•
Apr 13, 2025
•
17
2
Superare la Barriera dei Dati -- Costruire Agenti GUI Attraverso la Generalizzazione dei Compiti
Breaking the Data Barrier -- Building GUI Agents Through Task Generalization
Junlei Zhang, Zichen Ding, Chang Ma, Zijie Chen, Qiushi Sun, Zhenzhong Lan, Junxian He
•
Apr 14, 2025
•
15
2
MIEB: Benchmark per l'Embedding di Immagini su Larga Scala
MIEB: Massive Image Embedding Benchmark
Chenghao Xiao, Isaac Chung, Imene Kerboua, Jamie Stirling, Xin Zhang, Márton Kardos, Roman Solomatin, Noura Al Moubayed, Kenneth Enevoldsen, Niklas Muennighoff
•
Apr 14, 2025
•
14
2
TinyLLaVA-Video-R1: Verso Modelli Linguistici Multimodali più Piccoli per il Ragionamento Video
TinyLLaVA-Video-R1: Towards Smaller LMMs for Video Reasoning
Xingjian Zhang, Siwei Wen, Wenjun Wu, Lei Huang
•
Apr 13, 2025
•
14
3
SocioVerse: Un Modello di Mondo per la Simulazione Sociale Alimentato da Agenti LLM e un Bacino di 10 Milioni di Utenti del Mondo Reale
SocioVerse: A World Model for Social Simulation Powered by LLM Agents and A Pool of 10 Million Real-World Users
Xinnong Zhang, Jiayu Lin, Xinyi Mou, Shiyue Yang, Xiawei Liu, Libo Sun, Hanjia Lyu, Yihang Yang, Weihong Qi, Yue Chen, Guanying Li, Ling Yan, Yao Hu, Siming Chen, Yu Wang, Jingxuan Huang, Jiebo Luo, Shiping Tang, Libo Wu, Baohua Zhou, Zhongyu Wei
•
Apr 14, 2025
•
12
3
Astrazioni Funzionali Eseguibili: Inferire Programmi Generativi per Problemi Matematici Avanzati
Executable Functional Abstractions: Inferring Generative Programs for Advanced Math Problems
Zaid Khan, Elias Stengel-Eskin, Archiki Prasad, Jaemin Cho, Mohit Bansal
•
Apr 14, 2025
•
12
2
VisuoThink: Potenziare il Ragionamento LVLM con la Ricerca ad Albero Multimodale
VisuoThink: Empowering LVLM Reasoning with Multimodal Tree Search
Yikun Wang, Siyin Wang, Qinyuan Cheng, Zhaoye Fei, Liang Ding, Qipeng Guo, Dacheng Tao, Xipeng Qiu
•
Apr 12, 2025
•
10
4
I modelli di ragionamento possono essere efficaci senza pensare
Reasoning Models Can Be Effective Without Thinking
Wenjie Ma, Jingxuan He, Charlie Snell, Tyler Griggs, Sewon Min, Matei Zaharia
•
Apr 14, 2025
•
9
2
Lo Scienziato AI-v2: Scoperta Scientifica Automatizzata a Livello di Laboratorio tramite Ricerca Ad Albero Agente
The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search
Yutaro Yamada, Robert Tjarko Lange, Cong Lu, Shengran Hu, Chris Lu, Jakob Foerster, Jeff Clune, David Ha
•
Apr 10, 2025
•
9
2
M1: Verso un calcolo scalabile al momento del test con modelli di ragionamento Mamba
M1: Towards Scalable Test-Time Compute with Mamba Reasoning Models
Junxiong Wang, Wen-Ding Li, Daniele Paliotta, Daniel Ritter, Alexander M. Rush, Tri Dao
•
Apr 14, 2025
•
7
2
LLM-SRBench: Un Nuovo Benchmark per la Scoperta di Equazioni Scientifiche con Modelli Linguistici di Grandi Dimensioni
LLM-SRBench: A New Benchmark for Scientific Equation Discovery with Large Language Models
Parshin Shojaee, Ngoc-Hieu Nguyen, Kazem Meidani, Amir Barati Farimani, Khoa D Doan, Chandan K Reddy
•
Apr 14, 2025
•
7
2
EmoAgent: Valutazione e Tutela dell'Interazione Uomo-IA per la Sicurezza della Salute Mentale
EmoAgent: Assessing and Safeguarding Human-AI Interaction for Mental Health Safety
Jiahao Qiu, Yinghui He, Xinzhe Juan, Yiming Wang, Yuhan Liu, Zixin Yao, Yue Wu, Xun Jiang, Ling Yang, Mengdi Wang
•
Apr 13, 2025
•
6
3
Come i nuovi dati permeano la conoscenza dei LLM e come diluirla
How new data permeates LLM knowledge and how to dilute it
Chen Sun, Renat Aksitov, Andrey Zhmoginov, Nolan Andrew Miller, Max Vladymyrov, Ulrich Rueckert, Been Kim, Mark Sandler
•
Apr 13, 2025
•
5
2
3D CoCa: I Modelli Contrastivi sono Generatori di Descrizioni 3D
3D CoCa: Contrastive Learners are 3D Captioners
Ting Huang, Zeyu Zhang, Yemin Wang, Hao Tang
•
Apr 13, 2025
•
4
2
I LLM Possono Essere Persuatori Pericolosi: Studio Empirico sulla Sicurezza della Persuasione nei Modelli Linguistici di Grande Dimensione
LLM Can be a Dangerous Persuader: Empirical Study of Persuasion Safety in Large Language Models
Minqian Liu, Zhiyang Xu, Xinyi Zhang, Heajun An, Sarvech Qadir, Qi Zhang, Pamela J. Wisniewski, Jin-Hee Cho, Sang Won Lee, Ruoxi Jia, Lifu Huang
•
Apr 14, 2025
•
3
2
DeepSeek vs. o3-mini: Quanto sono efficaci i modelli linguistici di ragionamento nella valutazione della traduzione automatica e della sintesi?
DeepSeek vs. o3-mini: How Well can Reasoning LLMs Evaluate MT and Summarization?
Daniil Larionov, Sotaro Takeshita, Ran Zhang, Yanran Chen, Christoph Leiter, Zhipin Wang, Christian Greisinger, Steffen Eger
•
Apr 10, 2025
•
3
2
MDK12-Bench: Un Benchmark Multidisciplinare per Valutare il Ragionamento nei Modelli Linguistici Multimodali di Grande Scala
MDK12-Bench: A Multi-Discipline Benchmark for Evaluating Reasoning in Multimodal Large Language Models
Pengfei Zhou, Fanrui Zhang, Xiaopeng Peng, Zhaopan Xu, Jiaxin Ai, Yansheng Qiu, Chuanhao Li, Zhen Li, Ming Li, Yukang Feng, Jianwen Sun, Haoquan Zhang, Zizhen Li, Xiaofeng Mao, Wangbo Zhao, Kai Wang, Xiaojun Chang, Wenqi Shao, Yang You, Kaipeng Zhang
•
Apr 8, 2025
•
3
2
Audit di Sicurezza MCP: I Modelli Linguistici con il Protocollo di Contesto del Modello Consentono Importanti Exploit di Sicurezza
MCP Safety Audit: LLMs with the Model Context Protocol Allow Major Security Exploits
Brandon Radosevich, John Halloran
•
Apr 2, 2025
•
2
2
DiffuMural: Restauro dei Murali di Dunhuang con Diffusione Multi-scala
DiffuMural: Restoring Dunhuang Murals with Multi-scale Diffusion
Puyu Han, Jiaju Kang, Yuhang Pan, Erting Pan, Zeyu Zhang, Qunchao Jin, Juntao Jiang, Zhichen Liu, Luqi Gong
•
Apr 13, 2025
•
0
2