ChatPaper.ai
Menu openen
Home
Dagelijkse Papers
Prijzen
Account
Werkruimte
🇬🇧
English
Loading...
•
•
•
•
•
•
•
•
•
•
AI Onderzoekspapers Dagelijks
Dagelijks geselecteerde AI onderzoekspapers met vertalingen
January 28th, 2025
Technisch Rapport Baichuan-Omni-1.5
Baichuan-Omni-1.5 Technical Report
Yadong Li, Jun Liu, Tao Zhang, Tao Zhang, Song Chen, Tianpeng Li, Zehuan Li, Lijun Liu, Lingfeng Ming, Guosheng Dong, Da Pan, Chong Li, Yuanbo Fang, Dongdong Kuang, Mingrui Wang, Chenglin Zhu, Youwei Zhang, Hongyu Guo, Fengyu Zhang, Yuran Wang, Bowen Ding, Wei Song, Xu Li, Yuqi Huo, Zheng Liang, Shusen Zhang, Xin Wu, Shuai Zhao, Linchu Xiong, Yozhen Wu, Jiahui Ye, Wenhao Lu, Bowen Li, Yan Zhang, Yaqi Zhou, Xin Chen, Lei Su, Hongda Zhang, Fuzhong Chen, Xuezhen Dong, Na Nie, Zhiying Wu, Bin Xiao, Ting Li, Shunya Dang, Ping Zhang, Yijia Sun, Jincheng Wu, Jinjie Yang, Xionghai Lin, Zhi Ma, Kegeng Wu, Jia li, Aiyuan Yang, Hui Liu, Jianqiang Zhang, Xiaoxi Chen, Guangwei Ai, Wentao Zhang, Yicong Chen, Xiaoqin Huang, Kun Li, Wenjing Luo, Yifei Duan, Lingling Zhu, Ran Xiao, Zhe Su, Jiani Pu, Dian Wang, Xu Jia, Tianyu Zhang, Mengyu Ai, Mang Wang, Yujing Qiao, Lei Zhang, Yanjun Shen, Fan Yang, Miao Zhen, Yijie Zhou, Mingyang Chen, Fei Li, Chenzheng Zhu, Keer Lu, Yaqi Zhao, Hao Liang, Youquan Li, Yanzhao Qin, Linzhuang Sun, Jianhua Xu, Haoze Sun, Mingan Lin, Zenan Zhou, Weipeng Chen
•
Jan 26, 2025
•
45
2
Technisch Rapport Qwen2.5-1M
Qwen2.5-1M Technical Report
An Yang, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoyan Huang, Jiandong Jiang, Jianhong Tu, Jianwei Zhang, Jingren Zhou, Junyang Lin, Kai Dang, Kexin Yang, Le Yu, Mei Li, Minmin Sun, Qin Zhu, Rui Men, Tao He, Weijia Xu, Wenbiao Yin, Wenyuan Yu, Xiafei Qiu, Xingzhang Ren, Xinlong Yang, Yong Li, Zhiying Xu, Zipeng Zhang
•
Jan 26, 2025
•
39
2
Naar Algemene Modelvrije Versterkend Leren
Towards General-Purpose Model-Free Reinforcement Learning
Scott Fujimoto, Pierluca D'Oro, Amy Zhang, Yuandong Tian, Michael Rabbat
•
Jan 27, 2025
•
19
3
ARWKV: Pretrain is niet wat we nodig hebben, een op RNN-Attention gebaseerd taalmodel ontstaan uit Transformer.
ARWKV: Pretrain is not what we need, an RNN-Attention-Based Language Model Born from Transformer
Lin Yueyu, Li Zhiyuan, Peter Yue, Liu Xiao
•
Jan 26, 2025
•
17
2
Emilia: Een grootschalige, uitgebreide, meertalige en diverse dataset voor spraakgeneratie
Emilia: A Large-Scale, Extensive, Multilingual, and Diverse Dataset for Speech Generation
Haorui He, Zengqiang Shang, Chaoren Wang, Xuyuan Li, Yicheng Gu, Hua Hua, Liwei Liu, Chen Yang, Jiaqi Li, Peiyang Shi, Yuancheng Wang, Kai Chen, Pengyuan Zhang, Zhizheng Wu
•
Jan 27, 2025
•
14
2
iFormer: Integratie van ConvNet en Transformer voor Mobiele Applicaties
iFormer: Integrating ConvNet and Transformer for Mobile Application
Chuanyang Zheng
•
Jan 26, 2025
•
9
2
Zijn Vision Language Models Textuur- of Vorm-georiënteerd en Kunnen We Ze Sturen?
Are Vision Language Models Texture or Shape Biased and Can We Steer Them?
Paul Gavrikov, Jovita Lukasik, Steffen Jung, Robert Geirhos, Bianca Lamm, Muhammad Jehanzeb Mirza, Margret Keuper, Janis Keuper
•
Mar 14, 2024
•
8
2
Parameters versus FLOPs: Schaalwetten voor optimale spaarzaamheid voor taalmodellen met een mix van experts.
Parameters vs FLOPs: Scaling Laws for Optimal Sparsity for Mixture-of-Experts Language Models
Samira Abnar, Harshay Shah, Dan Busbridge, Alaaeldin Mohamed Elnouby Ali, Josh Susskind, Vimal Thilak
•
Jan 21, 2025
•
8
2
CodeMonkeys: Schalen van testtijd berekeningen voor software engineering
CodeMonkeys: Scaling Test-Time Compute for Software Engineering
Ryan Ehrlich, Bradley Brown, Jordan Juravsky, Ronald Clark, Christopher Ré, Azalia Mirhoseini
•
Jan 24, 2025
•
6
2
Visuele Generatie Zonder Begeleiding
Visual Generation Without Guidance
Huayu Chen, Kai Jiang, Kaiwen Zheng, Jianfei Chen, Hang Su, Jun Zhu
•
Jan 26, 2025
•
6
3
Mixture-of-Mamba: Het verbeteren van multi-modale toestandsruimtemodellen met modality-bewuste spaarzaamheid.
Mixture-of-Mamba: Enhancing Multi-Modal State-Space Models with Modality-Aware Sparsity
Weixin Liang, Junhong Shen, Genghan Zhang, Ning Dong, Luke Zettlemoyer, Lili Yu
•
Jan 27, 2025
•
5
1
OpenCharacter: Training van aanpasbare Role-Playing LLM's met grootschalige synthetische personages
OpenCharacter: Training Customizable Role-Playing LLMs with Large-Scale Synthetic Personas
Xiaoyang Wang, Hongming Zhang, Tao Ge, Wenhao Yu, Dian Yu, Dong Yu
•
Jan 26, 2025
•
4
2
Terugkeer van de Coder: Het maximaliseren van de parameter-efficiëntie voor SLM's.
Return of the Encoder: Maximizing Parameter Efficiency for SLMs
Mohamed Elfeki, Rui Liu, Chad Voegele
•
Jan 27, 2025
•
4
2
Haalbaar Leren
Feasible Learning
Juan Ramirez, Ignacio Hounie, Juan Elenter, Jose Gallego-Posada, Meraj Hashemizadeh, Alejandro Ribeiro, Simon Lacoste-Julien
•
Jan 24, 2025
•
4
2