ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
Dashboard
Preise
Konto
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
November 5th, 2024
AndroidLab: Training und systematisches Benchmarking von autonomen Android-Agenten
AndroidLab: Training and Systematic Benchmarking of Android Autonomous Agents
Yifan Xu, Xiao Liu, Xueqiao Sun, Siyi Cheng, Hao Yu, Hanyu Lai, Shudan Zhang, Dan Zhang, Jie Tang, Yuxiao Dong
•
Oct 31, 2024
•
48
3
"Gib mir BF16 oder gib mir den Tod"? Genauigkeits-Leistungskompromisse in der LLM-Quantisierung
"Give Me BF16 or Give Me Death"? Accuracy-Performance Trade-Offs in LLM Quantization
Eldar Kurtic, Alexandre Marques, Shubhra Pandit, Mark Kurtz, Dan Alistarh
•
Nov 4, 2024
•
44
3
WebRL: Training von LLM Web Agents über selbst-evolvierendes Online-Lehrplanverfahren Verstärkendes Lernen
WebRL: Training LLM Web Agents via Self-Evolving Online Curriculum Reinforcement Learning
Zehan Qi, Xiao Liu, Iat Long Iong, Hanyu Lai, Xueqiao Sun, Xinyue Yang, Jiadai Sun, Yu Yang, Shuntian Yao, Tianjie Zhang, Wei Xu, Jie Tang, Yuxiao Dong
•
Nov 4, 2024
•
36
1
Wie weit ist die Videogenerierung vom Weltmodell entfernt: Eine Perspektive der physikalischen Gesetze
How Far is Video Generation from World Model: A Physical Law Perspective
Bingyi Kang, Yang Yue, Rui Lu, Zhijie Lin, Yang Zhao, Kaixin Wang, Gao Huang, Jiashi Feng
•
Nov 4, 2024
•
32
2
Hunyuan-Large: Ein Open-Source MoE-Modell mit 52 Milliarden aktivierten Parametern von Tencent.
Hunyuan-Large: An Open-Source MoE Model with 52 Billion Activated Parameters by Tencent
Xingwu Sun, Yanfeng Chen, Yiqing Huang, Ruobing Xie, Jiaqi Zhu, Kai Zhang, Shuaipeng Li, Zhen Yang, Jonny Han, Xiaobo Shu, Jiahao Bu, Zhongzhi Chen, Xuemeng Huang, Fengzong Lian, Saiyong Yang, Jianfeng Yan, Yuyuan Zeng, Xiaoqin Ren, Chao Yu, Lulu Wu, Yue Mao, Tao Yang, Suncong Zheng, Kan Wu, Dian Jiao, Jinbao Xue, Xipeng Zhang, Decheng Wu, Kai Liu, Dengpeng Wu, Guanghui Xu, Shaohua Chen, Shuang Chen, Xiao Feng, Yigeng Hong, Junqiang Zheng, Chengcheng Xu, Zongwei Li, Xiong Kuang, Jianglu Hu, Yiqi Chen, Yuchi Deng, Guiyang Li, Ao Liu, Chenchen Zhang, Shihui Hu, Zilong Zhao, Zifan Wu, Yao Ding, Weichao Wang, Han Liu, Roberts Wang, Hao Fei, Peijie She, Ze Zhao, Xun Cao, Hai Wang, Fusheng Xiang, Mengyuan Huang, Zhiyuan Xiong, Bin Hu, Xuebin Hou, Lei Jiang, Jiajia Wu, Yaping Deng, Yi Shen, Qian Wang, Weijie Liu, Jie Liu, Meng Chen, Liang Dong, Weiwen Jia, Hu Chen, Feifei Liu, Rui Yuan, Huilin Xu, Zhenxiang Yan, Tengfei Cao, Zhichao Hu, Xinhua Feng, Dong Du, Tinghao She, Yangyu Tao, Feng Zhang, Jianchen Zhu, Chengzhong Xu, Xirui Li, Chong Zha, Wen Ouyang, Yinben Xia, Xiang Li, Zekun He, Rongpeng Chen, Jiawei Song, Ruibin Chen, Fan Jiang, Chongqing Zhao, Bo Wang, Hao Gong, Rong Gan, Winston Hu, Zhanhui Kang, Yong Yang, Yuhong Liu, Di Wang, Jie Jiang
•
Nov 4, 2024
•
24
1
MVPaint: Synchronisierte Multi-View-Diffusion zum Malen von beliebigen 3D-Objekten
MVPaint: Synchronized Multi-View Diffusion for Painting Anything 3D
Wei Cheng, Juncheng Mu, Xianfang Zeng, Xin Chen, Anqi Pang, Chi Zhang, Zhibin Wang, Bin Fu, Gang Yu, Ziwei Liu, Liang Pan
•
Nov 4, 2024
•
23
1
Untersuchung des kulturellen Bewusstseins in Sprachmodellen: Text und darüber hinaus
Survey of Cultural Awareness in Language Models: Text and Beyond
Siddhesh Pawar, Junyeong Park, Jiho Jin, Arnav Arora, Junho Myung, Srishti Yadav, Faiz Ghifari Haznitrama, Inhwa Song, Alice Oh, Isabelle Augenstein
•
Oct 30, 2024
•
23
2
Training-freies regionales Anstoßen für Diffusion-Transformer
Training-free Regional Prompting for Diffusion Transformers
Anthony Chen, Jianjin Xu, Wenzhao Zheng, Gaole Dai, Yida Wang, Renrui Zhang, Haofan Wang, Shanghang Zhang
•
Nov 4, 2024
•
23
1
GenXD: Generierung beliebiger 3D- und 4D-Szenen
GenXD: Generating Any 3D and 4D Scenes
Yuyang Zhao, Chung-Ching Lin, Kevin Lin, Zhiwen Yan, Linjie Li, Zhengyuan Yang, Jianfeng Wang, Gim Hee Lee, Lijuan Wang
•
Nov 4, 2024
•
20
1
Adaptive Zwischenspeicherung zur schnelleren Videogenerierung mit Diffusions-Transformern.
Adaptive Caching for Faster Video Generation with Diffusion Transformers
Kumara Kahatapitiya, Haozhe Liu, Sen He, Ding Liu, Menglin Jia, Michael S. Ryoo, Tian Xie
•
Nov 4, 2024
•
20
1
AutoVFX: Physikalisch realistische Videobearbeitung aus natürlicher Sprache Anweisungen
AutoVFX: Physically Realistic Video Editing from Natural Language Instructions
Hao-Yu Hsu, Zhi-Hao Lin, Albert Zhai, Hongchi Xia, Shenlong Wang
•
Nov 4, 2024
•
17
3
DynaMath: Ein dynamischer visueller Benchmark zur Bewertung der mathematischen Schlussfolgerungssicherheit von Sprach-Visions-Modellen
DynaMath: A Dynamic Visual Benchmark for Evaluating Mathematical Reasoning Robustness of Vision Language Models
Chengke Zou, Xingang Guo, Rui Yang, Junyu Zhang, Bin Hu, Huan Zhang
•
Oct 29, 2024
•
15
5
DynaSaur: Große Sprachagenten jenseits vordefinierter Aktionen
DynaSaur: Large Language Agents Beyond Predefined Actions
Dang Nguyen, Viet Dac Lai, Seunghyun Yoon, Ryan A. Rossi, Handong Zhao, Ruiyi Zhang, Puneet Mathur, Nedim Lipka, Yu Wang, Trung Bui, Franck Dernoncourt, Tianyi Zhou
•
Nov 4, 2024
•
13
2
PPLLaVA: Vielfältiges Verständnis von Videosequenzen mit Anleitung durch Hinweise
PPLLaVA: Varied Video Sequence Understanding With Prompt Guidance
Ruyang Liu, Haoran Tang, Haibo Liu, Yixiao Ge, Ying Shan, Chen Li, Jiankun Yang
•
Nov 4, 2024
•
11
1
Sparsheitsgesetz: Auf dem Weg zu großen Sprachmodellen mit stärkerer Aktivierung Sparsheit
Sparsing Law: Towards Large Language Models with Greater Activation Sparsity
Yuqi Luo, Chenyang Song, Xu Han, Yingfa Chen, Chaojun Xiao, Zhiyuan Liu, Maosong Sun
•
Nov 4, 2024
•
11
1
SALSA: Suppenbasiertes Alignment-Lernen für eine stärkere Anpassung in RLHF
SALSA: Soup-based Alignment Learning for Stronger Adaptation in RLHF
Atoosa Chegini, Hamid Kazemi, Iman Mirzadeh, Dong Yin, Maxwell Horton, Moin Nabi, Mehrdad Farajtabar, Keivan Alizadeh
•
Nov 4, 2024
•
8
2
IGOR: Bildzielrepräsentationen sind die atomaren Steuereinheiten für Grundmodelle in verkörperter KI.
IGOR: Image-GOal Representations are the Atomic Control Units for Foundation Models in Embodied AI
Xiaoyu Chen, Junliang Guo, Tianyu He, Chuheng Zhang, Pushi Zhang, Derek Cathera Yang, Li Zhao, Jiang Bian
•
Oct 17, 2024
•
8
2
LIBMoE: Eine Bibliothek für umfassendes Benchmarking von Mixture of Experts in großen Sprachmodellen
LIBMoE: A Library for comprehensive benchmarking Mixture of Experts in Large Language Models
Nam V. Nguyen, Thong T. Doan, Luong Tran, Van Nguyen, Quang Pham
•
Nov 1, 2024
•
8
2
Entschlüsselung der Dunklen Materie: Spezialisierte Sparse Autoencoder zur Interpretation seltener Konzepte in Grundlagenmodellen
Decoding Dark Matter: Specialized Sparse Autoencoders for Interpreting Rare Concepts in Foundation Models
Aashiq Muhamed, Mona Diab, Virginia Smith
•
Nov 1, 2024
•
6
2
Eingeschränkte Diffusionsimplizite Modelle
Constrained Diffusion Implicit Models
Vivek Jayaram, Ira Kemelmacher-Shlizerman, Steven M. Seitz, John Thickstun
•
Nov 1, 2024
•
5
2
Die Verwendung von Multi-Expert-Prompting verbessert die Zuverlässigkeit, Sicherheit und Nützlichkeit großer Sprachmodelle.
Multi-expert Prompting Improves Reliability, Safety, and Usefulness of Large Language Models
Do Xuan Long, Duong Ngoc Yen, Anh Tuan Luu, Kenji Kawaguchi, Min-Yen Kan, Nancy F. Chen
•
Nov 1, 2024
•
5
2
LoRA - Kontextualisierung der Anpassung großer multimodaler Modelle für das Verständnis langer Dokumente
LoRA-Contextualizing Adaptation of Large Multimodal Models for Long Document Understanding
Jian Chen, Ruiyi Zhang, Yufan Zhou, Tong Yu, Franck Dernoncourt, Jiuxiang Gu, Ryan A. Rossi, Changyou Chen, Tong Sun
•
Nov 2, 2024
•
4
2
Schwan und ArabicMTEB: Dialektbewusste, auf Arabisch zentrierte, cross-linguale und cross-kulturelle Einbettungsmodelle und Benchmarks
Swan and ArabicMTEB: Dialect-Aware, Arabic-Centric, Cross-Lingual, and Cross-Cultural Embedding Models and Benchmarks
Gagan Bhatia, El Moatez Billah Nagoudi, Abdellah El Mekki, Fakhraddin Alwajih, Muhammad Abdul-Mageed
•
Nov 2, 2024
•
3
2