ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
Dashboard
Preise
Konto
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
October 21st, 2024
UCFE: Ein benutzerzentrierter Benchmark für Finanzexpertise für große Sprachmodelle
UCFE: A User-Centric Financial Expertise Benchmark for Large Language Models
Yuzhe Yang, Yifei Zhang, Yan Hu, Yilin Guo, Ruoli Gan, Yueru He, Mingcong Lei, Xiao Zhang, Haining Wang, Qianqian Xie, Jimin Huang, Honghai Yu, Benyou Wang
•
Oct 17, 2024
•
53
2
Web-Agenten mit Weltmodellen: Lernen und Nutzen der Umgebungsdynamik bei der Web-Navigation
Web Agents with World Models: Learning and Leveraging Environment Dynamics in Web Navigation
Hyungjoo Chae, Namyoung Kim, Kai Tzu-iunn Ong, Minju Gwak, Gwanwoo Song, Jihoon Kim, Sunghwan Kim, Dongha Lee, Jinyoung Yeo
•
Oct 17, 2024
•
40
2
NaturalBench: Evaluierung von Vision-Language-Modellen anhand natürlicher adversarischer Stichproben
NaturalBench: Evaluating Vision-Language Models on Natural Adversarial Samples
Baiqi Li, Zhiqiu Lin, Wenxuan Peng, Jean de Dieu Nyandwi, Daniel Jiang, Zixian Ma, Simran Khanuja, Ranjay Krishna, Graham Neubig, Deva Ramanan
•
Oct 18, 2024
•
35
4
MagicTailor: Komponentensteuerbare Personalisierung in Text-zu-Bild-Diffusionsmodellen
MagicTailor: Component-Controllable Personalization in Text-to-Image Diffusion Models
Donghao Zhou, Jiancheng Huang, Jinbin Bai, Jiaze Wang, Hao Chen, Guangyong Chen, Xiaowei Hu, Pheng-Ann Heng
•
Oct 17, 2024
•
35
7
SeherAufmerksamkeit: Lernen von intrinsischer spärlicher Aufmerksamkeit in Ihren LLMs
SeerAttention: Learning Intrinsic Sparse Attention in Your LLMs
Yizhao Gao, Zhichen Zeng, Dayou Du, Shijie Cao, Hayden Kwok-Hay So, Ting Cao, Fan Yang, Mao Yang
•
Oct 17, 2024
•
25
2
FiTv2: Skalierbarer und verbesserter flexibler Vision-Transformer für Diffusionsmodelle
FiTv2: Scalable and Improved Flexible Vision Transformer for Diffusion Model
ZiDong Wang, Zeyu Lu, Di Huang, Cai Zhou, Wanli Ouyang, and Lei Bai
•
Oct 17, 2024
•
22
3
Mini-Omni2: Auf dem Weg zu einer Open-Source-Version von GPT-4o mit Seh-, Sprach- und Duplex-Fähigkeiten
Mini-Omni2: Towards Open-source GPT-4o with Vision, Speech and Duplex Capabilities
Zhifei Xie, Changqiao Wu
•
Oct 15, 2024
•
20
2
DPLM-2: Ein multimodales Diffusionsprotein-Sprachmodell
DPLM-2: A Multimodal Diffusion Protein Language Model
Xinyou Wang, Zaixiang Zheng, Fei Ye, Dongyu Xue, Shujian Huang, Quanquan Gu
•
Oct 17, 2024
•
19
3
Diffusionscurriculum: Generatives Curriculum-Lernen von Synthetisch zu Real über Bildgeführte Diffusion
Diffusion Curriculum: Synthetic-to-Real Generative Curriculum Learning via Image-Guided Diffusion
Yijun Liang, Shweta Bhardwaj, Tianyi Zhou
•
Oct 17, 2024
•
15
3
HART: Effiziente visuelle Generierung mit hybriden autoregressiven Transformern
HART: Efficient Visual Generation with Hybrid Autoregressive Transformer
Haotian Tang, Yecheng Wu, Shang Yang, Enze Xie, Junsong Chen, Junyu Chen, Zhuoyang Zhang, Han Cai, Yao Lu, Song Han
•
Oct 14, 2024
•
14
2
DAWN: Dynamischer Rahmenavatar mit nicht-autoregressivem Diffusionsrahmen für die Generierung von Talking-Head-Videos
DAWN: Dynamic Frame Avatar with Non-autoregressive Diffusion Framework for Talking Head Video Generation
Hanbo Cheng, Limin Lin, Chenyu Liu, Pengcheng Xia, Pengfei Hu, Jiefeng Ma, Jun Du, Jia Pan
•
Oct 17, 2024
•
10
2
Sind KI-Detektoren gut genug? Eine Umfrage zur Qualität von Datensätzen mit maschinengenerierten Texten.
Are AI Detectors Good Enough? A Survey on Quality of Datasets With Machine-Generated Texts
German Gritsai, Anastasia Voznyuk, Andrey Grabovoy, Yury Chekhovich
•
Oct 18, 2024
•
9
5
BiGR: Nutzung binärer Latenter Codes für die Bildgenerierung und verbesserte visuelle Repräsentationsfähigkeiten
BiGR: Harnessing Binary Latent Codes for Image Generation and Improved Visual Representation Capabilities
Shaozhe Hao, Xuantong Liu, Xianbiao Qi, Shihao Zhao, Bojia Zi, Rong Xiao, Kai Han, Kwan-Yee K. Wong
•
Oct 18, 2024
•
7
2
SHAKTI: Ein 2,5 Milliarden Parameter umfassendes kleines Sprachmodell, optimiert für Edge-KI und Umgebungen mit geringen Ressourcen.
SHAKTI: A 2.5 Billion Parameter Small Language Model Optimized for Edge AI and Low-Resource Environments
Syed Abdul Gaffar Shakhadri, Kruthika KR, Rakshit Aralimatti
•
Oct 15, 2024
•
6
3
Blick nach innen: Sprachmodelle können durch Introspektion über sich selbst lernen.
Looking Inward: Language Models Can Learn About Themselves by Introspection
Felix J Binder, James Chua, Tomek Korbak, Henry Sleight, John Hughes, Robert Long, Ethan Perez, Miles Turpin, Owain Evans
•
Oct 17, 2024
•
5
11
Wie beeinflussen Trainingsmethoden die Nutzung von Bildmodellen?
How Do Training Methods Influence the Utilization of Vision Models?
Paul Gavrikov, Shashank Agnihotri, Margret Keuper, Janis Keuper
•
Oct 18, 2024
•
4
2
Kontext ist entscheidend (NMF): Modellierung der Dynamik topischer Informationen in chinesischen Diaspora-Medien
Context is Key(NMF): Modelling Topical Information Dynamics in Chinese Diaspora Media
Ross Deans Kristensen-McLachlan, Rebecca M. M. Hicke, Márton Kardos, Mette Thunø
•
Oct 16, 2024
•
4
3
Eine häufige Falle bei der auf Margin basierenden Ausrichtung von Sprachmodellen: Gradientenverflechtung
A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement
Hui Yuan, Yifan Zeng, Yue Wu, Huazheng Wang, Mengdi Wang, Liu Leqi
•
Oct 17, 2024
•
3
2
Montessori-Lehre: Generierung einflussreicher Trainingsdaten, maßgeschneidert für das Lernen von Studierenden.
Montessori-Instruct: Generate Influential Training Data Tailored for Student Learning
Xiaochuan Li, Zichun Yu, Chenyan Xiong
•
Oct 18, 2024
•
2
2
Lehren von Modellen, um Widerstand und Akzeptanz von Überzeugung in Balance zu halten.
Teaching Models to Balance Resisting and Accepting Persuasion
Elias Stengel-Eskin, Peter Hase, Mohit Bansal
•
Oct 18, 2024
•
2
2