UCFE: A User-Centric Financial Expertise Benchmark for Large Language Models UCFE: 一个面向大语言模型的用户中心化金融专业知识基准 本文介绍了 UCFE: 用户中心化金融专业知识基准,这是一个创新框架,旨在评估大语言模型 (LLMs) 处理复杂现实世界金融任务的能力。…
Efficiently Democratizing Medical LLMs for 50 Languages via a Mixture of Language Family Experts 通过语言家族专家混合高效普及50种语言的医疗大语言模型 将医疗大语言模型适配到本地语言中可以降低获取医疗服务的障碍,但数据稀缺仍然是一个重大挑战,特别是对于…
Baichuan-Omni Technical Report Baichuan-Omni 技术报告 GPT-4o 在多模态能力和交互体验方面的显著表现,使其在实际应用中扮演了重要角色,但目前尚无高性能的开源替代方案。本文中,我们推出了 Baichuan-Omni,这是首个开源的 7B 多模态大语言模型 (MLLM),能够同时处理和分析图像、视频、音…
CMU10-414/714 Deep Learning Systems 第二次作业hw1解析
每周AI论文速递(241007-241011)
每周AI论文速递(240930-241004)
本周讲解dlsyscourse 的第二次作业,也就是hw1的部分。上周的内容主要是个warm up,熟悉一下环境以及一些简单的代码,本周要开始实现一个基础的自动微分框架needle。同样本周作业也放到了 https://github.com/careywyr/dlsyscourse ,colab的题目也翻译成了中文方便阅读,代码里面也移除了关于mu…
Addition is All You Need for Energy-efficient Language Models 加法即所需:高效能语言模型 大型神经网络在浮点张量乘法上耗费了大量计算资源。在本研究中,我们发现浮点乘法器可以通过一个高精度的整数加法器来近似实现。我们提出了线性复杂度乘法 L-Mul 算法,该算法通过整数加法操作来近似浮点数…
Emu3: Next-Token Prediction is All You Need Emu3: 下一个 Token 预测的全部 尽管下一个 Token 预测被视为通向人工通用智能的有力途径,但在多模态任务中,它一直难以超越扩散模型(如 Stable Diffusion)和组合方法(如 CLIP 与大语言模型的结合)。本文中,我们推出了 Emu3…