年度归档: 2024 年

37 篇文章

论文解读:KAN: Kolmogorov–Arnold Networks
五一假期刚开始没两天的时候,刷到了一篇火遍国内外AI圈的论文,叫做 KAN: Kolmogorov–Arnold Networks , 尤其国内某些科技媒体铺天盖地的宣传更是让我提起了兴趣,在假期结束之前,抽个空读一下看看是怎么个事。读了之后发现,仅仅只是高数、线代和概率论这些数学知识是看不懂的,最好还需要了解一点数分方面的知识,反正我是借助了Ch…
每周AI论文速递(240422-240426)
AutoCrawler: A Progressive Understanding Web Agent for Web Crawler Generation AutoCrawler: 一个为 Web 爬虫生成的渐进式理解 Web 智能体 Web 自动化是一种重要技术,它通过自动执行常见网页动作来处理复杂的网页任务,从而提高操作效率并减少手动干预。传统…
一文带你了解当前主流PEFT技术
随着LLaMA3的发布,大模型开源社区的战力又提升了一分,国内目前应该已经有不少大佬已经开始着手对LLaMA3进行研究或微调,对于微调技术,目前比较常见的就是Peft系列的技术,那么什么是PEFT,有哪些分类,为什么这么受大家欢迎呢?今天我们就好好聊聊这个话题。 什么是PEFT? 有哪些技术? PEFT的全称叫做 Parameter-Efficie…
每周AI论文速递(20240408-20240412)
Direct Nash Optimization: Teaching Language Models to Self-Improve with General Preferences 直接纳什优化:教授语言模型通过通用偏好自我提升 本文研究如何利用强大神谕的偏好反馈,对大语言模型 (大语言模型) 进行后训练,以帮助模型迭代地自我改进。传统的大语言模…
问答AI模型训练前的必做功课:数据预处理
翻译完了UDL这本书之后放松了一个多礼拜没有更新文章了,主要最近也在学习一些微调上面的知识,平时晚上还需要跑跑代码看看视频啥的,因此也一直没太有空写文章,UDL的翻译整理成PDF的工作都没空整。(虽然实际最近也花了很长时间在打游戏(。・_・。))。又到周末了,再拖着不干点正事我也过意不去了,今天就写点关于最近学习的一些关于微调方面的东西好了,因为我…
理解深度学习:第二十章 为什么深度学习有效?
本章不同于前面的章节。它不展示已确立的结果,而是探讨了深度学习为何和如何取得显著成功的问题,这些问题在教科书里很少被提及。然而,需明白(尽管本书的标题所示),我们对深度学习的理解还很有限。 我们发现,深度网络之所以易于训练及其泛化能力强,都是令人惊异的现象。接下来,我们将逐一分析这些议题。我们将探讨影响训练成功的各种因素,并讨论深度网络损失函数的已…