课程介绍
  • 课程首页
  • 拼团活动
  • 专业套餐
  • 优惠活动
  • 我的课程
  • 站内消息
  • 站内提醒
  • 我的钱包
  • 道具 | 抵价券
  • 登录


AI技术前瞻:Mamba(第一期)

03月23日

4周

31人

讲师
tigerfish
tigerfish,知名数据库网站ITPUB创始人,知名数据分析网站炼数成金创始人。数据库专家,数据分析专家,有丰富的IT领域、数学领域的知识经验。他将带领他的数据分析团队完成整个授课工作。
课程简介
     2018年transformer诞生后,迅速成为各种大模型的基础结构,于是有了ChatGPT,有了以AGI为最终目标的快速发展。但受限于transformer对算力的要求,以输入token序列的长度的平方为增长级数。因此它无法处理超长序列。像ChatGPT目前文本长度限制为32k。对于纯文字,当有很多个回合的对话时,会突破这个上限。对于多模态的情况,高分辨率图片,一段音频、视频可能就轻易突破这个限制了。对于科学应用,对人的基因进行全序列测序会形成数G数据。以上序列,如果截断成短的片段,又难以捕捉长程依赖,这类问题,一直是序列型数据处理的核心困难所在。

     炼数成金新课程中的“AI技术前瞻”系列,捕捉当前技术热点,这些技术犹如当年的transformer,我们判断对将来的技术发展方向可能有重要的影响,在当下应用可以带来算力效率、结果准确度等方面带来优势,进行持续长远的研究,可能有积跬步成千里,滴水石穿的效果,给场景和基础结构带来革命性的突破,犹如transformer之相对于ChatGPT和AGI。本课程涉及的mamba,是由斯坦福和卡内基梅隆发起的项目,起源于SSM(状态空间模型),其演进过程深刻而简洁,让人拍案叫绝。可以极大降低所需要的算力,同时又能处理困难的超长序列问题,目前普遍被业界看好,认为是transformer的潜在替代。其作者已经开设了创业公司,围绕mamba研发新一代大语言模型,与OpenAI及一众行业巨头掰手腕。通过了解mamba,我们可以对大语言模型的核心问题有更深刻的理解,为创新应用场景和基础设施做知识准备,这是值得学习,并向同事、上司、老板、同行们炫耀的技术知识。

课程亮点:
1 详细剖析transformer原理和优缺点2 深度讲解mamba的前世今生(目前市面上还没见到有能深入讲解的同类课程)
2 应用实际部署,代码实战
3 提供A100服务器和其它充足的算力资源作为实验支撑
课程章节
  • 第1课 序列型问题,RNN,LSTM与Transformer
    • 1-1 从金融数据到自然语言处理,从语音分析到视频生成,序列型数据无所不在
    • 1-2 循环神经网络RNN及其硬伤
    • 1-3 LSTM
    • 1-4 几乎解决所有传统难题的Seq2Seq,注意力机制
    • 1-5 AGI的基石transformer与自注意力详解
  • 第2课 flashattention
    • 2-1 transformer和自注意力的算力瓶颈
    • 2-2 利用硬件特点的优化
    • 2-3 flashattention9 flashattention2
  • 第3课 从SSM到S4
    • 3-1 状态空间模型
    • 3-2 连续形式的神经网络
    • 3-3 HiPPO
    • 3-4 SSM升级版S4
  • 第4课 mamba
    • 4-1 超长序列一直是序列型问题的核心困难。完整音视频,DNA等超长序列并不适用于transformer去解决
    • 4-2 S4的梦幻版升级mamba
    • 4-3 mamba实战:构造大语言模型与聊天机器人
    • 4-4 用统计学的观点重新审视SSM到mamba
学费

学费: ¥400 ( 固定学费: ¥100, 逆向学费: ¥300 )

新颖的课程收费形式:“逆向收费”约等于免费学习,仅收取100元固定收费+300元逆向学费,学习圆满则逆向学费全额返还给学员!




炼数成金移动版 v2.0