🚀 解读论文:让上下文无限延展的变革 - Infini-attention
在当今人工智能领域,大型语言模型 (LLMs) 如同超人般在各个场景中发光发热。然而,当这些 「超人」 面对超长输入序 ... 阅读更多
留下每一份上下文:高效的无限上下文 Transformer 与 Infini-attention
🌍 引言 在智能的世界里,记忆就像是一个巨大的仓库,能够根据具体的上下文进行高效计算。尽管如此,基于变换器的语 ... 阅读更多
GPU 泡沫破灭前夜:深度剖析 H100 市场现状与未来
💻 AI 竞赛的历史轨迹 在 2022 年 11 月 30 日,基于 A100 GPU 系列训练的 GPT-3.5 与 ChatGPT ... 阅读更多
【习题集】 Getting Started with Scratch
任务目标 快速学习并记住 Scratch 入门指南的主要内容, 包括 Scratch 的基本概念、界面操作、编程方法和资 ... 阅读更多