想学习AI吗?但您不知道如何或从哪里开始?为了逃离教程地狱真的学习时,你必须亲自动手,从头开始编写算法,实现论文,并使用人工智能解决问题来完成有趣的副业项目。
- 自上而下的方法:首先是代码,然后是理论。
- 有很多东西需要学习,而且你永远学不完,尤其是在人工智能方面,当每周都会发布新的革命性论文和想法时。所以,你应该在公共场合学习。
机器学习在很大程度上依赖于数学的三大支柱:线性代数、微积分、概率和统计学。每个都在使算法有效运行方面发挥着独特的作用。
这是从程序员角度来看的关于 ML 数学的精彩系列:通过权重和偏差进行机器学习的数学(代码)
如果您想要采用代码优先的方法来学习线性代数,请观看由 fast.ai 的创建者制作的计算线性代数(视频、代码)。
在课程旁边阅读《Python 应用机器学习的线性代数简介》 。
如果您想要更传统的东西,请观看伦敦帝国理工学院的讲座-线性代数和多元微积分。
观看 3Blue1Brown 的《线性代数精华》和《微积分精华》。
观看StatQuest 的统计基础知识了解统计数据
补充
初学者从这里开始:实用 Python 编程。
如果您已经熟悉 Python,请执行此高级 Python 掌握
它们都是 Python Cookbook 的作者 David Beazley 的精彩课程。
之后,观看詹姆斯·鲍威尔的一些演讲
阅读Python 设计模式。
补充
观看Aladdin Persson的PyTorch 教程
PyTorch 网站是一个很棒的地方。
用一些谜题测试你的知识
补充
阅读100 页的机器学习书籍。
当你阅读时,从头开始编写算法。
查看下面的存储库
如果您想要挑战,请按照本课程从头开始编写 PyTorch。
在比赛中应用您所学到的知识。
阅读Vicki Boykis 的《将机器学习运用到生产中》
她还写了她在构建Viberary(一种书籍语义搜索)时所学到的知识。
获取数据集并构建模型(即使用Earthaccess获取 NASA 地球数据)。
使用Streamlit创建 UI并在 Twitter 上分享。
获取生产中的模型。跟踪您的实验。了解如何监控模型。亲身体验数据和模型漂移。
这里有一些优秀的资源
如果你想要自上而下,请从 fast.ai 开始。
喜欢 fast.ai?查看全栈深度学习。
如果您想要更全面的传统课程,请查看François Fleuret的UNIGE 14x050 — 深度学习。
如果您在某些时候需要接触理论,这些都是很棒的书。
在手机上阅读《深度学习小书》,而不是滚动 Twitter。
在您的神经网络收敛时阅读这些内容。
查看labml.ai 带注释的 PyTorch 论文实现
Papers with Code 是一个很好的资源;这是BERT在他们的网站上的解释。
以下是深度学习专业领域的一些资源
很多人推荐CS231n:计算机视觉深度学习。这很有挑战性,但如果你能克服它,那就值得了。
对于强化学习来说,这两个都很棒:
斯坦福大学的另一门精彩课程,CS 224N |深度学习自然语言处理
学习拥抱脸:拥抱脸NLP课程
看看这个Super Duper NLP 存储库
好文章和细分
补充
首先,观看Andrej 的[ 1 小时演讲] 大型语言模型简介。
然后是五个公式中的大型语言模型,作者:Alexander Rush — 康奈尔科技
它从从头开始解释和编码反向传播开始,到从头开始编写 GPT 结束。
神经网络:从零到英雄作者:Andrej Karpathy
他刚刚发布了一个新视频 →让我们构建 GPT Tokenizer
您还可以在 60 Lines of NumPy | 中查看GPT杰·莫迪,当你在做的时候。
由 Full Stack Deep Learning 免费发布的付费LLM 训练营。
它教授即时工程、LLMOps、LLM 的用户体验,以及如何在一小时内启动 LLM 应用程序。
现在你已经渴望在这个新手训练营之后进行构建了,
想要使用LLM构建应用程序吗?
观看Andrew Ng 的《[使用大型语言模型进行应用程序开发》
](https://nips.cc/virtual/2023/tutorial/73948)
阅读Huyen Chip 的《Building LLM applications for production》
以及构建基于法学硕士的系统和产品的模式,作者:Eugene Yan
请参阅OpenAI Cookbook了解食谱。
使用Vercel AI 模板开始使用。
lablab.ai每周都会举办新的人工智能黑客马拉松。如果你想组队请告诉我!
如果您想更深入地了解理论并了解一切是如何运作的:
Sebastian Raschka撰写的一篇关于理解大型语言模型的精彩文章,其中列出了一些您应该阅读的论文。
他最近还发表了另一篇文章,其中包含您应该在 2024 年 1 月阅读的论文,其中涉及米斯特拉尔模型。
关注他的子堆栈Ahead of AI。
阅读Transformer 系列 2.0 版 | Lil’Log的概述。
选择最适合您的格式并从头开始实施。
论文
博客
视频
您现在可以从头开始编写变压器代码。但还有更多。
观看这些斯坦福 CS25 — Transformers United视频。
他有精彩的深入视频解释论文。他还向您展示了代码。
还有一些与LLM相关的链接并不详尽。请参阅LLM课程大纲,了解更全面的LLM课程大纲。
使用ollama:在本地启动并运行 Llama 2、Mistral 和其他大型语言模型
他们最近发布了Python 和 JavaScript 库
阅读提示工程 |莉尔洛格
ChatGPT 为开发人员提供提示工程,作者:Ise Fulford (OpenAI) 和 Andrew Ng
DeepLearning.ai 还提供其他可以免费报名的短期课程。
阅读Hugging Face 微调指南。
一本好的指南:微调 — GenAI 指南
看看蝾螈。
这是一篇好文章:使用直接偏好优化微调 Mistral-7b 模型 |作者:马克西姆·拉博纳
Anyscale 的一篇精彩文章:构建基于 RAG 的 LLM 应用程序用于生产
Aman Chadha对检索增强生成的全面概述
时事通讯 + 播客 + Twitter 的组合
如需论文,您可以关注AK (@_akhaliq)
对于播客,我发现最好的是Swyx 和 Alessio 的Latent Space
加入他们的Discord。
他们还有这份时事通讯Smol Talk,总结了所有重大的人工智能分歧。
我喜欢的其他一些时事通讯是:
来编写和组织这篇文章花了足够的时间,但它的回报却在递减,是时候学习和构建了。希望这对您的 AI 之旅有所帮助!
[1] https://medium.com/bitgrit-data-science-publication/a-roadmap-to-learn-ai-in-2024-cc30c6aa6e16
上一篇:lgup驱动-lg笔记本驱动
下一篇:笔记本e壳是哪里 笔记本e壳在哪