AI 学习笔记:开篇——一个前端开发者的 AI 探索之旅
AI 这两年太热了。热到有时候感觉不入局就像站在时代边缘,热到各种概念、工具、模型每周都在更新,根本追不完。
作为一个做了多年前端的人,我对 AI 的感受经历了几个阶段:好奇 → 观望 → 焦虑 → 行动。
这个系列笔记,就是”行动”的开始。
为什么开始写这个系列
不是为了蹭热点,是因为 AI 真的在改变我的工作方式。
从最开始用 ChatGPT 帮忙查 bug、写注释,到现在用 Cursor 辅助编码、用各种 AI 工具提效——我发现,会用 AI 和不会用 AI 的开发者,生产效率差距正在迅速拉开。
但”会用”和”真正理解”是两回事。我用过很多 AI 工具,却对背后的原理一知半解。这个系列的目的,就是把模糊的认知变得清晰一点:
- 搞懂那些总是听到的概念:Token、向量、RAG、Agent、MCP……
- 理解大模型是怎么工作的,不需要精通数学,但要看懂逻辑
- 学会在前端/全栈开发中实际集成 AI 能力
- 记录踩过的坑、用过的工具、有意思的实验
这个系列会写什么
大致规划如下,顺序随缘,跟着学习进度走:
基础认知
- 大语言模型(LLM)的工作原理——用大白话讲
- Prompt Engineering:怎么和 AI 说话才有效
- 理解 Token、上下文窗口、Temperature 这些参数
工具与实践
- 主流 AI API 的接入(OpenAI、Claude、DeepSeek 等)
- 在前端项目里集成 AI 功能
- MCP(Model Context Protocol):让 AI 操控你的工具
- AI Agent:从单轮对话到自动化任务流
本地部署与进阶
- 本地运行开源模型(Ollama、LM Studio)
- RAG(检索增强生成):给 AI 喂私有知识库
- 微调 vs 提示词工程,怎么选
我的学习立场
我不是 AI 研究员,也没有数学背景——我是个工程师,关注的是能不能用、怎么用好。
所以这个系列会尽量:
- 少讲理论,多上代码和实例
- 踩坑实录,不只写成功案例
- 前端视角优先,但不局限于前端
如果你也是开发者,对 AI 有兴趣但不知道从哪入手,或者已经在用但想更系统地了解——欢迎一起。
探索还在继续,笔记也会持续更新。
下一篇:Prompt Engineering 入门——怎么和大模型好好说话
本文永久链接: https://www.mulianju.com/learning-notes/ai-learning-notes-start/