LEARN · 学习区
AI 学习区
从零开始学 AI:什么是 RAG / agent / prompt / fine-tuning / 对齐 / context window;怎么选工具;实用情境;进阶技术。
用 AI 写更好的商业 email 但不听起来像 AI
AI 对 email 解卡的部分很强。但决定有没有人回信的部分,它很烂。
一个晚上做出 Claude 或 GPT 驱动的 Discord bot
Discord 加 LLM 是完美的第一个 AI side project — surface 小、有真实用户、迭代快。
用 AI 生产品发布的文案、图片、视频
AI 把发布准备从几周压到几天 — 但只有你知道哪些 artifact AI 处理、哪些需要人才有用。
不是工程师也能用 AI 写 SQL
瞎信任 AI 生的 SQL 很危险。这篇给非工程师信心查资料的工作流。
用 AI 摘要取代内部进度会议
大部分进度会议可以是 5 分钟的读。这篇给你能让团队真的做到的结构。
用 AI 准备 podcast 问题跟生病毒短片
AI 对前后劳力工作很强。对话本身避开 AI。
用 AI 清理乱掉的 CSV / Excel 数据
AI 把几小时数据整理压到几分钟 — 对的数据类型,加上对的验证习惯。
看起来不假的 AI 产品照(电商用)
大部分 AI 电商照看起来明显是 AI。这篇给你客户不会注意到的工作流。
把 LLM 接进来调试生产环境问题
Production 出问题要赶快修的时候,怎么用 Claude / GPT-5 / Cursor 的实际 pattern。
Temperature、top-p、top-k:采样参数解释
三个旋钮控制模型输出多有创意或多无聊。大部分人留默认;默认常常错。
System prompt vs user prompt:谁说了算
LLM 消息里两部分被很不同地对待。混淆它们是最常见 API 错误。
LoRA vs fine-tuning vs RAG:哪个解哪个问题
让 LLM 做你要的事的三种不同方法。挑错浪费几周。这篇给你决策框架。
怎么把 LLM API 帐单砍一半又不掉品质
Prompt caching、模型 routing、输出 capping,加另外四个会累乘的优化。真实 production 团队砍帐单 50-80%。
AI 简历筛选实际在做什么(以及偏误陷阱)
多数所谓「AI 筛选」其实只是加了几步的关键词比对 — 处理不好还会把偏见洗白。
用 AI 把产品本地化成繁体 + 简体中文
实际的工作流,让你 ship 繁中加简中版本不用花两万美金请翻译公司。
RLHF vs DPO:现代对齐技术的差别
预训练之后,实验室怎么让模型真的回答你的问题而不是接话?两大家族的差别。
「Mixture of Experts」(MoE)到底是什么
为什么「巨大」的模型反而比小的便宜跑 — 以及 DeepSeek、Mixtral、Llama 4 为什么都押在这个架构。
什么是 AI 对齐,为什么实验室一直在吵
对齐就是让模型做人类真正想要的事,而不是字面上说的事。
AGI 跟 ASI 差在哪:定义、时间线,还有为什么这事重要
两个缩写被丢来丢去,好像大家都同意定义一样。其实没有。
从零写一个 agent loop(不用任何框架)
把抽象层拿掉,实际的 loop 大概 50 行。在你拿 LangGraph 之前先自己写一次。
防 prompt injection:2026 年的现实版护栏
没有完美的防御。这是一套能把实际风险降 95% 的分层 playbook。
LLM observability:log、trace、eval 三件事
看不到 agent 做了什么、为什么,你就修不了。2026 年的工具栈跟真正重要的四种信号。
用 LoRA 在本机微调 Llama 3 70B
在 2026 年自己用本机微调 70B 模型,实际需要的硬件、数据、超参数。
用 vLLM 自架高吞吐推理服务器
什么时候自架真的赢 API,以及怎么让 vLLM 在单张 GPU 上跑到 1000 req/min。