跳到内容

LEARN · 学习区

AI 学习区

从零开始学 AI:什么是 RAG / agent / prompt / fine-tuning / 对齐 / context window;怎么选工具;实用情境;进阶技术。

情境★★★★7 分钟

用 AI 写更好的商业 email 但不听起来像 AI

AI 对 email 解卡的部分很强。但决定有没有人回信的部分,它很烂。

情境★★★★★7 分钟

一个晚上做出 Claude 或 GPT 驱动的 Discord bot

Discord 加 LLM 是完美的第一个 AI side project — surface 小、有真实用户、迭代快。

情境★★★★★7 分钟

用 AI 生产品发布的文案、图片、视频

AI 把发布准备从几周压到几天 — 但只有你知道哪些 artifact AI 处理、哪些需要人才有用。

情境★★★★★7 分钟

不是工程师也能用 AI 写 SQL

瞎信任 AI 生的 SQL 很危险。这篇给非工程师信心查资料的工作流。

情境★★★★★7 分钟

用 AI 摘要取代内部进度会议

大部分进度会议可以是 5 分钟的读。这篇给你能让团队真的做到的结构。

情境★★★★★7 分钟

用 AI 准备 podcast 问题跟生病毒短片

AI 对前后劳力工作很强。对话本身避开 AI。

情境★★★★★7 分钟

用 AI 清理乱掉的 CSV / Excel 数据

AI 把几小时数据整理压到几分钟 — 对的数据类型,加上对的验证习惯。

情境★★★★★7 分钟

看起来不假的 AI 产品照(电商用)

大部分 AI 电商照看起来明显是 AI。这篇给你客户不会注意到的工作流。

情境★★★★★8 分钟

把 LLM 接进来调试生产环境问题

Production 出问题要赶快修的时候,怎么用 Claude / GPT-5 / Cursor 的实际 pattern。

术语★★★★★7 分钟

Temperature、top-p、top-k:采样参数解释

三个旋钮控制模型输出多有创意或多无聊。大部分人留默认;默认常常错。

术语★★★★6 分钟

System prompt vs user prompt:谁说了算

LLM 消息里两部分被很不同地对待。混淆它们是最常见 API 错误。

术语★★★★★8 分钟

LoRA vs fine-tuning vs RAG:哪个解哪个问题

让 LLM 做你要的事的三种不同方法。挑错浪费几周。这篇给你决策框架。

进阶★★★★★8 分钟

怎么把 LLM API 帐单砍一半又不掉品质

Prompt caching、模型 routing、输出 capping,加另外四个会累乘的优化。真实 production 团队砍帐单 50-80%。

情境★★★★★8 分钟

AI 简历筛选实际在做什么(以及偏误陷阱)

多数所谓「AI 筛选」其实只是加了几步的关键词比对 — 处理不好还会把偏见洗白。

情境★★★★★8 分钟

用 AI 把产品本地化成繁体 + 简体中文

实际的工作流,让你 ship 繁中加简中版本不用花两万美金请翻译公司。

术语★★★★9 分钟

RLHF vs DPO:现代对齐技术的差别

预训练之后,实验室怎么让模型真的回答你的问题而不是接话?两大家族的差别。

术语★★★★★9 分钟

「Mixture of Experts」(MoE)到底是什么

为什么「巨大」的模型反而比小的便宜跑 — 以及 DeepSeek、Mixtral、Llama 4 为什么都押在这个架构。

术语★★★★★8 分钟

什么是 AI 对齐,为什么实验室一直在吵

对齐就是让模型做人类真正想要的事,而不是字面上说的事。

术语★★★★★9 分钟

AGI 跟 ASI 差在哪:定义、时间线,还有为什么这事重要

两个缩写被丢来丢去,好像大家都同意定义一样。其实没有。

进阶★★★★10 分钟

从零写一个 agent loop(不用任何框架)

把抽象层拿掉,实际的 loop 大概 50 行。在你拿 LangGraph 之前先自己写一次。

进阶★★★★10 分钟

防 prompt injection:2026 年的现实版护栏

没有完美的防御。这是一套能把实际风险降 95% 的分层 playbook。

进阶★★★★10 分钟

LLM observability:log、trace、eval 三件事

看不到 agent 做了什么、为什么,你就修不了。2026 年的工具栈跟真正重要的四种信号。

进阶★★★★★11 分钟

用 LoRA 在本机微调 Llama 3 70B

在 2026 年自己用本机微调 70B 模型,实际需要的硬件、数据、超参数。

进阶★★★★★11 分钟

用 vLLM 自架高吞吐推理服务器

什么时候自架真的赢 API,以及怎么让 vLLM 在单张 GPU 上跑到 1000 req/min。

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more