跳到內容

LEARN · 學習區

AI 學習區

從零開始學 AI:什麼是 RAG / agent / prompt / fine-tuning / 對齊 / context window;怎麼選工具;實用情境;進階技術。

情境★★★★7 分鐘

用 AI 寫更好的商業 email 但不聽起來像 AI

AI 對 email 解卡的部分很強。但決定有沒有人回信的部分,它很爛。

情境★★★★★7 分鐘

一個晚上做出 Claude 或 GPT 驅動的 Discord bot

Discord 加 LLM 是完美的第一個 AI side project — surface 小、有真實用戶、迭代快。

情境★★★★★7 分鐘

用 AI 生產品發布的文案、圖片、影片

AI 把發布準備從幾週壓到幾天 — 但只有你知道哪些 artifact AI 處理、哪些需要人才有用。

情境★★★★★7 分鐘

不是工程師也能用 AI 寫 SQL

瞎信任 AI 生的 SQL 很危險。這篇給非工程師信心查資料的工作流。

情境★★★★★7 分鐘

用 AI 摘要取代內部進度會議

大部分進度會議可以是 5 分鐘的讀。這篇給你能讓團隊真的做到的結構。

情境★★★★★7 分鐘

用 AI 準備 podcast 問題跟生病毒短片

AI 對前後勞力工作很強。對話本身避開 AI。

情境★★★★★7 分鐘

用 AI 清理亂掉的 CSV / Excel 資料

AI 把幾小時資料整理壓到幾分鐘 — 對的資料類型,加上對的驗證習慣。

情境★★★★★7 分鐘

看起來不假的 AI 產品照(電商用)

大部分 AI 電商照看起來明顯是 AI。這篇給你客戶不會注意到的工作流。

情境★★★★★8 分鐘

把 LLM 接進來除錯生產環境問題

Production 出包要趕快修的時候,怎麼用 Claude / GPT-5 / Cursor 的實際 pattern。

術語★★★★★7 分鐘

Temperature、top-p、top-k:採樣參數解釋

三個旋鈕控制模型輸出多有創意或多無聊。大部分人留預設;預設常常錯。

術語★★★★6 分鐘

System prompt vs user prompt:誰說了算

LLM 訊息裡兩部分被很不同地對待。混淆它們是最常見 API 錯誤。

術語★★★★★8 分鐘

LoRA vs fine-tuning vs RAG:哪個解哪個問題

讓 LLM 做你要的事的三種不同方法。挑錯浪費幾週。這篇給你決策框架。

進階★★★★★8 分鐘

怎麼把 LLM API 帳單砍一半又不掉品質

Prompt caching、模型 routing、輸出 capping,加另外四個會累乘的優化。真實 production 團隊砍帳單 50-80%。

情境★★★★★8 分鐘

AI 履歷篩選實際在做什麼(以及偏誤陷阱)

多數所謂「AI 篩選」其實只是加了幾步的關鍵字比對 — 處理不好還會把偏見洗白。

情境★★★★★8 分鐘

用 AI 把產品在地化成繁體 + 簡體中文

實際的工作流,讓你 ship 繁中加簡中版本不用花兩萬美金請翻譯公司。

術語★★★★9 分鐘

RLHF vs DPO:現代對齊技術的差別

預訓練之後,實驗室怎麼讓模型真的回答你的問題而不是接話?兩大家族的差別。

術語★★★★★9 分鐘

「Mixture of Experts」(MoE)到底是什麼

為什麼「巨大」的模型反而比小的便宜跑 — 以及 DeepSeek、Mixtral、Llama 4 為什麼都押在這個架構。

術語★★★★★8 分鐘

什麼是 AI 對齊,為什麼實驗室一直在吵

對齊就是讓模型做人類真正想要的事,而不是字面上說的事。

術語★★★★★9 分鐘

AGI 跟 ASI 差在哪:定義、時程,還有為什麼這事重要

兩個縮寫被丟來丟去,好像大家都同意定義一樣。其實沒有。

進階★★★★10 分鐘

從零寫一個 agent loop(不用任何框架)

把抽象層拿掉,實際的 loop 大概 50 行。在你拿 LangGraph 之前先自己寫一次。

進階★★★★10 分鐘

防 prompt injection:2026 年的現實版護欄

沒有完美的防禦。這是一套能把實際風險降 95% 的分層 playbook。

進階★★★★10 分鐘

LLM observability:log、trace、eval 三件事

看不到 agent 做了什麼、為什麼,你就修不了。2026 年的工具堆疊跟真正重要的四種訊號。

進階★★★★★11 分鐘

用 LoRA 在本機微調 Llama 3 70B

在 2026 年自己用本機微調 70B 模型,實際需要的硬體、資料、超參數。

進階★★★★★11 分鐘

用 vLLM 自架高吞吐推論伺服器

什麼時候自架真的贏 API,以及怎麼讓 vLLM 在單張 GPU 上跑到 1000 req/min。

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more