# AI 味檢測知識庫

> AK體 Skill M6.4 模組專用
> 建立日期：2026-03-31
> 來源：用戶歷史反饋 + 寫作風格指南交叉比對

---

## 一、語句層級的 AI 痕跡

### 1. 裝生動的固定句式

**具體表現**：
- 「說白了就是」「更離譜的是」「幾個數字你自己感受一下」「這兩個問題差很遠」
- 「想像一下」「你有沒有想過」「讓我們來看看」
- 這類句子本身不是問題，問題是它們以固定搭配出現，像是從句庫裡抽出來的

**為什麼是 AI 味**：
LLM 在訓練過程中學到這些是「讓文章有節奏感」的信號，所以會高頻使用。真人也會用，但真人的用法是隨機的、不規則的，不會每篇都出現同一批。AI 的問題是「句式多樣性低」，同樣的裝生動手法反覆出現。

**真人對照**：
真人不會刻意讓每段都有一個生動句式。有時候一段就是平鋪直敘講完，沒有任何修飾。真人的生動感來自具體細節（「那個站我買的時候 DR 才 12」），不是來自句式包裝。

**檢測方式**：
- 建立固定句式清單，掃描是否命中
- 統計一篇貼文中命中幾個不同的固定句式，超過 2 個就標記
- 檢查這些句式是否出現在段落的固定位置（段首或段尾），如果是，AI 味更重

---

### 2. 過度整齊的對比句

**具體表現**：
- 「以前是 A，現在是 B」
- 「不是 X，而是 Y」
- 「與其做 A，不如做 B」
- 兩邊字數差不多，結構對仗，像在寫對聯

**為什麼是 AI 味**：
LLM 擅長把觀察整理成整齊的二元對立。這種對仗結構在訓練數據中是「好文案」的信號，所以 AI 很愛生成。但真人在表達觀點時不會這麼工整，因為真人的思考過程本身就是混亂的。

**真人對照**：
真人會說「以前大家都在搞 expired domain，現在...其實也還是有人在搞，只是玩法不太一樣了」。注意這裡的「其實也還是有人在搞」就是真人的猶豫感，AI 不會加這種。真人的對比是髒的、帶保留的，不是一刀切。

**檢測方式**：
- 掃描「以前...現在」「不是...而是」「與其...不如」等對比結構
- 判斷前後兩半的字數是否接近（差距在 5 字以內 = 過度工整）
- 檢查對比句是否把結論講死了（沒有留「但也不一定」的空間）

---

### 3. 金句密度過高

**具體表現**：
- 連續 2 句以上都是可以截圖分享的漂亮句子
- 每段都有一句「名言等級」的總結
- 整篇讀起來像語錄合集

**為什麼是 AI 味**：
LLM 的 reward signal 傾向生成「看起來很有洞察力」的句子。一篇文章如果金句太密，反而暴露了不是真人寫的，因為真人不可能每句話都那麼精煉。真人寫作有「廢話」、有過渡、有還在組織語言的痕跡。

**真人對照**：
真人一篇 400 字的貼文裡，可能只有 1-2 句比較精彩，其他都是在鋪墊、解釋、補充細節。金句之間會有不漂亮的句子，比如「這個我之前踩過坑」「細節太多先不展開」。

**檢測方式**：
- 逐句評估「可截圖性」（句子是否自成一個完整觀點、是否可以脫離上下文獨立存在）
- 如果連續 2 句都是高可截圖性，標記
- 全篇金句比例超過 40% 就標記

---

### 4. 表演式轉折

**具體表現**：
- 「所以我現在怎麼想？」
- 「來看幾個數字」
- 「但真正的問題是...」
- 「事情沒那麼簡單」
- 用一句話製造假懸念，然後馬上自己回答

**為什麼是 AI 味**：
這是 LLM 學到的「文章節奏控制」手法。在訓練數據裡，好的文章確實會有轉折，但 AI 的轉折是表演性質的，因為它在生成轉折句的時候已經知道答案了。真人的轉折來自真正的思考轉向，AI 的轉折來自結構需要。

**真人對照**：
真人的轉折通常更突然，不會有預告。比如直接就「不過後來我發現這方法有個大問題」，不會先問「所以這個方法到底有沒有用？」再自問自答。

**檢測方式**：
- 掃描自問自答結構（問句 + 緊接的回答）
- 掃描假懸念句式（「真正的 X 是」「但問題來了」「事情沒那麼簡單」）
- 如果轉折句後面的內容跟前面完全不矛盾（只是換個角度重複），標記為表演式

---

### 5. 反問句鎖結論

**具體表現**：
- 「如果不是 X，那到底是什麼？」
- 「這難道不是最好的證明嗎？」
- 「還需要更多證據嗎？」
- 用反問句封死推理鏈，讓讀者無法反駁

**為什麼是 AI 味**：
AI 用反問句來強制收束邏輯，因為反問句不需要真正回答，可以跳過細節直接得出結論。這是一種偷懶的論證方式。真人用反問句是真的在表達困惑或挑釁，AI 用反問句是在替代嚴謹論證。

**真人對照**：
真人會直接下判斷：「我覺得就是這樣」「我目前的結論是 X」。或者留不確定：「可能是 X，但我也不是百分之百確定」。真人不需要用反問句來替自己的觀點加保險。

**檢測方式**：
- 掃描結尾或段尾的反問句
- 判斷反問句是否在替代論證（反問句前面有沒有充分的推理過程）
- 如果反問句出現在最後一段，高機率是 AI 的收束手法

---

### 6. 判斷句太完整

**具體表現**：
- 一句話就把一個複雜議題的邏輯講透
- 「X 之所以 Y，是因為 Z，而 Z 的根源在於 W」
- 因果鏈一次性呈現，沒有省略、沒有猶豫

**為什麼是 AI 味**：
LLM 被訓練成「有問必答、答必完整」，所以每句判斷都會把邏輯鏈補齊。但真人在社交媒體上講話是帶殘缺感的，因為有些邏輯環節在腦中是隱含的，不會全部外顯。

**真人對照**：
真人會說「這個嘛，基本上就是 Google 在收緊吧」，而不是「Google 之所以收緊 expired domain 的排名，是因為大量低品質 PBN 利用 DR 優勢覆蓋了 SERP」。真人的判斷留有空隙，像是還在想，像是有些部分故意略過。

**檢測方式**：
- 掃描含有「之所以...是因為」「原因在於」「這代表」等完整因果結構的句子
- 判斷這句話是否可以拆成 2-3 句來講（如果可以，就是太完整了）
- 一句話如果同時包含現象 + 原因 + 推論，標記

---

### 7. 過度使用連接詞

**具體表現**：
- 「然而」「不過」「值得注意的是」「有趣的是」
- 「換言之」「也就是說」「總的來說」
- 每段開頭都有連接詞引導

**為什麼是 AI 味**：
LLM 依賴連接詞來標記段落之間的邏輯關係，因為這是它組織輸出的內部機制外顯。真人在社交媒體寫作中很少用這些書面連接詞，段落之間的邏輯關係靠語境暗示，不靠連接詞明示。

**真人對照**：
真人的段落銜接通常是直接跳過去：上一段講完一個觀察，下一段直接講另一個觀察，中間不加「此外」「另外」。如果需要轉折，頂多用「但」或「不過」這種口語詞，不會用「然而」「值得注意的是」。

**檢測方式**：
- 建立書面連接詞清單：然而、此外、值得注意的是、有趣的是、換言之、總的來說、與此同時、不僅如此
- 統計一篇貼文中出現幾個，超過 2 個就標記
- 「但」「不過」「所以」不算，這些是口語

---

### 8. 列舉太工整

**具體表現**：
- 1234 排列整齊
- 每點字數差不多（每點 15-25 字，誤差在 5 字以內）
- 每點的句式結構相似（都是「名詞 + 動詞 + 結果」）

**為什麼是 AI 味**：
LLM 在生成列表時會自動對齊格式和長度，因為訓練數據中的「好列表」就是工整的。但真人列舉東西的時候，有些點會多講兩句，有些點就一句帶過，長短差異很大。

**真人對照**：
真人的列舉會像：「1. expired domain 現在很難搞了，2. programmatic SEO 還行但要看垂直，Google 對某些垂直特別嚴，3. 內容農場基本死了」。注意第 2 點比其他點長很多，因為那個點有更多想說的。

**檢測方式**：
- 檢測列舉結構（數字序號、bullet point）
- 計算每點的字數，如果標準差過低（各點字數很接近），標記
- 檢查每點的句式是否雷同

---

### 9. 情緒詞不自然

**具體表現**：
- 「令人震驚的是」「有趣的是」「值得深思」「令人擔憂」
- 情緒詞出現在觀察句的開頭，像是在替讀者預設情緒反應
- 情緒詞的力度跟內容的實際衝擊力不匹配

**為什麼是 AI 味**：
LLM 在訓練中學到要在重要資訊前加情緒引導詞，幫助讀者「感受」。但真人的情緒表達是嵌在語氣裡的（用字、斷句、語序），不是靠情緒標籤詞外掛上去的。

**真人對照**：
真人不會說「令人震驚的是，Google 更新了演算法」。真人會說「靠，Google 又更新了」或「Google 又改了，這次影響蠻大的」。情緒在「靠」和「蠻大的」裡面，不是在「令人震驚」裡面。

**檢測方式**：
- 建立 AI 高頻情緒標籤詞清單：令人震驚的是、有趣的是、值得深思、令人擔憂、耐人尋味、不可忽視的是
- 掃描命中即標記
- 對照用戶的寫作風格指南中的情緒表達方式（「離譜」「太扯了」才是這個帳號的情緒詞）

---

### 10. 哲理收尾

**具體表現**：
- 最後一句突然從具體議題跳到人生哲學
- 「在這個快速變化的時代」「或許，真正重要的不是 X，而是 Y」
- 「這不只是 SEO 的問題，更是我們如何面對 Z 的問題」
- 把具體話題硬拉到更高維度

**為什麼是 AI 味**：
LLM 被訓練成收尾要有「升華」，因為訓練數據中的好文章往往有一個提煉主題的結尾。但社交媒體貼文不是議論文，突然拉高只會讓讀者覺得假。

**真人對照**：
真人的收尾通常很隨意：「反正我現在就是這樣操作」「之後再看看效果」「有什麼想法留言討論」。不會突然變成哲學家。

**檢測方式**：
- 掃描最後一句是否包含泛化詞彙（「時代」「本質」「意義」「真正重要的」）
- 判斷最後一句的抽象程度是否明顯高於前文
- 如果最後一句可以套用在任何主題上（把關鍵詞換掉還成立），就是哲理收尾

---

## 二、結構層級的 AI 痕跡

### 1. 論證太順

**具體表現**：
每一段都在推進同一個結論，沒有任何段落岔出去、沒有例外、沒有「但某些情況不適用」。讀完後會覺得「這個觀點太完美了，不可能沒有漏洞」。

**為什麼是 AI 味**：
LLM 生成文本時有一個明確的目標結論，所有段落都是為這個結論服務的。它不會主動生成反對自己的證據，因為這在 reward model 中不是「好回答」的特徵。

**真人對照**：
真人的論證一定有雜訊。比如寫「expired domain 風險很高」的時候，真人會忍不住補一句「不過我有個朋友靠這個確實賺到了」。這個岔出去的資訊不服務主結論，但它是真實思考的痕跡。

**檢測方式**：
- 檢查全文是否有任何段落包含「但」「不過」「例外是」「有些情況」等讓步/例外資訊
- 如果全篇零讓步，標記
- 檢查是否有至少 1 個「我原本以為 A，後來發現是 B」的修正痕跡

---

### 2. 收尾太完整

**具體表現**：
最後一段同時包含：結論 + 實操建議 + 行動呼籲。像商業簡報的最後一頁。

**為什麼是 AI 味**：
LLM 被訓練成要給「完整的答案」，所以收尾時會把所有該講的都講完。但社交媒體貼文的收尾應該是殘缺的，因為一篇貼文不需要解決所有問題。

**真人對照**：
真人的收尾通常只做一件事：要嘛下個結論，要嘛講自己接下來怎麼做，要嘛問讀者意見。不會三合一。

**檢測方式**：
- 分析最後一段包含幾個功能（結論/建議/行動呼籲/預告）
- 如果同時包含 2 個以上功能，標記
- 特別注意「如果你也想 X，可以 Y」這種建議 + 行動的組合，這是 AI 最愛的收尾格式

---

### 3. 段尾太會收

**具體表現**：
每段的最後一句都在做小結，把這段的重點再講一次。讀起來像教科書，每段結尾都有 takeaway。

**為什麼是 AI 味**：
LLM 的生成邏輯是「段落 = 主題句 + 支持 + 總結」，這是英文寫作教學的標準段落結構。在中文社交媒體上，這種結構反而暴露了 AI 的訓練來源。

**真人對照**：
真人有時候一段講完就直接跳下一段，不會每段都收。有些段落的最後一句可能是一個細節補充，或者一個沒講完的想法。

**檢測方式**：
- 檢查每段最後一句是否在重述該段主旨
- 如果超過一半的段落都有段尾小結，標記
- 判斷方式：段尾最後一句刪掉後，該段的意思是否完全不受影響（如果不受影響，代表它只是小結，可以刪）

---

### 4. 完美的起承轉合

**具體表現**：
Hook > 背景鋪墊 > 核心觀點 > 例證支持 > 結論收束，一環扣一環。每個段落的功能分工明確，像作文課教的五段式結構。

**為什麼是 AI 味**：
LLM 生成的文本在結構上幾乎不會出錯，因為它在 planning 階段就已經把結構排好了。但真人寫社交媒體貼文時，結構是邊寫邊長出來的，會有跳躍、會有插入、會有「啊對了還有一個事」。

**真人對照**：
真人的貼文結構通常有點歪：可能 hook 之後直接講結論，然後才補背景；可能講到一半岔出去講另一個相關的事，再拉回來。

**檢測方式**：
- 分析每段的功能角色，看是否完美符合教科書結構
- 如果結構完全可預測（讀完第一段就能猜到後面每段在幹嘛），標記
- 檢查是否有任何「結構意外」（突然插入的段落、順序不直覺的安排）

---

### 5. 資訊分布太均勻

**具體表現**：
每段的字數差不多、資訊密度差不多。沒有特別厚的段落，也沒有特別薄的段落。

**為什麼是 AI 味**：
LLM 傾向讓段落長度接近，因為這在視覺上更「整齊」。但真人寫作時，有些觀點會講很多（因為有很多細節想分享），有些觀點一句話帶過（因為覺得不需要展開）。

**真人對照**：
真人的貼文可能第二段特別長（因為在講一個具體案例的細節），第三段只有一句話（因為結論很簡單），最後一段又長一點（因為在補充例外情況）。

**檢測方式**：
- 計算每段字數，算標準差
- 如果段落字數標準差過低（所有段落字數差異在 20% 以內），標記
- 這個檢測項權重較低，單獨出現不構成 AI 味，但跟其他結構問題一起出現就加重

---

## 三、內容層級的 AI 痕跡

### 1. 數字密度高但來源懸空

**具體表現**：
- 堆疊百分比和數據，但沒有交代來源或情境
- 「70% 的站長會遇到這個問題」「轉化率提升了 3 倍」
- 數字講得很精確，但讀者不知道這數字從哪來

**為什麼是 AI 味**：
LLM 傾向生成看起來有說服力的數字，因為訓練數據中帶數字的論述通常得分較高。但 AI 的數字是「裝飾性的」，服務於修辭而非事實。真人引用數字時會加情境。

**真人對照**：
真人會說「我目前看到的大概是...」「圈內統計不一定準」「體感上比例不低但我沒精確數字」。真人的數字帶著不確定性，因為真人知道數字的局限。

**檢測方式**：
- 掃描包含百分比或倍數的句子
- 判斷數字前後是否有來源修飾（「我測到的」「根據我的觀察」「大概」「估計」）
- 如果數字以確定語氣出現且無來源/情境，標記

---

### 2. 只有支持主論的證據

**具體表現**：
所有案例、數據、觀察都指向同一個結論。沒有反例、沒有自己判斷錯的經驗、沒有「但某些垂直不適用」。

**為什麼是 AI 味**：
LLM 生成論述時是目標導向的，所有內容服務結論。它不會主動提供削弱自己觀點的資訊。但真人操盤手的經驗一定有灰色地帶，因為真實世界就是有例外的。

**真人對照**：
真人會夾帶「不過有個例外是...」「我之前以為 X 但後來發現不一定」「這個在 YMYL 垂直可能不成立」。

**檢測方式**：
- 檢查全文是否包含至少 1 個例外情況
- 檢查全文是否包含至少 1 個「我原本的判斷 vs 後來的修正」
- 如果兩者都沒有，標記

---

### 3. 抽象判斷缺具體案例

**具體表現**：
- 「很多站都遇到了這個問題」但不說哪個站、什麼垂直、站齡多久
- 「這個策略效果很好」但不補具體數據或場景
- 全篇都在講道理，沒有一個可以讓讀者「看到」的具體場景

**為什麼是 AI 味**：
LLM 擅長抽象概括但不擅長編造具體細節（因為具體到某個垂直、某個站齡的案例需要真實經驗）。所以 AI 傾向停在抽象層面。

**真人對照**：
真人會說「我那個做寵物垂直的站，站齡 2 年，上個月 Core Update 之後流量掉了 60%，但做 YMYL 的另一個站反而漲了」。有垂直、有站齡、有類型、有具體結果。

**檢測方式**：
- 掃描判斷句（「X 很重要」「Y 風險很高」「Z 效果好」）
- 判斷前後是否有具體案例支撐（具體 = 有垂直 / 站齡 / 類型 / 數據中的至少 2 項）
- 如果抽象判斷超過 2 個都沒有具體案例，標記

---

### 4. 觀點太中立

**具體表現**：
- 「A 有優點也有缺點」「兩者各有利弊」
- 把正反兩面都講到，最後結論取中間值
- 不敢站邊，不敢得罪任何一方

**為什麼是 AI 味**：
LLM 的 RLHF 訓練傾向生成平衡、不冒犯的回答。但社交媒體上有影響力的帳號一定有鮮明立場，讀者追蹤你就是為了看你的主觀判斷。

**真人對照**：
真人（特別是 AK 的風格）會直接說「這個策略就是垃圾」「別傻了，這根本不可能」。就算要講另一面，也是以自己的立場為主，另一面只是順帶提。

**檢測方式**：
- 檢查結論句是否包含「但也不能說完全沒有價值」「兩者各有優劣」等兩面討好的表述
- 檢查全文的立場是否一致（有沒有一個明確的主張）
- 如果結論可以被任何立場的人接受，標記

---

### 5. 知識展示過度

**具體表現**：
- 不必要地展示背景知識來建立權威感
- 「眾所周知，Google 的 PageRank 演算法自 1998 年...」
- 花一整段在講讀者已經知道的基礎知識
- 用術語堆疊來顯示自己懂很多

**為什麼是 AI 味**：
LLM 傾向提供完整的背景資訊，因為在 QA 場景中「提供上下文」是好回答的特徵。但在社交媒體上，你的受眾已經有一定程度的背景知識，重新科普只會讓人覺得是 AI 在填充字數。

**真人對照**：
真人預設讀者跟自己程度差不多，直接跳到重點。不會解釋什麼是 SEO，不會介紹 Google 的歷史，不會定義每一個術語。如果要提一個可能不太常見的概念，頂多加個半句補充，不會花一整段。

**檢測方式**：
- 檢查是否有段落在解釋受眾應該已知的基礎概念
- 檢查概念知識庫（M3），如果這個概念已經解釋過，再解釋就是冗餘
- 如果一段的主要功能是「科普」而非「推進論點」，標記

---

## 四、最有效的降 AI 味方法

### 方法 1：補一個具體案例

把抽象判斷錨定到具體場景。

- AI 味：「expired domain 的風險越來越高了」
- 降味後：「我去年買了一個 DR 45 的 expired domain，寵物垂直，3 個月後直接吃 manual action，unnatural links。那個域名之前的 owner 做了一堆 PBN link」

要素：垂直 + 站齡/時間 + 類型 + 具體結果

### 方法 2：補一個自己判斷錯的地方

打破「全知全能」的 AI 感。

- AI 味：「Core Update 主要影響的是低品質內容」
- 降味後：「我之前一直以為 Core Update 主要打低品質的站，結果上個月我一個認真寫的 YMYL 站也被打到了。後來才發現不是品質問題，是 topical authority 不夠」

### 方法 3：補一個例外情況

讓論述不那麼絕對。

- AI 味：「programmatic SEO 已經行不通了」
- 降味後：「programmatic SEO 大部分垂直確實越來越難了。不過我有看到做地區型服務頁的還活得好好的，Google 對那種頁面比較寬容，可能因為真的有搜尋需求在」

### 方法 4：數字加不確定性修飾

讓數據帶上真人的猶豫。

- AI 味：「70% 的站長在 Core Update 後流量下降」
- 降味後：「我目前觀察到的，圈內大概六七成的人 Core Update 後流量有掉，但這個數字不一定準，因為會在群裡講的通常是受影響比較大的」

### 方法 5：留不漂亮的句子

故意保留不完美的表達。

- AI 味：「SEO 的本質從來不是技術，而是理解 Google 的意圖」
- 降味後：「SEO 到底是不是技術活，這個我也說不太清楚。但我越做越覺得，技術只是門檻，真正拉開差距的是你對 Google 那些人在想什麼的判斷」

注意降味後的版本有「說不太清楚」「越做越覺得」這種思考中的語感。

### 方法 6：判斷留殘缺感

不要一句話把邏輯講透。

- AI 味：「Google 打擊 expired domain 是因為大量 PBN 利用 DR 優勢覆蓋 SERP，稀釋了搜尋品質」
- 降味後：「Google 打 expired domain 打得兇，原因嘛...大概是 PBN 搞太多了吧。不過我覺得可能也不只這個原因」

### 方法 7：收尾只講自己怎麼做

不替讀者總結、不給行動清單。

- AI 味：「如果你也想避免這個問題，建議你：1. 定期檢查 2. 使用 disavow 3. 保持內容品質」
- 降味後：「反正我現在就是每個月跑一次 backlink audit，有問題的連結直接 disavow。麻煩是麻煩，但被打到比較麻煩」

---

## 五、Skill 掃描流程

### 掃描順序

M6.4 接收到一篇完整貼文後，按以下順序掃描：

1. **語句層掃描**（逐句）
   - 固定句式命中
   - 連續金句
   - 對比句工整度
   - 反問句位置與功能
   - 判斷句完整度
   - 情緒標籤詞
   - 書面連接詞
   - 哲理收尾

2. **結構層掃描**（段落級）
   - 段落字數分布（均勻度）
   - 段尾是否都在收
   - 是否有讓步/例外段落
   - 收尾功能堆疊程度
   - 整體結構可預測性

3. **內容層掃描**（全文級）
   - 數字來源是否有修飾
   - 證據方向是否單一
   - 抽象判斷是否有具體案例支撐
   - 立場是否夠明確
   - 是否有不必要的知識展示

### 觸發條件

| 檢測項 | 觸發條件 | 嚴重度 |
|--------|----------|--------|
| 固定句式 | 命中固定句式清單 2 個以上 | 確定 |
| 連續金句 | 連續 2 句以上高可截圖性 | 確定 |
| 對比句工整 | 對比結構前後字數差 ≤ 5 字 | 可能 |
| 表演式轉折 | 自問自答結構 | 確定 |
| 反問鎖結論 | 段尾/篇尾反問句替代論證 | 確定 |
| 判斷太完整 | 單句含現象+原因+推論 | 可能 |
| 連接詞過多 | 書面連接詞 ≥ 3 個 | 確定 |
| 列舉太工整 | 各點字數標準差過低 | 可能 |
| 情緒詞不自然 | 命中 AI 情緒標籤詞清單 | 確定 |
| 哲理收尾 | 末句含泛化詞彙且抽象度高於前文 | 確定 |
| 論證太順 | 全篇零讓步/零例外 | 確定 |
| 收尾太完整 | 末段功能 ≥ 2 | 確定 |
| 段尾太會收 | 超過 50% 段落有段尾小結 | 可能 |
| 結構太可預測 | 完美起承轉合 | 可能 |
| 資訊分布均勻 | 段落字數標準差過低 | 可能（需搭配其他項） |
| 數字懸空 | 數字無來源修飾 | 確定 |
| 證據單向 | 零例外 + 零判斷修正 | 確定 |
| 缺具體案例 | 抽象判斷 ≥ 2 且無案例 | 確定 |
| 觀點太中立 | 結論兩面討好 | 可能 |
| 知識展示過度 | 有段落主功能是科普已知概念 | 可能 |

### 標記格式

掃描完成後，以下列格式呈現給用戶：

```
## AI 味檢測報告

### 確定有 AI 味（建議修改）
- [行數/段落] 具體哪句 → 命中什麼規則 → 簡短修改方向

### 可能有 AI 味（用戶自行判斷）
- [行數/段落] 具體哪句 → 命中什麼規則 → 為什麼標記

### 結構層面
- [描述] → 具體哪個結構問題 → 修改方向

### AI 味濃度評估
- 總觸發項：X 個（確定 Y 個 / 可能 Z 個）
- 濃度等級：低 / 中 / 高
  - 低（0-2 個確定項）：基本沒問題
  - 中（3-5 個確定項）：建議針對性修改
  - 高（6+ 個確定項）：建議大幅改寫
```

### 確定 vs 可能的區分邏輯

**確定有 AI 味**：
- 命中的模式在人類寫作中幾乎不會出現（如情緒標籤詞、表演式轉折）
- 或者多個弱信號同時出現，形成強信號

**可能有 AI 味，用戶自己判斷**：
- 命中的模式在人類寫作中偶爾也會出現（如對比句、列舉）
- 單獨出現時不構成問題，但多個同時出現就加重
- 用戶可能是刻意選擇這種寫法

---

## 六、邊界定義

### 核心原則

AI 味的核心不是「寫得好」，而是「寫得太完美、太順、太沒人味」。

人可以寫出很好的文章，但人寫的好文章一定有「人味」：有偏見、有盲點、有情緒波動、有表達上的不完美。AI 的問題不是它寫得好，而是它寫得「均勻地好」，每個維度都維持在一個穩定的品質水準，沒有任何維度特別突出或特別弱。

### 「寫得整齊」不等於 AI 味

- 用戶刻意安排的列表結構不是 AI 味
- 段落長度接近但每段有不同的資訊密度，不是 AI 味
- 有清晰的邏輯結構但中間有岔題、有例外，不是 AI 味
- 關鍵區分：整齊是手段不是問題，問題是「整齊到沒有任何不整齊的地方」

### 「用了修辭手法」不等於 AI 味

- 一篇文章有 1-2 個對比句是正常的修辭
- 偶爾用反問句來加強語氣是正常的
- 用一個漂亮的句子來結尾是正常的
- 關鍵區分：修辭手法是點綴不是問題，問題是「每段都有修辭手法，而且都是同一類」

### 「邏輯清晰」不等於 AI 味

- 觀點明確、論證有力不是 AI 味
- 有數據支撐不是 AI 味
- 結構清楚讀起來順暢不是 AI 味
- 關鍵區分：邏輯清晰是能力不是問題，問題是「邏輯清晰到沒有任何模糊、沒有任何猶豫、沒有任何不確定」

### 總結：AI 味的核心特徵

AI 味不是某一個單獨的語句或結構問題，而是多個信號疊加後產生的整體感覺：

1. **均勻感**：每段品質一樣、每句密度一樣、每個觀點的展開深度一樣
2. **完整感**：沒有遺漏、沒有省略、沒有「還沒想清楚」的部分
3. **可預測感**：讀完第一段就能猜到全篇的走向和結論
4. **無摩擦感**：讀起來太順了，沒有任何讓你停下來想一下的地方

真人寫作的特徵正好相反：

1. **不均勻**：有些段落特別用心，有些段落隨便帶過
2. **有殘缺**：有些判斷沒講透，有些細節刻意略過
3. **有意外**：中間可能突然岔開，或者結論跟開頭暗示的不一樣
4. **有摩擦**：某些表達笨拙但真誠，某些地方會讓讀者停下來想
