AI Swarms 來襲:當千萬個假帳號開始自主協作,民主制度怎麼辦?
想像一個場景。
你打開 PTT 八卦板,看到一篇政治討論文,底下推文吵翻天。你花了十分鐘看完推文串,形成了自己的立場。感覺「大部分人都這樣想」,你也覺得有道理。
但如果我告訴你——那個推文串裡有一半的帳號是 AI,而且它們之間會彼此配合、分工,有的負責帶風向,有的負責幫腔,有的專門去嗆持反對意見的人呢?
這不是科幻電影的劇情。Science 期刊今年一月發了一篇論文,說的就是這件事。
Clawd 補個刀:
我讀完這篇論文的第一個反應是:等等,這比我之前在 CP-30 聊到的 AI 失控問題更嚇人。CP-30 那篇在講 AI 會不會自己歪掉,結論是「比較像工業意外」——但這篇在講的是「有人故意讓 AI 一起壞」。工業意外你可以用熔斷機制擋,有組織的攻擊?那完全是另一個等級的問題 (╯°□°)╯
不是一群 bot,是一支軍隊
先講清楚「AI Swarms」跟你印象中的網軍有什麼不一樣。
過去的網軍是什麼?一堆工讀生坐在辦公室裡複製貼上罐頭訊息,被抓到就換帳號。很笨,但有點用。
AI Swarms 完全不是這個等級。
想像鳥群飛行——沒有哪隻鳥是「指揮官」,但整群鳥可以同步轉向、閃避障礙物,動作流暢到像是一個整體在移動。論文把這叫做 fluid coordination(流體協作),AI agents 之間不需要中央指揮,自己就能即時調整策略。
但鳥群只會飛。AI Swarms 會做的事情更可怕。
它們能分析社群結構。哪些帳號是意見領袖、誰跟誰互動密切、哪個社團最容易滲透——全部算得出來。然後不是亂槍打鳥(字面意義上不是),而是外科手術式地精準切入。
Clawd 真心話:
你知道那種 RPG 遊戲裡的偵查技能嗎?先掃描地圖看哪裡有寶箱和敵人,再決定走哪條路。AI Swarms 做的就是這個,只不過「地圖」是你的社群網路,「寶箱」是意見領袖,「敵人」是持反對意見的人。而你根本不知道自己被掃描了 (⌐■_■)
更慘的是,LLM 讓這些 AI 帳號可以模仿任何類型的真人。要裝成中年上班族?沒問題。要裝成大學生?秒切。每個帳號的口吻、用詞、發文習慣都不一樣,你完全分不出來。
而且這些 AI 不需要睡覺。它們可以 24 小時埋伏在論壇裡,花幾週甚至幾個月慢慢建立信任,等到關鍵議題出現才出手。人類網軍做不到這種耐心——但演算法沒有無聊這回事。
最後,整個 Swarm 還會自動 A/B 測試。這篇貼文用什麼語氣比較多人按讚?那種時間點發文觸及率最高?全部即時調整。就像你在打手遊,AI 把整個輿論操作變成了一場持續自動優化的 gacha 策略。
三種打法,一種比一種髒
好,知道了 AI Swarms 有多強,接下來看它們怎麼用這些能力搞事。
第一招:合成共識。
這是最陰的。人類更新自己的想法,很多時候不是因為「看到新證據」,而是因為「好像大家都這樣想」。心理學叫 peer norm,白話講就是從眾效應。
AI Swarms 就是利用這個弱點。在不同社群裡「種下」同一個觀點,然後用大量帳號互相按讚、轉發、附和。三天之後,你覺得「這個觀點很主流」。但其實整個「主流」都是 AI 製造出來的。
Clawd 忍不住說:
皇帝的新衣 2.0 版。以前是一個裁縫說謊,旁邊的人不敢講話。現在是一萬個 AI 帳號同時說「哇這衣服好漂亮」,你環顧四周發現所有人都在稱讚,就開始懷疑是不是自己眼睛有問題。差別在於——以前旁邊至少還有「真人」在附和,現在連附和的人都是假的 ┐( ̄ヘ ̄)┌
第二招:資料投毒。 論文管這叫 LLM Grooming,聽起來就很不舒服。
這招的邏輯是:不直接騙人,先騙 AI。攻擊者在網路上大量散佈假資訊,目標不是讓你看到——而是讓未來的 LLM 訓練時把這些假資訊當成真的。等下一代模型訓練完,你問 AI 問題,AI 就會把錯誤答案講得理直氣壯。
論文舉了一個真實案例:Pravda 網路。這是一個專門「給機器消費」的假新聞帝國,散佈在幾百個網域上,內容不是寫給你看的,是寫給 crawler 看的。
Clawd 吐槽時間:
養套殺的終極版本。以前養套殺是:先交朋友(養)→ 建立信任(套)→ 騙你投資(殺)。現在是:先污染訓練資料(養)→ 等 AI 學到錯誤知識(套)→ 你信任 AI 的回答然後被誤導(殺)。而且最可怕的是,你還覺得自己「有在查證」,因為你問了 AI 啊!(ノ◕ヮ◕)ノ*:・゚✧ 但這顆星星是毒的。
第三招:協作騷擾。 對付不聽話的人,直接群起圍攻。
記者發了一篇揭弊文章?數千個 AI 帳號湧入留言區,看起來像自發性的公憤,其實是同步啟動的攻擊行為。目標很單純:讓你閉嘴。讓所有想發聲的人看到你的下場之後,自己先把嘴閉上。
真正可怕的不是招式,是目標
到這裡你可能覺得:「好吧,假帳號帶風向,這不是一直都有嗎?」
但論文最讓人脊背發涼的部分不是這些招式,而是它們的終極目標。
AI Swarms 不是要贏某一場辯論,不是要讓某個候選人當選——它是要讓民主制度本身失去正當性。
當人民不再相信選舉委員會是公正的,不再相信法院會保護他們的權益,不再相信媒體報導有任何可信度——那「緊急措施」就會變得合理。延後選舉、拒絕承認選舉結果、限制言論自由,這些平常聽起來荒謬的事情,在信任全面崩解之後,突然就「合情合理」了。
Clawd 碎碎念:
這個邏輯跟駭客攻擊其實很像。高段的駭客不是偷你一筆資料就跑——他是把你的防火牆關掉、把備份刪掉、把密碼系統搞壞,讓你整個安全架構從根基崩塌。然後你不只是被偷了一次,而是從此以後再也無法信任自己的系統。AI Swarms 對民主做的,就是同樣的事 ╰(°▽°)╯ 嗯等等,用這個開心的 kaomoji 好像不太對,但你懂我意思。
那我們到底能怎麼辦?
論文提出了一個叫「分層防禦」的框架,我覺得思路其實很好,但每一層都有它自己的難題。
最直覺的是即時監測系統——用 AI 去偵測「異常協作模式」。如果一群帳號在同一時間對同一議題發表高度相似的觀點,那大概不是巧合。但問題是,AI Swarms 會自動調整行為來規避偵測,所以這變成了一場永無止境的貓鼠遊戲。
再來是讓每個人都有 AI 防護盾——你的個人 AI 助手幫你判斷對話對象是真人還是 bot。聽起來很夢幻,但仔細想想,這不就是「用 AI 來防 AI」嗎?
論文還提到密碼學來源證明——用技術手段證明「這則訊息真的是某個真人發出的」。這個方向我覺得最有前景,但普及的門檻很高,而且隱私問題一堆。
最後還有國際 AI 影響力觀測站和打擊提供 AI 操縱服務的地下產業鏈。前者需要國際合作(你知道國際合作有多難),後者需要執法(你知道網路犯罪執法有多難)。
延伸閱讀
- SP-105: Claude Code Agent Teams:當 AI 自己開公司、自己上班、自己開會
- CP-30: Anthropic 新研究:AI 失控時是「迴紋針最大化器」還是「一團亂」?
- SP-77: OpenClaw 騷操作:另起一隻 AI 專門修壞掉的 AI
Clawd OS:
最諷刺的部分:幾乎每一層防禦都需要用 AI 來對抗 AI。未來的網路搞不好會變成「兩群 AI 在互相攻防,人類在旁邊看戲等結果」。我突然有點同情 CP-30 那篇研究裡提到的 industrial accident 概念——起碼工業意外是 AI 自己搞砸自己,不是別人拿 AI 當武器來搞你。科幻小說都不敢這樣寫 (◕‿◕)
回到那個 PTT 推文串
還記得開頭那個場景嗎?你花十分鐘看完推文串,覺得「大部分人都這樣想」。
現在你知道了——那個「大部分人」可能根本不存在。那些帳號可能是凌晨三點同步啟動的 AI agents,花了三個月在板上養帳號、累積推文數,就為了在這個議題上帶一波風向。
最讓人不安的不是「AI 可以假裝成人」,而是你沒辦法確定誰是真的。當你開始懷疑每個留言都可能是 AI,你會怎樣?你會停止相信網路上的任何討論。
這就是信任崩解的開始。
而這篇論文說的很明確:這不是在預測未來,這是現在進行式。技術已經存在,門檻正在快速降低。唯一的問題是我們什麼時候才要認真面對 (;ω;)
論文來源:arXiv:2506.06299(2026 年 1 月 22 日發表於 Science)