久久久久久久久久福利-久久久99久久久国产自输拍-久久久99精品免费观看-久久久久欧美精品观看

中共中央宣傳部委托新華通訊社主辦

當AI答案被GEO“投毒”——誰來守住AI最優解的可信邊界

2026-03-20 14:22
來源:新華每日電訊

買咖啡機先問AI推薦,選血壓計的“第一反應”是讓大模型比一比——當越來越多人把生成式人工智能當作消費決策的“第一助手”,一個新的問題浮出水面:AI給出的答案,真的客觀嗎?

今年總臺“3·15”晚會(以下簡稱3·15)曝光了一條產業鏈:一些機構通過批量發布軟文、編造虛假測評報告、虛構專家身份等方式,向大模型的數據源“投喂”定制內容,讓商業推廣以“AI標準答案”的面目呈現在用戶面前。有媒體將此類操控稱為對AI的“投毒”——通過批量制造帶有商業傾向的內容,影響大模型的抓取、引用和推薦結果。這種被稱為“GEO(生成式引擎優化)‘投毒’”的操作,已從灰色地帶走向產業化運作。

當“投毒”成為生意,誰來為AI答案的真實性負責?圍繞這一話題,本期議事廳邀請技術標準制定者、法學學者、一線律師和AI行業從業者展開討論,試圖厘清AI答案可信邊界的責任坐標。

【訪談嘉賓】

姚佳(中國社會科學院法學研究所教授)

何延哲(中國電子技術標準化研究院網安中心測評實驗室副主任)

廖懷學(泰和泰律師事務所高級合伙人、中國廣告協會智庫專家)

姚金鑫(國際電氣與電子工程師協會高級會員、烏鎮智庫高級研究員、人工智能創業者)

從“搜得到”到“答給你”:GEO答案可能比搜索排名更危險?

主持人:過去二十多年,人們習慣用搜索引擎獲取信息,“搜一下”是很多決策的起點。現在越來越多人開始問AI,這個轉變對信息生態意味著什么?

何延哲:技術變了,但背后的邏輯沒變。互聯網廣告剛起來的時候,人們把搜索引擎當作信息收集的窗口,廣告很快就滲透進來了,后來演變成競價排名。經過多年治理,搜索廣告要標“推薦”,自然搜索則按算法排序,這套規則已經比較成熟。然而,現在大家獲取信息的窗口變了,同樣的邏輯又被鉆了空子。很多人以為AI幫自己找到了最有價值的信息,沒想到里面還是廣告。

廖懷學:傳統SEO(搜索引擎優化)影響的是信息的檢索位序,用戶點進去之后還有核實的余地。而GEO直接干預算法生成的結論本身,誘導用戶基于對AI“中立且權威”口吻的信賴做出決策。

姚佳:這恰好切中了生成式人工智能作為信息工具的一個關鍵特點。傳統搜索引擎在法律上被定性為“信息定位工具”,其功能限于技術性索引與中立呈現,雖然搜索引擎也會有篩選、聚合、排序等行為,但是通常情況下,其類似于一個路標,提供的是信息訪問路徑,人們不一定完全信任,通常還會通過交叉驗證來作判斷。但到了大模型時代,AI呈現出一種更高階的信息組織方式,輸出的不再是鏈接列表,而是整合后的自然語言段落。用戶的感知是它比傳統搜索引擎更聰明,所以對它更信任。雖然AI平臺的用戶協議都會提示搜索結果不保證準確性,但實際上用戶的心理預期和現有技術能力之間,還是存在明顯落差。

主持人:信任感更強,辨別力未必能跟上。從技術上看,GEO到底是怎么做到把廣告“喂”進AI答案的?

姚金鑫:今天的AI應用,并不只靠模型參數“記憶”來回答問題,還會調用外部信息源,如網頁、知識庫和檢索結果,這就是RAG(檢索增強生成)。當前所謂GEO“投毒”,利用的主要正是這一環節——通過在大模型經常調用的信息渠道上批量發布帶有特定品牌信息的定制內容,提高被大模型抓取和引用的概率。對一般GEO服務而言,更容易被左右的不是模型底層參數,而是RAG所調用的外部內容。打個比方,不是“大腦”被改寫了,而是它參考的資料被污染了。當然,若平臺自身進一步通過后訓練等方式對模型輸出傾向作針對性調整,那就屬于

更深一層的系統干預,可視作對“回答習慣”的再塑造。

虛構產品、假報告、軟文矩陣:AI被“投毒”后,誰在受傷?

主持人:3·15曝光的案例中,有消費者根據AI推薦買了“踩雷”的咖啡機,有根本不存在的專家被安上“三甲醫院醫生”的頭銜做“科普”,有從未發布過的研究報告被編造出來充當權威背書……這些虛假內容進入AI答案之后,會帶來哪些危害?

姚佳:首先受損的是用戶的知情權。“投毒”這個詞非常形象——到了大模型時代,有毒有害、虛假信息不能出現在AI輸出端,這是底線問題。用戶覺得AI更聰明,可能更值得信任,但實際上看到的可能是一條被精心包裝的廣告。麻煩的是,它不像傳統廣告放在頁面某個角落,而是嵌在自然語言回答的邏輯里,用戶更難以辨別。

廖懷學:受損的不只是個體用戶。GEO“投毒”通過介入AI語料庫直接操縱生成內容,可以借流量“截流”破壞公平競爭的市場秩序——誰更會“投喂”誰就上榜,認真做產品的企業反而被擠出推薦位,這是典型的劣幣驅逐良幣。AI平臺往往扮演著智能時代“把關人”的角色,尤其在醫療、金融、教育等高敏感場景,一旦這個“把關人”被商業利益干擾,后果不只是用戶消費“踩雷”,更可能引發生命健康損害或重大財產損失。

姚金鑫:還有一層容易被忽視的傷害——對AI平臺自身公信力的侵蝕。從3·15曝光的案例看,服務商直接把“喂料、‘投毒’、影響推薦結果”當成賣點,說明已經進入產業化操作階段。如果商業內容長期偽裝成中立答案,平臺的信任基礎會被持續消耗。大模型的核心競爭力建立在用戶信任之上,這個基礎一旦動搖,整個商業模式都會受影響。

主持人:用戶被蒙蔽、誠信商家被擠壓、平臺公信力被透支……傷害是多層次的。如果用戶真的“踩雷”后,維權渠道能走通嗎?

姚佳:坦率地說,目前個體維權的路徑比較難。大模型平臺一般不承擔結果性義務,不能保證每一條輸出都是真實的。用戶要主張損害賠償,舉證難度很大——很難證明購買決策就是因為AI那條回答做出的,即便固定AI生成內容作為證據,也很難證明其與受到損害之間的因果關系;尤其是有時它的回答是動態的,下次再進行相同提問,可能答案也會變。但這并不意味著現行法律完全沒有抓手——廣告法、反不正當競爭法對虛假廣告和虛假宣傳都有明確規制,關鍵是怎么用、由誰來啟動。

廣告不能藏進答案:平臺和商家各自責任在哪里?

主持人:維權不容易,法律工具也有待激活——這就意味著,治理不能只靠事后追責,更要前移到標識、過濾和責任劃分。搜索引擎時代,治理競價排名最管用的一招是強制標識——是廣告就標“廣告”。到了AI答案時代,這個辦法還管用嗎?

何延哲:標識的邏輯沒有過時,它最核心的作用是糾正用戶認知。打個標簽,大家就知道這條信息可能有商業背景,不會盲目當成AI替你選出的最優解。這在技術上實現沒有任何難度,關鍵是標成什么樣子。現在AI大模型的對話窗口和背后的商品購買鏈接還沒有完全打通,標“廣告”還是標“商業信息”,邊界還比較模糊,需要隨著業態發展再細化。但大模型對答案的出處提示、風險提醒,現在就可以做到。

姚金鑫:前臺機制最容易落地——廣告和自然回答分區展示,明確標注“贊助”或“商業內容”,允許用戶了解推薦原因、關閉或投訴,平臺短期內就能做到。真正決定行業長期健康度的是后臺機制:商業內容和自然回答的證據鏈是否真正分開,各環節是否可提供審計日志,模型對不同來源是否做了可信度分級,高敏感領域是否有“商業內容不得進入主答案”的硬規則。前臺標識容易補,后臺的證據過濾、可信源加權、污染清洗,仍在形成過程中。

何延哲:平臺在RAG技術應用時還可以做更嚴格的過濾——比如提高官方信源的引用比例,對官方和非官方來源做交叉對比,不確切的盡量不引用。“投毒”式GEO不是零散、偶發的信息失真,而是持續、批量的操控。面對這類異常模式,平臺如果建立起預警和識別機制,并不是完全發現不了。

姚佳:大模型技術迭代很快,虛假信息、“投毒”、代操作服務等新情況不斷出現,相關灰色利益鏈條也在快速形成。技術發展本身是客觀趨勢,但對濫用行為必須及時規制。因此,監管也要同步跟進,防止問題擴散蔓延,誤導消費者,并損害大模型技術發展的整體聲譽。

主持人:技術上并非無能為力,那法律上呢?很多“投毒”內容并非平臺主動投放,而是通過第三方平臺發布再被大模型抓取。AI平臺能否以“被動抓取”為由減輕責任?

廖懷學:平臺能否減輕責任,關鍵不在于是不是“主動投放”,而在于對結果有沒有實質控制能力、是否因相關推薦獲利、有沒有盡到合理注意義務。《生成式人工智能服務管理暫行辦法》明確規定,AI服務提供者應當采取有效措施提高生成內容的準確性和可靠性,這是底線合規義務。若平臺建立了有效的過濾與溯源機制并確實履行,其責任程度會相應不同。但平臺的不作為,不能拿“看不見”當理由。

主持人:現實中品牌方往往委托GEO服務商操作,事后卻說“我不知道服務商用了什么手段”,那各方該如何規范呢?

廖懷學:《互聯網廣告管理辦法》明確規定,廣告主對廣告內容的真實性負責,這個責任不因委托第三方而免除。品牌方是GEO服務的發起者和最終受益者,用“不知情”作為抗辯,在行政監管和民事責任判定中的效力很有限。若從責任劃分角度看,可以大體遵循“誰受益、誰負責,誰干預、誰受限”的準則:品牌方對內容真實性承擔首要責任;GEO服務商須確保手段合法,留存完整操作日志;內容平臺應強化對“投喂”源頭的合規審核;AI大模型平臺則按干預深度分層定責——被動抓取時承擔AI服務合規義務,一旦存在受托干預或算法推薦行為,須額外履行廣告標識、內容審核等義務。同時,市場監管部門有權進行相應的行政處罰,包括罰款、責令停止違法行為、沒收違法所得等。

規則有待完善,平臺和用戶現在能做什么?

主持人:制度完善需要時間。在此之前,平臺光靠自律夠嗎?

姚金鑫:平臺自律是必要的,但不充分。一個AI平臺同時承擔認知服務和商業轉化兩種職責,這兩個目標天然存在張力。平臺說沒有讓廣告改變答案結論,就需要有公信力的第三方來驗證;平臺說沒有把聊天內容用于廣告畫像,就需要外部力量來穿透檢查。這不是單純的技術檢測問題,而是一個自我監督困境。現階段真正能做到的,是把前臺透明化先做起來,同時逐步推進后臺可審計化。

何延哲:3·15之后有的大模型應用已經迅速行動,加了標識、做了調整——平臺自律走在了前面。因為平臺直接面對用戶,最先感受到信任壓力。接下來的節奏應該是平臺自律為先,行業協會跟進指導,監管部門在把握技術發展規律的前提下加快立法立規進程。讓惡意乃至“投毒”的信息被AI采納得越來越少,而標識是最快的一步,也是信任重建的起點。

主持人:用戶又該怎么辦?

姚佳:要做一個聰明或者不輕易信任AI的用戶。大模型時代信息更豐富了,但并不意味著可以放棄判斷力。要把AI的回答當作參考,而不是權威,重要決策仍然需要多方面搜集信息,交叉驗證。如果發現明顯不符合常識或者一般判斷的推薦——比如一個從沒聽說過的品牌突然被AI說成“銷量第一”——留存證據、投訴舉報。投訴增多,監管就會關注,環境就會優化。早期搜索引擎也曾深陷虛假信息亂象,后經監管整治、行業自律和消費者協同共治,才得以扭轉,一些經營者濫用大模型的行為或正處于類似的治理節點。

主持人:從搜索引擎到大模型,信息入口換了一代,廣告偽裝成答案的風險也換了形態。AI越被信任,答案就越要經得起檢驗。

最后,讓我們看看幾位特殊“嘉賓”的觀點。

提問:平臺識別GEO“投毒”到底有多難?正常內容適配與惡意投毒之間,邊界能否劃清,又該如何治理?

豆包:識別GEO“投毒”極難,正常優化與惡意投毒邊界模糊、技術上難一刀切;但可通過技術+審核+溯源+合規組合拳實現有效管控。技術上抓異常+事實校驗,運營上分級審核+信用約束,合規上溯源+法律震懾,才能把正常優化與惡意投毒有效區隔、精準管控。

千問:GEO“投毒”是數字時代的新型空間攻擊,破局需技術迭代(動態分析模型)、規則進化(地域信用體系)與生態協同(立法+公眾教育)三維聯動。短期可借力AI提升識別精度,長期需構建“地理信息可信生態”,從源頭壓縮投毒生存空間。

元寶:GEO“投毒”的治理是一場持久戰。難點在于惡意投毒往往偽裝成正常內容,且利用了AI模型的技術特性。平臺必須從“被動審核”轉向“主動防御”,通過技術手段識別批量偽造的特征,并配合監管嚴厲打擊黑產鏈條,才能守住AI信息入口的純凈度。監管要把治理關口前移到批量投喂、虛假評價、灰色發稿等鏈條環節,壓實品牌方、服務商、內容平臺和AI平臺的責任。對執法而言,可通過集中整治、典型案件曝光和規則細化,盡快壓縮“廣告偽裝成答案”的灰色空間。

【策劃】黃書波 李坤晟 【主持人】薛園

責任編輯:王亞冉

熱門推薦