博客 / 詳情

返回

論文解讀 - 潛在思維鏈推理的全面綜述

一、簡要介紹

圖片
大語言模型(LLMs)在複雜推理任務中,通過思路鏈(CoT)提示取得了顯著的性能。然而,傳統的CoT依賴於用自然語言明確表達的推理步驟,這不僅降低了效率,還限制了其在抽象推理中的應用。為了解決這一問題,研究者們對潛在CoT推理產生了濃厚的興趣,這種推理方式在潛在空間中進行。通過將推理與語言分離,潛在推理不僅提供了更豐富的認知表示,還實現了更靈活、更快的推理過程。研究者們在這一領域探索了多個方向,包括訓練方法、結構創新和內部推理機制。本文全面概述並分析了這一推理範式。首先,論文從四個角度提出了一個統一的分類體系:token策略、內部機制、分析方法和應用領域。接着,論文對代表性方法進行了深入討論和比較分析,強調了這些方法的設計模式、優勢及面臨的開放挑戰。論文的目標是為LLM推理這一新興領域的發展提供一個結構化的基礎。

二、研究背景

大型語言模型(LLMs)通過思維鏈(CoT)推理方法在複雜推理任務中展現了卓越的能力,該方法鼓勵模型以自然語言形式逐步進行推理。這種方法不僅提升了模型的推理效率,還促進了其在實際應用中的表現。雖然可解釋性較低,但通常能提升任務表現。

儘管顯式CoT推理具有實用性,但其本質受到依賴自然語言表示每個步驟的限制。這種語言中介帶來了兩個主要挑戰。首先,它導致了計算效率低下,因為並非所有表達思維過程的詞語都包含有價值的信息。其次,人類思維往往超越語言的界限。認知的其他方面,如抽象見解、直覺跳躍或高度組合性的思維,難以完全或精確地用語言表達。對於這些任務,強制每個步驟都用語言表達不僅困難,而且對推理過程本身構成了不自然的限制。
圖片
自然語言和顯式推理的固有限制直接推動了向潛在思維鏈推理的轉變。如圖1所示,模型不再通過語言符號進行推理,而是在潛在空間中進行推理,提供了一種更為抽象和高效的思維過程媒介。這種推理方式可以視為‘去語言化’的推理,能夠實現更豐富的思維表達、通過壓縮計算實現更快的推理速度,並且對非語言認知模式具有更大的靈活性。
然而,潛在的CoT也提出了關鍵挑戰:
(1) 不可監督的過程,因為它們的內部推理過程發生在人類無法直接理解的潛在空間中;
(2)評估差距,缺乏明確的指標來區分深度潛在推理與輸入-輸出捷徑;
(3)對齊風險,由於無法檢查或限制潛在軌跡,這使得倫理控制變得更加複雜。

儘管存在這些未解的問題,潛在推理研究的快速發展卻呈現出碎片化的特徵,這突顯了研究界對清晰、結構化理解的迫切需求。在本研究中,論文首次全面調查了潛在的鏈式思維推理。論文的主要貢獻有三個方面:
(1)系統分類法:論文引入了一種潛在鏈式思維研究的結構化分類法,將現有研究分為四個不同的類別。在每個類別中,論文將代表性研究組織成一個連貫的框架,以闡明其方法論假設和創新點(如圖2所示);
(2)深度分析:基於這一分類體系,論文對每個類別的代表性作品進行了全面分析,比較了訓練策略、設計範式、監督信號及效率權衡;
(3)挑戰識別與研究前沿:論文確定了關鍵的未解問題,並指出了未來研究的潛在方向。
論文的目標是整合潛在推理的碎片化景觀,並促進這一新興方向的未來發展。

三、基於Token的策略

儘管顯式CoT通過生成推理步驟顯著提升了LLM的推理能力,但同時也增加了計算成本和推理延遲。為了緩解這些限制並進一步擴展推理模型的表現力,近期的研究探索了使用基於token的策略,這些策略不僅簡化了推理過程,還促進了更抽象和緊湊的認知機制的發展。論文將這些外部token分為兩大類:離散token,它們是符號化的,通常作為顯式的控制信號;連續token,則是在潛在空間中學習到的嵌入,有助於實現隱式推理。
圖片

3.1 離散token

離散token作為中間推理步驟或認知操作的符號表示,已成為提升大型語言模型推理能力的一種有前景的範式。它們顯著提升了任務表現和效率。

早期研究在探索離散token時,引入了諸如“[暫停]”或省略號(“... ”)等簡單token來分隔推理步驟,這顯著提升了多步任務的表現。

在這些研究之前,Goyal等(2024)提出了自適應且可學習的“暫停 token”,能夠動態分配計算資源。這些token支持延遲預測,使模型在生成輸出前進行額外的內部計算,從而提高邏輯密集型任務的準確性。除了這些開創性的探索,研究人員還開發了更復雜的token,用於編碼複雜的推理結構 。例如,Wang等(2024b)引入了“規劃token”,這些token基於啓發式方法或變分自編碼器 (VAEs),以提高推理的連貫性和精確度。為了分離認知過程並增強可解釋性,Jin等(2025b)提出了專門的token ,如“記憶”和“推理”,通過隔離特定的認知操作來模塊化推理。

為了進一步推進模塊化推理,Ze-likman等人(2024)提出了Quiet-STaR方法,該方法通過使用可學習token來界定內部推理的邊界。這種方法使語言模型能夠推斷出未明確表述的推理步驟,從而在不需針對特定任務進行微調的情況下,提高其在複雜任務上的泛化能力。在此基礎上,Ruan等人(2025)提出BoLT,該模型將思維過程建模為一個可訓練的潛在變量。這一創新使得模型能夠在預訓練階段推斷並優化認知步驟序列,從而增強其處理複雜推理任務的能力。Ishibashi等人(2025)進一步擴展了BoLT,引入了包含隱藏思維過程的合成數據的持續預訓練(CPT)。他們的推理CPT 框架能夠重建文本背後的隱含認知步驟,顯著提升了在不同領域的推理能力。這些進展在STEM和法律等專業領域尤為突出,不僅在複雜任務上表現出顯著的性能提升,還展示了推理技能在不同領域的可遷移性。

Pfau等人(2024)指出,token的結構組織比其語義內容更為關鍵。令人驚訝的是,用中性佔位符替換有意義的token幾乎不會影響性能,這突顯了token結構的重要性。基於這一發現,壓縮技術應運而生,旨在解決計算效率低下的問題。例如,Su等人(2025)採用向量量化變分自編碼器(VQ-VAE)將推理步驟壓縮成離散潛在token。通過減少計算成本,同時保持性能,來處理潛在的token。為了進一步提升基於token的框架,Gong等人(2025)將這種基於壓縮的策略擴展到了偏好建模中,利用可學習的潛在代碼碼本來使推理輸出與人類的期望相匹配。平行隱藏解碼變換器(PHD-Transformer)系列通過使用隱藏解碼token實現了有效的長度擴展,這一創新由Wu等人(2025)提出。這種方法不僅沒有增加鍵值(KV)緩存的大小,還實現了更深層次的推理和更好的任務表現,解決了長上下文推理的問題,並提高了離散token的實用性。

總的來説,離散token已經從簡單的token發展成為用於抽象認知建模的多功能工具。它們作 為強大的機制,推進LLM推理能力,提高效率 和可解釋性。

3.2連續token

與離散的token不同,越來越多的研究開始探索通過連續表示進行潛在推理的方法,其中推理過程被建模為高維嵌入空間中的軌跡,而非顯式的文本序列。這一轉變標誌着從硬性、離散的token到軟性、連續的token的重大轉變,提供了更靈活和緊湊的中間推理狀態表示。論文根據潛在推理是在訓練後還是訓練前集成的方法,對現有方法進行了分類。

訓練後的方法提供了一種有效的方法,使用最少的額外數據為LLM配備潛在推理能力。根據語言模型(LLM)是否生成最終輸出以及是否負責生成和消費連續的token,現有的方法可以分為兩類:
1)內在方法將整個流程保留在單一的LLM中;
2)輔助方法引入一個獨立的模塊來生成連續的token,這些token隨後被注入到主模型中。

這兩種方法都旨在解決一個核心問題:如何引導連續的token朝向正確的推理方向。圖3展示了這些方法的對比示意圖。
圖片
在內在方法中,COCONUT通過將模型的最後一個隱藏狀態輸入到下一個 輸入嵌入中,實現了內部推理的開創性嘗試,從而有效支持了潛在迭代過程,而無需生成外部數據。

這種內部狀態的反覆利用支持了廣度優先的探索,提高了效率。為了增強這些潛在軌跡的語義方向性,CODI引入了一種自蒸餾損失,以在顯式的CoT監督下,使學生模型特定位置token的隱藏激活模仿教師模型的隱藏 激活。LightThinker通過訓練模型決定何時以及如何將推理壓縮成潛在的“概要”token,使用戰略性放置的掩碼來減少KV緩存的使用。這些研究顯示,內在的潛在表示能夠激發有效的推理行為。添加結構先驗或對齊目標顯著穩定了學習過程,提高了泛化能力,證明了內部軌跡從一致的方向指導中受益。

在輔助方法中,HCoT訓練了一個專門的輔助CoT模型,用於將完整的思維過程生成並壓縮成一個緊湊的特殊token表示,然後將這些表示作為輸入傳遞給主模型,以生成答案。同樣地,CCoT使用訓練好的CCoT模型將完整的推理序列編碼為可變長度的潛在嵌入,用密集且語義豐富的思考token替換了顯式的推理鏈。這些思考token被監督匹配從輸入序列中預計算出的 一組隱藏狀態。通過評分器選擇了一組子集,然後將這些子集輸入到訓練好的解碼器中,以生成最終的答案。

為了降低訓練成本並確保在不同領域中的穩定性和泛化能力,SoftCoT將凍結的助手模型與訓練好的投影層結合,生成可以直接插入凍結的大型語言模型的“軟token”。SoftCoT++進一步擴展了SoftCoT,通過在連續空間中實現多樣化的探索,將測試時間擴展範式引入。SoftCoT++ 使用多個專門的初始token來擾亂潛在空間,並應用對比學習來促進軟思想之間的多樣性。

儘管後訓練方法在提高效率、減少token使用和延遲方面表現一致,但它們的推理性能通常與標準基準上的顯式CoT提示相當,甚至不優於後者。這表明,如果沒有更深層次的目標來塑造潛在的推理路徑,連續token推理可能仍然依賴於文本空間中學習到的能力。預訓練方法則更進一步,在預訓練階段直接將潛在推理嵌入模型的認知先驗中。

這些方法不是將推理視為一種生成過程,而是將其建模為表示的潛在空間中的可內化、可優化的過程。

CoCoMix通過在預訓練階段將連續的高級‘概念’融入模型的隱藏狀 態中,提出了這一創新思路。這些概念是基於預先訓練模型的激活數據,通過稀疏自編碼器提取,並根據其對下一個預測值的因果影響進行篩選。CoCoMix通過將預測的概念與詞嵌入交織,增強了大語言模型,構建了一個潛在的框架,既提升了性能又增強了可解釋性。與將潛在推理視為副產品的後訓練策略不同,預訓練將其作為認知能力的核心部分,從而可能生成更具通用性和認知一致性的模型。

四、內部機制

最近的研究探討了大型語言模型(LLM)內部計算機制,這些機制支持推理過程。研究重點在於,推理如何通過內部架構和表示隱式地產生,而無需依賴顯式的token級追蹤。這項研究主要分為兩個方向:、
(1)結構CoT(Structural CoT),探討架構深度、循環計算和遞歸如何支持潛在推理;
(2)表示CoT(Representational CoT),探索如何將中間推理過程直接嵌入模型的隱藏狀態中,而無需顯式的中間輸出。

4.1 結構CoT
鑑於大型語言模型(LLM)展現出令人印象深刻的推理能力,近期研究開始探索與推理任務相關的特定擴展規律。研究指出,推理的縮放規律比之前認為的更為複雜,模型深度與參數共同起着關鍵作用。在固定參數預算下,更深層但更窄的模型通常優於更寬的模型。這挑戰了傳統的縮放規律,但與直覺推理一致:測試時的縮放成功與共享權重策略相似,通過在多個token中重用相同的層,可以有效地構建更深的計算圖。進一步的實證研究進一步證實了深度在推理中的重要性。例如,Chen和Zou(2024)發現,最小深度是共時推理出現的必要條件。雖然增加深度是提高推理 能力的一種有前景的方法,但通過迭代優化潛在表示,不斷添加層會帶來顯著的計算和內存開銷,從而限制了實際應用中的可擴展性。

受‘深度思考’文獻中反覆出現的架構證據啓發,這些研究證明了在學習複雜迭代算法方面具有固有優勢。近期的研究已轉向探索用於高效潛在推理的循環方法,如圖4所示。作為這一領域的早期嘗試,CoTFormer通過交錯和循環表示來模擬CoT推理。這種方法在保持計算效率的同時,模仿了人類推理的逐步性質。為了在測試時實現任意計算深度,Geiping等(2025)提出了Huginn,這是一種新的循環框架,通過類似RNN的迭代計算動態分配資源。Huginn的性能與更大、靜態深度的模型相當,但效率更高。基於循環架構的長度泛化能力,RELAY在循環Transformer中明確地將CoT推理步驟與循環迭代對齊。在訓練過程中,通過中間監督來指導推理過程,生成的推理鏈用於微調自迴歸模型,從而在超出訓練序列長度的任務中提升性能。為了進一步提高關鍵token的推理能力,Chen等人(2025e)引入了內思考Transformer(ITT),其中每個 Transformer層被視為一個獨立的推理步驟。通過引入自適應token路由和殘差精煉技術,ITT能夠動態地在token之間分配計算資源,從而在減少參數數量和訓練數據量的情況下,實現強大的推理能力。最後,Saunshi等人(2025b)通過實驗證明,通過遞歸加深而非增加參數數量,可以顯著提升推理能力,這進一步推動了潛在推理領域中遞歸策略的發展趨勢。

圖片

通過引入自適應token路由和殘差精煉技術,ITT能夠動態地在token之間分配計算資源,從而在減少參數數量和訓練數據量的情況下,實現強大的推理能力。最後,Saunshi等人(2025b)通過實驗證明,通過遞歸加深而非增加參數數量,可以顯著提升推理能力,這進一步推動了潛在推理領域中遞歸策略的發展趨勢。

4.2 表示CoT

除了探索深度驅動推理之外,另一個有前景的方向是將顯式的CoT直接內化到大型語言模型(LLM)的潛在表示中。早期的表徵內化CoT實現採用了增強理性的微調策略,明確教導模型預測中間推理結果,而無需生成文本輸出。後續的研究通過複雜的知識蒸餾方法進一步優化了這一方法,訓練學生模型模仿教師模型在執行顯式CoT時所展現的隱藏狀態推理軌跡。此外,分階段微調範式和自蒸餾框架使大型語言模型能夠在不明確表達中間推理步驟的情況下,隱式地 將複雜的推理路徑內化到其潛在表示中。總體而言,這些研究顯示,將推理過程壓縮成緊湊且計算效率高的潛在結構是有效的。

總之,結構方法和表示方法為大型語言模型(LLM)內部推理提供了兩條互補的路徑。結構方法通過架構深度(如堆疊、遞歸或權重共享)支持迭代計算,從而有效地以分層方式模擬多步驟推理。相比之下,表示方法則直接在隱藏狀態中編碼推理過程,使模型能夠在不顯式顯示中間步驟的情況下進行推理。這些方法共同強調了計算結構和內部表示在實現高效和強大的潛在CoT推理中的雙重重要性。

五、分析和可解釋性

由於潛在的CoT將推理與顯式的語言痕跡分離,這自然引發了一個問題:大型語言模型(LLMs)是內部模擬逐步推理,還是依賴於只能近似這種行為的淺層啓發式?這一問題激發了從多個角度進行的分析研究,包括將內部計算視為結構化推理的證據、識別捷徑機制以及分析潛在的推理動態。

5.1 內部計算解釋

多項研究表明,語言模型(LLMs)能夠在隱藏狀態中隱式地執行多步驟推理,即使沒有提供明確的解釋性提示。這些研究試圖揭示內部結構,這些結構表明了分解過程的存在。Hou等人(2023年)通過分析注意力模式,恢復了推理樹,揭示了跨Transformer層的分佈式潛在推理。Brinkmann等人(2024)對一個在符號邏輯任務上訓練的Transformer進行了分析,揭示了一種新興的循環計算機制:儘管模型架構中沒有顯式的循環結構,但它通過在深度上重用內部表示來模擬迭代推理。Shalev等人(2024)的研究顯示,隱藏狀態同時編碼了多箇中間推理路徑,表明潛在推理選項可以並行評估。Wang等 人(2024a)的研究指出,grokked變換器從記憶模式轉變為可泛化的算法模式,形成了隱式推理電路,即使在淺層模型中也能模擬逐步推理,而無需顯式的CoT。Yang等人(2024)的研究證明了語言模型可以在沒有提示的情況下檢索中間橋接事實,提供了潛在多跳推理的行為證據。所有這些發現都支持了推理可以在內部執行,而無需外部語言表達的觀點。

5.2 Shortcut機制

一項研究認為,正確的輸出可能不是來自潛在的推理,而是來自預訓練期間獲得的Shortcut策略。這些研究指出,模型的成功往往依賴於表面的相關性或模式的完成,而非真正的推理過程。Yom Din等人(2024)的研究表明,最終答案通常可以通過早期隱藏層的logit視角進行線性解碼,這意味着後期的計算可能只是對已存在的信息進行了重新表述。現有的結果挑戰了深度與增量推理相匹配的假設。Liu等人(2024a)的研究表明,大語言模型(LLMs)能夠通過跳過中間推理步驟來學習專家級的Shortcut 。Lin等人(2025a)發現 ,LLMs依賴於token級別的虛假關聯,揭示了脆弱的位置啓發式而非組合推理。Yu(2025)指出,LLMs會根據任務的複雜性動態地在Shortcut機制和潛在的多步推理之間切換。這些研究提醒論文,不應將準確的輸出視為真實推理的證據。相反,它們強調了基於表面相關性和位置啓發式的捷徑機制,如何在沒有底層推理的情況下產生看似連貫的答案,這突顯了識別這些Shortcut何時起作用的重要性。

5.3 潛在推理驅動

結合上述兩種視角,近期的研究重點在於通過表徵分析和受控干預手段,以更精準地刻畫並 引導潛在推理機制的動態特性。Kudo等人(2025)通過因果乾預識別了混合推理策略,發現簡單的答案在進行顯式推理之前就已經計算出來,而更復雜的任務則會觸發主動的逐步推理 。Zhang和Viteri(2025)發現了一個潛在的CoT向量(激活空間的方向)當這個向量被加入到內部狀態中時,可以在沒有明確提示的情況下引發CoT行為,揭示了潛在的CoT是一種內部可訪問的處理模式。此外,Wang等人(2025b)提出了CoE,這是一種表示推理過程中隱藏狀態軌跡的方法,能夠識別出與推理 成功相關的獨特模式,從而實現潛在的自我評估。總體而言,潛在推理在激活空間中留下了可測量的痕跡,通過幾何和動態分析,這些痕跡可以被控制或解釋,為理解和利用潛在的CoT推理提供了新的途徑。

六、應用

潛在CoT推理因其推理效率而成功應用於多個領域。下文將探討潛在CoT推理的代表性應用實例。

文本推理。現有的潛在CoT方法已經在自然語言推理任務上進行了系統評估,包括數學推理,一般常識推理,以及邏輯多跳推理數據集。然而,潛在推理方法尚未在幾個高標準的推理基準上進行評估,這些基準已成為評估大型推理模型的標準,以及以代碼為中心的數據集。本文全面回顧了基於大語言模型(LLM)的潛在CoT推理。通過將推理從表面語言層面提升至潛在空間,這種推理方式能夠實現更加抽象、高效和可擴展的推斷。論文總結了關鍵方法,指出了主要挑戰,並展望了未來的發展方向。論文希望這篇綜述能為這一新興領域提供基礎支持,併為該領域的進一步探索提供有價值的見解。

多模態推理與生成。近年來,潛在推理技術已擴展至多模態領域,在這些領域中,用自然語言逐步生成解釋不僅效率低下,而且在語義上也較為脆弱 。Heima引入了緊湊的潛在“思考token”,這些token在多模態任務中總結了中間推理步驟,減少了生成成本而不影響準確性;XS-CoT通過半隱式的token調度隱藏了跨語言的語音推理,加快了非核心語言的響應速度; LatentLM將每個模態視為潛在token,實現了真正統一的生成界面。他們認 為,潛在的CoT推理不再侷限於文本。隨着模態的增多,能夠引導和編輯這些隱藏軌跡的能力可能成為實現可控、高效多模態智能的關鍵。

檢索增強生成與推薦。近期的研究在檢索增強生成(RAG)框架中集成了顯式推理機制,並通過在潛在空間中壓縮這些檢索-推理步驟,進一步減少了模型的token數量和延遲。關於RAG的可插拔虛擬token的最新研究表明,潛在token可以作為外部知識和隱式推理的輕量級載體。DEBATER在密集檢索中引入了‘決策鏈’( Chain-of-Deliberation,簡稱CoD)機制。該機制通過一系列提示詞序列,在文檔表示過程中激發大語言模型(LLM)的潛在推理能力。它進一步通過自我蒸餾技術,將多個推理步驟整合為一個統一的嵌入。在推薦領域,ReaRec利用潛在推理來增強用户興趣模型,通過遞歸地將用户行為的最終隱藏狀態反饋回網絡,進行多輪處理,使用特殊的位置嵌入來區分原始行為輸入和內部推理步驟。

七、挑戰和未來方向

在本節中,論文強調了阻礙潛在推理潛力充分實現的關鍵障礙,並概述了未來研究的關鍵領域。

7.1 挑戰

儘管當前的潛在推理方法在效率和推理速度上表現出色,但在準確性和解決問題的能力上仍不及顯式推理方法。這種差距可能源於訓練難度,因為現有的訓練方法通常側重於優化顯式推理的輸出,而不是直接監督潛在推理的過程。開發能夠充分激活LLM內部推理能力的訓練方法仍是一個關鍵挑戰。

泛化問題:隱式推理的訓練方法主要在固定模式上表現出穩定性,但在面對新問題結構或訓練中未遇到的推理模式時,其泛化能力較差 。這種脆弱性表明,當前的潛在推理方法可能是在學習壓縮特定的推理模板,而不是在抽象空間中發展出真正靈活的推理能力。

可解釋性問題。最近的研究表明,模型在‘頭腦’中進行的推理往往沒有體現在其口頭表達的CoT中,這引發了對模型內部過程不忠或隱藏的擔 憂。從顯式推理轉向隱式推理,進一步增加了識別錯誤和理解模型如何得出特定結論的上難度。

7.2 未來方向

為了有效推進潛在推理的發展,有幾條前景廣 闊的探索方向值得論文深入研究:

(1)替代架構。這些技術可能在提升潛在推理的表達力和效率方面發揮關鍵作用。除了傳統的 Transformer模型,循環或循環的Transformer變體通過在多個步驟中重用參數,實現了推理過程。在多模態領域,基於擴散模型的架構提供了有吸引力的替代方案,這可能是因為它們能夠以並行且噪聲感知的方式建模全局依賴關係和非順序推理。最近的研究成功展示了將擴散模型與潛在CoT結合的有效性。

(2)可解釋性和驗證性。這些是潛在推理中需要進一步探討的關鍵問題。開發方法來探測、解碼或驗證這些潛在表示,對於提高透明度和校準推理行為至關重要。

(3) 訓練方法。大多數現有的訓練方法不足以有效塑造潛在推理能力。強化學習為探索大語言模型(LLM)通過自我進化發展潛在推理能力提供了有前景的範式,利用獎勵信號隱式地構建一個與任務目標相匹配的結構化推理空間。此外,課程學習使模型能夠通過從簡單到複雜的訓練過程逐步獲得越來越抽象的推理技能。

(4)LLM代理。這些代理在潛在共情推理方面可能顯著受益,尤其是在推理效率上。這些代理通常生成冗長且詳細的推理序列,導致顯著的計算開銷。通過潛在共情推理,這些代理有望實現更緊湊、更快的規劃和決策。

(5)社會智能與心智理論。潛在推理為建模心智理論所必需的嵌套心理狀態提供了天然基礎——心智理論指的是推斷他人信念、慾望和意圖的能力。將潛在信念建模嵌入推理流程,有望為實現具備社會能力的人工智能提供一條可擴展的路徑。

八、結論

本文全面回顧了基於大語言模型(LLM)的潛在CoT推理。通過將推理從表面語言層面提升至潛在空間,這種推理方式能夠實現更加抽象、高效和可擴展的推斷。論文總結了關鍵方法,指出了主要挑戰,並展望了未來的發展方向。論文希望這篇綜述能為這一新興領域提供基礎支持,併為該領域的進一步探索提供有價值的見解。

user avatar
0 位用戶收藏了這個故事!

發佈 評論

Some HTML is okay.