LLM文檔檢索方案

前言

ChatGPT的出現(xiàn)鼓舞了NLP的科研人員和工作者,大模型的涌現(xiàn)讓AI在即將退潮時(shí)又掀起了層層巨浪。大家似乎看到了黎明的曙光,剎那間百“?!贝髴?zhàn)打響,各大高校、科研機(jī)構(gòu)、企業(yè)紛紛“自研”大模型,好不熱鬧。說到底,這個(gè)自研大多來自于開源模型,對(duì)垂直領(lǐng)域的數(shù)據(jù)進(jìn)行清洗加數(shù)據(jù)增強(qiáng),再用前沿的調(diào)優(yōu)算法(LoRA、Adapter Tuning、Prefix Tuning、Prompt Tuning等)來進(jìn)行調(diào)優(yōu),然后得到該領(lǐng)域的大模型。

以此種方式,在海量數(shù)據(jù)的加持下,確實(shí)可以在領(lǐng)域內(nèi)獲得不錯(cuò)的表現(xiàn)能力。但此種方式也并非長久之計(jì),因?yàn)轭I(lǐng)域內(nèi)的數(shù)據(jù)總是在更新,每次數(shù)據(jù)更新迭代之后再進(jìn)行微調(diào)似乎并不理想。說到底,現(xiàn)在模型似乎并不具備像人一樣,擁有一直學(xué)習(xí)的能力?,F(xiàn)在看上去就是把大部分知識(shí)在短時(shí)間內(nèi)都塞到模型中,而那些沒有見過的知識(shí),便很難推理出來。那么從0到1訓(xùn)練大模型的成本是難以接受的,微調(diào)大模型的方式或許還能接受,但是通過檢索已有知識(shí)庫,再讓大模型(接口)分析數(shù)據(jù),并進(jìn)行問答,或許是一個(gè)較優(yōu)的選擇。

背景介紹

Sentence Bert (雙塔模型)

傳統(tǒng)信息檢索工具ES基于Term召回的方式在語義接近但Term Difference比較大的情況下表現(xiàn)不佳。SBert(Sentence Bert)為架構(gòu)的訓(xùn)練方式提升了句子和句子之間的召回準(zhǔn)確率。如下圖,左邊是對(duì)句子進(jìn)行進(jìn)行一層Bert輸出,經(jīng)過Pooling得到對(duì)應(yīng)A、B句的向量u、v,再通過concatenate u,v, |u-v| 再乘以一個(gè)可訓(xùn)練的權(quán)重經(jīng)過softmax的到最后的結(jié)果(公式如下)。右邊是推理的過程,用模型進(jìn)行推理得到A、B向量, u、v再進(jìn)行余弦相似度計(jì)算,通過設(shè)定一定的閾值求出最優(yōu)的結(jié)果。

雙塔模型

Sentence Bert (又稱雙塔模型) 這種框架有兩種實(shí)現(xiàn),Bi-encoder 和 Dual-encoder。

Bi-encoder 首先將Query和Candidate輸入到共享的Transformer編碼器中,將其分別編碼成向量表示,然后通過計(jì)算兩個(gè)向量之間的相似度得分,來判斷Query和Candidate的匹配程度。典型的有近期Moka AI發(fā)布的M3E模型,在s2s(sentence to sentence)和s2p(sentence to passage)任務(wù)上表現(xiàn)不俗,超過了之前比較優(yōu)秀的text2vec模型 (large的模型可以看這里),具體可以看一下hugging face的介紹。

Dual-encoder模型的基本架構(gòu)是將Query和Candidate分別輸入不同的Transformer編碼器中,分別編碼成向量表示,然后計(jì)算Query和Candidate的相似度得分,來判斷Query和Candidate的匹配程度。這種適用于兩種句子維度不一樣的匹配任務(wù),類似于query匹配文檔,query匹配答案等。

在Bi-encoder模型中,Query和Candidate共享了同一個(gè)編碼器,因此它們?cè)诒硎究臻g中具有相同的維度和分布。而Dual-encoder模型則使用了兩個(gè)獨(dú)立的編碼器,因此它們?cè)诒硎究臻g中具有不同的維度和分布。這種差異可能對(duì)模型的表現(xiàn)產(chǎn)生一定的影響。同時(shí),由于Dual-encoder模型中的兩個(gè)編碼器具有獨(dú)立的參數(shù)空間和狀態(tài)空間,因此Dual-encoder模型可以對(duì)Query和Candidate的特征進(jìn)行更靈活的處理和提取。然而,由于需要用到兩個(gè)編碼器,Dual-encoder模型的訓(xùn)練和推理成本通常比Bi-encoder模型高。

CoSENT

通過語言模型提取特征,再計(jì)算余弦相似度進(jìn)行分類。這樣的做法存在訓(xùn)練和預(yù)測(cè)不一致的問題,如果直接優(yōu)化目標(biāo)cos值,效果往往特別差。蘇神提出的CoSENT一種新的訓(xùn)練方式,就是對(duì)比正負(fù)樣本的余弦值相對(duì)差距。想要了解的同學(xué)可以去官博看一下。

CoSNET損失

Cross Encoder

上述的文本匹配方式Bi-Encoder的方式為特征式(Representation-based)匹配,而另外一種為交互式(Interaction-based)。交互式匹配方案如下右圖,將兩段文本拼接在一起當(dāng)成單個(gè)文本進(jìn)行分類,交互式由于使得兩個(gè)文本能夠進(jìn)行充分的比較,所以它準(zhǔn)確性通常較好,但在檢索場景中使用效率低下,因?yàn)樾枰F(xiàn)場推理向量,而特征式可以提前將所有的Candidates進(jìn)行計(jì)算并緩存,在檢索過程中只需要對(duì)Query進(jìn)行向量推理,然后匹配所有的Candidates就行了,但相對(duì)而言,特征式交互程度較淺,效果通常比交互式要差。


召回模型

Multi-stage Retrieval

上面提到的方案都是簡單的單召回方式,類似與LangChain-ChatGLM即從海量的文檔向量庫對(duì)當(dāng)前的query的向量進(jìn)行向量相似度計(jì)算,找出最接近的文檔,然后通過Prompt Template進(jìn)行渲染構(gòu)造Prompt輸送給大模型,最后接受大模型生成的答案。

LangChain+LLM

這種單階段召回的方式是最為基礎(chǔ)的,后面調(diào)研了MS MARCO這個(gè)數(shù)據(jù)集的Leaderboard發(fā)現(xiàn)了一些比較有見解的方案,現(xiàn)在也一起總結(jié)到本文中。

Paddle-pipelines

百度的Paddle-pipelines主要是通過兩階段進(jìn)行排序,首先將文檔集合離線轉(zhuǎn)變?yōu)橄蛄看鎯?chǔ)在向量索引庫,一階段利用進(jìn)行向量匹配召回Top N,二階段用高精度的交叉模型候選Top K進(jìn)行排序,最后召回答案。這樣可以提升模型的準(zhǔn)確率。

image.png

百度在離線階段使用的是Dual-Encoder方式,訓(xùn)了兩個(gè)模型,一個(gè)是query-encoder, 一個(gè)是passage-encoder; 二階段使用的cross-encoder精排,對(duì)于頭部的召回可以提升不少,詳情可以參考github上給出的指標(biāo)。

image.png

RocketQA

百度使用的模型是RocketQA系列,具體的原理如下:

由于Dense passage retrieval下的訓(xùn)練和推理之間的差異,即訓(xùn)練過程中只是選取了部分的樣本作為負(fù)例,而推理過程中則是對(duì)所有的樣本進(jìn)行比較。同時(shí),在進(jìn)行訓(xùn)練的過程中negative samples往往存在了大量的false negative samples,即標(biāo)注為非答案文本的文段也是可以作為答案的。

針對(duì)上面這兩個(gè)問題,文章提出了三個(gè)優(yōu)化策略Cross-batch negatives, Denoised Hard Negatives, Data Augmentation.

Cross-batch negatives主要做的就是將m臺(tái)上的GPU機(jī)器上的n個(gè)samples都進(jìn)行embeddings計(jì)算,然后下發(fā)到每一個(gè)GPU機(jī)器上,那么每一個(gè)訓(xùn)練樣本都有m*n-1個(gè)負(fù)樣本,對(duì)比之前的in-batch negatives的n-1個(gè)負(fù)樣本,這樣極大地增加了負(fù)例樣本的學(xué)習(xí)。

image.png

Denoised Hard Negatives,先train一個(gè)dual encoder來召回negatives, 然后再訓(xùn)練一個(gè)cross encoder來去除false negatives,這樣讓模型學(xué)習(xí)到負(fù)樣本盡可能是對(duì)的,相當(dāng)于是做了一次數(shù)據(jù)清洗。

Data Augmentation就是用已經(jīng)訓(xùn)練好的cross encoder對(duì)一些未標(biāo)注數(shù)據(jù)進(jìn)行標(biāo)注,類似于semi-supervised learning,來增大數(shù)據(jù)量。


image.png

這種方式在測(cè)評(píng)數(shù)據(jù)集上的表現(xiàn)不俗,但是對(duì)于機(jī)器的要求比較高,就比如第一步的Cross-batch negatives來說,這需要盡可能地增加機(jī)器的數(shù)目,同時(shí)對(duì)于單個(gè)GPU機(jī)器來說,增加了大批量的negatives,對(duì)于GPU的顯存來說是一個(gè)很大的挑戰(zhàn)。后面的train dual encoder的方式也是一個(gè)多階段的訓(xùn)練,相對(duì)來說訓(xùn)練的成本比較高。

coCondenser

后面看到了MS MARCO的Document Retrieval Top 1方案--coCondenser。作者做的事情簡單但有效,即他認(rèn)為最后一層的【CLS】的向量并沒有有效的聚合整個(gè)輸入的所有信息,于是提出一個(gè)新的訓(xùn)練架構(gòu)--Condenser,Condenser一共由六層的Transformer blocks組成,一共是三組,early backbone encoder、late backbone encoder以及head,最下面的為輸入層,頭部拼接了一個(gè)special token 【CLS】。

image.png

同時(shí),跳連early layers,可以消除了編碼局部信息和輸入文本句法結(jié)構(gòu)的負(fù)擔(dān),將CLS重點(diǎn)放在輸入文本的全局含義上,Condenser 被迫學(xué)習(xí)將信息聚合到 CLS 中,然后 CLS 將參與 LM 預(yù)測(cè)。利用 MLM 產(chǎn)生的豐富有效的訓(xùn)練信號(hào),Condenser 學(xué)習(xí)利用強(qiáng)大的 Transformer 架構(gòu)來生成密集的 CLS 表示。我們假設(shè)通常用于訓(xùn)練token表示的 LM 目標(biāo)現(xiàn)在放在密集的 CLS 表示上,學(xué)習(xí)到的 LM 獲得了更好的抗噪聲魯棒性。

【CLS】雖然可以通過head進(jìn)行非線性表征,但是這些向量的內(nèi)積依然是不具備語義信息的。作者提出加入對(duì)比的loss來提升語義表達(dá)。這種方式在introduction部分提到了,就是抽取文檔中的片段,這些片段形成了一個(gè)訓(xùn)練批次集,將 表示為 ,loss的計(jì)算公式如下圖。


image.png

這里的核心思想就是同一篇文章里的片段的分布應(yīng)該是盡可能相似的,而不同文章的片段應(yīng)該有不同的空間表達(dá)。最后的loss就是masked loss?span LM losss。


image.png

最后和RocketQA的效果進(jìn)行了對(duì)比,從表格中我們可以看出,RocketQA的batch size和本文使用的batch size的差距還是很明顯的,但是從結(jié)果上來看coCondenser再加入Hard negatives之后,在MS-MARCO上的表現(xiàn)要優(yōu)于RocketQA。

image.png

HLATR

HLATR是當(dāng)前Passage Retrieval的Top 1方案,核心思想是認(rèn)為一階段的召回和二階段的排序的結(jié)果可以進(jìn)行藕合來提升整體的性能。

image.png

這里作者提到兩個(gè)模型雖然都是進(jìn)行排序,但是模型的關(guān)注的點(diǎn)不一樣,表征式的模型(retriever)偏向于粗顆粒度特征,交互式的模型(interaction)偏向于query和document之間的信息交互。同時(shí)作者做了一個(gè)簡單的weighted combination,就是給予召回和排序這兩個(gè)階段不同的權(quán)重,對(duì)于整體的召回效果也是有提升的。

image.png

文章的思路其實(shí)比較簡單,就是通過對(duì)一階段召回的順序的位置編碼和二階段輸出的logits的向量,來做非線性組合,相當(dāng)于是融合吧。

這里的d1dz是一階段召回的個(gè)數(shù),然后v1vz是二階段對(duì)應(yīng)的logits向量,通過對(duì)位置編碼進(jìn)行加和在通過Layer Norm,再通過transformer層進(jìn)行注意力機(jī)制交互。

image.png

最后再對(duì)結(jié)果進(jìn)行一個(gè)全連接層輸出一個(gè)分?jǐn)?shù),排序。


image.png

這里用的是Contrastive Loss。


image.png

從實(shí)驗(yàn)結(jié)果上看,作者針對(duì)不同的Retrieval和二階段進(jìn)行了對(duì)比,Retrieval的話是選用了Sparse-BM25,Dense的話用的是coConderser和ANCE,公開的checkpoint。結(jié)果如下,WCR指的是Weighted Combination of two-stage Ranking models。從整體上看,WCR的方式會(huì)比二階段的Reranking好一些,而相比下來HLATR的效果是最好的。


image.png

之后作者對(duì)于HLATR的架構(gòu)進(jìn)行了探究,即將多層的transformers替換成2-layer的MLP(多層感知機(jī))這樣的效果只是下降了0.2pp,但還是從另外一個(gè)角度說明了transformers模型比MLP發(fā)現(xiàn)不同文檔中的互信息中表現(xiàn)的更好(個(gè)人覺得整體而言transformers)。 而將loss換成了binary cross-entropy loss之后整體性能下降了0.9pp,說明以對(duì)比學(xué)習(xí)為目標(biāo)的文本排序任務(wù)會(huì)更加適合,究其原因還是因?yàn)榕判蛉蝿?wù)是一個(gè)數(shù)據(jù)不平衡的優(yōu)化問題,對(duì)于輸入序列來說,負(fù)樣本遠(yuǎn)比正樣本要大得多,而對(duì)比學(xué)習(xí)在數(shù)據(jù)不平衡的情況下會(huì)更有優(yōu)勢(shì)。

整體上來說之前的一階段召回和二階段排序都是文檔之間相互獨(dú)立的,并不直接進(jìn)行對(duì)比,而只是通過向量之間的相似度,或者說是輸出的分?jǐn)?shù)進(jìn)行一個(gè)排序。當(dāng)時(shí)從人的直觀來看,對(duì)于相關(guān)的排序,往往建立在對(duì)于query的理解,還有對(duì)所有doc的綜合考慮來做的,而孤立doc偏離了似乎偏離了這一想法。作者用HLATR第三層排序以位置編碼的形式引入了召回特征,以及文檔特征矩陣引入了排序特征,最后通過transformers或者M(jìn)LP進(jìn)行交互,相當(dāng)于是進(jìn)行了doc之間的信息融合,最后給出了一個(gè)分?jǐn)?shù)。

image.png

LLM4Retrieval

這里利用Paddle-pipelines搭建了一個(gè)文檔檢索環(huán)境,一階段使用的分別是rocketqa-zh-base-query-encoder&rocketqa-zh-base-para-encoder召回個(gè)數(shù)為100,二階段用的是rocketqa-base-cross-encoder,排序之后展示最終的Top2。數(shù)據(jù)集使用的是醫(yī)療科普知識(shí)閱讀理解數(shù)據(jù)集。

這里我們先輸入“如何預(yù)防老年癡呆”作為我們的query,召回的具體信息我放在文章最下面了,之后我們將使用不同的prompt來構(gòu)建我們真實(shí)的query,來讓大模型作答。(由于字?jǐn)?shù)超限,所以刪除了原文段的部分文字,不影響做答。)

image.png

zero-shot

簡單粗暴,直接把信息丟給ChatGPT進(jìn)行整合。語法用的是 jinja 寫的,可以支持多種語言渲染。

參考信息

{% for info in context %}

{{loop.index}}. {{info}}

{% endfor%}

Instruction

請(qǐng)參考上面的參考信息,回答下面的問題。

問題

{{query}}

回答

GPT答案如下,看起來有點(diǎn)生硬了,沒有加入身份信息看起來就是正常的科普文。

image.png

下面試試看加入身份信息。

參考信息

{% for info in context %}

{{loop.index}}. {{info}}

{% endfor%}

Instruction

你是一名經(jīng)驗(yàn)豐富的皮膚科醫(yī)生,現(xiàn)在你要求回答下面的問題,你需要基于你多年的從醫(yī)經(jīng)驗(yàn)并參考上面的信息,你的回復(fù)應(yīng)盡可能詳細(xì),并給出原因。

問題

病人: {{query}}

回答

醫(yī)生:

GPT答案如下,整體上看來回答要比之前豐富,而且細(xì)節(jié)上也更完整,看起來更像是人在交流。

image.png

Few-shot

Few-shot的概念就是在zero-shot的基礎(chǔ)上給模型一些示例,有點(diǎn)教模型如何使用參考信息的感覺。

Chain Of Thought

Chain of thought (CoT) 是基于few-shot的改進(jìn),指的是從一個(gè)問題演化到另一個(gè)問題,或者是從一個(gè)普遍思想或論據(jù)演變出更有深度的思考或論據(jù)的過程,即用邏輯連貫的方式進(jìn)行思維。在example中提供對(duì)問題的思考方式、觀察結(jié)果以及如何解決問題的細(xì)節(jié),能夠豐富模型的最終生成答案,從而將相關(guān)點(diǎn)連接起來,結(jié)合創(chuàng)造新的思想來推動(dòng)思考。

時(shí)效性

大模型強(qiáng)依賴于訓(xùn)練數(shù)據(jù),實(shí)時(shí)性的信息和新知識(shí)相關(guān)的問題是無法準(zhǔn)確回答的,那么這個(gè)時(shí)候可以在通過爬蟲的方式,找到問題相關(guān)信息并通過一個(gè)額外的閱讀理解(摘要)模型來提取關(guān)鍵信息。然后作為參考信息來做為真實(shí)輸入的一部分,讓模型具備時(shí)效性信息答復(fù)能力。

結(jié)語

對(duì)于大模型在信息檢索上的應(yīng)用現(xiàn)在還在探索階段,只是停留在閱讀理解的階段是不盡人意的,希望之后LLM能夠具備過目不忘能力,能夠?qū)崟r(shí)更新模型權(quán)重以回答時(shí)效性問題,新的知識(shí)。

謝謝您的耐心觀看,喜歡的話幫忙支持點(diǎn)贊 ?? ? 收藏 ??。

參考

  1. 風(fēng)飏:讓天下沒有難Tuning的大模型-PEFT技術(shù)簡介
  2. 吃果凍不吐果凍皮:紅杉資本發(fā)布大語言模型應(yīng)用開發(fā)的技術(shù)棧預(yù)測(cè)
  3. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
  4. moka-ai/m3e-base · Hugging Face
  5. GanymedeNil/text2vec-large-chinese · Hugging Face
  6. shibing624/text2vec-base-chinese · Hugging Face
  7. CoSENT(一):比Sentence-BERT更有效的句向量方案 - 科學(xué)空間|Scientific Spaces
  8. CoSENT(二):特征式匹配與交互式匹配有多大差距? - 科學(xué)空間|Scientific Spaces
  9. GitHub - imClumsyPanda/langchain-ChatGLM: langchain-ChatGLM, local knowledge based ChatGLM with langchain | 基于本地知識(shí)庫的 ChatGLM 問答
  10. MS MARCO
  11. Maple小七:神經(jīng)搜索落地曙光——百度RocketQA工具包初體驗(yàn)
  12. Condenser: a Pre-training Architecture for Dense Retrieval
  13. https://arxiv.org/pdf/2205.10569.pdf
  14. https://github.com/PaddlePaddle/PaddleNLP/tree/develop/pipelines/benchmarks
  15. 山野閑人:信息檢索:論文精讀【1】coCondenser
  16. 山野閑人:信息檢索:論文精讀【2】RocketQA
  17. 山野閑人:信息檢索:論文精讀【3】Dense Passage Retrieval
  18. 山野閑人:信息檢索:論文精讀【4】HLATR: Enhance Multi-stage Text Retrieval with Hybrid List Aware Transformer Reranking
  19. 醫(yī)療科普知識(shí)閱讀理解數(shù)據(jù)集 - 飛槳AI Studio
  20. Jinja - Jinja Documentation (3.1.x)
  21. CoT - 搜索結(jié)果 - 知乎

參考信息

  1. 老年癡呆癥,又叫阿爾次海默病。老年癡呆,一般是指大腦中產(chǎn)生記憶和進(jìn)行推理的腦功能出現(xiàn)功能衰退的現(xiàn)象。這會(huì)嚴(yán)重影響到老年人群的日常生活能力,使他們無法正常參加一些活動(dòng)。更嚴(yán)重的是,老年癡呆人群無法自己正常生活,會(huì)發(fā)生尿失禁導(dǎo)致死亡的現(xiàn)象。隨著年齡的老齡化越來越嚴(yán)重,我們應(yīng)該開始重視老年人群的保健方面。老年癡呆癥對(duì)老年人的健康有很大的危害,所以老人們應(yīng)該及時(shí)預(yù)防老年癡呆癥。怎樣可以有效預(yù)防老年癡呆啊?下面讓我們來一起看看吧!在吃飯前多多用腦。我們每個(gè)人一天基本是吃三餐飯,如果老年人能在這三餐飯之間多多動(dòng)一下腦筋,讓大腦時(shí)刻保持活躍的狀態(tài),就可以很有效的預(yù)防老年癡呆癥。根據(jù)美國老年癡呆癥協(xié)會(huì)研究發(fā)現(xiàn),如果老年人能夠進(jìn)行大腦的訓(xùn)練,就可以防止得老年癡呆癥。要多吃水果蔬菜。根據(jù)研究報(bào)告顯示,多吃水果蔬菜可以降低大腦衰老的速度。一個(gè)著名研究項(xiàng)目曾經(jīng)對(duì)幾十名老人進(jìn)行了六年的跟蹤,得出的結(jié)果是,如果老年人每天吃五份以上的水果蔬菜,大腦的認(rèn)知能力下降的速度會(huì)比其他的低40%。多吃堅(jiān)果和粗糧,要少吃高熱量的食物。粗糧堅(jiān)果中含有豐富的維生素E,而且可以讓身體吸收足夠的歐米伽3脂肪酸,它對(duì)我們大腦的健康有很大的幫助。跟許多養(yǎng)生的道理都一樣,預(yù)防老年癡呆癥,也對(duì)我們身體各個(gè)地方有很大的好處。吃完飯后做一件事。大多數(shù)的人都喜歡吃完飯后看電視,其實(shí)這只會(huì)讓我們?cè)絹碓奖俊S袑<已芯堪l(fā)現(xiàn),如果電視看得越久,特別是在吃完飯后,就會(huì)讓我們的腦細(xì)胞越來越僵化,會(huì)導(dǎo)致我們的思維能力越來越慢。所以在吃完飯后也要多多活活躍我們的大腦。上面所說的就是一些可以預(yù)防老年癡呆癥的方法。現(xiàn)在我們的生活越來越舒適,導(dǎo)致很多人有很多不好的生活習(xí)慣,到了老年就很容易患上老年癡呆癥。所以我們要養(yǎng)成良好的生活習(xí)慣,有效預(yù)防老年癡呆癥。
  2. 概述帕金森病又叫做老年癡呆癥。帕金森病是由老年性疾病,因?yàn)樗陌l(fā)病年齡平均在60歲以上。一般40歲以下發(fā)病的帕金森病癥是比較少見的。為了防止出現(xiàn)這種情況,下面我給大家介紹一下帕金森癥如何治。帕金森癥如何治第一:普通患有帕金森的患者,疾病的病癥都是先從單側(cè)開端發(fā)病的,然后病癥就會(huì)逐步涉及到對(duì)側(cè)肢體,藥物治療的效果也逐步降低,反作用越來越明顯。到中晚期會(huì)影響到吞咽發(fā)聲,晚上翻身艱難,失眠等。嚴(yán)重的患者到晚期會(huì)由于肌肉攣縮、關(guān)節(jié)強(qiáng)直而臥床。第二:患有帕金森的患者隨著病程時(shí)間的延長,所以患者的病情也就越來越重,而一旦病情加重就會(huì)使患者的家庭面臨越來越繁重的人力和經(jīng)濟(jì)擔(dān)負(fù),病人從開端的偶然需求人照顧逐漸開展到需求一個(gè)以至兩個(gè)特地的人來照顧病人的根本生活。第三:患有帕金森的患者,在患病后會(huì)呈現(xiàn)肢體的震顫、行動(dòng)的不便的等病癥,由于這些病癥,患者怕同事或朋友見笑,所以就不盲目將本人封鎖起來,遠(yuǎn)離了原先熟習(xí)的生活、工作圈。整天待在家中。這樣,疾病在停頓,病癥在加重,心情也隨之變得異常不好,很多帕金森患者存在不同水平的抑郁、焦慮病癥。注意事項(xiàng)目前治療帕金森建議患者可以采取物理加中醫(yī)的治療方法,通過把傳統(tǒng)中醫(yī)學(xué)與現(xiàn)代西方腦細(xì)胞科技完美結(jié)合,治療方針制定康復(fù)效果最佳的治療方案。
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容