隨著生成式AI成熟,不少人開始依賴ChatGPT,甚至當作心理諮商使用;專家對此提出示警。示意圖。(圖取自freepik)
葉立斌/核稿編輯
〔健康頻道/綜合報導〕近期各界認真挖掘ChatGPT等生成式AI的使用方法與用途,有部分名人指出他在情緒低落時,會向ChatGPT訴苦,讓不少人以為ChatGPT也能用在心理諮商、談話性治療上。然桃園療養院副院長李俊宏直言,若希望在前期做準備時提供意見,ChatGPT不會做得太差;然若想要代替談話性治療,「個人會勸你最好不要」。
李俊宏在臉書談到,臨床上,開始有不少個案依賴這類工具來尋求意見,甚至是進行較深入的自我分析,要注意的,對話紀錄仍然跟許多資料一樣難以保密。而且,由於這類語言模型在特用領域上,仍待發展,使用上要很小心。
請繼續往下閱讀…
李俊宏認為,如果對於ChatGPT的要求是衛教或做為尋求協助的前期準備,例如失眠應該怎麼辦?心情不好可以如何調適?通常其表現不會太差,大致上會提供部分普羅大眾用得上的訊息。
如果你需要的是心靈雞湯還是情緒價值,希望他給你一些鼓勵,由於ChatGPT的設計,在人機溝通上,強調某個程度上的友善性,通常這部分也可以給你相對的回應。但是,「若期待心理的議題他能處理,也或者是替代談話性治療,個人會勸你最好不要。」
雖然,精神醫療中也有支持性心理治療(supportive psychotherapy)的技術,但有經驗的治療者,是透過評估你像是自我功能(ego function)與防衛機轉(defense mechanism)這些能力,再來選擇當下需要運用的治療技術。
有的時候支持太過,反而個案會看不到內在衝突、阻抗,而難以面對真正的議題;而支持不夠,對於自我功能缺乏的個案又有某個程度的風險。而在動力分析上,治療情境經常是需要累積一定程度的理解,最後才能對於轉移關係或某些動力議題予以詮釋。
跟ChatGPT聊看似掏心掏肺,實際上這類模型目前並不具備上述能力,他會採用數據庫裡面的資料來選擇當下適合的回答,你會覺得講中了,很多時候是種投射,就跟算命、塔羅感覺很準一樣。但這種準,並不真實,有的時候甚至是幻像,很有可能會讓個案被誤導。
他的回應多半是依據你餵出去的資料,但有的時候說不出口的,反而更重要。如果你的對面是有經驗醫師、心理師,他會看得出來,但機器不會。在心理健康與精神醫療上,過度使用或依賴這類語言模型,對於脆弱族群而言,還是可能會有負面影響,更別提若是有病理性的變化,他是無法判斷的。真的有需要,還是要尋求專業協助;如果有疑義,也不妨拿出來跟醫師討論,會釐得更清楚些。
☆健康新聞不漏接,按讚追蹤粉絲頁。
☆更多重要醫藥新聞訊息,請上自由健康網。
熱門賽事、球星動態不漏接