健康網》ChatGPT當心理諮商?醫:過度依賴有風險 – 自由健康網


隨著生成式AI成熟,不少人開始依賴ChatGPT,甚至當作心理諮商使用;專家對此提出示警。示意圖。(圖取自freepik)

葉立斌/核稿編輯

〔健康頻道/綜合報導〕近期各界認真挖掘ChatGPT等生成式AI的使用方法與用途,有部分名人指出他在情緒低落時,會向ChatGPT訴苦,讓不少人以為ChatGPT也能用在心理諮商、談話性治療上。然桃園療養院副院長李俊宏直言,若希望在前期做準備時提供意見,ChatGPT不會做得太差;然若想要代替談話性治療,「個人會勸你最好不要」。

李俊宏在臉書談到,臨床上,開始有不少個案依賴這類工具來尋求意見,甚至是進行較深入的自我分析,要注意的,對話紀錄仍然跟許多資料一樣難以保密。而且,由於這類語言模型在特用領域上,仍待發展,使用上要很小心。

請繼續往下閱讀…

李俊宏認為,如果對於ChatGPT的要求是衛教或做為尋求協助的前期準備,例如失眠應該怎麼辦?心情不好可以如何調適?通常其表現不會太差,大致上會提供部分普羅大眾用得上的訊息。

如果你需要的是心靈雞湯還是情緒價值,希望他給你一些鼓勵,由於ChatGPT的設計,在人機溝通上,強調某個程度上的友善性,通常這部分也可以給你相對的回應。但是,「若期待心理的議題他能處理,也或者是替代談話性治療,個人會勸你最好不要。」

雖然,精神醫療中也有支持性心理治療(supportive psychotherapy)的技術,但有經驗的治療者,是透過評估你像是自我功能(ego function)與防衛機轉(defense mechanism)這些能力,再來選擇當下需要運用的治療技術。

有的時候支持太過,反而個案會看不到內在衝突、阻抗,而難以面對真正的議題;而支持不夠,對於自我功能缺乏的個案又有某個程度的風險。而在動力分析上,治療情境經常是需要累積一定程度的理解,最後才能對於轉移關係或某些動力議題予以詮釋。

跟ChatGPT聊看似掏心掏肺,實際上這類模型目前並不具備上述能力,他會採用數據庫裡面的資料來選擇當下適合的回答,你會覺得講中了,很多時候是種投射,就跟算命、塔羅感覺很準一樣。但這種準,並不真實,有的時候甚至是幻像,很有可能會讓個案被誤導。

他的回應多半是依據你餵出去的資料,但有的時候說不出口的,反而更重要。如果你的對面是有經驗醫師、心理師,他會看得出來,但機器不會。在心理健康與精神醫療上,過度使用或依賴這類語言模型,對於脆弱族群而言,還是可能會有負面影響,更別提若是有病理性的變化,他是無法判斷的。真的有需要,還是要尋求專業協助;如果有疑義,也不妨拿出來跟醫師討論,會釐得更清楚些。

☆健康新聞不漏接,按讚追蹤粉絲頁

☆更多重要醫藥新聞訊息,請上自由健康網


免費訂閱《自由體育》電子報

熱門賽事、球星動態不漏接

不用抽 不用搶 現在用APP看新聞 保證天天中獎 
點我下載APP 
按我看活動辦法





Source link

Related posts

沈玉琳健康亮紅燈 傳1指數異常飆高 – 桃園電子報

聯合健康集團第二季獲利未達預期 | UnitedHealth | 獲利預期 | 醫療費用

健康網》藍莓健腦、護心、控體重 營養師:適合3種人補充 – 自由健康網