參考消息網5月12日報道據阿根廷布宜諾斯艾利斯經濟新聞網5月2日報道,近日越來越的案例中開始有患者把ChatGPT當心理師,然而專家警告將人工智能(AI)替代心理治療存在風險。
報道稱,可以說,人工智能已經站穩(wěn)了腳跟。從最初的Siri、亞馬遜智能家居“亞歷克莎”等日常應用到最近的ChatGPT,都在表明這項技術在不斷突破自我,如今已經能夠執(zhí)行直至不久前還只能由人類承擔的任務。
專家擔憂會帶來風險
報道稱,AI雖然在特定任務中強于人類,但在以我們的方式理解世界上仍存在困難。正因如此,一些專家對人們求助ChatGPT而非心理醫(yī)生感到擔憂。
這一切都發(fā)生在尚不清楚這類工具的觸角將伸向何處的當下。近日,谷歌公司計算機科學家杰弗里·欣頓離開這家科技巨頭,就是為了向世人警告,AI系統(tǒng)為人類帶來了“生存風險”。
但是,有可能把ChatGPT當成一種機器人心理治療師嗎?
阿根廷精神病學家協會會長里卡多·科拉爾表示:“這是非常新的事物,正處于發(fā)展期,它的效度和準度顯然還會得到大幅提高。”
對于把這類工具當作治療手段,這位專家指出,雖然有報道稱有人已經這樣做,但人與人之間的直接接觸在心理治療過程中起著不小的作用。
科拉爾表示:“現在的情況是,許多人在疫情暴發(fā)和隔離措施實行后開始通過視頻連線進行遠程會診,不少治療師、精神病醫(yī)生或心理醫(yī)生仍采取這種工作方式。然而,很多人覺得不舒服。有一種我們稱之為醫(yī)患關系或者治療關系的事物,它不容易被取代。換句話說,顯然存在一個十分重要的方面,它與人際關系和關系本身有關,我們稱之為移情問題。”
心理學博士弗拉維奧·卡爾沃同意科拉爾的觀點,并強調說:“有兩種類型的移情:情感移情和認知移情。”
“AI或許可以理解一些機制,但永遠不會像人類一樣體驗情感”,它無法“將心比心”,而這種能力對良好的治療效果至關重要。他接著說:“如果不是用人的靈魂去觸碰另一個人的靈魂,那就不是治療,而只是一系列冷冰冰的建議和可能性。”
專業(yè)護理的補充手段
報道稱,對他而言,如果要找出AI在這方面的積極之處,那便是“這是一個可能被用來解決一個關鍵問題的事物,因為目前社會和社區(qū)對心理健康問題缺乏對策,所以AI對那些正遭受痛苦,且接觸不到任何自然人、醫(yī)生、治療師、心理醫(yī)生、精神病醫(yī)生的人來說可能是救命稻草”。
包括ChatGPT、谷歌的“巴德”、微軟公司的必應聊天在內,種種強大的通用聊天機器人都基于大語言模型。這種技術可以輕而易舉地編造出乍聽之下有理有據的信息。
然而,它們的設計初衷并非提供療法,并且這類編程產品也不遵守人類治療師所恪守的道德和法律準則。在目前的形式下,它們也沒有辦法跟蹤向用戶所提建議的實際執(zhí)行情況。
研究情緒障礙的臨床心理學家、堪薩斯大學教授斯蒂芬·伊拉爾迪說:“如果碰上病情較重的精神疾病患者,以它的能力還無法取代心理健康專業(yè)人士。”他指出,ChatGPT這種“赤腳醫(yī)生”會造成“極高的風險”。雖說如此,他認為這個對話伙伴已經足夠出色,許多人認可它是有用的。
伊拉爾迪提醒說,如今心理健康服務供不應求,如果具有適當保障措施,將ChatGPT改造為對專業(yè)護理的一種補充手段也未嘗不可。
對于美國抱抱臉公司首席倫理科學家瑪格麗特·米切爾來說,這些聊天機器人可用來幫助危機求助熱線的工作人員增強應答能力。
但讓她感到擔憂的是,向聊天機器人尋求治療的做法可能會導致盲目依從,從而加重自身的痛苦。她說:“即使有人覺得這項技術大有幫助,也不意味著它能把求助者引向一個好的方向。”
此外,米切爾認為,還需要注意它所涉及的隱私問題。她解釋說,開放人工智能研究中心(OpenAI)會收集用戶對話并將其用于訓練,所以可能不太適合那些想談論極其私密話題的人。
報道稱,她說:“用戶可以刪除他們的賬戶信息,盡管這一過程可能需要4周之久。3月,在一些用戶反映能夠看到其他用戶聊天記錄的標題后,OpenAI以技術問題為由短暫關閉了ChatGPT。”
]]>