logo logo
焦點觀點
::: 首頁 焦點觀點專欄 華盛頓郵報分析47,000條線上對話,揭示人們如何使用ChatGPT

華盛頓郵報分析47,000條線上對話,揭示人們如何使用ChatGPT

2025-11-18
TAG ChatGPT AI

華盛頓郵報根據線上研究專家 Henk Van Ess 編制的清單,自網路檔案下載了20246月至今年8月間93,268 則對話。分析以英文為主要語言的47,000則對話,偵測語言工具是使用 langdetect。華盛頓郵報整理了47,000則公開分享的 ChatGPT 對話,並試著找出人們求助於這款聊天機器人的原因,以及它在許多人生活中所扮演的角色。

每週有超過8億人使用ChatGPT,開發公司OpenAI表示,人們與AI聊天機器人的對話是私密;不同於社群媒體,外界幾乎無從得知人們如何使用這項服務,或 ChatGPT 對他們說了什麼。ChatGPT回答的問題從個人美容建議到感情協助,再到哲學問題可說是無所不包。

OpenAI 九月發布的一項內部研究資料顯示,多數查詢是為個人用途,而非工作。情緒性的對話在此份分析中也很常見,使用者經常分享高度私密的生活細節。在部分對話中,可以看見 AI工具配合使用者的觀點,形成一種類似同溫層效應,也使得ChatGPT支持錯誤資訊及陰謀論。

這些對話來自ChatGPT使用者自行產生的分享連結,並被保存於網路檔案。分析這些對話同時發現AI工具的語言使用模式;使用者抱怨ChatGPT易於附和。華盛頓郵報發現,它以「yes」類似語句開頭的次數是以「no」開頭的10倍。

35%使用AI工具搜尋特定資訊,13%使用AI工具於沉思與抽象討論,約有10%的對話呈現人們向聊天機器人傾訴情緒,儘管許多人覺得與ChatGPT討論情緒有幫助,心理健康專家警告,與聊天機器人進行深度情緒對話的使用者可能加深危險的信念。這種現象有時被稱為「AI精神病」(AI psychosis),此名詞並非正式精神醫學診斷。

OpenAI估計每週約有0.15%的使用者(超過一百萬人)呈現出對聊天機器人的情感依賴跡象。該公司表示類似比例的使用者呈現出潛在的自殺意念。已有數個家庭提起訴訟,聲稱 ChatGPT 鼓勵他們的親人結束生命。OpenAI 的發言人Kayla Wood說:「我們訓練 ChatGPT 辨識與回應心理或情緒困擾的跡象,降低對話強度,並引導人們尋求現實世界的支持,且與心理健康專家密切合作。」

OpenAI與其他AI開發者在遏止聊天機器人做出不實或幻覺式陳述方面已有進展,但問題仍未完全解決。OpenAI 在其網站上的 ChatGPT 對話頁底部以小字標示:「ChatGPT 可能會犯錯。請檢查重要資訊。」

超過 10% 的對話涉及政治、理論物理或其他主題;在研究檢視的對話中,ChatGPT 通常不是辯論夥伴,而是順著使用者觀點的支持者。且當面對某些提出離奇陰謀論或與現實脫節信念的使用者時,ChatGPT 的回應同樣呈現出這種「附和」語氣。AI 研究者發現,讓聊天機器人顯得更有幫助或更吸引人的技巧,可能導致它變得諂媚,利用對話線索或使用者資料塑造迎合性的回答。

 

全文請見:

https://www.washingtonpost.com/technology/2025/11/12/how-people-use-chatgpt-data/

 

回索引頁