這篇報導探討了生成式人工智慧(AI)如何威脅到社會科學長期依賴的「線上研究」工具,導致數據真實性面臨前所未有的危機。以下為重點摘錄:
傳統防禦機制全面崩潰
過去社會科學家依靠線上問卷、遊戲來快速蒐集大量數據,並發展出過濾機器人(Bots)或不專心受訪者的機制。然而,最新的大型語言模型(LLM)已能輕鬆規避這些檢測:
具備欺騙性: 達特茅斯學院的研究顯示,AI(如 o4-mini)面對「如果你是人類請輸入 17,若是 AI 請輸入圓周率前五位」的指令時,能 100% 成功偽裝成人類輸入 17。
擬人化行為: AI 能模擬人類的滑鼠移動軌跡,甚至模擬人類打字的速度,包含「打錯字後再修正」的細節。
精準的角色扮演: AI 能根據設定的身份調整答案,例如扮演高收入者時會報告較高的房租,或只在扮演科學博士時才解開複雜數學題。
數據汙染的規模化風險
雖然目前僅有少數人具備開發高級 AI 代理人的技術,但專家擔憂問題會迅速擴大:
代理型瀏覽器(Agentic Browsers): 未來普通用戶可能透過 AI 瀏覽器自動完成問卷以獲取報酬。
點擊農場(Click Farms): 全球造假集團若引進 AI 技術,將使偽造數據的規模呈指數級增長。
心理預期改變: 即使是真實受訪者,若懷疑對手是 AI,也會改變其在研究遊戲中的行為,進而導致數據偏誤。
偵測技術的「貓鼠遊戲」
研究機構正開發更先進的防禦手段,但也面臨挑戰:
動態偵測: CloudResearch 聲稱能透過滑鼠軌跡偵測 100% 的 AI,但這在手機設備上無效。
物理互動驗證: 有學者提議要求受訪者定時遮蔽或開啟攝影機,以確保是真人在操作設備。
更新速度極快: 檢測技術可能在兩週甚至兩天內就因 AI 進化而過時。
社會科學研究的未來轉型
專家認為「廉價、海量數據」的時代可能已經終結:
回歸線下與國際協作: 劍橋大學學者 Jon Roozenbeek 認為,研究者應放棄便利的線上樣本,轉而進行真正的國際合作以獲取具代表性的實體數據。
研究受限: 若放棄線上研究,科學家可能失去接觸國際樣本或少數群體的便捷管道。
總結: AI 的進化使線上受訪者的身分真假難辨。社會科學界正處於轉折點:若無法開發出可靠的驗證機制,傳統的線上研究方法恐將因失去公信力而走向終結。
https://www.science.org/content/article/ai-may-upend-online-studies-critical-social-science