摘要: 原標題:Deepseek亂編坑慘大學生?這個話題上熱搜!有救了 在人工智能飛速發(fā)展的當下,對于廣大學生和科研工作者而言,一個關鍵問題隨之而來:借助這
原標題:“Deepseek亂編”坑慘大學生?這個話題上熱搜!有救了……
在人工智能飛速發(fā)展的當下,對于廣大學生和科研工作者而言,一個關鍵問題隨之而來:借助這樣的前沿大模型寫論文,真的靠譜嗎?
3月28日,話題#防止DeepSeek亂編文獻的方法#沖上熱搜。記者注意到,用AI工具寫論文“被坑”的經(jīng)歷,并非鮮見。
問AI一個問題,它給了你一個特別詳細、豐富,看上去好有邏輯的答案。但當我們去核實時,卻發(fā)現(xiàn)這些信息完全是虛構的?這就是著名的“AI幻覺”現(xiàn)象。
AI幻覺指的是AI會生成看似合理但實際確實錯誤的信息,最常見的表現(xiàn)就是會編造一些不存在的事實或者細節(jié)。
據(jù)“科普中國”,造成AI幻覺問題的成因很多,例如:基于統(tǒng)計關系的預測;訓練數(shù)據(jù)的局限性;過擬合問題,即因為記住了太多錯誤或者無關緊要的東西,從而讓AI對訓練數(shù)據(jù)中的噪聲過于敏感;有限的上下文窗口;生成流暢回答的設計等等。
近日,中國青年報邀請了3位專家學者,一起聊聊技術浪潮中如何守護年輕人的思辨能力。
中國人民大學新聞學院教授盧家銀就指出,在知識建構上,AI生成的虛假學術成果,可能扭曲青年對科學方法論的理解,削弱其“假設-驗證”的科研邏輯訓練。在思維發(fā)展上,AI謠言通過算法推薦的“信息繭房”形成邏輯閉環(huán),不利于批判性思維的培養(yǎng)。
北京師范大學教育學部教授、教育技術學北京市重點實驗室副主任李艷燕建議,年輕人可以把AI看作一位平等對話的智者,通過引導與AI的對話互動,促進個體思維鏈的形成,并校準認知偏差。這種去權威化的思辨訓練,可以幫助年輕人在與AI的對話中保持獨立判斷,實現(xiàn)認知躍遷。
北京郵電大學馬克思主義學院副教授宋林澤認為,AI輸出的內容只是一個認知起點,而不是終點。大學生需要主動去驗證它的內容,比如查閱權威來源、對比不同觀點,甚至直接與領域專家交流。這種驗證過程,不僅能幫助我們更全面地理解問題,還能讓我們在面對復雜信息時更有判斷力。
如何應對AI幻覺呢?
AI工具研究者田威提到,想要獲得準確答案,提問方式很關鍵。與AI交流也需要明確和具體,避免模糊或開放性的問題,提問越具體、清晰,AI的回答越準確。
總結成提示詞技巧就是下面四種問法:
1.設定邊界:“請嚴格限定在2022年《自然》期刊發(fā)表的研究范圍內”;
示例:“介紹ChatGPT的發(fā)展歷程”→“請僅基于OpenAI官方2022-2023年的公開文檔,介紹ChatGPT的發(fā)展歷程”
2.標注不確定:“對于模糊信息,需要標注‘此處為推測內容’”;
示例:“分析特斯拉2025年的市場份額”→“分析特斯拉2025年的市場份額,對于非官方數(shù)據(jù)或預測性內容,請標注[推測內容]”
3.步驟拆解:“第一步列舉確定的事實依據(jù),第二步展開詳細分析”;
示例:“評估人工智能對就業(yè)的影響”→“請分兩步評估AI對就業(yè)的影響”:
1)先列出目前已發(fā)生的具體影響案例;
2)基于這些案例進行未來趨勢分析”。
4.明確約束:明確告訴AI要基于已有事實回答,不要進行推測。
示例:“預測2024年房地產市場走勢”→“請僅基于2023年的實際房地產數(shù)據(jù)和已出臺的相關政策進行分析,不要加入任何推測性內容”。(詳細請戳全文)
在AI自己的答案中提到,可以通過指令約束、工具驗證和人工審核三重保障,大幅降低AI虛構文獻的風險。值得注意的是,它還將“人工審核”放到了“最后防線”的重要位置。
田威提醒,AI幻覺并非沒有好處。有時候與其把AI幻覺當成缺陷,不如把它看作創(chuàng)意的源泉。在寫作、藝術創(chuàng)作或頭腦風暴時,這些“跳躍性思維”反而可能幫我們打開新世界的大門。
AI幻覺的本質——AI在知識的迷霧中,有時會創(chuàng)造出看似真實,實則虛幻的“影子”。但就像任何工具一樣,關鍵在于如何使用。
歸根結底,在這個AI與人類共同進步的時代,重要的不是責備AI的不完美,而是學會與之更好地協(xié)作。
原標題:數(shù)看應屆生就業(yè):大專生跑贏本碩博? 近年全國普通高校畢業(yè)生規(guī)模
觀察2025-03-29 16:05:14