用ChatGPT寫論文,產生的學術不端風險不容忽視
科技日報 | 作者 張 曄
針對用ChatGPT寫論文所產生的便捷與風險并存情況,專家表示——須對AI技術進行制度規范和約束以ChatGPT為代表的生成式人工智能技術,依靠其強大的文本生成能力,早已經無可避免地滲入到了寫作領域。當人們還在驚嘆于AI文章的流暢結構、精準表達之時,有一部分人已熟練地把ChatGPT當作撰寫學術論文的工具。
日前,江蘇省科技廳監督評估處處長顧俊在做客江蘇廣電總臺新聞頻道《政風熱線》時回應稱,將組織開展科技人員公開發表論文的自查和抽查,并開展科技倫理審查,引導科技人員提高誠信意識。那么,ChatGPT等生成式人工智能技術究竟能否用于學術論文寫作?如何防范AI技術濫用帶來的學術不端現象?科技日報記者采訪了相關主管部門工作人員和業內學者。
產生的學術不端風險不容忽視不能否認,ChatGPT能生成連貫的、有邏輯性的文章,并給人們的工作和生活帶來了便利。但是,由此產生的學術不端風險不容忽視。國外已有研究人員發現,ChatGPT所給的回答都是基于它模型訓練的海量數據,有時可能會限制人們的思維,甚至有些回答并不準確,比如只選擇有利于自己觀點的數據進行佐證,忽視其他數據。
12月1日,《科技倫理審查辦法(試行)》正式實施,記者查詢后并未在其中找到與生成式人工智能技術相關的條款。目前,國內相關部門和科研組織對ChatGPT寫論文的規定還未明確細化,但是不論以何種方式,只要出現抄襲、剽竊、造假等學術不端行為,都是嚴查重罰的對象。
11月24日,國家自然科學基金委員會公布了2023年第二批不端行為案件的調查處理結果,數量最多的不端行為是抄襲、剽竊、偽造各種信息,總數達15人,占比62.5%。記者了解到,國內已有省份對科研論文進行有針對性的抽查,重點檢查抄襲、造假和重復發表等學術不端現象,雖然沒有專門針對ChatGPT,但是這些問題都有可能與之相關。江蘇省科技廳監督評估處相關負責人說,將進一步加強科技倫理審查。
同時,要求各單位對所發表的學術論文進行學術不端問題自查和清理,科技部門不定期組織開展主動抽查工作,不斷更新學術不端治理程序和標準。該負責人表示,防范AI技術濫用帶來的學術不端,將是科技管理部門今后重點監管內容之一。目前,國內已有科研單位在開發相應軟件,用于AI寫論文的查重工作,今后想利用ChatGPT寫論文獲得榮譽獎勵和科研項目將越來越難。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。