ChatGPT風險!學者憂:內容被特定團體操控「需要人工檢驗」

▲▼ChatGPT,Sam Altman。(圖/達志影像/美聯社)

▲學者提醒,ChatGPT可能被特定團體操控,透過訓練用資料庫去影響AI生成內容。(圖/達志影像/美聯社)

記者許敏溶/台北報導

人工智能AI聊天機器人程式ChatGPT爆紅,但也讓外界擔心衍生相關疑慮,學者今(30日)指出,生成式AI未來勢必改變人的行為,可用於整理文獻、修改程式等,讓研究者專心聚焦於創新,但也可能被特定團體操控,透過訓練用資料庫去影響AI生成內容,因此需要人工檢驗內容,並思考如何突顯自我的創新與價值。

教育部台灣學術倫理教育資源中心在今(30日)舉辦「生成式AI對研究與學術倫理的影響」線上講座,邀請國家衛生研究院分子與基因醫學研究所長孫以瀚、陽明交通大學副校長周倩、成大外國語文學系主任劉繼仁等人,分享生成式人工智慧技術(AI)與學術研究及學術倫理的議題,吸引約4000位民眾線上觀看。

[廣告]請繼續往下閱讀...

孫以瀚首先指出,生成式AI是一個具革命性新工具,未來勢必改變人的行為,人必須調整以適應及利用AI,而生成式AI可用於整理文獻、修改程式、修改英文,可讓研究者減少投入心力,讓研究者專心聚焦於創新,但另一方面,AI也可能被特定團體操控,透過訓練用資料庫去影響AI生成內容,因此需要人工檢驗內容,並思考如何突顯自我的創新與價值。

周倩則用學術研究中誠信原則,談生成式AI對學術倫理的影響,周倩表示,生成式AI並不能作為學術研究發表的作者,基於學術倫理誠實及透明原則,研究成果應該要公開,以善盡研究者的社會責任,因此在學術研究中使用生成式AI工具應適當揭露,目前部分學術出版商已針對生成式AI發布相關政策,研究者在使用此類工具時,應先瞭解目前學術出版的相關規定,並符合學術發表的規範。

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面