[新聞] 還在用ChatGPT寫作業?!教授曝露餡3大敗筆

看板AfterPhD (博士後)作者 (逍遙山水憶秋年)時間1年前 (2023/08/13 20:47), 編輯推噓2(314)
留言8則, 4人參與, 1年前最新討論串1/1
還在用ChatGPT寫作業?! 教授曝露餡「3大敗筆」 台視新聞 2023.08.11 21:49 ChatGPT今年爆紅,許多人開始將它應用在工作或生活中,提升效率,不過卻有學生動歪 腦筋,利用ChatGPT寫作業,自己只要複製貼上就能輕鬆交差。不過教授們直言,其實他 們一看就知道,內容是不是出自學生本人,也點出以AI完成的作業,最容易露餡的三大敗 筆。 AI產出內容乏味 零錯誤、沒活力「像50歲律師」 AI是現代人的重要幫手,卻有大學生利用ChatGPT寫作業,交差了事,以為神通廣大,殊 不知都被教授一眼識破。就有網友表示,自己班上有半數同學被抓包,教授們也公開, ChatGPT寫出來的作業,最容易露餡的三大敗筆。 阿巴拉契亞州立大學哲學系教授克里斯多福‧巴托就說,AI產出的內容不會有錯,但很機 械、很乏味,不會有人這樣說話,「AI作業看起來作者像是一位很聰明,但沒上過我的課 的人」。 文章中完全不見錯誤,反而不符合人性,字裡行間也沒有學生的影子,明顯就是出自機器 人之手。 普林斯頓大學講師史提夫‧克爾特斯也表示,「ChatGPT內建的語氣,就像一名50歲的合 格律師,似乎少了活力,缺乏真實學生的語氣跟經驗」。 有說服力但卻是錯誤內容 「AI幻覺」難辨真假 而最大問題是人工智慧幻覺,AI會產出看似很有說服力,但卻是錯誤的內容。北密西根州 大學哲學系教授安東尼‧歐曼指出,AI會用完美的文法寫出明顯是錯誤的內容,因為它無 法分辨事實和虛構,也無法分辨資訊和假資訊。 也有教授坦言,有時AI產出的錯誤內容,逼真到連學者都沒把握誰對誰錯,同時也提醒, 以ChatGPT代勞,不僅會喪失思考機會,對學習更是一大損失。 國際中心/劉人豪 編譯 責任編輯/林均 https://news.ttv.com.tw/news/11208110041600M -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.176.190.76 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/AfterPhD/M.1691930863.A.EE0.html

08/13 21:05, 1年前 , 1F
投論文會上就好,其他不care
08/13 21:05, 1F

08/13 21:29, 1年前 , 2F
平常教室和期刊 在意書寫者的個性嗎XDD
08/13 21:29, 2F

08/14 13:37, 1年前 , 3F
我也覺得專業論文比學生作業難抓,寫得太四平八穩真的不
08/14 13:37, 3F

08/14 13:37, 1年前 , 4F
像學生寫的 XD
08/14 13:37, 4F

08/15 01:49, 1年前 , 5F
最近投稿上了某頂尖雜誌,他說因為五個評審給我們論文r
08/15 01:49, 5F

08/15 01:49, 1年前 , 6F
ank前10%,所以可以當封面,最後給他圖時,他要求不可
08/15 01:49, 6F

08/15 01:49, 1年前 , 7F
以是AIGC出來的圖,我很好奇,AIGC出來的,跟給外面廠
08/15 01:49, 7F

08/15 01:49, 1年前 , 8F
商做的,都沒啥智慧財產權問題啊?怎就不行呢
08/15 01:49, 8F
文章代碼(AID): #1asD3lxW (AfterPhD)
文章代碼(AID): #1asD3lxW (AfterPhD)