傅瑞德的硬派行銷塾

Share this post

AI寫出來的東西,未來可能影響我們的認知

hardcopy.cafe
商管評論

AI寫出來的東西,未來可能影響我們的認知

AI寫出來的東西越來越像樣,甚至跟真人寫的東西已經難以分辨。這樣的進步當然可以幫人類做很多事情,但在它發展健全之前,我們也要小心一些事情,不要被表面的華麗給蒙蔽了。

傅瑞德
Jan 30
Share this post

AI寫出來的東西,未來可能影響我們的認知

hardcopy.cafe

原載於2022年12月6日《

F大叔的日常通信
》。

我前兩天寫了〈身為行銷文案人,AI寫作能幫你做什麼?〉這篇文章:

傅瑞德的硬派行銷塾
身為行銷文案人,AI寫作能幫你做什麼?
這兩天,以GPT-3技術為基礎的「AI自動寫文案」功能成了十分熱門的話題;許多人都競相出題目讓人工智慧生成文章,而有些這類文章還真的寫得有模有樣。例如:…
Read more
4 months ago · 4 likes · 1 comment · 傅瑞德

其中分析了一下目前人工智慧(AI)自動產出文章的問題與機會。今天則看到了來自對岸網站《少數派》的報導:

Stack Overflow 禁用 ChatGPT

12 月 5 日,程序員問答社區 Stack Overflow 發佈臨時規定,禁用 ChatGPT 生成答案。主要原因是社區內大量湧入使用 ChatGPT 生成的答案,這些答案雖然看起來合理,但大多數時候是錯的,會對社區造成負面影響。社區表示正式的對策還需要進一步討論,但目前如果用戶發佈了採用 ChatGPT 生成的答案,無論答案是否合理,都將遭到社區處理。

雖然AI現在「很會講話」是一大進步,但如同我先前在文章中擔心的:

AI也有很多很正確、而且令人驚艷的答案,但這種「一本正經、但對錯難辨的不確定性」才是真正的問題所在。

可以想像的是,之後會有許多AI生成的答案充斥問答網站(回答賺點數)、社群網站(廉價帶風向)、甚至媒體(特別是快速產出文章賺點閱的農場),到時候這些表面看不出對錯的文字,就可能搞壞人們的腦袋認知。

至於先前文章中也說過的「真人檢視」和「當責」兩個使用原則,當然就不會在這類文字的考量裡面了;而這些可能就是下一代人每天吃的知識零食、甚至正餐。

當然,真人寫的「對錯難辨文章」也有一樣的問題,不全然是AI的錯;但以AI生成文章的速度、以及連接資料的廣度,都不是幾個埋頭苦幹的真人比得上的。

更重要的是,人的閱讀時間和注意力是有限的;如果閱讀環境中有著大比例的AI文章(因為產生太容易、門檻太低),其他的文章會被輕易的「洗」掉,排擠效果會讓它們的影響力更加明顯。

我一直主張對AI作品必須保留謹慎態度、不要盲目追捧,不是因為輕視它們;相反的,而是因為它們(將會)很厲害。

(當然AI生成文字有很多用處、也有很多優點,我的前文中也有討論到;但比起這些「錦上添花」的優點,在「AI反向事實查核工具」問世之前,我們還是多盡一下人類頭腦的責任比較好。)

  • 前篇:〈身為行銷文案人,AI寫作能幫你做什麼?〉

  • 續篇:〈「專家系統」取代的可能不是專家,而是你〉


如果您想贊助單篇文章,請利用這個QR Code、或是按這個連結!
Share this post

AI寫出來的東西,未來可能影響我們的認知

hardcopy.cafe
Previous
Next
Comments
TopNewCommunity

No posts

Ready for more?

© 2023 傅瑞德和朋友們
Privacy ∙ Terms ∙ Collection notice
Start WritingGet the app
Substack is the home for great writing