If-you-let-you-use-AI-to-make-a-fake-news-article-generator-talk-to-transformer

如果讓你用AI來做一則假新聞-文章生成器Talk to Transformer-AI4kids

AI人工智慧可以完成很多任務,要進行大型的資料分類,AI 幫你看,若文章寫不出來,AI 幫你寫!你跟孩子們分的出是真是假嗎?

一名加拿大工程師 Adam King 利用 OpenAI 開源的程式碼,建立一個名叫TalkToTransformer.com (https://talktotransformer.com/)的網站,算是一個文字生成器的網站,在網頁中隨意輸入一串文字或是單字會產生一整段文章,不喜歡它產生的內容?再產生一次,一秒之內可以得到不同的寫法與內容。

雖然這個網站文字內容不限定只能輸入英文,只要是Google翻譯有的語言也可以一併撰寫,但實測結果除了英文的字句語意能通順、流暢,中文與其他語言幾乎無法撰寫或是跑出亂碼。網站還很貼心,現代人可能平時沒在創作,如果沒有什麼文字的靈感,還可以點選預設的內容產生看看,例如:去火星旅行需要打包什麼、會說英文的獨角獸。

家長可以帶著孩子點入網址嘗試看,因為可能需要英文輸入,可以先搭配Google 翻譯,一起進行這個活動,輸入一些不可能發生的事情,例如:台灣山區發現袋鼠蹤跡、氣象局預測在2020年五月將會有世界級大地震,震央在台中!會發生什麼事情呢?

20230712_content_057_Talk-to-Transformer_600x600

「台灣山區發現袋鼠蹤跡」的文章開頭使用類似新聞標題方式開頭,說明在台灣山區發現袋鼠的案例越來越多!徹底學到現代台灣社會新聞的精隨,內文並不交代來龍去脈,而是找路人訪談,提及一名婦女不想公開姓名,最近40年內她發現台灣袋鼠體型越來越小隻,且昨天在山裡看到一隻很大隻的男性袋鼠。這邊就前後邏輯有點不對,首先台灣沒有袋鼠不說,一會體型變小,但又在山區看到更大隻的袋鼠?接著說明,在某個農場發現的與大型的袋鼠特徵不是大下巴。語意跟文章結構些許斷斷續續,有點不確定重點是什麼,蠻容易發現這是假的文章,但如果加以修飾,可以成為罐頭新聞的可能性也相當高。

那我們再產生一次,結果這次只得到簡短的事實:袋鼠住在台北動物園。

被AI 發現我們的句子是假消息了!

20230712_content_057_Talk-to-Transformer2_600x600

 

接著,試試看「氣象局預測在2020年五月將會有世界級大地震,震央在台中!」呢?

20230712_content_057_Talk-to-Transformer3_600x600

得到結果開頭還附上一個類似相關資料的網址,並列舉許多條類似像新聞大綱的短文,例如日本發布警報說明地震會造成海嘯,但卻沒有證據顯示地震會在日本?

2010年五月時有芮氏7.0的地震發生在台灣,跟日本大地震同個月份,板塊移動位置相同,但沒有互相影響。這邊就可以發現是AI瞎掰的假訊息,因為日本大地震是發生在2010年的3月11日,並不是發生在五月,當年三月台灣有發生高雄大地震,但為芮氏規模5.7。

再產生一次,這次產生的格式不同,且更像一篇新聞。說明某個台灣官方單位,簡稱TAO(The Taiwan Office),事實上沒有這個單位,此單位宣稱台灣在2020年五月將會發生大災難。整體文章開始解釋地震的事件歸類了,與TAO定義這次地震在台中,好像敘述此地震是一個「活動」,仔細看,其實可以發現破綻百出。

20230712_content_057_Talk-to-Transformer4_600x600

網路上有許多案例,顯示這個網站可以產生許多以假亂真的文章,例如川普宣布與俄羅斯開戰,內文提到許多重量級的國防部人物,或是加入參考文獻維基百科等等,讓文章顯得更「真實」。這個網站也引發大家對於AI技術的關注,因為電腦已經幾乎具備快速撰稿的能力。

20230712_content_057_Talk-to-Transformer7_600x600

這時候你可以跟孩子多在這個網站試試一些字串,來看看能不能產生厲害的假新聞,該用什麼字串讓AI更好產生你想要的文章,又如何從文章中找出邏輯或資訊不正確的破綻,並教導孩子看到新的資訊時都要查證的態度。

回到上方的案例,要如何查證資訊是否正確?例如真的到氣象局的官方網站查詢,或是一些政府機關的官方網站,例如動物園網站的動物介紹或者是Discovery、動物星球等專業頻道跟期刊,你就可以知道台灣沒有袋鼠,從比較可靠的資訊來源來查證來路不明的資訊。與孩子共學如何使用AI新技術之外,可以跟孩子討論AI技術帶給人類的效益,並加強資訊審核的能力。

接著來了解這個網頁背後運作的方式,Talk to Transformer 使用的是 OpenAI 在2019年2月開放出的GPT-2,是一個擁有15億參數的自然語言處理(NLP)模型,能夠根據使用者給出的一段文字、一句話,甚至是一個單字,接續內容寫出符合文法的連貫文案。

當時發表此AI研究成果時,OpenAI 並沒有像一般業界慣例的開源,只象徵性地公開了一部分的模型,不到全部參數的十分之一的1.17億參數版本。據說因為公司認為此成果的模型功能太過強大,怕被有的人士拿去做不良的應用,例如:編造假新聞,可能會破壞這項研究的初衷。

但此發表卻引來許多爭議,許多人認為此版本的GPT-2的效果比官方展示的效果差了很多,讓一些人認為 OpenAI 只是在製造噱頭,還嘲諷他們是假AI。不過今年在5 月初,OpenAI 公開更多的模型參數,提升到了3.45 億,還宣布向AI 業界合作夥伴開放7.62 億和15 億參數模型,供他們研究和參考,共同推動NLP 技術的發展。這也大大提升此模型的成效,可以明顯看到此模型的威力。

20230712_content_057_Talk-to-Transformer8_600x600

因為OpenAI 將GPT-2 模型開放在了GitHub 上,所有人都能取用,因此加拿大工程師 Adam King 以此建立了TalkToTransformer.com (https://talktotransformer.com/),這個網站也讓普遍大眾能輕易的接觸到AI的新技術,同時也增加風險,萬一這個網站被有心人士佔有,或是取得更多模型參數後,利用其中的文章在網路上散布假消息,社群網站能抵擋嗎?

在現代社會中,人們對於新聞視讀的能力逐漸退化,常常會不小心受到社群軟體的影響與渲染,如果這時候有許多以假亂真的資訊混如其中,也許會造成第三次世界大戰也說不定。之前特斯拉創辦人馬斯克就曾經警告大眾,高級AI技術可能會造成外交危機。

水能載舟,亦能覆舟,AI人工智慧的新科技研發日新月異,如何在這些新科技中訂定新的道德標準與人們對於資訊須具備視讀與審視的能力也相當重要,如同科幻影集《黑鏡》所展示的,當科技操縱你的人生而非你操縱科技時,會將你吞噬,AI 能帶給人們多少正面或是負面的影響呢?就看你與孩子們的造化了!

 

>>點我 查看更多AI專題線上課程

想了解更多?點擊按鈕獲得更多資訊!

更多相關文章

返回網誌