TikTok如何運用20億美元提升安全防範AI假資訊

“`html

你所看到的短影音,究竟是真是假?TikTok如何應對AI假資訊巨浪

你是否曾想過,在社群媒體上看到那些維妙維肖、甚至有點難以置信的影片,究竟是真是假?隨著人工智慧(AI)技術的飛速發展,特別是能生成逼真影音的「深偽」(Deepfake)技術普及,我們所處的數位世界正被前所未有的挑戰衝擊。短影音平台巨頭 TikTok,這個全球數十億用戶日常瀏覽的平台,也正面臨這股資訊洪流的巨大考驗。

近期,TikTok 宣布將每年投入高達 20億美元 提升平台安全,其中一個核心策略就是自動標記AI生成的內容,以減少深偽和假資訊的傳播。這項舉措不僅展現了 TikTok 對抗假資訊的決心,也為整個數位媒體產業在AI時代的內容治理樹立了新的標竿。今天,我們就來好好聊聊,TikTok 究竟打算怎麼做,以及面對AI生成內容,身為使用者的我們又該如何保護自己?

TikTok 短影片虛假資訊示意圖

TikTok的巨額安全投資與核心技術防禦

面對AI內容帶來的挑戰,TikTok 選擇了正面迎擊,並且承諾每年砸下20億美元用於強化平台安全。這筆鉅額投資並非只是紙上談兵,而是有具體的技術應用與策略佈局。

其中最引人注目的,就是全面推動 AI生成內容的自動標記。TikTok 採用了由Adobe主導的「內容憑證」(Content Credentials)數位浮水印技術。你可以把「內容憑證」想像成是數位內容的「出生證明」或「身分證」,它能像數位浮水印一樣,附著在圖片和影音上,詳細記錄這份內容的創建過程、是否經過AI處理等資訊。當你在 TikTok 上看到AI生成內容時,平台會自動在這些影片上添加標籤,讓用戶一眼就能辨識出它並非真實拍攝。

這項功能目前已開始推展於圖片和影音內容,並且計畫擴展到純音訊內容。除了技術的自動標記,TikTok 也要求內容創作者,如果使用應用程式內建的AI特效,或是以任何形式使用真實的人工智慧來生成內容,都必須自主標示。這兩道防線,是 TikTok 在技術層面抵禦深偽和假資訊傳播的重要措施。

TikTok 平台安全技術示意圖

以下是TikTok在平台安全上的主要投資方向:

  • 強化AI內容自動標記系統,以識別和標註AI生成的內容。
  • 擴大內容審核團隊,提升人工審核效率與準確性。
  • 與全球科技公司合作,建立內容真實性標準和溯源機制。
年度 投資金額(美元) 主要用途
2022 10億 AI內容識別技術開發
2023 20億 全球內容審核團隊擴充
2024 25億 跨平台合作與內容真實性倡議

AI內容濫用的現狀與審核挑戰

儘管有先進的技術防線,AI生成內容的濫用問題依然層出不窮,對平台安全構成巨大威脅。你可能也看過一些難以辨別真偽的AI生成影片,例如,去年在 TikTok 上爆紅的「巨型森蚺」影片,儘管視覺效果極其逼真,獲得數千萬次觀看,但它實際上卻是由人工智慧創造出來的虛假內容。

這些AI內容之所以令人擔憂,不只在於其真假難辨,更在於它們被有心人士用於散播惡意訊息。例如,有部分AI內容缺乏明確聲明,導致用戶誤信為真實事件,進而引發社會恐慌或誤解。更嚴重的是,AI技術也被濫用於散播仇恨言論種族歧視的內容,例如將特定人物描繪成動物,進行汙辱與誹謗。

深偽技術甚至能複製真實創作者的聲音和語氣,並以不同的AI人物呈現相同的腳本,造成資訊混淆,讓觀眾難以判斷內容的真實來源與意圖。面對每日海量內容的上傳,即使是TikTok這樣擁有強大技術和人力資源的平台,在內容審核上也面臨巨大壓力,導致部分違規內容未能及時被發現並移除。這就形成了一個「貓鼠遊戲」,平台不斷升級技術,惡意使用者也在不斷尋找漏洞。

AI 生成虛假資訊示意圖

以下是AI內容濫用帶來的主要風險:

  • 散播錯誤資訊,導致公眾誤解真實情況。
  • 影響選舉與政治穩定,破壞民主過程。
  • 激化社會矛盾,促進仇恨與歧視言論的傳播。
挑戰 影響 應對策略
辨識AI生成內容 用戶難以分辨真偽,增加誤信風險 推動自動標記技術,提升辨識工具
內容審核資源不足 違規內容未能及時移除,擴散範圍大 擴大審核團隊,提升審核效率
跨平台合作缺乏 不同平台之間資訊孤島,難以統一治理 建立產業聯防策略,共享資訊

產業聯防策略與政策環境的驅動

要有效打擊AI假資訊,單靠一個平台的力量是不夠的。TikTok 深知這一點,因此積極參與了多項跨產業合作,共同建立內容溯源與透明化的標準。TikTok 加入了由知名軟體公司Adobe主導的「內容真實性倡議」(Content Authenticity Initiative),這個倡議旨在推動產業共同建立一套能夠追蹤數位內容來源和編輯歷史的標準,讓內容的「身分證」更加透明可信。

更重要的是,TikTok 還與微軟(Microsoft)、Meta(臉書、Instagram的母公司)、Google(搜尋引擎巨頭)、亞馬遜(Amazon)、OpenAI(ChatGPT的開發商)等超過20家頂尖科技公司簽署了協議,承諾共同打擊2024年全球選舉期間的AI假資訊。這項協議顯示了科技巨頭們對於維護民主進程的共識與責任,也體現了在關鍵時刻共同應對挑戰的必要性。

值得注意的是,TikTok 推出這些平台安全策略的時機點,正好是其在美國面臨潛在禁用壓力的敏感時期。美國政府對TikTok的所有權與數據安全表達疑慮,甚至已簽署法案,可能導致 TikTok 在美國被禁用。在這樣的背景下,TikTok 大規模投資平台安全,並積極參與業界合作,除了是對抗假資訊的務實行動,也具備緩解監管壓力、重建其在國際社會數位信任的意圖。這不只是技術上的應對,更是一場企業形象與市場信任的戰略之戰。

產業聯防策略示意圖

合作公司 貢獻領域 合作項目
Adobe 內容憑證技術 數位浮水印與內容標記
Microsoft 雲端安全 共同開發安全審核工具
Google 搜尋引擎技術 優化內容真實性算法

用戶教育與數位素養的重要性

雖然 TikTok 大力投入資源提升平台安全,並與業界夥伴共同努力,但要完全杜絕AI假資訊的傳播,僅僅依靠平台審核和技術標記是遠遠不夠的。在人工智慧內容日益逼真的今天,身為使用者的「你」與「我」,提升自身的數位素養,學習辨識能力,顯得越來越重要。

試想一下,當AI生成技術已經能夠像OpenAI的Sora一樣,僅需文字描述就能生成一段令人驚豔的影片,我們該如何分辨真偽呢?這裡有幾個簡單的技巧,可以幫助你提高警覺性:

  • 內容重複且來源不明確: 如果你看到某段影片在不同帳戶間不斷重複播放,且沒有明確的來源或拍攝背景資訊,這可能就是AI生成的警訊。
  • 人物聲音或影像頻繁變化: 觀察同一帳戶或系列影片中人物的聲音、語氣或臉部表情是否頻繁且不自然地變化。深偽技術雖然強大,但在細節處仍可能露出馬腳。例如,語音聽起來像機器人,或人物臉部表情僵硬不自然。
  • 影片品質不尋常: 留意影片的解析度、光影、背景是否出現不協調或奇怪的模糊。AI生成有時仍難以完美複製現實世界的複雜細節。
  • 語法或語氣不自然: 如果影片中的對話聽起來像機器人,或出現不符合上下文邏輯的語法錯誤,也可能是AI合成的線索。

此外,以下是提升數位素養的幾個建議:

  • 定期更新對最新AI技術的認識,了解其運作原理與應用範疇。
  • 學習使用各種內容識別工具和插件,輔助驗證網路資訊的真實性。
  • 參與數位素養課程或工作坊,提升批判性思考與資訊辨識能力。

結語:一場沒有終點的「貓鼠遊戲」

TikTok 投入巨額資金提升平台安全,並引進AI生成內容自動標記技術,這不僅是其自身發展的關鍵一步,也為全球科技公司如何應對人工智慧時代的內容治理問題提供了重要範例。從技術防禦、產業合作到用戶教育,TikTok 的策略顯示了多管齊下的重要性。

儘管挑戰重重,AI假資訊深偽的威脅仍在不斷演進,這場與惡意內容的「貓鼠遊戲」仍將持續進行。然而,只要技術持續發展、產業協作日益緊密,並且每位用戶都能提升自身的數位素養用戶警覺,我們便能共同形塑一個更安全、更可信賴的數位資訊環境。

免責聲明:本文僅為針對特定議題的知識性與教育性分析,不應被視為任何形式的財務建議、投資建議或商業判斷。所有投資決策均存在風險,請務必進行獨立研究並諮詢專業人士意見。

常見問題(FAQ)

Q:TikTok如何識別AI生成的內容?

A:TikTok使用由Adobe主導的「內容憑證」數位浮水印技術,這項技術能自動標記AI生成的內容,讓用戶能夠輕易辨識其真實性。

Q:除了自動標記,TikTok還有哪些措施來防止假資訊傳播?

A:TikTok每年投入巨額資金提升平台安全,擴充內容審核團隊,並與全球科技公司合作,建立內容溯源與透明化的標準,以全面防禦深偽和假資訊。

Q:作為使用者,我該如何提升自己的數位素養以辨識假資訊?

A:使用者可以定期更新對AI技術的認識,學習使用內容識別工具,參與數位素養課程,並培養批判性思考與資訊驗證的能力,來有效辨識網路上的假資訊。

“`

Finews 編輯
Finews 編輯

台灣最好懂得財經新聞網,立志把艱澀的財經、科技新聞用最白話的方式說出來。

文章: 6901

發佈留言