Influence Operation在ChatGPT出現後,會有怎樣的變化?
Mar 23, 2023
由於研究所的題目在內容農場在影音平台上的溯源,看了gpt4技術報告關於disinformation 的部份,以及OpenAI CEO 在ABC的專訪,有一題問了可能的最糟後果,CEO Sam Altman第一個就提到了大規模disinformation,激起我想要整理一下自己的想法,基於近期閱讀的資訊與觀察綜合如下。
- 隨著AIGC(AI Generated Content)成熟,尤其在文字上,未來製造disinformation或是「劇本」越來越容易。多樣化與無人化導致的大量生成,從文本上的辨識,將會非常困難,人類或機器都很難辨識,行為上比較有可能辨別。不過在影像上,似乎還是有看到辨別或是干擾的方法,但對影像的生成
- 另外是基於文字的回答與解釋,ChatGPT做得很好,但目前在推理較弱,以及可能提供似是而非的回答,如果沒有像是Bing這種結合搜尋引擎的解決方式,在需要較嚴謹的領域,如論文引用等,還需要更多工具的結合,但在可以快速驗證如程式的領域,因為可以直接運作,幫助會更直接。
- 上一次 disinformation被大量關注應屬劍橋分析事件,後續催生了許多法規,所有社群平台也更注重隱私,資料更難以取得、第三方cookie消失、GDPR等,造就了某種程度的管制,但隨著ChatGPT的到來,雖然設計者可以透過某些方法管理,但並不如過去可以直接從源頭規範,在黑盒子中,怎麼調整、微調,並不是這麼直接,也看到許多人突破封鎖,但在整體樂觀的氛圍中,很可能要出事之後,人們才會開始重視與管理,那會是下一個美國或是歐洲的選舉嗎?
- 就目前觀察到的狀況,網頁版的內容農場(文字),搜尋引擎跟社群平台已經有了很好的管制,目前大量出現的是,把文字轉成影片後,用類似主播念稿的方式大量傳播,從一開始最粗糙的機器人假主播,目前人聲已經模擬得很好,可能在成本考量下,deepfake並未大量出現,頂多看到小範圍的案例,但或許在成本逐漸下降後,抑或平台有更好的監管,才會有更細緻的操作,但若是短文本如Line的謠言撰寫,很容易透過ChatGPT快速撰寫與針對目標自動化。