你還記得,曾經有句俗語「有圖有真相」嗎?在網路剛興起的時候,許多假新聞、假消息在網路上流傳,唯有拍到照片、眼見為憑,才能證明事情的真相。
但隨著科技進步,Photoshop等修圖軟體開始成為主流後,即便是照片也無法證明消息的真實性。網路上有許多造假的照片和影片,例如把一片披薩修改成一位性感的泳裝美少女,或是把照片中男女雙方背後的人群都修掉,這些都顯示,將一張照片修改成完全不同的內容是多麼容易的一件事,照片已經不能代表真實性。
然而影片的修改難度遠遠大於圖片,因此在過去幾年來,影片已經成為衡量真實性的標準。但在2019年,影片將不再是真實性的黃金準則了。透過人工智慧,「Deepfake」這個圖像合成技術,可以以假亂真的偽造影片的主角,製作出幾乎無法辨識的假影片。
Youtube上有個經典作品你一定有看過,透過Deepfake的技術,它將美國前總統歐巴馬的臉合成許多虛構的影片,讓歐巴馬講出一連串好笑、無理頭的話。
Deepfake最早出現於2016年,之所以叫做Deepfake,是因為在2017年,美國最大網路論壇Reddit當中,有一位代號叫做Deepfake的使用者,他利用AI軟體偽造色情影片,把明星的臉移植到色情影片裡,並將這些影片上傳到論壇。自從那次的事件後,許多人開始利用類似或是更先進的技術,製造出各式各樣的Deepfake影片。
Deepfake是利用Google的AI工具TensorFlow所延伸出的應用。我們知道,任何人工智慧都是透過機械學習的方式,在被輸入大量的資訊後,尋找出特定的規律或輸出結果。Deepfake的學習方式也是一樣,它利用人工智慧深度學習的一種神經網絡CNN (Convolutional Neural Network)卷積神經網路訓練人工智慧,它的硬體設備要求不高,只要你的電腦可以打電動,也搭載了GPU繪圖處理器,就可以成功使用Deepfake的演算法。
Deepfake的基本概念非常簡單,假設我們想要把A、B兩個人的臉在影片內互換,首先,我們得先替A和B分別創造出一個編碼器和解碼器。我們把A、B兩人現有的臉部影像分別輸入到不同的編碼器,編碼器的目的,是透過觀察A、B兩人的影像,找出他們的臉部規律。透過大量的影像資訊,編碼器可以學習一個人的臉在不同的燈光、角度和表情下應該長什麼樣子。
如果說編碼器是在眾多影像裡找到人臉的共通點,解碼器便是最後的畫家,它可以把編碼器學習出的規律畫出來。
在訓練人工智慧的時候,我們試圖讓解碼器畫出來的作品接近編碼器輸入的影像,藉此去衡量Deepfake人工智慧的成熟度。如果最後解碼器輸出結果越貼近原本輸入的影像,那麼這個Deepfake的擬真程度就越高。
在A和B兩人各自的編碼器和解碼器的輸入、輸出結果貼近之後,我們就可以開始替換影片裡的人臉,偽造出新的影片。假設我想把A的臉移植到B身上,只要把A的編碼器結果輸入到B的解碼器,從B的解碼器輸出的影像,主角B的臉,就會變成A。
要成功訓練出一個擬真的Deepfake人工智慧,需要大量的影像資訊,但如果偽造的對象是公眾人物的話,網路上大量流傳的影像其實非常容易取得。Deepfake的製造者可以透過早已成熟的人臉萃取技術,直接擷取網路影像裡的人臉,用這些大量資料訓練Deepfake。當然要做到幾乎100%擬真,讓人們完全無法分辨,還需要其他精細的技術,但隨著技術越來越發達,許多早期的Deepfake科技門檻已經降低,使得人們可以輕鬆偽造出許多影片。
如今,Deepfake已經可以做到十分逼真、輕鬆騙過一般民眾的假影片,而為了對抗Deepfake的假影片,工程師們開始研發出新的影片分析技術,一樣透過人工智慧的方式來辨別影片的真假。但是,對於那些偽造功力高強的影片,就算可以成功分辨出真假,也需要花費大量的運算時間。「Deepfake」和「偵測Deepfake」兩個人工智慧科技互相較勁,就像警察和搶匪,互相使用最新的科技試圖戰勝對方。
Deepfake的技術日新月異,但這項發明已經造成嚴重的問題。網路上流傳著許多女性公眾人物的色情影片,這些公眾人物包括記者、演員、歌手和主播,許多女權主義者也開始收到Deepfake影片的報復和威脅。雖然到目前為止,大部分的Deepfake影片都被證明是假的,但驗證的過程耗時費力,就算大型網站或平台移除這些造假影片,居心不良的網友們也會透過私下分享或重複上傳的方式不斷流傳。最後,這些影片變得真假難辨,對受害者的名譽造成很大的傷害。
在法律程序上,對Deepfake也缺乏直接的規範,因為大部分Deepfake仿造對象是公眾人物,有許多的影像早已在網路上流傳,「使用已經公開的內容來創新」在美國是合法的,並沒有侵犯著作權的問題。現在針對Deepfake的騷擾,美國法律只能以誹謗或偽造身分的罪狀訴訟,然而因為Deepfake的科技非常新穎,截至目前為止,還沒有成熟的法律和慣例來處理這類事件。
全球已經有許多公眾人物深受其害,隨著Deepfake技術日益成熟,未來的狀況只會更加嚴重。目前許多Deepfake的受害者都是女性,男性大多只是被假造成好笑的娛樂性影片,但以Deep Fake的發展,未來不肖人士完全可以利用Deepfake,偽造國家元首的影片,造成政治和經濟的動盪。目前全球的政壇已經充滿了假新聞和假消息,Deep Fake只會火上加油,加強假新聞的負面影響。
科技本身並沒有正義與邪惡之分,Deepfake的技術如果使用在娛樂媒體上,可以幫助電影和電動產業,製造出更擬真的情境,增加娛樂效果。一個技術最後的應用取決於使用者的心態和意圖,只可惜,Deepfake目前看來大多都應用在負面的場景。
它是Google公開的人工智慧平台的一種應用,也就是我們之前介紹過的「開源軟體」,然而Google目前不願意移除Deepfake所需要的軟體物件,因為Google表示,Deepfake只是眾多人工智慧應用的一種,移除這些軟體物件,將會大大的限制人們在發展人工智慧上的可能性。不過,許多人反對Google的立場,表示如果今天我們研發出一種病毒,這個病毒有可能治癒一些疾病,但也有可能變成高毀滅性的生化武器,那麼,我們就不應該公開這種病毒,把人們當成實驗室裡的白老鼠。
Deepfake從Google的程式平台,到受害者的法律訴訟,都一再顯示了法治跟不上科技的演進。人工智慧的潛力無限,但一個應用如此廣泛,可以深入到不同場景和產業的科技,需要嚴謹的立法來規範,否則後果可能會是人類所無法承擔的。任何科技都有正反兩面,需要受到社會的道德規範和教育,才能發揮正面影響力,否則隨著科技的進步,許多人只會拿來為自己圖利,結果將會造成社會大眾對科技的恐慌和不信任,失去大眾的信任,科技的發展也會大受限制。
許多人喜歡轉發訊息,想要確保周圍的親朋好友都有最即時的資訊,但卻不知道這樣不經過濾、不經思考就直接轉發,很容易被不肖分子利用。他們會利用這樣的行為模式散播假消息,造成政權動盪和炒作市場價格,Deepfake技術,更會讓不肖分子有更強大的工具來散播假消息,不知情的民眾,早已成為數位戰爭和迫害的工具之一。
身網路世代的我們,必須教育自己與周遭親友,對於每一個收到的訊息都要認真審視和查證,但這樣的觀念,這需要法律和教育的推廣,才能有效的培養。希望在聽完今天的節目後,下次你收到新聞或資訊時,別再直接轉發,而是仔細讀完之後,如果真的覺得內容有道理,查證出處後再行轉發,才能保障你與親朋好友的權益,更不要輕易上傳你的個資和照片到網路上,這種不經意的行為,可能讓你成為受害者。
我們有使用網路的權力,也有保護網路正義的義務,被動的接受科技和網路的消息,只會讓你我都成為受害者,我們是時候該正視這些問題了。
文/Michael
轉載自2019.1.4 1號課堂《矽谷Talk》