社交賬號登錄

社交賬號登錄

0/34

上傳頭像

拖拽或者縮放虛線框,生成自己滿意的頭像

頭像

預覽

忘記密碼

設置新密碼

智能

Facebook 想用人工智能審核不良內容,CTO 認為這并不能解決問題

Cade Metz and Mike Isaac2019-05-23 07:00:10

创富心水论坛高手 www.nplih.icu 一場無休無止的戰役。

本文只能在《好奇心日報》發布,即使我們允許了也不許轉載*

加利福尼亞州門洛帕克電(MENLO PARK)— Facebook 首席技術官邁克·施羅普夫(Mike Schroepfer)在接受《紐約時報》采訪時數次哽咽,他的眼角常常閃動著淚光。

我與施羅普夫坐在 Facebook 總部的一間會議室里,四周墻面掛滿了涂著藍、紅標記的白板。在半個小時的采訪中,我們討論了從 Facebook 頁面上屏蔽不良信息的技術難點,并提到了一件足以證明信息過濾系統識別能力極限的事實:影響惡劣的新西蘭克賴斯特徹奇(Christchurch)槍擊案直播事件。

今年 3 月,一名槍手在克賴斯特徹奇的兩座清真寺里殺害了 51 人,并在 Facebook 上直播了行兇過程。Facebook 花了一個小時才將視頻從其網站上移除,不過為時已晚,這段血腥的視頻已經在社交媒體上傳播開了。

談到這個問題時施羅普夫沉默了許久,他的眼角開始泛著淚光。

“我們正在努力解決這個問題?!彼聊蘇環種?,努力保持著鎮靜?!拔頤遣豢贍茉詼唐諛諫緞畔⑹侗鶼低?,不過再過六個月我們就能修復這個漏洞,甚至可以做得更好?!?br>

問題的關鍵在于,真的可以完善信息過濾系統,亦或這一切都是 Facebook 在自我安慰。

越來越多的用戶在 Facebook 上發布虛假信息、誤導消息以及不正當內容,在過去的三年時間里,這家社交媒體公司因為擴散不良信息而屢屢受到政府審查。作為回應,Facebook 首席執行官馬克·扎克伯格(Mark Zuckerberg)宣布他們將啟用新技術,利用人工智能來刪除有問題的帖子。

在去年的國會聽證會上,扎克伯格曾表示?Facebook 正在開發一套機器過濾系統,以“識別特定類別的不良信息”,并宣稱“在 5 到 10 年的時間里,我們將擁有能夠檢測和刪除仇恨言論的人工智能工具”。自那以后,他多次在媒體采訪、華爾街電話會議以及 Facebook 的內部活動上重復了以上說法。

施羅普夫正是這項任務的負責人,他必須開發出一套自動過濾工具,識別出潛藏在數據海洋中的數百萬條不良帖子并將其刪除。在最近的三次采訪中,他接連表示這是一場無休無止的戰役。

這是因為,每當施羅普夫和他的大型專家團隊(擁有超過 150 名 AI 開發者)創造出能夠標識并刪除特定有害信息的過濾系統時,不法分子就會改換發帖方式從而瞞過 AI 系統。而且不同的人對“不良信息”有不同的定義,這使得過濾系統的開發工作難上加難。

一次采訪中,施羅普夫在受到刺激后悲觀地說道,僅靠人工智能技術無法根除不良信息的擴散問題。他說:“我真的認為我們已經走到了盡頭,AI 無法‘解決一切問題’,開發團隊應該收拾行李回家?!?br>

抱怨無濟于事,問題依然懸而未決。此前一周,由于克賴斯特徹奇直播事件而遭到廣泛批評的 Facebook 改變了政策,對其流媒體直播服務做出限制。上周三(當地時間 5 月 15 日),在一場由法國總統馬克龍(Emmanuel Macron)以及新西蘭總理阿德恩(Jacinda Ardern)出席的巴黎峰會上,Facebook 簽署了一項協議,承諾將重新審查其用于識別暴力內容的工具。

現年 44 歲的施羅普夫陷入了一個進退維谷的境地,這從來不是他意想中的局面。多年來,他的工作是幫助 Facebook 建立頂級人工智能實驗室,在那里天才程序員可以專注于解決技術難題,比如說使用機器識別照片中的人臉。他和扎克伯格希望自家的 AI 技術能夠與谷歌一爭高下。谷歌被公認為擁有最穩定的 AI 研究團隊。施羅普夫為了實現這一目標還從紐約大學、倫敦大學以及巴黎第六大學(Pierre and Marie Curie University)聘請了許多計算機博士。

但在這個過程中,Facebook AI 實驗室的研究重點逐漸從技術攻關轉變為利用人工智能阻止不良信息傳播。目前,團隊的大部分時間都花在利用 AI 發現并刪除死亡威脅、自殺視頻、虛假信息以及各類謠言。

Mozilla 前首席執行官、現為 Greylock Partners 風險投資員的約翰·里利(John Lilly)說:“我們從沒有遇到過這類情況,目前并沒有關于信息過濾系統的現成方案,這個領域的研究者都是在摸索中前進?!痹己彩鞘┞奩輾虻男S?,他們在 1990 年代中期畢業于斯坦福計算機系。

Facebook 之所以允許施羅普夫接受采訪,是因為他們想展示其研究成果,讓公眾了解 AI 過濾系統如何識別并攔截不良信息,也許他們還想借此機會展現公司的人性化一面。據許多認識施羅普夫的人說,他經常公開表露自己的感受。

Zetta Venture Partners 風險投資家喬斯林·戈德費恩(Jocelyn Goldfein)曾在 Facebook 與施羅普夫共事過一段時間,他說:“我并不是在搬弄是非,施羅普夫真的會在工作中哭泣?!?br>

但沒有人能夠預料到施羅普夫會對我們提出的問題做出怎樣的反應。在兩次采訪中,他一開始樂觀地表示,AI 可能是問題的解決方案,不過談話間他開始變得有些情緒化。他還表示上班有時會變成一種折磨。每次談到 Facebook 面臨的重大問題,以及自己所肩負的責任時,他都哽咽失聲。

他在談到問題帖子時說:“永遠都有新的不良信息出現?!?/p>

任重而道遠

2013 年 12 月的一個周日,克萊門特·法拉貝(Clément Farabet)走進內華達州塔霍湖(Lake Tahoe)哈拉斯酒店(Harrah’s hotel and casino)的頂層套房。施羅普夫和扎克伯格在里面等待著他的到來。

扎克伯格沒有穿鞋。在接下來的 30 分鐘里,這位穿著襪子的首席執行官來回踱步,與來自紐約大學的人工智能研究員法拉貝特博士展開對話。扎克伯格稱人工智能是“未來的熱門領域”,也是“Facebook 的下一步研究計劃”。坐在沙發上的施羅普夫偶爾會加入他們的對話,抒發自己的見解。

扎克伯格一行人為了招聘 AI 專家來到了這個風景優美的小鎮。那一年,塔霍湖是 NIPS 大會的舉辦地點,這是一個致力于推進 AI 技術發展的學術會議,世界頂尖的 AI 研究人員都出席了此次大會。Facebook 團隊還帶來了剛剛入職的紐約大學學者楊立昆(Yann LeCun),他被公認為是現代人工智能運動的創始人,Facebook 聘請楊立昆為他們建造一個人工智能實驗室。楊立昆無疑是 Facebook 的金字招牌,包括法貝爾在內的許多研究員都把他當成自己的精神領袖。

“他想把所有到場嘉賓收入囊中?!狽ɡ刺靨傅皆瞬袷彼??!八浪杏牖嵫芯吭鋇拿??!?br>

在 Facebook 的人工智能實驗室轉移研究重心前,那段日子可謂風光無限。

雖然近年來從谷歌到 Twitter 等大型科技公司競相成為人工智能領域的領跑者,但是在此之前,AI 技術一直不被互聯網公司看重。不過在大學實驗室里,像楊立昆博士這樣的科研人員已經悄悄地開發出一種名為“神經網絡”的人工智能系統,這是復雜的數學系統,可以通過分析大量數據來找到特定規律。令硅谷的許多企業家感到驚訝的是,這些晦澀難懂又帶著幾分神秘的智能系統終于有了實際效用。

施羅普夫和扎克伯格希望 Facebook 能夠加入到這場競爭中,他們認為迅速發展的 AI 技術可以提高 Facebook 網站的運行效率。施羅普夫表示,人工智能不僅可以讓 Facebook 識別出發布在其網站上的照片以及視頻中的人臉,還可以幫助網站更好地完成廣告宣傳活動、組織新聞推送,以及進行語言翻譯。人工智能還可以用于開發“聊天機器人”之類的小型程序,讓企業能夠高效地與客戶完成對話。

施羅普夫說:“我們打算聘請一些世界上最優秀的 AI 人才,并打造一個夢幻般的 AI 實驗室?!?br>

從 2013 年開始,施羅普夫開始四處搜羅神經網絡專家,當時這個領域的“耀眼明星”通常能在四五年的時間里獲得數百萬或數千萬美元的巨額報酬。不過在塔霍湖的那個周末里,他們沒能成功招攬法拉比博士。法拉比后來自立門戶,成立了一家人工智能初創企業,并被 Twitter 收購。但施羅普夫還是從谷歌、紐約大學以及蒙特利爾大學等地請來了數十名頂尖 AI 科研人員。

施羅普夫還建立了另一支隊伍——“機器學習應用團隊”(Applied Machine Learning team),他們需要利用 Facebook 人工智能實驗室開發出的新技術解決現實生活中的問題,比如說面部識別、語言翻譯以及增強現實工具。

發生于 2015 年末的巴黎恐怖襲擊導致 Facebook 的一些人工智能項目開始改變原本的研究方向。當時,伊斯蘭激進分子在巴黎周邊發動了一場協同襲擊,事件造成 130 人死亡,近 500 人受傷。據一位沒有公開發言權的知情人士透露,扎克伯格隨后咨詢了機器學習應用團隊,要求他們采取有效措施,阻止不法分子利用 Facebook 宣傳恐怖主義言論。

應用團隊利用 Facebook AI 實驗室開發的新技術,建立了一個識別社交網絡上恐怖主義言論的系統。這個工具能夠識別出包含“Islamic State”(伊斯蘭國)或“Al Qaeda”(基地組織)字樣的主頁,標識出了那些最有可能違反公司反恐政策的帖子,并交給審查員審核。

這是 Facebook AI 實驗室的一個重要轉折點,自此之后他們逐漸將注意力放在利用 AI 技術審查包含不良信息的帖子以及關閉有問題的主頁。

Facebook 首席執行官扎克伯格去年在國會作證時表示,他們正在開發基于機器的信息過濾系統,以“識別特定類別的不良活動”。圖片版權:Tom Brenner/The New York Times

阻止不良信息傳播很快就成了 Facebook 的首要問題。2016 年 11 月,當唐納德·特朗普成功當選總統時,Facebook 因在其網站上助長虛假信息傳播而陷入公關?;?,因為這些虛假信息可能對選民產生影響,并為特朗普的獲勝奠定了基礎。

盡管 Facebook 一直都否認自己在總統選舉中扮演了虛假信息傳播者的角色,但他們在 2017 年初開始把研究重點放在自動識別不良信息上,并致力于消除情色內容以及打擊發布虛假信息的賬戶。為了過濾網站上的非法內容,他們還專門設立了數十個“誠信”(integrity)職位。

到了 2017 年年中,機器學習應用團隊的大部分時間都花在檢測問題帖子上。施羅普夫說:“在打造 AI 審查系統時,我們把保證網站內容‘陽光正面’作為系統的首要任務?!?br>

2018 年 3 月,《紐約時報》等媒體報道了英國數據分析公司劍橋分析(Cambridge Analytica)在未經數百萬 Facebook 用戶同意的情況下,暗中收集用戶信息,為特朗普團隊建立選民檔案。一時間,各方矛頭直指 Facebook。

施羅普夫臨危受命,前往英國平息這場風波。2018 年 4 月,他作為 Facebook 的指定高管飛往倫敦,就劍橋分析丑聞接受英國議會下屬委員會的質詢。他被烤問了足足四個多小時,國會議員輪番對這家社交網絡公司發表了大量批評言論。

“施羅普夫先生,你是否知道何為正直?我不相信貴公司是一家誠信企業?!比瀾緄墓壑詡ち斯さ癡鴕煉鰲ぢㄋ梗↖an Lucas)對這位表情嚴肅的高管連發質問的畫面。

“看著施羅普夫飽受詰難,我實在于心不忍。這就是所謂的任重道遠?!斃檳庀質黨醮雌笠?Pixvana 的首席執行官弗雷斯特·凱伊(Forest Key)說道,他在 1990 年代曾和施羅普夫一起為一家電影特效公司工作。

利用人工智能來過濾不良信息的戰役已經正式打響,而施羅普夫自己也陷入了困境。

勸說工程師不要輕易放棄

在剛剛加入 Facebook 的時候,施羅普夫就被視為問題解決者。

施羅普夫在佛羅里達州德爾雷海灘(Delray Beach)度過了他的童年。他的父母經營著一家 1000 瓦功率的 AM 電臺,專門為聽眾播放搖滾老歌,后來他們還轉換曲調播起了 R&B。他在 1993 年搬到了加州并在斯坦福大學完成學業,本科和研究生專業都是計算機科學。他在斯坦福結識了一批技術專家,其中就有里利以及亞當·納什(Adam Nash)。納什目前在文件共享公司 Dropbox 擔任高管職位。

畢業后,施羅普夫留在硅谷從事技術工作,他一路披荊斬棘闖出了一番事業。他先是在一家電影特效初創公司開啟了自己的職業生涯,后來還成立了一家軟件公司,為大型計算機數據中心開發定制軟件,這家公司后來被 Sun Microsystems 收購。2005 年,他加入 Mozilla 并擔任工程副總裁。當時這家位于舊金山的非盈利機構正在開發一款網絡瀏覽器,以挑戰微軟及其 IE 瀏覽器的壟斷地位。在那個時候,這類大型開發項目是非常少見的。

“瀏覽器的開發工作異常復雜,而且外部競爭環境也不是很正常?!痹朧┞奩輾蠆⒓繾髡降?Mozilla 創始人邁克·謝弗(Mike Shaver)評價道:“即使是在他職業生涯的早期,我也從未懷疑過施羅普夫的能力?!?br>

2008 年,Facebook 聯合創始人達斯汀·莫斯科維茨(Dustin Moskovitz)辭去了工程主管的職務,由施羅普夫接替。當時 Facebook 大約有 200 萬用戶,他的任務是在用戶數量激增的情況下保持網站正常運行。他需要管理散布于世界各地的數千名工程師,同時保證數萬臺服務器正常運作。

他說:“完成這項工作就像駕駛一輛冒著火光、癟了輪胎的公共汽車滾下山坡一樣。我們一直都在試圖讓這個網站保持正常運轉”施羅普夫說,他每天的大部分時間都在“勸說工程師們不要輕言放棄”,因為這些技術人員頂著巨大的壓力,無時無刻不在處理著棘手的技術難題。

在接下來的幾年時間里,他的團隊為 Facebook 量身開發了一系列新技術以便于更好地為龐大的用戶群體提供服務。(Facebook 目前擁有 20 多億用戶。)他們還推出了新型編程工具,讓 Facebook 能夠更快、更可靠地呈現在筆記本電腦和手機上。他們為數據中心引入了定制服務器,簡化計算機網絡結構。最終,Facebook 顯著減少了服務中斷事件。

施羅普夫說:“我已經忘記上一次和為了解決這類問題而累到精疲力盡的工程師交談是什么時候了?!?br>

施羅普夫的努力有目共睹。2013 年,他被提升為首席技術官。他的新任務是著眼于未來,集中精力探索能為公司帶來增長的全新技術領域。在 Facebook 總部辦公室里,他的桌子位于首席執行官扎克伯格以及首席運營官雪梨·桑德伯格(Sheryl Sandberg)之間,這也表明了他在公司中的地位舉足輕重。

“他是公司大部分員工思維方式以及工作方式的典型化身?!痹瞬裨諤傅絞┞奩輾蚴彼??!八某芰κ悄芄輝誆煌牧煊蛑傅疾⒆榻ㄍ哦?。我從來沒有見過在這方面比他還要出色的管理者?!?br>

因此,當扎克伯格遇到不良信息泛濫問題時,他很自然地向施羅普夫尋求幫助。

西蘭花 VS 大麻花蕾

最近的一個下午,在 Facebook 會議室里,施羅普夫在他的蘋果筆記本電腦上展示了兩張照片,一張是碧綠的西蘭花,另一張是含苞待放的大麻花蕾。房間里的每個人都好奇地盯著這兩張圖片,一些人甚至無法“分明正身”。

施羅普夫利用這些照片來表明自己的觀點。盡管我們中的一些人很難區分這兩種植物,但 Facebook 的人工智能系統目前已經能夠在數千張圖片中發現特定規律,自動識別出大麻花蕾的圖片。這樣一來 Facebook 就可以批量識別附加到 Facebook 廣告上的大麻圖片,從而刪除含有大麻買賣信息的帖子。

“我們現在終于可以扭轉局面,積極地消滅此類不良信息?!筆┞奩輾蛩?。

問題是“大麻 VS 西蘭花”不僅標志著 AI 過濾系統的識別能力邁上了新的臺階,恐怕也標志著此類技術已經觸及極限。施羅普夫團隊建立的信息過濾系統現已投入實際使用,它們每天都在識別并刪除毒品圖片、情色帖子以及恐怖主義相關內容。但這套系統并沒有將所有不良信息一網打盡,因為總是會有一些令 AI 系統意想不到的新內容出現,這意味著數百萬條包含不良信息的帖子繼續毒害著 Facebook 用戶。

對于人工智能技術來說,識別圖像是一項比較容易完成的任務。真正的難題是開發一套虛假新聞以及仇恨言論的識別系統。在不清楚事實的情況下,就連人類審查員也難以辨別新聞的真假,而自動識別仇恨言論也存在很大的難度,因為機器很難分辨語言上的細微差別,更不用說不同語言之間的語法結構存在巨大的差異,而對話的內容又時時在更新,使得機器難以跟得上狡詐的不法分子。

探索利用 AI 技術來對抗虛假信息的非營利機構——人工智能組織(AI Foundation)研究主管迪利普·拉奧(Delip Rao)將這一挑戰描述為“一場軍備競賽”。AI 系統的訓練內容通常取自以前的資料。大部分時候研究員并沒有現存方案可供借鑒,他們必須根據現實需求發明出新技術。而不法分子又常常改變發帖策略,雙方就像在玩一場貓鼠游戲。

拉奧說:“有時候開發人員走在了不法分子的前面,有時候則被甩在身后?!?br>

那天下午,施羅普夫試圖運用數據來回答“貓鼠游戲”問題。他說,Facebook 現在能夠自動從社交網絡上刪除 96% 的裸體內容。而仇恨言論問題則比較棘手,他說 AI 系統目前可以識別出 51% 包含仇恨言論的帖子。(Facebook 后來表示,這一比例已升至 65%)

施羅普夫也承認了軍備競賽論。他還表示,能夠自動檢測并移除不良直播源的 AI 系統在 3 月份沒能將新西蘭槍擊案視頻識別為危險內容,因為這與之前上傳到 Facebook 上的任何視頻都不一樣,這段視頻以第一人稱的視角來展現槍擊過程,就像電腦游戲一樣。

在設計暴力圖像過濾系統時,Facebook 團隊通常利用以前的內容來為 AI 系統提供機器學習資料——虐待小貓、惡狗襲擊路人、飛馳的汽車撞向行人、揮動棒球拍毆打他人等圖像。但是“新西蘭槍擊案視頻卻與眾不同”。

施羅普夫說,這段視頻的驚奇之處就是它引起轟動的原因?!罷庖步饈土宋裁粗輩ピ疵揮辛⒓吹玫獎曇??!彼共鉤淥?,為了更好地了解如何才能有效識別此類視頻,他已經反復觀看了視頻片段。

“我真想從腦海里移除那些可怕的畫面?!彼?。


翻譯:熊貓譯社 馳逸

題圖版權:Peter Prato/The New York Times

? 2019 THE NEW YORK TIMES

喜歡這篇文章?去 App 商店搜 好奇心日報 ,每天看點不一樣的。