Categories
創造力

對抗矽谷,為了“楚門的世界”裡的27億人


圖:當人們不看手機的時候圖:當人們不看手機的時候

  歡迎關注“創事記”的微信訂閱號:sinachuangshiji 

文/雷慢

來源:新金融洛書(ID:FintechBook

  2016年,特里斯坦·哈里斯——這位谷歌的內部道德設計師決定離職,此時的他已經意識到,Facebook、谷歌(YouTube、谷歌搜索)、推特這樣的互聯網科技公司為了商業利益,利用算法吸引人上癮的產品設計,是不道德。這已經為:

  “人類生存的一大威脅”。

  他想到了對抗。實際上,特里斯坦·哈里斯任職谷歌期間,谷歌有知名的“不作惡”準則。但這一準則並沒有阻擋住算法基於商業利益走向的偏路。離職兩年後,特里斯坦·哈里斯拉著Facebook和Google等大公司離職或在職的技術專家,建立了一個叫“人道科技中心”(Center for Humane Technology)的組織,這個組織在2018年成立,用來——

  對抗矽谷互聯網公司讓人上癮的設計理論。

  除了特里斯坦·哈里斯,參與這個中心工作的人,還有前Facebook運營經理;蘋果公司和谷歌前通訊主管林恩·福克斯;前Facebook高管戴夫·莫林;Facebook早期投資人羅傑·麥克納米。

紀錄片截圖:“人道科技中心”(Center for Humane Technology)紀錄片截圖:“人道科技中心”(Center for Humane Technology)

  2017年前後,很多矽谷公司的高管,感覺到了算法操持的互聯網平台,出現了道德倫理危機,紛紛離開了所在公司,2020年,網飛(Netflix)公司拍攝了一部紀錄片叫《監視資本主義:智能陷阱》。片中,Pinterest 的前總經理、Facebook的前盈利總監Tim Kkendall說他擔心算法操縱的世界最終導緻美國內戰;一個從谷歌出來的工程師,擔心整個互聯網產業的道德淪喪……

  曾與馬克·扎克伯格(Mark Zuckerberg)一起創辦了Facebook的克里斯·休斯(Chris Hughes)離職後多年後,批評Facebook說,“扎克伯格是個好人。但令我感到憤怒的是,他對增長的關注導致他為了點擊而犧牲了安全和道德底線”。

  這樣嚴重的擔憂,是什麼導致的,問題出在哪兒呢?

紀錄片截圖:一個前谷歌員工離職的原因紀錄片截圖:一個前谷歌員工離職的原因

  01

  2018年,推特CEO Jack Dorsey在一次聽證會上說,12年前創辦推特時,他沒想到推特會變成今天這樣……

  這段話,與《黑鏡》第五季第二集的劇情正相契合,該劇正好也是網飛公司拍攝的。男主Chris Gillhaney因為在一次和女友駕車的過程中看手機社交消息,導致車禍,女友當場死亡。當他恢復過來後,他做了一個類似UBER產品的司機,每天在這家叫“碎片”的社交網站公司樓下接客。終於有一天,他接到了一個這家公司員工,綁架了他,通過要挾這個員工,逐層上接,和“碎片”公司CEO接上了電話,而他只是想告訴這個CEO,社交網站是怎樣綁架了人們的生活而導致種種悲劇的。這家CEO的回答和推特CEO的回答很相似:

  我當初創辦這家公司的時候,沒有想到它會變成這樣。

  “碎片”公司CEO闡述了一種邏輯:一個產品成型後,它的走勢就不再是他能決定的,每一次更新和功能改進,都是因為用戶喜歡、希望得到的結果,這並不一定是一個CEO想要的。

  上癮,幾乎成了所有社交App追求的東西。

  《監視資本主義:智能陷阱》採訪了很多前矽谷科技公司的前高管和投資人。

  作為谷歌前道德倫理設計師的特里斯坦說,當年他在谷歌做郵箱設計時,意識到一個問題,歷史上從來沒有過50個左右的20-35歲的加州工程設計師做出一個決定,就能影響20億人,影響他們做出從來沒有預想到的想法或決定——當用戶早上醒來,谷歌郵箱就告訴他,應該這樣工作。工作、文化、生活的意義,都來自一個鬼鬼祟祟的第三方操縱。而谷歌內部,沒有一個人想把郵箱做得不那麼致癮。

紀錄片截圖:特里斯坦·哈里斯——谷歌前內部道德設計師紀錄片截圖:特里斯坦·哈里斯——谷歌前內部道德設計師

  後來他做了一個呼籲:我們這些工程師,有道德責任去審視、討論致癮問題。

  特里斯坦發出這個呼籲後,很多工程師都讚同,然後,就沒有然後了……

  作為Facebook 的早期投資者羅傑·麥克納米說,矽谷的前50年,IBM、谷歌、英特爾都製造軟件或硬件產品賣給顧客,商業模式簡單而良好。但過去十年,矽谷最大的公司一直在“販賣顧客”

  互聯網時代以前,人們所發明的東西,都是為大眾服務的,自行車、汽車、計算器,它們是簡單而中性的工具;當互聯網時代興起後,技術慢慢演變為向人類索取、引誘甚至操縱並從人身上獲利的工具,已經由以人為主動型技術環境,轉變為以人被動接受的、致癮操縱型的技術環境。社交媒體不再是等在倉庫裡等著人去騎行的自行車,或駕駛的汽車,而是會自我學習、分析、操縱、致癮的東西。

  矽谷大公司的高管們就很警惕這個問題,比如比爾·蓋茨和史蒂夫·喬布斯的小孩,童年就被要求與電子產品完全隔離。

  這正是《紐約時報》2018年的一篇文章所說的,“技術專家知道手機的真面目,所以他們很多人決定讓自己的孩子遠離這些東西。”

  雷慢曾說過,互聯網是一個餵養型的社會。這種餵養是經過大數據分析、機器學習決策後,推送給人的。

  這也是馬克思、弗洛伊德等人對“異化”一次觀點所說的,人作為客體被動地接受體驗世界和自身;“物凌駕於人之上”。就像系統算法凌駕於外賣快遞員之上。機器流水線凌駕於工人之上一樣。

  02

  現在,互聯網公司提供了大量的免費產品,FaceBook、微信、抖音、推特,大家都不為使用的社交產品付費。為這些社交App付費的那些廣告商,廣告商就是社交App的顧客,而用戶成了被銷售的商品。這就出現了一種現象:

  如果你沒有花錢買產品,那你就是被賣的產品。

  所以FaceBook、推特這些公司的商業模式就是,怎樣讓你最大程度的上癮,花更多的時間在這些App上,付出你人生的時間。

  人生值多少錢呢?

  哈佛商學院教授Shoshana Zuboff被採訪時說,在商業上,FaceBook、推特們為了賣出更多的廣告,需要給與顧客確定性,所以,商業廣告賣的就是確定性,這個“確定性”就來自用戶上癮背後的“數據分析”。

對抗矽谷,為了“楚門的世界”裡的27億人 1

紀錄片截屏:大數據可以記錄用戶在某張圖上停留了多長時間,來判斷用戶對那種圖感興趣。

  這就是紀錄片標題所說的核心:監視資本主義。

  為了獲得數據,這些公司需要監視用戶去過的每個地方,每種喜好,每種行為數據,無限追踪、分析、評估,無限逐利。

  你喜歡看NBA的視頻?好的,在你看下一個同類視頻前,給你插播一條籃球鞋的廣告。

紀錄片截圖:算法模型會給用戶畫像,這個畫像是由無數的行為數據建立的。紀錄片截圖:算法模型會給用戶畫像,這個畫像是由無數的行為數據建立的。

  這些數據不用人看管,機器可以自動深度學習,給出預判,這也是推特CEO所說,為什麼這些產品成了當初他們所沒想到的樣子。

  但高管們做了什麼呢,預判人們行為軌蹟的模型是他們做的,能夠自動學習的程序代碼是他們寫的。

  這一切都為了一個確定性:盡可能成功的將用戶賣給廣告商。 Shoshana Zuboff將這個市場稱為:

  從未出現的、最大的人類期貨市場。

  過去我們交易豬肉期貨、鑽石期貨,現在人類也成了期貨。

  上癮帶來的後果是,將你還沒想到的部分,用推送給你,使它們成為你思想的一部分,還讓你覺得這是自己所想的。

  FaceBook、UBER等公司的高管都曾在斯坦福大學上過這樣一個課程:怎麼用技術勸服用戶?這類行為被稱為:

  勸服的藝術。

  這是一種極端刻意的,對人們行為進行設計的行為。用戶的每一次下拉或下拉刷新,都是一次算法的重新推送。它們深入腦袋裡,植入一種無意識的習慣,讓人的腦袋更深層次地被編程。

  FaceBook曾做過一個“海量規模蔓延實驗”,測試用FaceBook上的潛意識信號來讓更多人在美國中期選舉投票,實驗結果是:能。

  這種影響並不會觸髮用戶的意識,而是一種潛意識,這意味著用戶根本不會察覺。

  這種實驗,谷歌和FaceBook每年要在用戶身上做很多,用戶就是實驗小白鼠。

  03

  各種致癮的大數據分析、算法推送,使美國Z世代的年青人成為了犧牲品。

  紐約大學心理學家Jonathan Haidt提供的數據顯示,大概在2011年至2013年前後開始,每年因為割腕自殘而住院的少女出現了劇烈上升的趨勢。

對抗矽谷,為了“楚門的世界”裡的27億人 2
紀錄片截圖:近20年,美國每年少女因手機上癮而自殘與自殺的趨勢紀錄片截圖:近20年,美國每年少女因手機上癮而自殘與自殺的趨勢

  一個常見的現像是,人在孤獨、無所事事的時候,總要找點什麼事情做。如今這個空隙被算法推送的網絡社交、短視頻等佔據了,人處理情緒的能力就退化了。

  Cathy O’neil是一個大數據科學家。她說,算法是內嵌在代碼中的觀點,它並不是客觀的。算法會被成功的商業模式引導、優化。

  通常,在一個像FaceBook這樣影響數十億人的公司裡,能明白某個程序算法工作邏輯的就幾個人,相對於70多億的人類來說,可以看成:人類失去了對算法系統的控制。

  羅傑·麥克納米說,這就像一個27億人的《楚門的世界》,每個人都有自己的世界。沒有人發現自己所在世界的本質真相。當然,實際上,活在“楚門的世界”裡的人可能更多。在中國,類似的產品有今日頭條、抖音等。

  算法的每一個推送,都代表著一種商業利益。

  在中國,中老年人喜歡看的一些鼓吹、煽動的假視頻, 並不是製作者一定相信這些事,而是假新聞傳播比真新聞更快,流量能給他們帶來商業變現,免費看視頻的人,才是被賣的商品。

  特里斯坦·哈里斯發明了一套理論:技術超越人類的第一個階段點是超越弱點,其結果就是上癮,上癮會激化憤怒、激化虛榮,壓制人類天性,挫傷天性。第二個點是超越人類的智慧。

  算法餵養的世界裡容易出現種種激化的矛盾,每個人的意見越來越不相容,因為每個人都從不同的推送裡了解信息,而這些信息、知識又因為推送不同而不同。當兩個因為同一個社交網站的鼓吹而同時出現在街上游行的美國人,對同一件事情產生爭論的時候,他們容易發現:

  哦,原來沒有看到相同的信息。

  這種激化的分歧的一個知名例子就是“地球是平的”論,這種論調在YouTube上被推薦了幾億次,因為有的人喜歡,算法每天都在變著法地給人們推送“地球是平的”的內容,“地球是圓的”則被他們當作陰謀,而且越來越多的人相信了這種陰謀論。

  這個事件的高潮是,今年2月,因為想證實地球是平的,美國發明家邁克爾休斯在用自製的載人火箭進行發射測試後,墜地身亡。

  04

  算法只推薦給人們感興趣的東西,它並無道德感,它唯一的動力是商業利益,它可以一而再再而三地給人們推送虛假、陰謀論的信息。今天可以讓人相信地球是平的,明天就可以讓人相信喝消毒液可以殺死新冠病毒。

  2016年,美國有成千上萬的民眾相信著一個假新聞——一個有民主黨高層參與的地下孌童犯罪組織隱藏在一家華盛頓的披薩店,算法在這個事情發酵中,不停地推薦人們加入“披薩門”小組,直到越來越多的人相信它真的存在。

  事件的高潮以一個男子拿著槍要進入披薩店倉庫去解救“被迫害的孩子”、半路被警察逮捕了而告終。

  在美國,疫情期間的謠言,和算法的推波助瀾,加劇了謠言傳播,個體各自為政。人們在街上游行,有的喊“新冠疫苗是陰謀”,有的喊“人類基因不適合新冠疫苗”。每個人執著於自己看到的信息。一個政府官員將其稱為:

  新時期的部落主義。

  在算法的推送的信息浸染下,2017年的一項皮尤研究中心的數據顯示,2017年民主黨和共和黨的政治分歧達到了20年來最高點。

紀錄片截圖:2017年民主黨和共和黨的政治分歧達到了20年來最高點。紀錄片截圖:2017年民主黨和共和黨的政治分歧達到了20年來最高點。

  在緬甸,2017年以來FaceBook上出現了前所未有、情緒高漲的煽動性言論,這些言論被不停地推送給那些喜歡看的極端民族主義者,催生了嚴重的犯罪行為、種族主義迫害,並導致了70萬羅興亞族MSL逃離了緬甸。

紀錄片截圖:緬甸羅興亞族MSL大逃離紀錄片截圖:緬甸羅興亞族MSL大逃離

  《崩潰》一書作者賈雷德·戴蒙德闡明了社會是怎樣崩潰的:一個社會一起推動一種不穩定、消極狀態的前進,最終導致了社會的崩潰。賈雷德·戴蒙德的學生曾向他問出一個非常有意思的問題:

  復活節島生態環境崩潰前,砍倒了島上最後一棵樹的那個人,那一刻在想什麼?

  我們是時候也思考一下這個問題了。

對抗矽谷,為了“楚門的世界”裡的27億人 3

(聲明:本文僅代表作者觀點,不代表新浪網立場。)