“技術倫理委員會”第一次會議,定在周一午後兩點。地點沒有選在龍膽科技總部那些窗明幾淨、充滿未來感的會議室,而是放在了城市邊緣一棟由舊廠房改造的藝術園區裡,一個名為“棱鏡”的共享空間。
這是康斯坦絲·李的要求。她在郵件裡說:“討論技術的邊界,最好在一個本身就在探討邊界的地方。”
姚浮萍提前半小時到了。空間比她想象中更……“不規整”。高挑的loft結構,裸露的紅磚牆和粗糲的水泥柱,巨大的落地窗外是野蠻生長的綠植和鏽蝕的舊工業管道。內部沒有傳統的會議長桌,而是散落著幾組形狀各異的沙發、單人椅,甚至還有幾張可移動的白板和鋪著毛氈的矮桌。空氣中飄著現磨咖啡豆的香氣,混雜著舊書的黴味和一點點油漆未乾的氣息。
幾個穿著隨意、像是藝術家或自由職業者的年輕人散坐在各處,對著筆記本電腦或sketchingpad(素描本)工作,對他們這群西裝革履(至少姚浮萍和曹辛夷是)的闖入者投來略帶好奇的一瞥,隨即又沉浸回自己的世界。
“有點意思。”曹辛夷環顧四周,低聲評價,“至少不會讓人想打瞌睡。”
姚浮萍沒說話,目光落在一麵牆上。那裡掛著一幅巨大的、用廢棄電路板和光纖拚貼而成的抽象畫,在燈光下折射出迷離破碎的光。數據與藝術的某種生硬媾和,卻意外地有種直指本質的衝擊力。
龍膽草是最後一個到的。他換下了慣常的深色西裝,穿著一件質地柔軟的灰色高領毛衣,外搭一件黑色休閒夾克,看起來比平時少了幾分商人的銳利,多了些學者式的鬆弛。他手裡拿著一本厚厚的、封麵是深藍色皮革的筆記本,邊緣已經磨損。
“都到了?”他掃視一圈。姚浮萍、曹辛夷、還有公司法務部的負責人已經落座。另一邊,康斯坦絲·李——一位看起來三十五六歲、有著利落短發和敏銳眼神的亞裔女性,正和一位頭發花白、戴著金絲眼鏡的老教授低聲交談,那應該就是北大的心理學教授吳明軒。旁邊坐著一位神情嚴肅、麵前攤開著法典和筆記的中年男人,是律師方堃。
還有一個人,獨自坐在靠窗的一張單人沙發上,正望著窗外發呆。是林晚。她穿著簡單的白色襯衫和牛仔褲,長發鬆鬆地挽在腦後,側臉在午後斜射的光線裡顯得有些透明。聽到動靜,她轉過頭,目光平靜地迎上眾人的視線,點了點頭,算是打過招呼。
沒有客套寒暄,龍膽草直接走到場地中央一塊空白的白板前,拿起馬克筆。
“感謝各位今天能來。”他的聲音不高,但清晰地傳到每個人耳中,“龍膽科技在做什麼,在座各位大概都有了解。我們今天要討論的不是‘五彩綾鏡’的技術細節,也不是公司的商業策略,而是它可能帶來的、以及它正在觸及的一些……根本性問題。”
他在白板上寫下兩個詞:乾預與鏡像。
“在傳統認知裡,工具應該是‘鏡像’,客觀反映現實。但當我們設計的係統,開始能夠識彆用戶情緒,甚至嘗試做出微小的、旨在‘幫助’的乾預時——比如我們正在測試的‘微光係統’——它就從‘鏡像’滑向了‘乾預’。”龍膽草用筆點了點這兩個詞,“這個滑動的邊界在哪裡?誰有權定義這個邊界?乾預的正當性基礎是什麼?如果乾預失敗了,甚至造成了傷害,責任如何界定?”
他轉過身,目光掃過在場每一個人:“這就是我們今天會議的核心。沒有預設答案,我希望聽到各位,從不同角度的、最坦誠也最尖銳的看法。從康斯坦絲博士開始?”
康斯坦絲·李坐直身體,她沒有用任何電子設備,麵前隻放著一個皮質封麵的速記本和一支鉛筆。
“謝謝龍膽總。”她的英文口音標準,語速平緩,“我在聯合國數字倫理項目組工作期間,接觸過很多類似的技術提案,從情感識彆聊天機器人到基於生物數據的心理健康乾預應用。一個普遍的困境是:技術開發者常常陷入一種‘善意傲慢’。”
她頓了頓,似乎在斟酌用詞:“他們相信自己設計的算法能‘理解’人類的複雜情感,相信自己設置的乾預是‘有益’的。但這種信念,往往建立在過分簡化的心理學模型和有限的數據樣本之上。更重要的是,它忽略了‘乾預’行為本身所具有的權力屬性——誰賦予了你乾預我的權利?即使你的初衷是好的。”
她看向姚浮萍:“姚總,我看過‘微光係統’的初步設計文檔。觸發閾值設定得很高,乾預方式也非常溫和,這體現了技術上的審慎。但我的問題是:當係統判斷用戶‘可能需要幫助’時,這個判斷所依據的算法模型,是否經過不同文化、不同社會背景、不同心理健康狀況人群的充分驗證?係統植入的‘善意變量’,比如‘陌生人的微笑’、‘窗台上的綠芽’,這些意象的‘善意’含義,是否具有跨文化的普適性?還是說,它本質上反映的是算法設計者(很可能是一群生活優渥、受過良好教育的工程師)自身對‘美好生活’的想象?”
問題像手術刀一樣精準,直指技術無意識中攜帶的文化偏見。
姚浮萍迎著她的目光,沒有躲閃:“目前‘微光係統’的模型主要基於公開的心理語言學數據集和我們自身產品的用戶行為分析,文化多樣性確實存在不足。‘善意變量’庫的構建也處於早期階段,您指出的文化普適性問題非常關鍵。這也是我們希望引入更多像您這樣的人文學科專家參與的原因——技術需要被‘祛魅’,需要被放在更廣闊的人類經驗背景下來檢驗和修正。”
康斯坦絲點了點頭,在速記本上記了幾筆,沒有再追問,但她的問題已經在空氣中留下了沉甸甸的回響。
“我接著康斯坦絲博士的話說兩句。”吳明軒教授推了推眼鏡,聲音溫和卻有力,“從心理學角度看,即使是‘溫和’的乾預,也可能產生意想不到的後果。比如,一個沉浸在喪親之痛中的人,反複使用‘記憶重構’模擬與逝者對話,這可能是他哀傷過程的一部分。如果係統出於‘好意’,強行植入‘陌生人的安慰’或‘新生的希望’等變量,可能會乾擾他自然的哀傷進程,甚至讓他產生‘我的悲傷是不被允許的’的愧疚感。哀傷,有時需要被完整地經曆,而不是被技術‘優化’掉。”
他頓了頓,看向龍膽草:“龍膽總,技術追求效率和‘解決問題’,但人類的很多心理過程,恰恰是低效的、迂回的,甚至看似‘無解’的。技術介入的時機和方式,需要極大的智慧和克製,有時,‘不乾預’可能比‘乾預’更需要勇氣,也更是尊重。”
律師方堃立刻接話,語氣帶著職業性的嚴謹:“從法律和倫理責任角度,吳教授說的‘不乾預的勇氣’,在現實中可能意味著巨大的法律風險。如果係統檢測到用戶有明顯自殘或自殺傾向,卻因為擔心‘乾擾自然過程’而不作任何乾預,一旦用戶真的出事,平台是否需要承擔責任?這個責任的邊界在哪裡?目前的立法和判例,在這方麵幾乎是空白。”
他翻開法典:“‘微光係統’的記錄和審計流程,是重要的風險緩釋措施。但更深層的問題是:用戶在使用‘五彩綾鏡’時,是否真正知情並同意了這種潛在的、基於算法的‘關懷性乾預’?目前的用戶協議條款,即使明確寫了,在座的各位有誰認真讀完過?這種所謂的‘同意’,在多大程度上是有效的?”
問題一個比一個尖銳,從技術可行性跳到文化相對性,又從心理過程跳回法律責任。白板上已經寫滿了關鍵詞和問號,像一張不斷擴張的思維導圖,中心是那個模糊而沉重的詞:乾預。
龍膽草始終站在白板旁,安靜地聽著,偶爾在關鍵詞之間畫上連線,或補充一兩個問題。他沒有試圖主導或辯護,更像一個梳理者和提問者。
曹辛夷也在快速記錄,眉頭微蹙。這些問題最終都會傳導到商業運營和公共關係層麵,每一個都是潛在的雷區。
一直沉默的林晚,在方堃律師提到“用戶知情同意”時,微微動了一下。她端起麵前早已涼掉的茶杯,喝了一口,然後輕聲開口,聲音不大,卻讓所有人的目光都轉向了她。
“我……可以講一個我自己的例子嗎?”她問,看向龍膽草。
龍膽草點頭:“請講。”
林晚放下茶杯,雙手交握放在膝上,目光沒有聚焦在某個人身上,而是落在白板上那些淩亂的詞彙上。
“我成為……‘汙點證人’,留在龍膽科技之後,有很長一段時間,幾乎無法入睡。一閉上眼睛,就是那些事——我做過的事,差點做過的事,還有那些因為我而受傷的人。”她的聲音很平穩,像在敘述彆人的故事,“那時候,公司給我安排了心理谘詢,也用過一些正念減壓的APP。它們會在我情緒監測數據異常時,推送一些舒緩音樂、呼吸引導,或者勵誌語錄。”