顯然對於山姆·奧特曼來說,華夏人的人工智慧技術是有特指的。
也不止是豆豆,雖然豆豆是全世界最成功的人工智慧產品,而且名聲很大。但其實就目前來說,一般人只能在網上接觸一下豆豆,沒可能接觸到豆豆的原始碼。
二般人其實也一樣,倒是群智的框架能接觸到,兩者走的路線並不完全相同。
比如chatgpt的邏輯中不存在因果耦合,其最核心的工作原理是透過分析大量文字資料來預測給定上下文中最可能的下一句話或詞彙。
這種基於統計模型的學習模式缺乏對真實世界的理解。
起碼就目前而言,chatgpt還沒有構建出內在的世界模型來理解因果關係。
一個最簡單的例子,當有人向chatgpt提問,蘋果熟了又沒人採摘會發生什麼?回答大機率是正確的,掉在地上。這並不是說chatgpt理解了重力導致的因果關係,更大的可能是它學習過關於牛頓發現重力的那篇文章。
這跟群智的因果解耦框架不同,群智框架其實更接近世界大模型框架,依賴的是因果關係的學習。簡單來說,就是不斷的透過結果,倒逼原因的學習方式來掌握知識,以及加深對這個世界的理解。
這也是如果有人孜孜不倦的給chatgpt餵養錯誤的資料,就能讓人工智慧在某個問題上不停犯錯的原因。
當然並不是說群智框架就是完美的。
事實上群智框架也會出錯。只是犯的錯誤往往出於對因果關係錯誤的理解。
比如之前網上就曾曝出過一個笑話,有人問接入了群智框架的小藝,如果把冰塊放進剛燒開的熱水會發生什麼?小藝的回答是,冰塊會變成蒸汽,因為沸騰熱水可能使冰塊蒸發。
這就屬於典型的因果關係理解錯誤。畢竟按照物理過程,冰塊會先在熱作用下經歷融化再被加入到沸點,才能變成蒸汽。
兩者的區別是要讓chatgpt給出正確的回答,需要訓練資料時生成文字。群智框架只需要讓它徹底能理解融化跟昇華兩種不同的概念就夠了。
對這種簡單的問題解答,顯然前者更有優勢。前者只要不停告訴chatgpt,冰要先融化成水,下次就能給出正確答案。
但後者要各種舉例,比如讓系統理解乾冰之所以會直接變成氣態,是因為在地球標準壓力下,二氧化碳沒有液態存在的穩定區。所以會直接從固體變為氣體,但水則不一樣……
但優劣不能如此簡單的對比。
因為一旦群智框架透過因果推導,理解了整個過程,下次就不會再犯同樣的錯誤。但前者如果有人穩定的,堅持的,不停餵養錯誤資料,下次依然可能犯錯……
對於山姆·奧特曼來說,目前的好訊息是,chatgpt已經餵養足夠多的資料,起碼在現階段,也許能做得不比群智框架差多少。但壞訊息是,還有豆豆這種逆天的存在,以及還要面對金主的威脅。
真的,如果不是有那麼多的禁令限制,山姆·奧特曼說不定便也屈服了。
讓他有底氣發出那兩聲“呵呵”,終究是因為對面這家公司恰好是被嚴格限制的。別說投資對面了,微軟如果真想跟對面眉來眼去,首先要迎接的是來自資本主義的鐵拳,哪怕微軟有著充足的動因。
現在世界的格局就是這樣,起碼在國際層面,發展到了微軟、有為這種層級的公司,早已經不可能從純粹的商業角度來做任何決策,更別提微軟還是上市企業。
就算薩蒂亞·納德拉敢亂命,股東跟董事會分分鐘能教這個三哥裔的ceo該怎麼做人。
只是嗤笑之後,山姆·奧特曼顯然也並不想把眼前這位得罪的太狠了,深吸一口氣說道:“好吧,薩提亞,我們會考慮你的意見,也會盡力找到雙方都能接受的合作方式。但我們必須明確,openai的技術推進不可能被單一的利益關係所束縛。”
薩蒂亞·納德拉麵沉如水,但也只能不鹹不淡的回了句:“希望你能夠慎重考慮。如果繼續這樣下去,openai很可能將失去曾經最重要的支持者。”
不歡而散。
約談的結果就是沒有任何結果,但並不是沒有收穫。起碼雙方都大概瞭解了對方的態度。能不能有一個合適的解決方案另說。
當然,這場談話屬於機密。
除了當事人外,沒有第三人能聽到。