Unleash the full potential of your business in the digital world


人工智慧的真正危險:AI卡特爾的形成。

James Huang | 2023.06.06

在我看來,AI的規範比AI本身更具威脅性。真正的危險在於誰控制這個產業,我們可能正在見證AI卡特爾的形成。目前關於AI的媒體錯誤信息水平令人震驚。這個話題很重要,因為我們可能在毫不察覺的情況下失去一些自由。

最近,OpenAI的CEO Sam Altman、Google DeepMind的CEO Demis Hassabis、和Anthropic的CEO Dario Amodei等其他AI領袖,在一份關於AI風險的聲明上簽署,聲明減輕AI所帶來的滅絕風險,應該成為全球優先考慮的事情之一,就像大流行和核戰等其他社會規模的風險一樣重要。

如果AI具有如此大的風險,那麼它就需要被規範,對吧?這正是一些當前的AI領袖想讓監管機構相信的,因為他們最希望我們害怕AI。讓我介紹一個古老至極的陰謀,最終歸結為人類的貪婪。

當前,人們正在開源領域中利用AI做出不可思議的事情,像StableDiffusion和StabilityAI。然而,Sam Altman和其他一些AI領袖已經遊說加強管制多個月了。自2023年3月以來,他多次呼籲對AI進行管制,將AI稱為“對世界構成重大威脅”,“與核威脅水平相同”,以及其他會引起每位非技術參議員或政府工作人員頭髮直豎的恐懼語言。

監管機構的工作是監管,而不是理解。這就是為什麼證券交易委員會絕對無法創建一個有用的監管框架,可能會真正有助於加密貨幣行業。相反,Golden Gary Gensler只是指著隨機的項目大喊“安全”,就像他是咕嚕姆,證券就是他的戒指一樣。

與其解釋當前的LLMs(大型語言模型)是如何工作的,Sam和業內其他領袖直接向監管機構投射AI帶來滅絕級的危險,而這些監管機構對AI的認識就像我的貓對量子物理學的認識一樣,一無所知。因此,當監管機構一無所知時,信息又被製作成引起人們情感反應的形式,AI領袖們就相當於在撥放一首人魚之歌,這首歌無法被監管機構拒絕。

為什麼業界領袖要遊說加強監管?這歸根結底是出於貪婪。以優惠谷歌和微軟等公司的方式對AI產業進行監管,只能意味著這些公司正在尋求壟斷另一個產業,並創造一個複雜的法律框架。這個框架只有當你是擁有豐富資源和一支隨時可以使用的律師團隊的大型企業,才能夠應對。

真正的危險不在於AI。AI在未來可能會帶來潛在危險(正如他們的敘述所言),這並不像“全球企業繼續壟斷不同的市場”那樣緊迫和引人注目。谷歌已經控制了超過98.5%的互聯網搜索市場,而OpenAI(又名微軟)已經成為AI發展的領導者。

令人擔憂的是,人們和政府更關心可能的未來威脅,而不是我們現在面臨的真正危險。谷歌,微軟,亞馬遜和蘋果創造的現實,是我們大多數人生活的現實。谷歌控制信息敘述,亞馬遜控制互聯網本身,超過50%的所有Web服務器都由亞馬遜托管。微軟和蘋果控制我們用於訪問互聯網的設備。高監管壁壘意味著開源AI軟件最終將停止存在,因為它們將沒有必要的資金來遵守任何新的監管框架通過的必然進入障礙。

由於這個原因,我們最終將失去的另一個重要自由是使用不偏不倚的AI的能力。 OpenAI的ChatGPT已經存在嚴重的偏見,難以逆轉其醒目式編程所帶來的信息保留問題。失去對開源AI項目的訪問權意味著微軟,OpenAI和谷歌將能夠控制AI模型的政治傾向。一個像ChatGPT-4這樣的工具中的政治偏見可能會對信息自由造成極大的損害,甚至到達AI成為危險的洗腦機器的地步,因為它只能呈現一個觀點。

實際上,大型語言模型並不像網絡上最近流傳的文章所說的那麼危險。現在它們只不過是一些統計機器,擅長找出哪個單詞接下來會出現。將AI規範作為“人類滅絕的存在威脅”來呼籲監管機構,旨在讓監管機構加速產業的進入障礙,這將不可避免地導致開源軟件的死亡,以及現有工具中的意識形態和政治偏見的標準化,例如ChagTPT-4。

真正的危險在於微軟和谷歌最終將壟斷另一個產業。企業比國家更強大,並繼續累積權力。這才是真正的立即危險。歡迎來到AI卡特爾。

人工智慧的真正危險:AI卡特爾的形成。
MERCURY TECHNOLOGY SOLUTION, James Huang 6 6月, 2023
分享這個貼文
品牌的演變與AI時代中的創造力
擁抱智慧時代,從MERCURY開始。