早在2014年徐可第一次創業時,她已經通過查看Openai代碼庫的方式,深刻地了解了這家公司,所以對于ChatGPT,徐可有著獨到的見解。徐可認為:“ChatGPT火爆背后是認知智能技術的一次飛躍,或將成為人工智能行業發展的里程碑和分水嶺。且ChatGPT有更多的商業價值和大行業前景,因為它能夠提供更多工作崗位和商業機會,例如輸入文本生成圖像、根據需求迅速寫出代碼、創造更成熟的文案等。”

3ae5fdb41d030bec91cce033d2899ac3.jpg

Openai 代碼庫曾號稱永久開源,并且不會用于商業盈利。現在看來,Openai違背了他們的初心——核心代碼庫早在 2016年就停止了開源。且Elon Musk也曾是Openai的聯合創始人之一,但其與Openai管理層理念不合,在2019年退出了Openai公司,并在接管推特后終止了ChatGPT 和推特的學習連接。

雖然ChatGPT具備強大的學習能力,但由于其核心代碼目的不明確,這不禁會讓人聯想到霍金曾提到過的奇點降臨,“一旦人工智能跨過了與人類智慧相同的“奇點”( Singular Point ),我們可能會面臨“智慧爆炸”(intelligence explosion),屆時,人工智能在智慧上超越人類。這對人類產生的影響,要么就是最好的,要么就是最糟糕的。它既可能讓人類永生,也可能讓人類毀滅”。

徐可認為:“ChatGPT在受到熱議的同時,也遭到一些質疑,比如Eloquent、能言善辯、夸夸其談等。正是因為這些特性,當奇點降臨時,AI可能不會第一時間通過戰爭的形式打擊人類,而是在社交媒體散布虛假、恐怖信息等方式引起人類的恐慌和社會秩序的混亂。”

正因如此,徐可補充說:“AI的治理迫在眉睫,且我們需要重點關注兩個方面:

第一,控制AI的自我編譯能力。一旦奇點降臨,AI掌握了自我編譯能力,就意味著AI將突破人類對其的限制,這會導致計算機軟硬件可以自動演進、爆發式成長等,屆時,AI將徹底失控。

第二,篩選AI學習的信息源。如果AI學習的信息源過于反人類,這會導致社交媒體上有過多的反人類信息被傳播,會對認知較低的人群產生毀滅性的危害。如果再被利用到人類的派系斗爭中,AI極有可能被培養成戰爭機器。”

40e40002ba78e878c09897bd7bfbe103.jpg

嘉賓提問:未來如何區分人類和AI?

徐可認為:“或許可以通過與去中心化社交結合的方式來解決。就熱門的Nostr協議來說,由于使用的是公私鑰體系、Client和Relay完成社交的去中心化,如果添加一個去中心化錢包,即可區分出人類與AI的區別。因為AI只能擁有公私鑰,且無法持有有價值的Token,這一方法可以在一定范圍內避免AI的危言聳聽,同時也可以參考這個思路,創造出更多的AI治理模式。”

贊(0) 打賞
以上內容(如有圖片或視頻亦包括在內)為自媒體平臺用戶上傳并發布,未作人工編輯處理,不構成投資建議請自行甄別,也不承擔相關法律責任。如果您發現有涉嫌版權的內容,歡迎發送郵件至:wolfba@qq.com 進行舉報,并提供相關證據,工作人員會在5個工作日內聯系你,一經查實,本站將立刻刪除涉嫌侵權內容!
分享到

相關推薦

大智網匯

版權聲明:本文內容由互聯網用戶自發貢獻,該文觀點僅代表作者本人。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如發現本站有涉嫌抄襲侵權/違法違規的內容, 請發送郵件至 wolfba@q.com 舉報,一經查實,本站將立刻刪除。

投稿&軟文

覺得文章有用就打賞一下文章作者

非常感謝你的打賞,我們將繼續提供更多優質內容,讓我們一起創建更加美好的網絡世界!

微信掃一掃打賞

登錄

找回密碼

注冊