• 您現在的位置是:首頁 >動態 > 2020-11-13 15:47:03 來源:

    稱為GPT3的人工智能可以像人類一樣書寫

    導讀 自從今年早些時候發布以來,基于AI的新語言生成軟件GPT-3因其產生令人信服的人文寫作能力而備受關注。甚至有人建議說,由埃隆·馬斯克(Elon

    自從今年早些時候發布以來,基于AI的新語言生成軟件GPT-3因其產生令人信服的人文寫作能力而備受關注。甚至有人建議說,由埃隆·馬斯克(Elon Musk)的OpenAI創建的程序可能被認為或似乎表現出某種東西,例如人工智能(AGI),理解或執行人類所能完成的任務的能力。這種喘不過氣來的掩蓋揭示了人們在語言出現與思考能力之間自然而又異常的勾結。

    語言和思想雖然顯然不同,但卻緊密相關。有些人傾向于認為語言是思想的最終標志。但是語言可以很容易地產生而無需生靈。它所要做的就是通過計算機程序(無論是否基于AI)來消化人類語言數據庫。

    根據可用于檢查的文本樣本相對較少,GPT-3能夠產生出色的語法。由于擁有空前的龐大知識庫,因此它可以產生與主題相關的,高度連貫的新陳述,因此它具有廣泛的詞匯量。但是,它根本無法推理或顯示任何“思考”的跡象。

    例如,GPT-3撰寫的一篇文章預測,喝了一茶匙葡萄汁的蔓越莓汁后,您可能突然死亡。盡管系統可以訪問網絡上的葡萄汁可食用的信息,但這仍然可行。

    另一段文章建議將桌子通過過小的門道,您應該將門切成兩半。一個能夠理解其所寫內容或對世界情況有任何了解的系統,不會產生如此異常的問題“解決方案”。

    如果目標是創建一個可以聊天的系統,那就足夠公平了。GPT-3表明,人工智能肯定會帶來比迄今為止更好的體驗。它當然可以帶來一個愉快的笑聲。

    但是,如果目標是讓系統思考一些問題,那么我們距離目標還很遙遠。這是因為AI(例如GPT-3)通過“消化”語言內容的龐大數據庫來產生“新”的合成語言內容而起作用。

    來源是語言;產品是語言。中間放著一個神秘的黑匣子,其容量比人腦小一千倍,而且在工作方式上不像它。

    除非您學習思想本身,否則重建作為我們觀察到的語言內容起源的思想是不可能完成的任務。正如哲學家約翰·塞爾(John Searle)所說,只有“具有與大腦相同的內部因果力的機器”才能思考。

    對于認知神經科學的所有進步,我們對人類思維的了解很少。那么我們如何希望將其編程到機器中呢?

    什么能夠吸引我的是,人去暗示一種推理是AI像GTP-3應該是什么能的麻煩與參與。這確實很奇怪,并且在某些方面很有趣-如果不擔心的話。

    為什么一個計算機程序,基于AI或沒有,旨在消化數百個文字的千兆字節的許多不同的主題,了解有關生物學或社會推理什么?它沒有這個世界的實際經驗。它不能具有任何類似于人的內部表示形式。

    看來我們許多人成為心理語言因果謬誤的受害者。據說沒有火就沒有煙,沒有頭腦就沒有語言。但是GPT-3是一種語言冒煙的機器,完全不具備任何實際的人類特征或心理。這只是一種算法,沒有理由期望它能夠提供任何類型的推理。因為它不能。

  • 成人app