您現在的位置是:首頁 >互聯網 > 2020-10-27 11:14:20 來源:
提升AI父母會為現代企業打造更好的AI系統嗎
部分事實,部分科幻小說,無賴人工智能的概念正受到廣泛關注 -這是有充分理由的。
作為AI的創造者,人類對有情機器負有責任,其方式類似于父母的職責。但是隨著AI逐漸成熟成可以產生和訓練自己的程序,人們對事物的解釋變得越來越少,機器變得更加自治。人工智能的復雜性導致人們呼吁在該領域中增加背景和軟技能的多樣性,以期通過更周到的培訓來遏制人工智能的偏見和全面脫軌。
所有這些都提出了一個有趣的問題:父母是否具有獨特的能力來訓練AI,并且育兒方法能否更好地訓練AI來抽象和適應當今快速發展的商業世界?
近期的發展推動了AI的發展,使AI對格式塔測試, 逼真的文本生成器 和準確的醫學診斷的認知度得以提高 。對于每種類型的AI,都有一名幕后工程師對軟件進行編程,以識別海量數據集中的模式以實現特定目標。
為此,強化學習已經采用了類似父母的方法,該方法指導AI的最初發展,以便它可以快速從錯誤中學習并進行相應的自我糾正。同時, 用于人工智能的神經網絡技術的發展使機器具有了更像人類的素質,這引發了一個問題:人工智能是否能夠很快抽象地思考,從而將利基用例推廣到更廣泛的業務應用之外?
為了更好地了解在令人眼花of亂的AI世界中父母式培訓方法,我最近與SiliconANGLE的姊妹市場研究公司Wikibon的數據科學首席分析師James Kobielus進行了交談。十多年來,Kobielus一直在密切分析AI的深度,從計算基礎設施到道德框架。根據Kobielus的說法,將需要一個技能集和AI訓練方法的村莊,涵蓋受監督和不受監督的模型,以為現代企業的成年任務做好準備。 為了清楚起見,以下簡述如下。
問:父母的經歷如何對有助于AI培訓的軟技能做出貢獻?
答:從章魚到樹木,任何有情的生物都會進行某種程度的學習。他們必須適應不同的環境。我們已經學習了,這就是為什么我們仍然在這里。那么一個人如何學習?有自然,就有養育。
讓我們談談自然。作為人類的發明,人工智能已經過改進,可以適應各種任務。當我們談論在AI環境中學習時,它能夠使其行為適應環境的變化,應對其在該環境中面臨的挑戰,并在達到其成果方面取得一定程度的成功。在過去的十年中,人工智能幾乎完全從基于規則的系統轉變為我們現在稱為機器學習的系統。
在育兒方面,父母在某種程度上不需要給孩子很多東西。嬰兒出生時就具有內置的認知能力。從某種意義上說,學習不是訓練,要確保無監督的學習就必須要做一些特定的任務。但是對于AI而言,監督學習正在建立一個模型,以查看其如何處理數據,從而基于對歷史數據的訓練方式來預測接下來會看到什么。示例包括年齡,種族,性別或面部識別的預測。
在育兒和人工智能的背景下,合理地構建預測模型是一項軟技能,因為您必須了解導致問題的原因。對于強化學習,您必須了解任務,并希望確保不會傷害到人員并且不會損壞物體。在強化學習中必須進行廣泛的模擬,例如使用自動駕駛汽車。育兒是一樣的。有很多很多的規則。父母會根據環境風險做出長遠的決定。孩子們不會自己學習所有東西,但是他們有天生的限制因素。
問:強化學習如何幫助遏制AI模型中的偏見?
答:關于AI的偏見,它被定義為您要避免的一組結果。每個AI都會對其所訓練的任務有偏見。當我們廣義地談論完美的AI模型時,它取決于AI構建者了解要完成的任務的軟技能。例如,在構建用于房屋貸款批準的AI時,有很多變量,例如受保護的屬性。盡管貸款中可能存在有效的預測變量,但如果將它們納入AI模型,則可以有效地不公平地偏向沒有富裕父母或私立學校等歷史優勢的整個人群。
AI如何遏制偏見:關注數據。它反映了整個社會的偏見,因此可以設計AI以防止不必要的偏見。必須測試AI模型的潛在偏差,這可以由人工完成以評估AI所識別的那些異常值。
為了加強學習以避免偏見,實際上我還沒有遇到過,所以讓我們來探索一下。如果將AI編程為避免可能與不公平歧視相關的步驟,則可以使用強化學習來訓練AI模型采取步驟來避免明顯的偏見。
問:機器能比幼兒做得更好嗎?幼兒能比機器做得更好嗎?
答:我們只能說人類,因為幼兒是人類。好吧,人類沒有被編程-我們不是機器。從來沒有人寫過代碼直接插入我的大腦。我取而代之的是評估信息。我們就是這樣學習的。
人工智能必須實現人類的邏輯,人類可以使用硬邏輯和軟邏輯進行編程。而且邏輯正變得越來越統計。這就是AI革命的全部內容。機器以24/7的速度運行,請勿入睡或燒壞。機器可以處理的數據比人類多得多,并且可以保留更新的精確數據日志,而我幾乎不記得我兩秒鐘前所說的話。
對于AI來說,令人驚奇的是芯片組。該行業是往前朝向克AI-優化的芯片組,圖形處理單元和張量的核心處理。驅動各種機器的邏輯,尤其是諸如智能手機和坐在辦公桌上的Alexa之類的邊緣設備,能夠從其環境中學習,并且具有與人類互動的驚人多功能性。
但是人類可以比機器做得更好的是類比。我們可以將以前看到的內容與現在看到的內容進行比較。類比是人類智能的基礎,現在正在對AI進行編程,以在具有統計表示形式的監督學習下進行類比。
您甚至可以將AI視為對人類統計分析的改進。它需要我們所有的感官(視覺,聽覺等等)來建立和完善統計分析。機器可以快速地處理人類可能看不見的大量數據。我們有直覺和天生的技能。機器與我們共生,將我們自己的直覺與數據結合在一起。
問:您看到或期待哪些進步可以幫助AI模型發展出更抽象的思維,以在不同的用例中概括獲得的知識?
答:沒有一般的AI可以將一項任務變成另一項任務。當人們以籠統的方式談論AI時,他們傾向于掩蓋AI被要求完成的任務。人工智能的存在是為了尋找數據中的相關性,無論它們是因果關系還是統計上的。大多數AI旨在執行分類和識別任務,例如語音識別或異常檢測。當您查看AI的廣泛任務時,我在這些示例中描述的大部分內容都是通過有監督的學習完成的,這使損失函數(即所提供的數據與預測下一件事的統計函數之間的差異)最小化。
當您談論強化學習時,它是另一種野獸。您編寫一個統計模型,通過反復試驗得出結論。AI模型能夠根據算法看到的下一個數據集,不斷調整基礎算法,以識別特定動作是否使AI更加接近其累積獎勵功能-最終目標。
機器人技術是強化學習的經典核心,您可以在其中嘗試某些空間或環境中的所有可能路徑或動作。例如,機器人走過并撿起一塊并將其放在架子上。如果機器人執行的99%的動作沒有將其推進到目標,則AI將重新設計其算法以刪除那些錯誤的路徑。在養育子女中,試錯是我們所有人固有的。如果您跌落10英尺高的壁架,將會傷害自己,并在將來避免這種后果。
問:轉學在哪里適合?
答:現在有轉移學習,這是指越來越多的技術可以吸收以前的AI中積累的統計知識-例如,用于識別人類的計算機視覺模型可以快速,準確地應用于識別其他物體的新任務靈長類動物,甚至改編該模型以識別個別的貓和狗。這種方法能夠重新調整各種模型的用途,并具有相鄰的用例。
另一個例子是自然語言處理。它可以進行基于英語自然語言AI的情感分析,并將其應用于其他英語方言。這涉及對神經網絡結構進行統計分析,對原始模型使用的預測變量進行特征集分析,然后將其應用于相似但不完全相同的場景。
轉移學習在游戲中得到了廣泛的應用,使游戲之間可以相互學習,從而可以根據人們玩一種游戲的方式,將為該游戲構建的數據和AI重新用于另一種游戲,從而在一定程度上自動學習,玩另一種效率很高的游戲。我們還看到了機器人技術中的轉移學習 -機器人可以學習在一個環境中行走,并且可以將知識轉移到機器人中以學習在類似環境中爬行。
問:是否有商業動機來推廣AI系統,還是為特定任務訓練特定AI更具成本效益?
答:為特定任務訓練AI更具成本效益。您可以對AI進行現有投資,而無需進行過多的返工,使其適合于做您可能會發現更有用的其他事情。如果成本不太高,那么只有激勵。在現實世界中,并沒有太多瑣碎的一般情報工作。AGI蓬勃發展的地方是科幻小說,而AGI距離黃金時段還很遙遠。AGI的未來性很強,在好萊塢比在現實世界中模擬的東西還要多。