過(guò)去一兩年,人工人工智能是什時(shí)索算最火的并且快速進(jìn)入實(shí)用的技術(shù)。( ?▽?)以前寫(xiě)過(guò)人工智能將徹底改變SEO,面影也介紹過(guò)人工智能在搜索算法中的響搜實(shí)際應用,但需要說(shuō)明的人工是,到目前為止,什時(shí)索算人工智能在搜???索算法中的面影應用并不廣泛。影響人工智能在搜索算法中大范圍使用的響搜最主要因素可能是,搜索引擎工程師不知道人工智能系統到底是人(???)工怎么做出判斷的,然后又導致另一個(gè)重要問(wèn)題:很難debug。什時(shí)索算
人工智??能是面影個(gè)黑盒子
用不(bu)太嚴格但容易理解的方式說(shuō),深度學(xué)(′_ゝ`)習就是響搜給現有數據(大量數據)打標簽,然后系統自己總結數據和結果(也就是人工所打??的標簽)之間的關(guān)系,面對新數據時(shí),什時(shí)索算就能依據自己總結的面影規律給出判斷。對圍棋來(lái)說(shuō),無(wú)論??歷史棋局還是自我對弈,AlphaGo知道盤(pán)面,也知道結局(也是一種標簽),系統就會(huì )總結規律,面對新盤(pán)面時(shí)判斷贏(yíng)??棋的概率。但AI系統找到的是(shi)數據的哪些特征,與結果之間是怎樣的關(guān)系,連創(chuàng )造AI的工程師也不知道。
所以,現在的??人工智能系統是個(gè)黑盒子。我??ヾ(′?`)?們知道AI判斷的正確率高,但不知道為什么,不知道是怎么判斷的。
搜索算法中的AI也是如此。百度搜索工程師的說(shuō)法很少見(jiàn)到,只是知道百度現在A(yíng)ll In AI了。Google工程師明(ming)確表示過(guò),他們對RankBrain到底是(shi)怎么工作的也不太清楚。在這種情況下,在算法中大量使用人工智能就比較麻煩了,一旦出現異常結果,不知道是什??么原因,也無(wú)法debug。
寫(xiě)這篇帖子是ヽ(′▽?zhuān)?ノ因為前些天看到一篇*(???)的文章(╬?益?)“AI能學(xué)會(huì )解釋(′?_?`)它自己?jiǎn)?”,非常有意思。一位心理學(xué)家Michal Kosinski把 20 萬(wàn)社(she)交網(wǎng)絡(luò )賬號(是個(gè)約會(huì )網(wǎng)站)的照片及個(gè)人信息(包括很多內容,如性向)輸入面部識別人工智能系統,發(fā)現人工智能在只看到照片的情況下判斷性向準確率很高。人工通過(guò)照片判斷一個(gè)人是否同性戀的準確率是60%,??比扔硬幣??高一點(diǎn),但人工智能判斷男性是否同性戀準確率高達91%,判斷女性低一些,也有83%。
從照片里是看不到音色語(yǔ)調、體態(tài)、日常行為、人際關(guān)系之類(lèi)幫助判斷的信息的。同性戀有純相貌方面的特征嗎?我個(gè)人的經(jīng)驗是,靠相貌判斷不大靠譜。我以前認識一對男同,他們都是很man的那種,常年健身,待人彬彬有禮但絕沒(méi)有女氣,從外表是看不出來(lái)的。(?????)也可能是依靠某種服飾特點(diǎn)?表情?背景?人工智能從照片中到底看到了什么我們ˉ\_(ツ)_/ˉ人類(lèi)(′?ω?`)很可能忽略了的特征,或者人類(lèi)根本看不到的特征,并達到91%的準確率呢?不得而知,反正只是知道A( ?ω?)I看得挺準。
不能解釋自己的AI無(wú)法被信任
這種黑箱特征有時(shí)候倒無(wú)關(guān)緊要,像是判斷一下性向。有時(shí)候就不能這么草率了,比如看病。雖然AI系統診斷某些癌癥的正確率已經(jīng)達到人類(lèi)醫生的水平,但最后結論,目前還是要醫生做,尤其是AI不能告訴我們它診斷的理由是什么的時(shí)候。除非以后AI能解釋它為什么做出這個(gè)診斷,不然讓人類(lèi)100%信任AI是有比較大心理障(′▽?zhuān)?礙的。
前幾天剛剛看到新聞,新加坡政府開(kāi)始測試無(wú)人駕駛公共汽車(chē)。這顯然是個(gè)正確的方向,我也(ye)相信不久的將來(lái)就會(huì )成為現實(shí)。雖然自動(dòng)駕駛汽車(chē)事故率比人低,理性(xing)上我們都知道其實(shí)更安全,但過(guò)馬路時(shí),停在旁邊的公共汽車(chē)沒(méi)有司機,我會(huì )不會(huì )有點(diǎn)提心吊膽,怕它突然啟動(dòng)?開(kāi)車(chē)時(shí)扭頭一看,旁邊的Bus沒(méi)有司機,我會(huì )不會(huì )嚇一跳,下意識地離它遠點(diǎn)?至少初期(?Д?)會(huì )的(de)吧。和幾個(gè)朋友聊起這個(gè)事,都是理性上相信,感性上心虛。
要求AI系統解釋自己的判斷,不僅是心理上的問(wèn)題,也許以后會(huì )變成倫理和法律上的問(wèn)題,像看病。再比如涉及用戶(hù)利益的事情,像ヽ(′ー`)ノ貸款,人工智能根據一大堆數據做出拒絕貸款的決(jue)定,銀行卻不能解釋為什么拒絕,對用戶(hù)該怎么交代?今年歐盟可能就要頒布法規,要求機器做出的決定必須有解釋。這對Google、F(′_`)aceb??ooヽ(′▽?zhuān)?/k等全球性的企業(yè)是個(gè)壓力。在很多領(lǐng)域,如軍事、法律、金融,所有決定都是要有人來(lái)承擔責任的,如果某個(gè)??決定無(wú)法解釋原因,恐怕也沒(méi)有人敢承擔這個(gè)責任。
另一個(gè)需要AI解釋理由的原因是,前面提到,人工智能看的是概率和相關(guān)性,但看相關(guān)性做決定有時(shí)候會(huì )導致嚴重錯誤。*的??文章舉了個(gè)例子。經(jīng)過(guò)數據訓練的人工智能系統輔助醫院急診室分診,總體上看效果不錯,但(dan)研究人員還是不(?⊿?)敢真的拿來(lái)實(shí)用,因為數(′?_?`)據中的相關(guān)性可能誤導人工智能做出??錯誤判斷。比如數據表明,患有(you)肺炎的氣喘病人最后病愈情況好于( ?ω?)平均水平,這個(gè)相關(guān)性是真實(shí)存在的。如果AI系統因為這個(gè)數據就給有肺炎的氣喘病人比較低的處理等級,那可能就要出事了。因為這些病人之所以最后情況良好,是因為他們一來(lái)就被給予最高等級,得到最好最快的治療了。所以,有時(shí)候從相關(guān)性看不到真正的原因。
可解釋的(de)人工智能
X.A.I.(??Explainable AI)可解釋的人(?Д?)工智能,是剛剛興起的一個(gè)領(lǐng)域,目??的就(jiu)是讓AI對自己的判斷、決定和過(guò)程做出解釋。去年美國國防高??級研究計劃局(Darpa )推出了David Gunning博士領(lǐng)導的XAI計劃。Google也依然是這個(gè)領(lǐng)域(╯°□°)╯︵ ┻━┻的領(lǐng)先者,??Deep Dream好像就是這方面研究的一個(gè)副產(chǎn)品:
回到搜索算法及SEO,搜索引擎之所以??還無(wú)法全面應用人工智能,其中一個(gè)原因也許就是人工智??能的判斷沒(méi)有解釋、無(wú)法理解,如果算法使用目前的人工智能??,一旦出現排名異常,工程師們將無(wú)法知道原因是什么,就更無(wú)法知道該怎么調整。
我想自動(dòng)駕駛是最先AI實(shí)用化的領(lǐng)域之一,和能否解釋也有一定關(guān)系。自動(dòng)駕駛汽車(chē)的大部分決定是不大需要解釋的,或ヽ(′▽?zhuān)?ノ者說(shuō)解釋是一目了然的,距離前車(chē)太近所??以要減速或者剎車(chē),這類(lèi)判斷應該不需要進(jìn)一步??解釋理由了。
SEO們大??概都有過(guò)同樣的疑惑,某個(gè)競爭對手的頁(yè)面看著(zhù)沒(méi)什么特殊的,內容不怎么樣,視覺(jué)設計一般,外鏈普通,頁(yè)面優(yōu)化大家做的都一樣,為什么排名就那么好呢?現在的搜索算法還可以探究原因,搜索工程師們大??概有內部工具可以看到排名的合理性。如果搜索工程師看著(zhù)一個(gè)挺爛的頁(yè)面就是排在前面,卻也不知道原因,還無(wú)從查起,他們的內心可能就??焦慮了。
X(′_ゝ`)AI的研究才剛剛開(kāi)始,這給了SEO們最后的緩沖期。從人工智能系統在其它領(lǐng)域碾壓人類(lèi)的(′Д` )表現看,一旦大規模應用于搜索,作弊??和黑帽S??Eヾ(′ω`)?O恐怕將成為過(guò)去,現在的常規SEO工作也許變得無(wú)足輕重,SEO們需要回到網(wǎng)站的本質(zhì):提供有用的信息或產(chǎn)品,別無(wú)(wu)他法。
作者: Zac@SE???O每天一貼
版權屬于: 中新虛擬主機
Copyright ? 2012-2018 天津九安特機電工程有限公司 版權所有 備案號: