明天之前,有3點讓我們理解AI技術(shù),就藏在這本書里面

前幾天,由騰訊新聞出品新節(jié)目《明天之前》上線后,上線首日全網(wǎng)播放量2481萬,微博相關(guān)話題閱讀量達1億。該紀錄片以國際視野,來探討人工智能時代到來時,我們該如何與AI相處的問題。

可見,AI的話題近兩年真的很火。AI在百度百科上被定義為人工智能,它用于模擬、延伸和擴展人的智能理論的科學技術(shù)。

普通公眾對于人工智能快速發(fā)展的認知,始于2016年初,圍棋機器人“阿爾法狗”擊敗世界頂級棋手李世石的人機大戰(zhàn),這場對局在當時引起全球轟動。

從那時起,很多人都知道,AI時代來了,但它在哪里?它是誰?它長什么樣?它很聰明嗎?它真的是機器人嗎?它會像《機械姬》一樣有了自我意識后,就不受人類控制嗎?它會是歷史上的奇點,毀滅人類嗎?讓不少人產(chǎn)生各種疑惑(包括我自己)。

直到我最近讀了《你一定愛讀的人工智能簡史》(下稱《簡史》)才真正意義上理解和認識人工智能,也學會如何在心理上將人和機器擺在正確的位置上。


圖片發(fā)自簡書App

這本《簡史》的作者山本一成是世界人工智能領(lǐng)域的代表人物,由他開發(fā)的“PONANZA”程序,與IBM公司的“深藍”、谷歌公司的“阿爾法狗”并稱為人工智能史上的三大標桿,所以由他撰寫的人工智能簡史更權(quán)威更具有閱讀意義。

書中主要以研發(fā)將棋、圍棋程序為中心,用通俗易懂的文字+圖片來跟我們解讀機器學習、深度學習、強化學習——這三大人工智能核心技術(shù)的本質(zhì),歷史與未來。

就連我這種科技小白都能讀懂啥是人工智能,讀完又發(fā)現(xiàn),oh,my god 原來人工智能是這樣解決問題運作的、原來人工智能無處不在,就在你我的身邊、原來人工智能只是我們的孩子,無需害怕。

那么,請允許我根據(jù)書中的知識點,跟大家分享三點AI技術(shù)。

一、什么是智能,人工智能最初的發(fā)跡

以前沒讀這本《簡史》時,就覺得智商越高,智能就越高。后來才發(fā)現(xiàn),那是錯誤的,那根本不是智能,那是做夢。智能更多的是指機器某方面的能力強于人類,而人工智能的最終目的就是讓這臺機器能夠像人一樣思考,自行做決策。

大家都知道現(xiàn)在的電腦計算力和儲存力很厲害,早在1946年,第一臺電子計算機誕生時,它就以每1秒5000次的加法運算、500次的乘法運算的驚人速度達到人類無法超越的程度。

說它快,它確實很快,但說它智能,它又需要人類下達指令才能運行。于是,科學家就開始設(shè)想:讓機器模仿人的思維,當機器有了人的智慧,不就可以達到人工智能了。

但人類如何向機器傳達想法,成為科學家一直無法解決的問題。就像作者山本一成所說的,人類能輕松判斷杯子是杯子,但是叫人類說出是什么樣的知識結(jié)構(gòu)形成對杯子的認知時,又顯得說不來。

因為人類很難向外界全盤轉(zhuǎn)達自己的想法, 很多時候,我們的想法就像泉水一樣,很自然地從大腦流出。我們僅僅只知道大腦是由數(shù)十億個神經(jīng)細胞組成的器官,對如何思考的過程知之甚少。

所以,要人類告訴機器怎么思考,讓機器模仿人的大腦,就成為了天下最困難的事。

就這樣, 人工智能技術(shù)研究的熱潮也逐年減退,進入了世人所說的寒冬期。

二、人工智能如何解決問題運作的,它真的無處不在

直到70多年后的現(xiàn)在,科學家們開始放下讓機器模仿人類大腦的執(zhí)念,轉(zhuǎn)變另一種思路的研究。

什么樣的研究呢?

就是把人類的思維鎖在黑匣子里,嘗試讓電腦自組織、自適應(yīng),自學習的能力,而這種能力的技術(shù)被定義為機器學習。

通過機器學習,我們可以讓電腦實現(xiàn)自我訓練和自動數(shù)據(jù)調(diào)整,來增強信息處理和圖像識別,建立起機器自我知識系統(tǒng)的能力,從而達到人工智能判斷的能力。

簡單來說,就是機器自己教自己。

你只需要給機器制定一個目標就好了,比如作者山本一成的“PONANZA”將棋程序?qū)霗C器學習后,水平突飛猛進,打敗了設(shè)計者本人,而它的目標就是贏得人類。

再比如,早前外媒體曾報道過,美國喬治梅森大學打造了全球規(guī)模最大的校園送餐機器人。它也是依靠人工智能,來達到校園生活方面的自動化目標。

再再比如,我們的手機應(yīng)用程序,蘋果Srii智能聊天機器人,問它什么它就會回答和搜索;今日頭條用人工智能技術(shù)向你推送最適合你的新聞內(nèi)容;使用滴滴出行,人工智能算法能幫助司機選擇路線,規(guī)劃車輛;網(wǎng)上購物時,淘寶、天貓等電子商務(wù)網(wǎng)站用人工智能技術(shù)為你推薦最適合你的商品。

這些的這些,都是藏在我們眼皮底下的人工智能。因此,很多人(包括我)都并不知道機器學習技術(shù)已經(jīng)在各個領(lǐng)域里被人所應(yīng)用。

三、人工智能會毀滅人類嗎?

很多人對人工智能的恐懼,都是來源于霍金的預(yù)言,他一直提醒我們?nèi)斯ぶ悄鼙煌耆_發(fā)出來,很可能導致人類滅亡。

不單單是霍金預(yù)言,早期人工智能的開發(fā),也同樣出現(xiàn)過這種老問題。人工智能與人那個更厲害?人工智能是否會超過人的智慧?機器人會毀滅人類,統(tǒng)治地球?

雖然到目前為止,科學家和哲學家都無法給出確鑿的答案,但是《簡史》的作者山本一成卻用一個事例讓我們看清問題的本質(zhì)——人工智能的危險感可以歸結(jié)為“人類自身的問題”。

那么,讓我們來看一下這個事例。

有用過“谷歌相冊”的人都知道,它不需要任何人工整理、分類或標注。谷歌相冊都會為照片提供自動添加標簽、自動識別的服務(wù)。然而,谷歌也曾經(jīng)發(fā)生過將皮膚黝黑的人錯誤標記為“大猩猩”的緊急事件。

為了節(jié)省人工輸入數(shù)據(jù)標簽的成本,很多時候都會根據(jù)網(wǎng)路圖片及相關(guān)聯(lián)文章的關(guān)鍵詞來收集標簽。但事實上,網(wǎng)路上是會存在“充滿惡意”的標簽,比如把皮膚黝黑的人比喻為“大猩猩”。

而這些判斷中的誤會與成見是人類賦予給計算機程序的,現(xiàn)代的人工智能除了由程序員人工編寫數(shù)據(jù),就是自身機器通過網(wǎng)絡(luò)上知識的查閱來進行評估的。

從這里,就能看清問題的本質(zhì)是在于我們自己身上,就像山本一成在《簡史》中所說的,人工智能就像我們的孩子,而我們是賦予這個孩子本性的創(chuàng)造者。

人工智能本身就是一個什么都不懂的“孩子”,唯有我們正確“引導”它,它才能夠成為“好孩子”,對我們創(chuàng)造者保持敬意,帶來便捷。即便奇點出現(xiàn)后,“好孩子”也會用正確的方式擁抱創(chuàng)造者。

就像我對AI技術(shù)一無所知那樣,通過《簡史》這本書的引導,讓我更好的理解AI、擁抱AI,再通過擁抱大趨勢來增強我的知識認知。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容