CNET科技行者 11月16日 北京消息(文/周雅):站在今天第十二屆百度世界大會現場的李彥宏,首次提到“今年百度AI開發者大會把無人車開上北京五環”的事,統一回復“確實吃到一張罰單”,不過他又補充道:“如果無人駕駛的罰單已經來了,無人駕駛汽車的量產還會遠嗎?”
正是今年7月份百度在AI開發者大會釋放人工智能新戰略的背景下,今天口號為“Bring AI to Life”的百度世界大會引發了更多關注。李彥宏說“短短4個月,很多東西已經發生改變”。
這句“改變”話指“新技術,新產品,新分享”,李彥宏主題演講重點提到:將在2018年量產無人駕駛汽車,“Apollo+雄安”將創造智能出行城市,百度語音不再需要喚醒詞,百度大腦進化論,百度從“百度更懂中文”切換到“百度更懂你”......現場,科技行者看到滿屏AI應用場景。
場景一:無人駕駛小巴車沒有方向盤、沒有駕駛位、2018年量產
李彥宏回憶,從7月到現在,他唯一一次去逛商場被認出來,被問到的第一個問題就是“李總,我什么時候能坐上你們的無人車?”他說“我們在努力”。過去,包括百度在內,業界普遍預計2020年將是無人車開始量產的時間點,但百度希望把這個時間提前。
因此,百度前不久宣布與金龍汽車合作,生產一款無人駕駛的小巴車“阿波龍”,于2018年7月份實現量產。這輛L4級巴士沒有方向盤、沒有駕駛位,是一輛真正意義的無人駕駛汽車。當然,明年它會先在相對封閉的道路上試運營。
自7月份,百度正式開放無人駕駛技術平臺Apollo,到目前已經發展了6000多個開發者投票支持Apollo項目;1700多家合作伙伴加入Apollo使用開放代碼;100逾合作伙伴申請使用Apollo的開放數據。除了金龍之外,百度還發展了更多自動駕駛合作伙伴:比如2019年,江淮汽車將生產基于Apollo的自動駕駛汽車;同一年,百度和北汽也會推出基于Apollo的L3自動駕駛汽車;還有最早和百度一起合作生產自動駕駛汽車的奇瑞,將于2020年推出自動駕駛汽車;今天在北京奧林匹克森林公園,奧森的“智行者”掃地車已經運營了,由百度Apollo支持。
百度世界大會展區的Apollo無人車
不知不覺中,智能駕駛已經“潛伏”進每個人的生活。下一步,更多的無人車會從未來開到現實世界中。
場景二:疲勞駕駛?AI幫你提神
李彥宏現場還演示了疲勞駕駛監測系統:
當司機被手機干擾轉頭看信息、犯困開始打哈欠或者疲憊到眼睛睜不開的時候,系統就會及時提醒司機集中精力駕駛。一旦檢測到司機疲勞到了一定程度,系統會開始通過播放一些歡快的音樂,來幫助司機提神。當監測到司機已經重度疲勞駕駛時,系統還會將司機導航到最近的休息區。甚至在未來,百度自動駕駛還會接手卡車,把它自動地開到最近的休息區去。
該系統基于百度大腦的圖像識別技術,通過紅外人臉識別判斷,即使司機戴上墨鏡、遮擋眼睛,紅外依然能夠檢測到。
場景三:雄安的智能出行來得更早一些
人工智能當然不僅改變了汽車,同樣改變城市道路。李彥宏說:“我們很快就會宣布和雄安的合作。未來的雄安很可能是一個沒有擁堵,出行效率極高,干凈、綠色、環保、高效,沒有各種各樣的身份認證,沒有排隊,沒有各種各樣煩瑣程序的一個城市。”
更進一步說,在“Apollo+雄安”模式下,雄安有望成為一個擁有智能交通管理系統、不需要交管部門大量人力上路管理的城市。
百度Apollo開放平臺已經擁有了環境感知、智能決策與控制、高精地圖與定位、車載系統、仿真、智能互聯等核心技術。
除了雄安之外,百度和保定、蕪湖、重慶兩江新區、北京亦莊開發區、上海汽車城等城市和地區也將展開進一步的相關合作,建立自動駕駛高新技術示范區。
場景四:一個聰明的電視,可以“理解”自己在播什么
人工智能除了在汽車、交通等場景的應用之外,也有家庭應用場景。
語音交互是AI時代人機交互的重要手段,但李彥宏看來,這項技術尚未完全人性化,“無論是電視的對話,還是我們平時看到的智能音響的對話,其實都有一個基本的門檻,用戶要么需要按一個鈕再說話,要么需要喚醒詞,這個喚醒詞應該是四個字,機器才能知道你要跟它說話。但實際上,我們平常跟人說話是不需要每次都喊對方名字的。”
現在,百度度秘DuerOS技術可以將電視變成一個“聰明的電視”,聽得懂人話。譬如看電影的時候跟它說“跳到某一段”“聲音大一點”“這個演員是誰”“那個人的衣服是什么品牌”......都能得到反饋,因為電視的聰明程度需要符合人類需求。度秘DuerOS技術基于百度大腦的能力,比如語音識別能力、自然語言理解能力,以及對于視頻內容理解的能力,這些能力是現在的遙控器無論加多少按鈕都無法實現的。
場景五:人機交互不再需要喚醒詞
此外,當人們不論做什么都得騰出一只手來操作手機的時候,百度宣布,只要動動嘴皮子,就能讓手機乖乖聽話的場景“在這個月底就能實現了。”
李彥宏為此拍了一個視頻。視頻中,正在用早餐的李彥宏點擊手機百度“耳機”圖標使用TTS功能,就可以跟手機正常講話了,這時候可以通過語音指令實現“聽新聞”、調整播放順序、搜索百科、音量調整等功能。李彥宏表示這一功能“不需要按著說話,也不需要喚醒詞,就像跟人對話一樣自然。”而且,他透露,11月底,手機百度推出的語音版就會實現上述功能。
其實,早在2015年,百度新聞中就推出“人性化語音播報”,用戶在獲取新聞時擁有高度擬人化的人機交互體驗,這次的手百TTS播報的語音控制功能可以說在積累了大量的用戶反饋和交互數據后,又進行了升級迭代,用戶可以實現在開車、運動健身、用餐時,都可以同時播放音樂、聽新聞、看視頻,“解放雙手”。
場景六:即時語音翻譯上屏,英語水平堪比CET-6
整場下來,李彥宏一邊中文演講,現場大屏一邊即時識別中英文字幕。
李彥宏說,會場環境下,百度大腦的文字識別能力可達95%。英文翻譯能力也不賴,如果拿大學英語六級翻譯考題測試,滿分15分的翻譯題,百度大腦可以得13.6分。
場景七:“raven H”更懂你,背后有AI
“raven H”是本屆百度世界的重頭戲。raven H是渡鴉加入百度后發布的第一款智能硬件產品,也是百度推出的首款軟硬件結合產品,更是具備“DuerOS 2.0”系統的標桿產品,覆蓋音樂、視頻、智能家居和知識圖譜等場景。
raven H
1)音樂場景
raven H首發搭載來自于百度音樂和太合麥田的千萬正版曲庫,以及基于樂流和百度搜索數億級的音樂搜索數據,渡鴉還為raven H定制了超過 7700 種不同的音樂心情和音樂標簽,用戶可以體驗到“越聽越懂你“的音樂曲庫。
當然, raven H支持音樂場景下的多輪搜索,用算法減少用戶在音樂場景的動腦過程,音樂體驗更直接、更簡單。
2)視頻場景
渡鴉基于愛奇藝旗下的海量正版和獨家內容,同時簡化了使用流程:只需一臺已經聯網的raven H,和一臺已經聯網的電視果,就能即插即用。
3)智能家居
raven H目前支持所有主流的智能家居解決方案,未來渡鴉也將計劃推出raven系列的智能家居感應和控制套裝。
4)知識問答
渡鴉基于百度的體育數據庫以及知識圖譜,已經在足球、籃球等體育垂直類資訊下打造了問答體驗。未來,渡鴉也將基于百度搜索,百科,百度知道的數據體系,將知識問答擴展到其他領域。
渡鴉還引用此了前產品Flow的設計理念,讓場景串聯起來,改變了現有 AI 產品使用場景相互割裂的現狀。比如當詢問“曼聯下一場比賽的時間”時,小度會自動回答時間并追問是否要設置鬧鐘,在用戶回答“是的”后,鬧鐘會在約定的時間響起。如果是凌晨,raven H還會自動打開電視、臺燈,提醒用戶觀看比賽,將用戶的需求一次性串聯到位。
渡鴉在會上同時公布了另外兩款即將面世的產品raven R、raven Q。raven R是raven H的可靈活運動升級版,也是全球首款六軸全自動情感機器人;raven Q則是具備成熟人臉識別、計算機視覺和 Apollo 自動駕駛的集所有百度人工智能時代技術之大成的終極硬件形態。
上述即時語音翻譯上屏、DuerOS電視人機交互、手機百度TTS以及駕駛員疲勞監測等應用,背后都是百度大腦的能力。李彥宏介紹:“百度大腦每天被內外部調用已經達到了2188億次。”
去年,百度人工智能平臺“百度大腦”發布語音、圖像、自然語言處理和用戶畫像四大能力,并陸續向業界合作伙伴開放。一年以來,百度大腦四大能力快速進化,應用規模快速擴大。目前,百度大腦已開放80多項核心AI能力,超過37萬開發者正在接入百度AI開放平臺,使用包括語音識別,OCR,人臉識別,知識圖譜、自然語言理解、用戶畫像等等各式各樣的能力。
人工智能給了我們無窮想象力,正如李彥宏所說:我們現在見到的人工智能都只是冰山一角。未來世界每一個東西都會被AI所改變,而人類又多了一個,就是學習如何使用這個工具,并把它用的更好。
來源:CNET科技行者 【原創】