6·18剛剛結(jié)束不久,如果你在“剁手”之余稍微關(guān)注了一下電商和物流的新聞,就會(huì)發(fā)現(xiàn),往年備受關(guān)注的快遞小哥正逐漸被另一群活躍在倉庫里的員工“搶走C位”——它們是當(dāng)下十分熱門的分揀機(jī)器人。有了這些機(jī)器人,快遞的分揀、運(yùn)送效率大大提高,“剁手”的成果也能更快、更準(zhǔn)確地送到消費(fèi)者手里。
在這些形狀各異的機(jī)器人背后,潛藏著一個(gè)龐大的市場。這一次,主導(dǎo)投資NeuroBot項(xiàng)目的Plug and Play中國區(qū)投資陳怡君將獨(dú)家對(duì)話工業(yè)機(jī)器人創(chuàng)新企業(yè)NeuroBot的創(chuàng)始人兼CEO弭寶瞳,一起探討自動(dòng)分揀機(jī)器人的現(xiàn)在與未來。
本期嘉賓:
弭寶瞳
NeuroBot創(chuàng)始人&CEO
中國人民大學(xué)計(jì)算機(jī)博士
曾任奇虎360研發(fā)工程師、產(chǎn)品經(jīng)理;Intel、AMD、SAP等公司項(xiàng)目經(jīng)驗(yàn);五年計(jì)算機(jī)軟硬件開發(fā)經(jīng)驗(yàn);發(fā)表論文數(shù)篇;山東省優(yōu)秀畢業(yè)生。
連續(xù)創(chuàng)業(yè)者,技術(shù)、管理、市場經(jīng)驗(yàn)豐富
Q
&
A
機(jī)器換人已成常態(tài):
從1959年第一臺(tái)工業(yè)機(jī)器人誕生以來,經(jīng)過幾十年的發(fā)展,工業(yè)機(jī)器人已經(jīng)滲透到各行各業(yè)。據(jù)國際機(jī)器人聯(lián)合會(huì)統(tǒng)計(jì),2017年全球工業(yè)機(jī)器人銷售量已經(jīng)超過30萬臺(tái),預(yù)計(jì)到2020年,這一數(shù)字將達(dá)到52.1萬臺(tái)。當(dāng)前工業(yè)機(jī)器人的市場行情如何?
陳怡君:
如此大規(guī)模的增長既有技術(shù)發(fā)展的推動(dòng),也有提高生產(chǎn)效率的敦促。近年來,各種原材料價(jià)格不斷上漲,人工成本也水漲船高,為保持足夠的利潤空間,規(guī)?;a(chǎn)、生產(chǎn)線改造已經(jīng)是必然的趨勢。此外,高端精密制造業(yè)的崛起也要求更精細(xì)、更高效的生產(chǎn)方式,將人從危險(xiǎn)、枯燥的重復(fù)勞動(dòng)中解放出來。
“機(jī)器換人”不僅發(fā)生在電子制造、汽車制造等精密制造行業(yè),物流、紡織等勞動(dòng)密集型產(chǎn)業(yè)也逐漸成為機(jī)器人的主戰(zhàn)場。
弭寶瞳:
隨著工業(yè)4.0的發(fā)展,制造行業(yè)將會(huì)越來越智能化、集成化,對(duì)柔性制造的需求也越來越多。因此,融合了人工智能技術(shù)的機(jī)器人成為新的熱點(diǎn)。其中,3D視覺分揀是人工智能與工業(yè)機(jī)器人相結(jié)合的代表。
NB – Picker人工智能分揀系統(tǒng)
3D視覺分揀市場前景:
我們知道,機(jī)器視覺技術(shù)經(jīng)過多年發(fā)展已經(jīng)邁入高速發(fā)展期。2D視覺技術(shù)已經(jīng)基本成熟,涉及定位、測量等的功能都能很好地完成。3D視覺相比2D視覺有哪些優(yōu)勢?
陳怡君:
作為機(jī)器人智能化升級(jí)的關(guān)鍵部件,機(jī)器視覺再度成為各大巨頭企業(yè)爭相搶奪的焦點(diǎn)。根據(jù)GGII的數(shù)據(jù),2017年中國機(jī)器視覺規(guī)模達(dá)到42億元,增長速度超25%,到2020年,市場規(guī)模將超過100億元。
盡管2D視覺已經(jīng)發(fā)展得相當(dāng)成熟,但2D視覺畢竟缺少了三維或多維空間信息,它必然無法滿足人們對(duì)智能設(shè)備越來越高的要求。
弭寶瞳:
當(dāng)前市場上的工業(yè)機(jī)器人只能針對(duì)固定位置的物體進(jìn)行抓取,對(duì)于復(fù)雜堆疊物體的識(shí)別和分揀場景,依然通過人工方式完成,限制了工業(yè)自動(dòng)化的程度,而3D視覺分揀是該場景的直接解決方案。傳統(tǒng)的解決堆疊物體分揀的問題,一般通過震盤等定制化的非標(biāo)設(shè)備來解決,現(xiàn)在通過視覺分揀的解決方案,可實(shí)現(xiàn)行業(yè)內(nèi)通用的標(biāo)準(zhǔn)產(chǎn)品,從而完成規(guī)?;瘡?fù)制。
陳怡君:
就機(jī)器分揀來說,3D視覺可以針對(duì)散亂、無序堆放的物品進(jìn)行3D識(shí)別和定位,協(xié)助工業(yè)機(jī)器人實(shí)現(xiàn)多品種工件的機(jī)器人3D抓取上料定位,以及復(fù)雜多面工件、料框堆疊物體的立體識(shí)別定位。此外,還可實(shí)現(xiàn)精準(zhǔn)的3D裝配、定位、涂膠等工藝,進(jìn)行輸送帶上物體的快速3D抓取定位等。
弭寶瞳:
再舉兩個(gè)更通俗易懂的例子。比如,iPhone X的Face ID使用的就是3D深度視覺技術(shù);目前Google、UC Berkeley等科研團(tuán)隊(duì)也在攻克面向通用物品抓取的3D視覺分揀相關(guān)技術(shù)。換句話說,不僅在工業(yè)領(lǐng)域,3D視覺在消費(fèi)級(jí)場景也將給我們帶來更大的想象空間。
陳怡君:
的確,目前3D視覺的應(yīng)用領(lǐng)域主要集中在金屬加工、包裝物流、食品、制藥等行業(yè),消費(fèi)市場對(duì)于3D視覺系統(tǒng)的需求還未完全釋放。
為何選擇這個(gè)賽道?
當(dāng)前3D視覺技術(shù)尚有一些難關(guān)未攻破,工業(yè)市場的盈利周期又比較長。為何依舊看好并投身這個(gè)賽道呢?
陳怡君:
縱觀國內(nèi)的視覺分揀市場,國內(nèi)的3D視覺定位解決方案此前基本停留在科研院所,實(shí)質(zhì)性產(chǎn)品極少見。而這項(xiàng)技術(shù)在國外已有六年左右的應(yīng)用實(shí)踐。因此,針對(duì)工業(yè)領(lǐng)域的3D視覺系統(tǒng)的市場主要被國外企業(yè)占據(jù)。值得欣喜的是,2017年,國內(nèi)多家機(jī)器人企業(yè)推出了3D視覺解決方案,NeuroBot就是其中的一個(gè)優(yōu)秀代表。
我們看到國內(nèi)的市場正在起步,甚至在3D視覺的識(shí)別模式、智能判別等細(xì)分點(diǎn)上,國內(nèi)技術(shù)已經(jīng)超過了國外。在進(jìn)一步解決快速響應(yīng)、識(shí)別速度的問題后,國產(chǎn)3D視覺有望在整體上實(shí)現(xiàn)彎道超車。
弭寶瞳:
視覺分揀可以用于工業(yè)、物流、倉儲(chǔ)等多個(gè)行業(yè)的多個(gè)場景。整個(gè)市場目前還處于藍(lán)海的狀態(tài)?,F(xiàn)有的各家產(chǎn)品還沒完全達(dá)到客戶的性能和場景需求,因此我們針對(duì)行業(yè)垂直場景的落地,將建立起較高的行業(yè)門檻。
3D視覺分揀有別于人臉識(shí)別、物品識(shí)別等常規(guī)的人工智能技術(shù),它包含的技術(shù)環(huán)節(jié)非常多。如果能夠攻克各個(gè)技術(shù)環(huán)節(jié),開發(fā)標(biāo)準(zhǔn)軟件產(chǎn)品,并實(shí)現(xiàn)項(xiàng)目落地,就能建立起較高的技術(shù)門檻。
陳怡君:
工業(yè)領(lǐng)域的技術(shù)壁壘要比測量、物流等領(lǐng)域高出很多,比如要處理零部件的表面紋理、非標(biāo)外形等情況,通常需要3D視覺、2D視覺、深度學(xué)習(xí),GPU加速等多項(xiàng)技術(shù)的集合才能實(shí)現(xiàn)。NeuroBot的團(tuán)隊(duì)在這些領(lǐng)域均有技術(shù)積累和快速開發(fā)能力。同樣也正是因?yàn)樾袠I(yè)門檻高,NeuroBot專注于一個(gè)細(xì)分領(lǐng)域,形成規(guī)?;瘡?fù)制,在市場競爭中其實(shí)是占有先機(jī)的。
無論是3D應(yīng)用,還是智能機(jī)器人技術(shù)在工業(yè)領(lǐng)域的深入和革新,我們看到了更加專項(xiàng)和精準(zhǔn)的智能化服務(wù),來自各公司獨(dú)特而優(yōu)秀的智能化產(chǎn)品將會(huì)加速各產(chǎn)業(yè)的升級(jí)。本期對(duì)話很高興能夠與NeuroBot共同探討人工智能分檢系統(tǒng),期待不久在各領(lǐng)域發(fā)現(xiàn)NeuroBot的身影。
2023-10-18 11:29
2023-10-18 11:03
2023-10-18 10:27
2023-10-17 12:09
2023-10-17 08:48
2023-10-16 09:54
2023-10-16 09:27
2023-10-16 09:25
2023-10-16 09:23
2023-10-16 09:20