近日,英偉達(dá)(Nvidia)已開(kāi)始為其工業(yè)和機(jī)器人 Jetson 硬件平臺(tái)增添 "前沿 "生成式人工智能功能,這些功能可在設(shè)備內(nèi)運(yùn)行,而無(wú)需與云端通信。該公司聲稱,這些更新將使制造業(yè)、物流業(yè)和醫(yī)療保健業(yè)等領(lǐng)域的 10,000 多家英偉達(dá)客戶能夠更輕松地采用有望促進(jìn)自動(dòng)化的新興生成式人工智能功能。
生成式人工智能機(jī)器人
英偉達(dá)對(duì)其 Jetson 軟件的升級(jí)旨在簡(jiǎn)化生成式人工智能在工業(yè)系統(tǒng)中的設(shè)計(jì)和操作。其目的是在不需要大量特定訓(xùn)練數(shù)據(jù)的情況下,集成生成式人工智能功能。英偉達(dá)正在提供開(kāi)發(fā)者工具,如預(yù)訓(xùn)練模型、API 和微服務(wù),這樣工程師就能在機(jī)器人、制造系統(tǒng)和物流網(wǎng)絡(luò)等邊緣設(shè)備中快速構(gòu)建人工智能。使用現(xiàn)成的工具意味著工程師在為機(jī)器人或制造設(shè)備開(kāi)發(fā)人工智能時(shí)不必完全從零開(kāi)始。例如,生成式人工智能可以讓機(jī)器人理解自然語(yǔ)言指令,調(diào)整運(yùn)行軌跡以避開(kāi)障礙物,或者在裝配線上移動(dòng)時(shí)識(shí)別產(chǎn)品缺陷--所有這一切都不需要大量的重新編程。同樣的工具還可以用來(lái)教無(wú)線傳感器追蹤倉(cāng)庫(kù)中的資產(chǎn),并自動(dòng)提供庫(kù)存更新。用戶無(wú)需對(duì)系統(tǒng)重新編程,只需與機(jī)器人對(duì)話,就能教會(huì)它執(zhí)行新任務(wù)。
這些更新建立在英偉達(dá)現(xiàn)有的Isaac機(jī)器人框架和面向工業(yè)設(shè)備的Metropolis平臺(tái)基礎(chǔ)上,已有成千上萬(wàn)的客戶在使用這些框架和平臺(tái)。通過(guò)增強(qiáng)功能,可以無(wú)縫利用生成模型等新興人工智能技術(shù)。這包括訪問(wèn)英偉達(dá) 全新的 Jetson Generative AI Lab,工程師可以在這里獲得優(yōu)化的工具和教程,以部署從文本生成到可視化數(shù)據(jù)處理的 AI 創(chuàng)新。Nvidia 還將推出新的計(jì)算機(jī)視覺(jué)微服務(wù)和 API,讓開(kāi)發(fā)人員能夠輕松地為自動(dòng)化系統(tǒng)注入新一代人工智能功能。此外,一系列新的預(yù)構(gòu)建人工智能模板將使工程師能夠快速采用為制造、檢測(cè)、物流等領(lǐng)域量身定制的模塊化組件,實(shí)現(xiàn)即插即用。將生成式人工智能等先進(jìn)模型順利集成到邊緣設(shè)備中,對(duì)于充分發(fā)揮人工智能在各行各業(yè)的潛力至關(guān)重要。
英偉達(dá)負(fù)責(zé)嵌入式和邊緣計(jì)算的副總裁 Deepu Talla 表示:"生成式人工智能將大大加快邊緣人工智能的部署,其泛化程度、易用性和準(zhǔn)確性都將超過(guò)以往。我們?cè)?Jetson 上對(duì) Metropolis 和 Isaac 框架進(jìn)行了有史以來(lái)最大規(guī)模的軟件擴(kuò)展,結(jié)合變壓器模型和生成式 AI 的強(qiáng)大功能,滿足了這一需求。"
英偉達(dá)人工智能的優(yōu)勢(shì)
將生成式人工智能納入英偉達(dá)的工業(yè)機(jī)器人領(lǐng)域,符合該公司當(dāng)前的成功戰(zhàn)略,即在可行的情況下利用該技術(shù)。目前,英偉達(dá) 在涉及生成式人工智能的幾乎所有領(lǐng)域都投下了長(zhǎng)長(zhǎng)的陰影,而且沒(méi)有任何安于現(xiàn)狀的跡象。該公司最近展示了其 Grace Hopper CPU+GPU 超級(jí)芯片如何在 MLPerf 行業(yè)基準(zhǔn)測(cè)試中超越任何對(duì)手。Nvidia 表示,MLPerf 測(cè)試的目的是讓用于提升 LLM 效率和推理處理能力的新 TensorRT-LLM 軟件更具吸引力。
TensorRT-LLM利用Nvidia的GPU和編譯器大幅提高了LLM的速度和可用性?;?TensorFlow 的平臺(tái)最大限度地降低了編碼要求,并將性能優(yōu)化卸載到軟件中。該公司的 TensorRT 深度學(xué)習(xí)編譯器和其他技術(shù)允許 LLM 在多個(gè) GPU 上運(yùn)行,而無(wú)需更改任何代碼。這兩項(xiàng)升級(jí)擴(kuò)展了英偉達(dá)今年早些時(shí)候的生成式人工智能工作。從那時(shí)起,它就迅速擴(kuò)大了運(yùn)營(yíng)規(guī)模,包括與 Hugging Face 合作開(kāi)發(fā)訓(xùn)練集群即服務(wù)(Training Cluster as a Service),這是一種用于簡(jiǎn)化企業(yè) LLM 創(chuàng)建的工具。
2024-06-25 09:41
2024-06-25 09:39
2024-06-25 09:38
2024-06-25 09:38
2024-06-25 09:37
2024-06-25 09:23
2024-06-25 09:19
2024-06-24 13:44
2024-06-24 13:40
2024-06-24 12:02