亚洲精品少妇久久久久久海角社区,色婷婷亚洲一区二区综合,伊人蕉久中文字幕无码专区,日韩免费高清大片在线

羅戈網(wǎng)
搜  索
登陸成功

登陸成功

積分  

美團(tuán)配送交付時間輕量級預(yù)估實踐

[羅戈導(dǎo)讀]在本篇中,依次展示了在配送交付場景下的三次模型策略迭代過程,以及在較為苛刻性能要求限制下,如何用輕量化的方案不斷提高召回率及效果。

導(dǎo)讀:在本文中,我們介紹了交付時間預(yù)估迭代的三個版本,分別為基于地址結(jié)構(gòu)的樹模型、向量召回方案以及輕量級的End-to-End的深度學(xué)習(xí)網(wǎng)絡(luò)。同時介紹了如何在性能和指標(biāo)之間取舍,以及模型策略迭代的中間歷程,希望能給從事相關(guān)工作的同學(xué)們有所啟發(fā)和幫助。

1. 背景

可能很多同學(xué)都不知道,從打開美團(tuán)App點一份外賣開始,然后在半小時內(nèi)就可以從騎手小哥手中拿到溫?zé)岬娘埐?,這中間涉及的環(huán)節(jié)有多么復(fù)雜。而美團(tuán)配送技術(shù)團(tuán)隊的核心任務(wù),就是將每天來自祖國各地的數(shù)千萬份訂單,迅速調(diào)度幾十萬騎手小哥按照最優(yōu)路線,并以最快的速度送到大家手中。

在這種場景下,騎手的交付時間,即騎手到達(dá)用戶附近下車后多久能送到用戶手中,就是一個非常重要的環(huán)節(jié)。下圖是一個訂單在整個配送鏈路的時間構(gòu)成,時間軸最右部分描述了交付環(huán)節(jié)在整個配送環(huán)節(jié)中的位置。交付時間衡量的是騎手送餐時的交付難度,包括從騎手到達(dá)用戶樓宇附近,到將餐品交付到用戶手中的整個時間。

交付時間的衡量是非常有挑戰(zhàn)的一件事,因為騎手在送餐交付到用戶手中時會碰到不同的問題,例如:騎手一次送餐給樓宇內(nèi)多個用戶,騎手對于特定樓宇尋址特別困難,騎手在交付樓宇附近只能步行,老舊小區(qū)沒有電梯,寫字樓無法上樓,或者難以等到電梯等等。交付時間預(yù)估需要具備刻畫交付難度的能力,在定價、調(diào)度等多個場景中被廣泛使用。例如根據(jù)交付難度來確定是否調(diào)節(jié)騎手郵資,根據(jù)交付難度來確定是否調(diào)節(jié)配送運(yùn)單的順序,從而避免超時等等??偟膩碚f,交付時間預(yù)估是配送業(yè)務(wù)基礎(chǔ)服務(wù)的重要一環(huán)。

但是,交付時間預(yù)估存在如下的困難:

  • 輸入信息較少,且多為非數(shù)值型數(shù)據(jù),目前能夠被用來預(yù)估的僅有如下維度特征:交付地址、交付點的經(jīng)緯度、區(qū)域、城市,適配常規(guī)機(jī)器學(xué)習(xí)模型需要重新整理且容易丟失信息。

  • 計算性能要求很高。由于是基礎(chǔ)服務(wù),會被大量的服務(wù)調(diào)用,需要性能TP99保證在10ms以內(nèi),整個算法平均響應(yīng)時間需要控制在5ms內(nèi),其中包括數(shù)據(jù)處理及RPC的時間。且該標(biāo)準(zhǔn)為CPU環(huán)境下的性能要求,而非GPU下的性能要求。

上圖為部分版本所對應(yīng)的性能,平響時間均在5ms內(nèi),TP99基本在10ms內(nèi)

總結(jié)起來,交付時間預(yù)估的問題,在于需要使用輕量級的解決方案來處理多種數(shù)據(jù)形式的非數(shù)值型數(shù)據(jù),并提取有效信息量,得到相對準(zhǔn)確的結(jié)果。在相同效果的前提下,我們更傾向于性能更優(yōu)的方案。

在本文中,我們介紹了交付時間預(yù)估迭代的三個版本,分別為基于地址結(jié)構(gòu)的樹模型、向量召回方案以及輕量級的End-to-End的深度學(xué)習(xí)網(wǎng)絡(luò)。同時介紹了如何在性能和指標(biāo)之間取舍,以及模型策略迭代的中間歷程,希望能給從事相關(guān)工作的同學(xué)們有所啟發(fā)和幫助。

2. 技術(shù)迭代路徑

首先,在交付時間預(yù)估的技術(shù)迭代上,我們主要經(jīng)歷了三個大版本的改動,每一版本在5ms計算性能的約束下,追求輕量化的解決方案,在兼顧提升效果的基礎(chǔ)上,不顯著增加性能的消耗。

本章節(jié)分別敘述了3個模型的迭代路徑,包括技術(shù)選型、關(guān)鍵方案及最終效果。

2.1 樹模型

技術(shù)選型

最早也是最容易被考慮到的是利用規(guī)則,核心思路是利用樹結(jié)構(gòu)衡量地址相似性,盡可能在相似的交付地址上積聚結(jié)構(gòu)化數(shù)據(jù),然后利用局部的回歸策略,得到相對充裕的回歸邏輯,而未能達(dá)到回歸策略要求的則走兜底的策略。

為了快速聚積局部數(shù)據(jù),樹模型是一個較為合適的解決方案,樹的規(guī)則解析能夠有效地聚集數(shù)據(jù),同時一個層級并不深的樹,在計算速度上,具備足夠的優(yōu)勢,能夠在較短的時間內(nèi),得到相對不錯的解決方案。

觀察用戶填寫地址以及聯(lián)系實際中地址的層級結(jié)構(gòu),不難發(fā)現(xiàn),一個地址可以由四級結(jié)構(gòu)組成:地址主干詞(addr)、樓宇號(building)、單元號(unit)、樓層(floor)。其中的地址主干詞在實際中可能對應(yīng)于小區(qū)名或者學(xué)校名等地標(biāo)名稱。例如望京花園1號樓2單元5樓,解析為(望京花園,1號樓,2單元,5樓)。通過分析,實際交付時長與樓層高低呈正相關(guān)關(guān)系,且不同交付地址的交付時長隨樓層增加的變化幅度也有所區(qū)別,所以可以使用線性回歸模型擬合樓層信息和交付時長的關(guān)系,而地址主干詞、樓宇號、單元號作為其層級索引。但用戶填寫的地址中并不一定包含完整的四級結(jié)構(gòu),就會存在一定比例的缺失,所以利用這樣的層級結(jié)構(gòu)構(gòu)建成一棵樹,然后充分利用上一層已知的信息進(jìn)行預(yù)估。預(yù)測時,只需根據(jù)結(jié)點的分支找到對應(yīng)的模型即可,如果缺失,使用上一層結(jié)構(gòu)進(jìn)行預(yù)測。對于沒有達(dá)到訓(xùn)練模型要求數(shù)據(jù)量的地址,使用其所在的區(qū)域平均交付時長作為交付時長的預(yù)估結(jié)果,這部分也可以看作區(qū)域信息,作為樹結(jié)構(gòu)的根節(jié)點。

迭代路徑

整體的思路是基于離散特征訓(xùn)練樹模型,在樹的結(jié)點上基于樓層訓(xùn)練線性回歸模型。樹結(jié)點訓(xùn)練分裂規(guī)則:(1)數(shù)據(jù)量大于閾值;(2)分裂后MAE(平均絕對誤差)的和小于分裂前??紤]到數(shù)據(jù)的時效性,采用加權(quán)線性回歸增加近期數(shù)據(jù)的權(quán)重。

2.2 樹模型+向量召回方案

技術(shù)選型

向量召回作為主流的召回方案之一,被業(yè)界廣泛使用,在使用LSH、PQ乘積量化等常用開源工具基礎(chǔ)上,高維向量召回性能通常在毫秒量級。

而從算法上考慮,樹模型中NLP地址解析結(jié)果能夠達(dá)到模型使用要求的僅為70%+,剩余20%+的地址無法通過訓(xùn)練得到的模型從而只能走降級策略。利用高維向量來表達(dá)語義相似性,即利用向量來表達(dá)地址相似性,從而用相似數(shù)據(jù)對應(yīng)的模型來替代相似但未被召回數(shù)據(jù),將地址主干詞進(jìn)行Embedding后,擺脫主干詞完全匹配的低魯棒性。

例如,在地址上可能會出現(xiàn)【7天酒店晉陽街店】數(shù)據(jù)量比較充足,但【7天連鎖酒店太原高新區(qū)晉陽街店】數(shù)據(jù)量不充足從而無法訓(xùn)練模型的案例,這可能是同一個交付位置。我們希望盡可能擴(kuò)大地址解析的成功率。

迭代路徑

整個技術(shù)路徑較為清晰簡單,即利用Word2Vec將charLevel字符進(jìn)行Embedding,獲得該地址的向量表示,并且融入GPS位置信息,設(shè)計相應(yīng)兜底策略。

向量召回方案決策路徑

最終效果

比較大地提升了整體策略的召回率,提升了12.20pp,對于未被上一版本樹模型召回的地址,指標(biāo)有了顯著的提升,其中ME下降87.14s,MAE下降38.13s,1min絕對偏差率減小14.01pp,2min絕對偏差率減小18.45pp,3min絕對偏差率減小15.90pp。

2.3 End-to-End輕量化深度學(xué)習(xí)方案

技術(shù)選型

在樹模型的基礎(chǔ)上,迭代到向量召回方案,整個模型的召回率有了較大幅度的增長,但仍然不是100%。分析發(fā)現(xiàn),召回率提升的障礙在于NLP對于地址解析的覆蓋率。

整個方案的出發(fā)點:

從模型復(fù)雜度考慮,同樣僅僅使用地址信息的話,在提升模型VC維的基礎(chǔ)上,使用其他的模型方案至少可以持平樹模型的效果,如果在這基礎(chǔ)上還能融入其他信息,那么對于原模型的基線,還能有進(jìn)一步的提升。

考慮到不僅僅需要使用地址數(shù)據(jù),同時需要使用GPS數(shù)據(jù)、大量ID類的Embedding,對于各類非數(shù)值類型的處理靈活性考慮,采用深度學(xué)習(xí)的方案,來保證多源且多類型特征能在同一個優(yōu)化體系下優(yōu)化學(xué)習(xí)。

工程上需要考慮的點:

交付模型作為基礎(chǔ)模型,被廣泛應(yīng)用在路徑構(gòu)造、定價、ETA等各個業(yè)務(wù)中頻繁調(diào)用,在樹模型版本中,對于性能的要求為平均響應(yīng)時間5ms,TP99在10ms左右,本方案需要考慮沿襲原業(yè)務(wù)的性能,不能顯著增加計算耗時。

交付模型的難點在于非數(shù)值型特征多,信息獲取形式的多樣化,當(dāng)前的瓶頸并不在于模型的復(fù)雜度低。如果可以輕量地獲取信息及融合,沒必要對Fusion后的信息做較重的處理方案。

所以整體的設(shè)計思路為:利用深度學(xué)習(xí)融合非數(shù)值型特征,在簡單Fusion的基礎(chǔ)上,直接得到輸出結(jié)構(gòu),對于組件的選擇,盡可能選用Flops較低的設(shè)計。該設(shè)計背后意圖是,在充分使用原始輸入信息,在盡可能避免信息損失的基礎(chǔ)上,將非數(shù)值型的信息融入進(jìn)去。并將信息充分融合,直接對接所需要的目標(biāo)。而選用的融合組件結(jié)構(gòu)盡可能保證高性能,且具備較高學(xué)習(xí)效率。這里分別針對地址選用了較為Robust的LSTM,針對GPS選用了自定義的雙線性Embedding,兼顧性能和效果。

迭代路徑

開始采用端到端的深度學(xué)習(xí)模型,這里首先需要解決的是覆蓋率問題,直接采用LSTM讀取charLevel的地址數(shù)據(jù),經(jīng)過全連接層直接輸出交付時間。作為第一版本的數(shù)據(jù),該版本數(shù)據(jù)基本持平樹模型效果,但對于樹模型未召回的20%數(shù)據(jù),有了較大的提升。

地址信息輸入charLevel模型

在采用charLevel的地址奏效后,我們開始采用加入用戶地址GPS的信息,由于GPS為經(jīng)緯度信息,非數(shù)值型數(shù)據(jù),我們使用一種基于地理位置格點的雙線性插值方法進(jìn)行Embedding。該方案具備一定的擴(kuò)展性,對不同的GPS均能合理得到Embedding向量,同時具備平滑特性,對于多對偏移較小的GPS點能夠很好的進(jìn)行支持。

最終方案將地址Embedding后,以及GPS點的Embedding化后,加入下單時間、城市ID、區(qū)域ID等特征后,再進(jìn)行特征融合及變換,得到交付模型的時間預(yù)估輸出。整個模型是一個端到端的訓(xùn)練,所有參數(shù)均為Trainable。

模型結(jié)構(gòu)示意圖

擴(kuò)展組件

在證實End-to-End路徑可行后,我們開始進(jìn)行擴(kuò)展組件建設(shè),包括自定義損失函數(shù)、數(shù)據(jù)采樣修正、全國模型統(tǒng)一等操作,得到一系列正向效果,并開發(fā)上線。

特征重要性分析

對于深度學(xué)習(xí)模型,我們有一系列特征重要性評估方案,這里采用依次進(jìn)行Feature Permutation的方式,作為評估模型特征重要性的方式。

考慮GPS經(jīng)緯度和用戶地址存在較大程度的信息重疊,評估結(jié)果如下。Shuffle后,用戶地址的特征重要性高于GPS經(jīng)緯度的特征重要性。加入GPS后ME下降不如地址信息明顯,主要是地址信息包含一定冗余信息(下文會分析),而其他信息的影響則可以忽略不計。

注:在配送的其他案例中,商戶GPS的經(jīng)緯度重要性>>用戶地址重要性>>用戶GPS的經(jīng)緯度重要性,該特征重要性僅僅為本案例特征重要性排序,不同學(xué)習(xí)目標(biāo)下可能會有比較明顯差別。

最終效果

End-to-End深度學(xué)習(xí)模型的最終效果較為顯著:對于樹模型及向量召回方案的最痛點,覆蓋率得到徹底解決,覆蓋率提升到100%。ME下降4.96s,MAE下降8.17s,1min絕對偏差率減小2.38pp,2min絕對偏差率減小5.08pp,3min絕對偏差率減小3.46pp。同時,對于之前樹模型及向量召回方案未能覆蓋到的運(yùn)單,提升則更為明顯。

3. 模型相關(guān)分析

在整個技術(shù)迭代的過程中,由于整個解決方案對于性能有著較為苛刻的要求,需要單獨對方案性能進(jìn)行分析。本章節(jié)對向量召回方案及深度學(xué)習(xí)方案進(jìn)行了相應(yīng)的性能分析,以便在線下確認(rèn)性能指標(biāo),最終保證上線后性能均達(dá)到要求。下文分別著重介紹了向量匹配的工具Faiss以及TensorFlow Operation算子的選取,還有對于整體性能的影響。

同時對比End-to-End生成向量與Word2Vec生成向量的質(zhì)量區(qū)別,對于相關(guān)項目具備一定的借鑒意義。

3.1 向量召回性能

最近鄰搜索(Nearest Neighbor Search)指的是在高維度空間內(nèi)找到與查詢點最近點的問題。在數(shù)據(jù)樣本小的時候,通過線性搜索就能滿足需求,但隨著數(shù)據(jù)量的增加,如達(dá)到上百萬、上億點時候,傾向于將數(shù)據(jù)結(jié)構(gòu)化表示來更加精確地表達(dá)向量信息。

此時近似最近鄰搜索ANN(Approximate Nearest Neighbor)是一個可參考的技術(shù),它能在近似召回一部分之后,再進(jìn)行線性搜索,平衡效率和精度。目前大體上有以下3類主流方法:基于樹的方法,如K-D樹等;基于哈希的方法,例如LSH;基于矢量量化的方法,例如PQ乘積量化。在工業(yè)檢索系統(tǒng)中,乘積量化是使用較多的一種索引方法。

針對向量召回的工具,存在大量的開源實現(xiàn),在技術(shù)選型的過程中,我們參照ANN-Benchmarks以及Erikbern/ANN-Benchmarks中的性能評測結(jié)果。在眾多ANN相關(guān)的工具包內(nèi),考慮到性能、內(nèi)存、召回精度等因素,同時可以支持GPU,在向量召回方案的測試中,選擇以Faiss作為Benchmark。

Faiss是FaceBook在2017年開源的一個用于稠密向量高效相似性搜索和密集向量聚類的庫,能夠在給定內(nèi)存使用下,在速度和精度之間權(quán)衡??梢栽谔峁┒喾N檢索方式的同時,具備C++/Python等多個接口,也對大部分算法支持GPU實現(xiàn)。

下圖為Faiss測評曲線:

交付時間模型召回的性能測試如下,可以達(dá)到性能需求。

  • 召回候選集數(shù)量:8W條向量【由于采用了GPS距離作為距離限制,故召回測試采用8W數(shù)量級】。

  • 測試機(jī)器:Mac本機(jī)CPU【CPU已滿足性能,故不再測試GPU】。

3.2 序列模塊性能

在TensorFlow系統(tǒng)中,以C API為界限,將系統(tǒng)劃分為【前端】和【后端】兩個子系統(tǒng),前端扮演Client角色,完成計算圖的構(gòu)造,然后由Protobuf發(fā)送給后端啟動計算圖計算。計算圖的基礎(chǔ)單元是OP,代表的是某種操作的抽象。在TensorFlow中,考慮到實現(xiàn)的不同,不同OP算子的選擇,對于計算性能具有較大影響。

為了評測深度學(xué)習(xí)交付模型的性能瓶頸,首先對整個模型進(jìn)行Profile,下圖即為Profile后的Timeline,其中整個計算大部分消耗在序列模塊處理部分,即下圖中的藍(lán)色部分。故需要對序列模塊的計算性能進(jìn)行OP算子的加速。

考慮到序列處理的需求,評估使用了LSTM/GRU/SRU等模塊,同時在TensorFlow中,LSTM也存在多種實現(xiàn)形式,包括BasicLSTMCell、LSTMCell、LSTMBlockCell、LSTMBlockFusedCell和CuDNNLSTM等實現(xiàn),由于整個交付模型運(yùn)行在CPU上,故排除CuDNNLSTM,同時設(shè)置了全連接層FullyConnect加入評估。

從評估中可以發(fā)現(xiàn),全連接層速度最快,但是對于序列處理會損失2.3pp效果,其余的序列模型效果差異不大,但不同的OP實現(xiàn)對結(jié)果影響較大。原生的BasicLSTM性能較差,contrib下的LSTMBlockFusedCell性能最好,GRU/SRU在該場景下未取得顯著優(yōu)勢。

這是LSTMBlockFusedCell的官方說明,其核心實現(xiàn)是將LSTM的Loop合并為一個OP,調(diào)用時候整個Timeline上更為緊湊,同時節(jié)約時間和內(nèi)存:

This is an extremely efficient LSTM implementation, that uses a single TF op for the entire LSTM. It should be both faster and more memory-efficient than LSTMBlockCell defined above.

以下是序列模塊的性能測試:

  • 環(huán)境:Tensorflow1.10.0,CentOS 7。

  • 測試方法:CPU inference 1000次,取最長的地址序列,求平均時間。

  • 結(jié)論:LSTMBlockFused實現(xiàn)性能最佳?!綟ullyConnect性能最快,但對性能有損失】

注:在評估中,不僅僅包括了序列模型,也包括了其他功能模塊,故參數(shù)量及模型大小按照總體模型而言

3.3 向量效果分析

將向量召回與深度學(xué)習(xí)模型進(jìn)行橫向比較,二者中間過程均生成了高維向量。不難發(fā)現(xiàn),二者具備一定的相似性,這里就引發(fā)了我們的思考:

  • 相較于向量召回,深度學(xué)習(xí)模型帶來的提升主要來自于哪里?

  • 有監(jiān)督的lstm學(xué)習(xí)到的Embedding向量與自監(jiān)督的Word2Vec得到的向量在地址相似性計算中有多大差別,孰優(yōu)孰劣?

首先,我們分析第一個問題,End-to-End模型提升主要來自哪里?

我們直接將End-to-End模型得到的char embedding抽取出來,直接放入到Word2Vec方案內(nèi),取代Word2Vec生成的char embedding,再進(jìn)行向量召回的評估。結(jié)果如下表所示,單獨抽取出來的char embedding在向量召回方案中,表現(xiàn)與Word2Vec生成的向量基本一致,并沒有明顯的優(yōu)勢。

注:

  • 1min絕對偏差率定義:|pred-label|<=60s

  • 2min絕對偏差率定義:|pred-label|<=120s

  • 3min絕對偏差率定義:|pred-label|<=180s

此時的變量有2個方面:

  1. 對于charLevel地址的學(xué)習(xí)結(jié)構(gòu)不同,一個為Word2Vec,一個為LSTM。

  2. 輸入信息的不同,Word2Vec的信息輸入僅僅為地址主干詞,而End-to-End的信息輸入則包括了地址主干詞、地址附屬信息、GPS等其他信息。

注:

  • 完整地址:卓瑪護(hù)膚造型(洞庭湖店) (洞庭湖路與天山路交叉路口卓瑪護(hù)膚造型)

  • 地址主干詞:卓瑪護(hù)膚造型店

  • 地址附屬信息:(洞庭湖店)(洞庭湖路與天山路交叉路口卓瑪護(hù)膚造型)

為了排除第二方面的因素,即b的因素,使用地址主干詞作為輸入,而不用地址附屬信息和其他模型結(jié)構(gòu)的輸入,保持模型輸入跟Word2Vec一致。在測試集上,模型的效果比完整地址有明顯的下降,MAE增大約15s。同時將char embedding提取出來,取代Word2Vec方案的char embedding,效果反而變差了。結(jié)合2.3節(jié)中的特征重要性,可知,深度學(xué)習(xí)模型帶來的提升主要來自對地址中冗余信息(相較于向量召回)的利用,其次是多個新特征的加入。另外,對比兩個End-to-End模型的效果,地址附屬信息中也包含著對匹配地址有用的信息。

針對第二個問題,有監(jiān)督的End-to-End學(xué)習(xí)到的Embedding向量,與自監(jiān)督的Word2Vec得到的向量在地址相似性計算中有多大差別,孰優(yōu)孰劣?

采用地址主干詞代替完整地址,作為End-to-End模型的輸入進(jìn)行訓(xùn)練,其他信息均保持不變。使用地址主干詞訓(xùn)練得到的Embedding向量,套用到向量召回方案中。

從評估結(jié)果來看,對于不同的閾值,End-to-End的表現(xiàn)差異相對Word2Vec較小。相同閾值下,End-to-End召回率更高,但是效果不如Word2Vec。

從相似計算結(jié)果看,End-to-End模型會把一些語義不相關(guān)但是交付時間相近的地址,映射到同一個向量空間,而Word2Vec則是學(xué)習(xí)一個更通用的文本向量表示。

例如,以下兩個交付地址會被認(rèn)為向量距離相近,但事實上只是交付時間相近:

南內(nèi)環(huán)西街與西苑南路交叉口金昌盛國會<=>辰憬家園迎澤西大街西苑南路路口林香齋酒店

如果想要針對更為復(fù)雜的目標(biāo)和引入更多信息,可以使用End-to-End框架;只是計算文本相似性,從實驗結(jié)果看,Word2Vec更好一些。同時,通過查看Case也可以發(fā)現(xiàn),End-to-End更關(guān)注結(jié)果相似性,從而召回一部分語義上完全不相關(guān)的向量。兩個模型目標(biāo)上的不同,從而導(dǎo)致了結(jié)果的差異。

4. 總結(jié)與展望

在本篇中,依次展示了在配送交付場景下的三次模型策略迭代過程,以及在較為苛刻性能要求限制下,如何用輕量化的方案不斷提高召回率及效果。同時,對迭代過程中的性能進(jìn)行簡單的分析及衡量,這對相關(guān)的項目也具備一定的借鑒意義,最后對Word2Vec及End-to-End生成的向量進(jìn)行了比較。

事實上,本文中提及的向量召回及深度學(xué)習(xí)融合非數(shù)值型特征的方案,已經(jīng)在業(yè)界被廣泛使用。但對于差異化的場景,本文仍具備一定的借鑒價值,特別是對于訂單-騎手匹配、訂單-訂單匹配等非搜索推薦領(lǐng)域的場景化應(yīng)用,以及TF OP算子的選用及分析、Embedding生成方式帶來的差異,希望能夠給大家提供一些思路和啟發(fā)。

5. 關(guān)聯(lián)閱讀

交付時間預(yù)估與ETA預(yù)估及配送其他業(yè)務(wù)關(guān)系:

  • 交付時間預(yù)估是ETA預(yù)估中的重要一環(huán),關(guān)于ETA預(yù)估,請參見《深度學(xué)習(xí)在美團(tuán)配送ETA預(yù)估中的探索與實踐》。

  • 具體ETA在整個配送業(yè)務(wù)中的位置及配送業(yè)務(wù)的整體機(jī)器學(xué)習(xí)實踐,請參看《機(jī)器學(xué)習(xí)在美團(tuán)配送系統(tǒng)的實踐:用技術(shù)還原真實世界》。

免責(zé)聲明:羅戈網(wǎng)對轉(zhuǎn)載、分享、陳述、觀點、圖片、視頻保持中立,目的僅在于傳遞更多信息,版權(quán)歸原作者。如無意中侵犯了您的版權(quán),請第一時間聯(lián)系,核實后,我們將立即更正或刪除有關(guān)內(nèi)容,謝謝!
上一篇:鐵塔能源與美團(tuán)配送簽訂協(xié)議、開啟共享電池模式
下一篇:前置倉的死結(jié)是“人效”,頭上還架著美團(tuán)這把刀
羅戈訂閱
周報
1元 2元 5元 10元

感謝您的打賞

登錄后才能發(fā)表評論

登錄

相關(guān)文章

2025-04-18
2025-03-26
2025-03-24
2025-03-24
2025-03-21
2025-03-20
活動/直播 更多

倉儲管理之全局視角:從入門到精通

  • 時間:2025-04-24 ~ 2025-05-16
  • 主辦方:馮銀川
  • 協(xié)辦方:羅戈網(wǎng)

¥:2080.0元起

報告 更多

2025年3月物流行業(yè)月報-個人版

  • 作者:羅戈研究

¥:9.9元