Google的優(yōu)化工具:
程序?qū)崿F(xiàn)肯定好,但是如果想要滿足需求還需要進(jìn)一步加入動態(tài)的,考慮到該工具可以支持有初始路徑的場景進(jìn)行方案分配,那么就可以滿足實(shí)時(shí)更新的要求,把每天分為多個(gè)時(shí)間段,在每個(gè)時(shí)間段內(nèi)看作是一個(gè)靜態(tài)的VRP問題。那這個(gè)程序不需要進(jìn)行太大的改造就還可以,還有一個(gè)關(guān)鍵的問題是,評價(jià)指標(biāo)在這個(gè)程序中如何體現(xiàn)?
E-ACO的方案:
需要自己從零開始寫起,效果不一定好,還費(fèi)時(shí)費(fèi)力
老馬方案:
在原來的三種靜態(tài)方案上修修補(bǔ)補(bǔ)??墒且绾涡薷哪兀靠裳袌?bào)中是說可以借助蟻群算法、遺傳算法等啟發(fā)式算法進(jìn)行改進(jìn),同時(shí)利用強(qiáng)化學(xué)習(xí)不斷提高系統(tǒng)的能力。
這種方案需要在原來的已經(jīng)成型的靜態(tài)方案中進(jìn)行修改,那首先就是要了解原來的靜態(tài)方案,要不然怎么修改呢?現(xiàn)在又拿不到之前靜態(tài)方案的demo,想要做只能自己看懂java然后去寫出來demo,然后在此之上再去修改為動態(tài)的.
又想到似乎可以把google的方案包裝一下,直接拿來用不太妥,
第一,? 需要時(shí)動態(tài)的,那可以按照杭電論文的觀點(diǎn),把一天分為多個(gè)時(shí)間段,將動態(tài)問題靜態(tài)化。
第二, 反正之前說過要用強(qiáng)化學(xué)習(xí)來進(jìn)一步增強(qiáng)的,那就在google的基礎(chǔ)上加上強(qiáng)化學(xué)習(xí)的部分。
第三,? 這樣來做工作量似乎最小。
那接下查一查這種VRP問題怎么用強(qiáng)化學(xué)習(xí)?
查找到了用強(qiáng)化學(xué)習(xí)解決VRP問題的外文文章,Deep Reinforcement Learning for Solving the Vehicle Routing Problem,接下來看這篇文章如何解決,并且看看是否有源碼。