可切片
使用Python 的切片語法來限制查詢集記錄的數(shù)目 。它等同于SQL 的LIMIT 和OFFSET 子句。
>>> Entry.objects.all()[:5] # (LIMIT 5)
Entry.objects.all()[5:10] # (OFFSET 5 LIMIT 5)
不支持負(fù)的索引(例如Entry.objects.all()[-1])。通常,查詢集 的切片返回一個(gè)新的查詢集 —— 它不會執(zhí)行查詢。
可迭代
articleList=models.Article.objects.all()
for article in articleList:
print(article.title)
惰性查詢
查詢集 是惰性執(zhí)行的 —— 創(chuàng)建查詢集不會帶來任何數(shù)據(jù)庫的訪問。你可以將過濾器保持一整天,直到查詢集 需要求值時(shí),Django 才會真正運(yùn)行這個(gè)查詢。
queryResult=models.Article.objects.all() # not hits database
print(queryResult) # hits database
for article in queryResult:
print(article.title) # hits database
一般來說,只有在“請求”
<tt class="xref py py-class docutils literal" style="margin: 0px; padding: 0px;">查詢集</tt>
的結(jié)果時(shí)才會到數(shù)據(jù)庫中去獲取它們。
當(dāng)你確實(shí)需要結(jié)果時(shí),
<tt class="xref py py-class docutils literal" style="margin: 0px; padding: 0px;">查詢集</tt>
通過訪問數(shù)據(jù)庫來求值。
關(guān)于求值發(fā)生的準(zhǔn)確時(shí)間,
緩存機(jī)制
每個(gè)查詢集都包含一個(gè)緩存來最小化對數(shù)據(jù)庫的訪問。理解它是如何工作的將讓你編寫最高效的代碼。
在一個(gè)新創(chuàng)建的查詢集中,緩存為空。首次對查詢集進(jìn)行求值 —— 同時(shí)發(fā)生數(shù)據(jù)庫查詢 ——Django 將保存查詢的結(jié)果到查詢集的緩存中并返回明確請求的結(jié)果(例如,如果正在迭代查詢集,則返回下一個(gè)結(jié)果)。接下來對該查詢集 的求值將重用緩存的結(jié)果。
請牢記這個(gè)緩存行為,因?yàn)閷Σ樵兗褂貌划?dāng)?shù)脑?,它會坑你的。例如,下面的語句創(chuàng)建兩個(gè)查詢集,對它們求值,然后扔掉它們:
print([a.title for a in models.Article.objects.all()])
print([a.create_time for a in models.Article.objects.all()])
這意味著相同的數(shù)據(jù)庫查詢將執(zhí)行兩次,顯然倍增了你的數(shù)據(jù)庫負(fù)載。同時(shí),還有可能兩個(gè)結(jié)果列表并不包含相同的數(shù)據(jù)庫記錄,因?yàn)樵趦纱握埱笃陂g有可能有Article被添加進(jìn)來或刪除掉。為了避免這個(gè)問題,只需保存查詢集并重新使用它:
queryResult=models.Article.objects.all()
print([a.title for a in queryResult])
print([a.create_time for a in queryResult])
何時(shí)查詢集不會被緩存?
查詢集不會永遠(yuǎn)緩存它們的結(jié)果。當(dāng)只對查詢集的部分進(jìn)行求值時(shí)會檢查緩存, 如果這個(gè)部分不在緩存中,那么接下來查詢返回的記錄都將不會被緩存。所以,這意味著使用切片或索引來限制查詢集將不會填充緩存。
例如,重復(fù)獲取查詢集對象中一個(gè)特定的索引將每次都查詢數(shù)據(jù)庫:
>>> queryset = Entry.objects.all()
>>> print queryset[5] # Queries the database
>>> print queryset[5] # Queries the database again
然而,如果已經(jīng)對全部查詢集求值過,則將檢查緩存:
>>> queryset = Entry.objects.all()
>>> [entry for entry in queryset] # Queries the database
>>> print queryset[5] # Uses cache
>>> print queryset[5] # Uses cache
下面是一些其它例子,它們會使得全部的查詢集被求值并填充到緩存中:
>>> [entry for entry in queryset]
>>> bool(queryset)
>>> entry in queryset
>>> list(queryset)
注:簡單地打印查詢集不會填充緩存。
exists()與iterator()方法
exists:
簡單的使用if語句進(jìn)行判斷也會完全執(zhí)行整個(gè)queryset并且把數(shù)據(jù)放入cache,雖然你并不需要這些 數(shù)據(jù)!為了避免這個(gè),可以用exists()方法來檢查是否有數(shù)據(jù):
if queryResult.exists():
#SELECT (1) AS "a" FROM "blog_article" LIMIT 1; args=()
print("exists...")
iterator:
當(dāng)queryset非常巨大時(shí),cache會成為問題。
處理成千上萬的記錄時(shí),將它們一次裝入內(nèi)存是很浪費(fèi)的。更糟糕的是,巨大的queryset可能會鎖住系統(tǒng) 進(jìn)程,讓你的程序?yàn)l臨崩潰。要避免在遍歷數(shù)據(jù)的同時(shí)產(chǎn)生queryset cache,可以使用iterator()方法 來獲取數(shù)據(jù),處理完數(shù)據(jù)就將其丟棄。
objs = Book.objects.all().iterator()
# iterator()可以一次只從數(shù)據(jù)庫獲取少量數(shù)據(jù),這樣可以節(jié)省內(nèi)存
for obj in objs:
print(obj.title)
#BUT,再次遍歷沒有打印,因?yàn)榈饕呀?jīng)在上一次遍歷(next)到最后一次了,沒得遍歷了
for obj in objs:
print(obj.title)
當(dāng)然,使用iterator()方法來防止生成cache,意味著遍歷同一個(gè)queryset時(shí)會重復(fù)執(zhí)行查詢。所以使 #用iterator()的時(shí)候要當(dāng)心,確保你的代碼在操作一個(gè)大的queryset時(shí)沒有重復(fù)執(zhí)行查詢。
總結(jié):
queryset的cache是用于減少程序?qū)?shù)據(jù)庫的查詢,在通常的使用下會保證只有在需要的時(shí)候才會查詢數(shù)據(jù)庫。 使用exists()和iterator()方法可以優(yōu)化程序?qū)?nèi)存的使用。不過,由于它們并不會生成queryset cache,可能 會造成額外的數(shù)據(jù)庫查詢。