本文主要介紹常見的鎖,以及synchronized、NSLock、遞歸鎖、條件鎖的底層分析
鎖
借鑒一張鎖的性能數(shù)據(jù)對比圖,如下所示
可以看出,圖中鎖的性能從高到底依次是:OSSpinLock(自旋鎖) -> dispatch_semaphone(信號量) -> pthread_mutex(互斥鎖) -> NSLock(互斥鎖) -> NSCondition(條件鎖) -> pthread_mutex(recursive 互斥遞歸鎖) -> NSRecursiveLock(遞歸鎖) -> NSConditionLock(條件鎖) -> synchronized(互斥鎖)
圖中鎖大致分為以下幾類:
-
【1、
自旋鎖】:在自旋鎖中,線程會反復檢查變量是否可用。由于線程這個過程中一直保持執(zhí)行,所以是一種忙等待。 一旦獲取了自旋鎖,線程就會一直保持該鎖,直到顯式釋放自旋鎖。自旋鎖避免了進程上下文的調(diào)度開銷,因此對于線程只會阻塞很短時間的場合是有效的。對于iOS屬性的修飾符atomic,自帶一把自旋鎖OSSpinLock
atomic
-
【2、
互斥鎖】:互斥鎖是一種用于多線程編程中,防止兩條線程同時對同一公共資源(例如全局變量)進行讀寫的機制,該目的是通過將代碼切成一個個臨界區(qū)而達成@synchronized
NSLock
pthread_mutex
-
【3、
條件鎖】:條件鎖就是條件變量,當進程的某些資源要求不滿足時就進入休眠,即鎖住了,當資源被分配到了,條件鎖打開了,進程繼續(xù)運行NSCondition
NSConditionLock
-
【4、
遞歸鎖】:遞歸鎖就是同一個線程可以加鎖N次而不會引發(fā)死鎖。遞歸鎖是特殊的互斥鎖,即是帶有遞歸性質(zhì)的互斥鎖pthread_mutex(recursive)
NSRecursiveLock
-
【5、
信號量】:信號量是一種更高級的同步機制,互斥鎖可以說是semaphore在僅取值0/1時的特例,信號量可以有更多的取值空間,用來實現(xiàn)更加復雜的同步,而不單單是線程間互斥- dispatch_semaphore
-
【6、
讀寫鎖】:讀寫鎖實際是一種特殊的自旋鎖。將對共享資源的訪問分成讀者和寫者,讀者只對共享資源進行讀訪問,寫者則需要對共享資源進行寫操作。這種鎖相對于自旋鎖而言,能提高并發(fā)性一個讀寫鎖同時只能有一個寫者或者多個讀者,但不能既有讀者又有寫者,在讀寫鎖保持期間也是搶占失效的如果
讀寫鎖當前沒有讀者,也沒有寫者,那么寫者可以立刻獲得讀寫鎖,否則它必須自旋在那里, 直到?jīng)]有任何寫者或讀者。如果讀寫鎖沒有寫者,那么讀者可以立刻獲得讀寫鎖
其實基本的鎖就包括三類:自旋鎖、互斥鎖、讀寫鎖,其他的比如條件鎖、遞歸鎖、信號量都是上層的封裝和實現(xiàn)。
1、OSSpinLock(自旋鎖)
自從OSSpinLock出現(xiàn)安全問題,在iOS10之后就被廢棄了。自旋鎖之所以不安全,是因為獲取鎖后,線程會一直處于忙等待,造成了任務的優(yōu)先級反轉(zhuǎn)。
其中的忙等待機制可能會造成高優(yōu)先級任務一直running等待,占用時間片,而低優(yōu)先級的任務無法搶占時間片,會造成一直不能完成,鎖未釋放的情況
在OSSpinLock被棄用后,其替代方案是內(nèi)部封裝了os_unfair_lock,而os_unfair_lock在加鎖時會處于休眠狀態(tài),而不是自旋鎖的忙等狀態(tài)
2、atomic(原子鎖)
atomic適用于OC中屬性的修飾符,其自帶一把自旋鎖,但是這個一般基本不使用,都是使用的nonatomic
在前面的文章中,我們提及setter方法會根據(jù)修飾符調(diào)用不同方法,其中最后會統(tǒng)一調(diào)用reallySetProperty方法,其中就有atomic和非atomic的操作
static inline void reallySetProperty(id self, SEL _cmd, id newValue, ptrdiff_t offset, bool atomic, bool copy, bool mutableCopy)
{
...
id *slot = (id*) ((char*)self + offset);
...
if (!atomic) {//未加鎖
oldValue = *slot;
*slot = newValue;
} else {//加鎖
spinlock_t& slotlock = PropertyLocks[slot];
slotlock.lock();
oldValue = *slot;
*slot = newValue;
slotlock.unlock();
}
...
}
從源碼中可以看出,對于atomic修飾的屬性,進行了spinlock_t加鎖處理,但是在前文中提到OSSpinLock已經(jīng)廢棄了,這里的spinlock_t在底層是通過os_unfair_lock替代了OSSpinLock實現(xiàn)的加鎖。同時為了防止哈希沖突,還是用了加鹽操作
using spinlock_t = mutex_tt<LOCKDEBUG>;
class mutex_tt : nocopy_t {
os_unfair_lock mLock;
...
}
getter方法中對atomic的處理,同setter是大致相同的
id objc_getProperty(id self, SEL _cmd, ptrdiff_t offset, BOOL atomic) {
if (offset == 0) {
return object_getClass(self);
}
// Retain release world
id *slot = (id*) ((char*)self + offset);
if (!atomic) return *slot;
// Atomic retain release world
spinlock_t& slotlock = PropertyLocks[slot];
slotlock.lock();//加鎖
id value = objc_retain(*slot);
slotlock.unlock();//解鎖
// for performance, we (safely) issue the autorelease OUTSIDE of the spinlock.
return objc_autoreleaseReturnValue(value);
}
3、synchronized(互斥遞歸鎖)
-
開啟匯編調(diào)試,發(fā)現(xiàn)
@synchronized在執(zhí)行過程中,會走底層的objc_sync_enter和objc_sync_exit方法
也可以通過clang,查看底層編譯代碼
通過對objc_sync_enter方法符號斷點,查看底層所在的源碼庫,通過斷點發(fā)現(xiàn)在objc源碼中,即libobjc.A.dylib
objc_sync_enter & objc_sync_exit 分析
- 進入
objc_sync_enter源碼實現(xiàn)- 如果obj存在,則通過
id2data方法獲取相應的SyncData,對threadCount、lockCount進行遞增操作 - 如果obj不存在,則調(diào)用
objc_sync_nil,通過符號斷點得知,這個方法里面什么都沒做,直接return了
- 如果obj存在,則通過
int objc_sync_enter(id obj)
{
int result = OBJC_SYNC_SUCCESS;
if (obj) {//傳入不為nil
SyncData* data = id2data(obj, ACQUIRE);//重點
ASSERT(data);
data->mutex.lock();//加鎖
} else {//傳入nil
// @synchronized(nil) does nothing
if (DebugNilSync) {
_objc_inform("NIL SYNC DEBUG: @synchronized(nil); set a breakpoint on objc_sync_nil to debug");
}
objc_sync_nil();
}
return result;
}
- 進入
objc_sync_exit源碼實現(xiàn)- 如果obj存在,則調(diào)用
id2data方法獲取對應的SyncData,對threadCount、lockCount進行遞減操作 - 如果obj為
nil,什么也不做
- 如果obj存在,則調(diào)用
// End synchronizing on 'obj'. 結(jié)束對“ obj”的同步
// Returns OBJC_SYNC_SUCCESS or OBJC_SYNC_NOT_OWNING_THREAD_ERROR
int objc_sync_exit(id obj)
{
int result = OBJC_SYNC_SUCCESS;
if (obj) {//obj不為nil
SyncData* data = id2data(obj, RELEASE);
if (!data) {
result = OBJC_SYNC_NOT_OWNING_THREAD_ERROR;
} else {
bool okay = data->mutex.tryUnlock();//解鎖
if (!okay) {
result = OBJC_SYNC_NOT_OWNING_THREAD_ERROR;
}
}
} else {//obj為nil時,什么也不做
// @synchronized(nil) does nothing
}
return result;
}
通過上面兩個實現(xiàn)邏輯的對比,發(fā)現(xiàn)它們有一個共同點,在obj存在時,都會通過id2data方法,獲取SyncData
- 進入
SyncData的定義,是一個結(jié)構(gòu)體,主要用來表示一個線程data,類似于鏈表結(jié)構(gòu),有next指向,且封裝了recursive_mutex_t屬性,可以確認@synchronized確實是一個遞歸互斥鎖
typedef struct alignas(CacheLineSize) SyncData {
struct SyncData* nextData;//類似鏈表結(jié)構(gòu)
DisguisedPtr<objc_object> object;
int32_t threadCount; // number of THREADS using this block
recursive_mutex_t mutex;//遞歸鎖
} SyncData;
- 進入
SyncCache的定義,也是一個結(jié)構(gòu)體,用于存儲線程,其中list[0]表示當前線程的鏈表data,主要用于存儲SyncData和lockCount
typedef struct {
SyncData *data;
unsigned int lockCount; // number of times THIS THREAD locked this block
} SyncCacheItem;
typedef struct SyncCache {
unsigned int allocated;
unsigned int used;
SyncCacheItem list[0];
} SyncCache;
id2data 分析
- 進入
id2data源碼,從上面的分析,可以看出,這個方法是加鎖和解鎖都復用的方法
static SyncData* id2data(id object, enum usage why)
{
spinlock_t *lockp = &LOCK_FOR_OBJ(object);
SyncData **listp = &LIST_FOR_OBJ(object);
SyncData* result = NULL;
#if SUPPORT_DIRECT_THREAD_KEYS //tls(Thread Local Storage,本地局部的線程緩存)
// Check per-thread single-entry fast cache for matching object
bool fastCacheOccupied = NO;
//通過KVC方式對線程進行獲取 線程綁定的data
SyncData *data = (SyncData *)tls_get_direct(SYNC_DATA_DIRECT_KEY);
//如果線程緩存中有data,執(zhí)行if流程
if (data) {
fastCacheOccupied = YES;
//如果在線程空間找到了data
if (data->object == object) {
// Found a match in fast cache.
uintptr_t lockCount;
result = data;
//通過KVC獲取lockCount,lockCount用來記錄 被鎖了幾次,即 該鎖可嵌套
lockCount = (uintptr_t)tls_get_direct(SYNC_COUNT_DIRECT_KEY);
if (result->threadCount <= 0 || lockCount <= 0) {
_objc_fatal("id2data fastcache is buggy");
}
switch(why) {
case ACQUIRE: {
//objc_sync_enter走這里,傳入的是ACQUIRE -- 獲取
lockCount++;//通過lockCount判斷被鎖了幾次,即表示 可重入(遞歸鎖如果可重入,會死鎖)
tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)lockCount);//設(shè)置
break;
}
case RELEASE:
//objc_sync_exit走這里,傳入的why是RELEASE -- 釋放
lockCount--;
tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)lockCount);
if (lockCount == 0) {
// remove from fast cache
tls_set_direct(SYNC_DATA_DIRECT_KEY, NULL);
// atomic because may collide with concurrent ACQUIRE
OSAtomicDecrement32Barrier(&result->threadCount);
}
break;
case CHECK:
// do nothing
break;
}
return result;
}
}
#endif
// Check per-thread cache of already-owned locks for matching object
SyncCache *cache = fetch_cache(NO);//判斷緩存中是否有該線程
//如果cache中有,方式與線程緩存一致
if (cache) {
unsigned int i;
for (i = 0; i < cache->used; i++) {//遍歷總表
SyncCacheItem *item = &cache->list[i];
if (item->data->object != object) continue;
// Found a match.
result = item->data;
if (result->threadCount <= 0 || item->lockCount <= 0) {
_objc_fatal("id2data cache is buggy");
}
switch(why) {
case ACQUIRE://加鎖
item->lockCount++;
break;
case RELEASE://解鎖
item->lockCount--;
if (item->lockCount == 0) {
// remove from per-thread cache 從cache中清除使用標記
cache->list[i] = cache->list[--cache->used];
// atomic because may collide with concurrent ACQUIRE
OSAtomicDecrement32Barrier(&result->threadCount);
}
break;
case CHECK:
// do nothing
break;
}
return result;
}
}
// Thread cache didn't find anything.
// Walk in-use list looking for matching object
// Spinlock prevents multiple threads from creating multiple
// locks for the same new object.
// We could keep the nodes in some hash table if we find that there are
// more than 20 or so distinct locks active, but we don't do that now.
//第一次進來,所有緩存都找不到
lockp->lock();
{
SyncData* p;
SyncData* firstUnused = NULL;
for (p = *listp; p != NULL; p = p->nextData) {//cache中已經(jīng)找到
if ( p->object == object ) {//如果不等于空,且與object相似
result = p;//賦值
// atomic because may collide with concurrent RELEASE
OSAtomicIncrement32Barrier(&result->threadCount);//對threadCount進行++
goto done;
}
if ( (firstUnused == NULL) && (p->threadCount == 0) )
firstUnused = p;
}
// no SyncData currently associated with object 沒有與當前對象關(guān)聯(lián)的SyncData
if ( (why == RELEASE) || (why == CHECK) )
goto done;
// an unused one was found, use it 第一次進來,沒有找到
if ( firstUnused != NULL ) {
result = firstUnused;
result->object = (objc_object *)object;
result->threadCount = 1;
goto done;
}
}
// Allocate a new SyncData and add to list.
// XXX allocating memory with a global lock held is bad practice,
// might be worth releasing the lock, allocating, and searching again.
// But since we never free these guys we won't be stuck in allocation very often.
posix_memalign((void **)&result, alignof(SyncData), sizeof(SyncData));//創(chuàng)建賦值
result->object = (objc_object *)object;
result->threadCount = 1;
new (&result->mutex) recursive_mutex_t(fork_unsafe_lock);
result->nextData = *listp;
*listp = result;
done:
lockp->unlock();
if (result) {
// Only new ACQUIRE should get here.
// All RELEASE and CHECK and recursive ACQUIRE are
// handled by the per-thread caches above.
if (why == RELEASE) {
// Probably some thread is incorrectly exiting
// while the object is held by another thread.
return nil;
}
if (why != ACQUIRE) _objc_fatal("id2data is buggy");
if (result->object != object) _objc_fatal("id2data is buggy");
#if SUPPORT_DIRECT_THREAD_KEYS
if (!fastCacheOccupied) { //判斷是否支持棧存緩存,支持則通過KVC形式賦值 存入tls
// Save in fast thread cache
tls_set_direct(SYNC_DATA_DIRECT_KEY, result);
tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)1);//lockCount = 1
} else
#endif
{
// Save in thread cache 緩存中存一份
if (!cache) cache = fetch_cache(YES);//第一次存儲時,對線程進行了綁定
cache->list[cache->used].data = result;
cache->list[cache->used].lockCount = 1;
cache->used++;
}
}
return result;
}
-
【第一步】首先在
tls即線程緩存中查找。在
tls_get_direct方法中以線程為key,通過KVC的方式獲取與之綁定的SyncData,即線程data。其中的tls(),表示本地局部的線程緩存,判斷獲取的data是否存在,以及判斷data中是否能找到對應的
object如果都找到了,在
tls_get_direct方法中以KVC的方式獲取lockCount,用來記錄對象被鎖了幾次(即鎖的嵌套次數(shù))如果data中的
threadCount小于等于0,或者lockCount小于等于0時,則直接崩潰-
通過傳入的
why,判斷是操作類型如果是
ACQUIRE,表示加鎖,則進行lockCount++,并保存到tls緩存如果是
RELEASE,表示釋放,則進行lockCount--,并保存到tls緩存。如果lockCount等于0,從tls中移除線程data如果是
CHECK,則什么也不做
-
【第二步】如果tls中沒有,則在
cache緩存中查找通過
fetch_cache方法查找cache緩存中是否有線程如果有,則遍歷
cache總表,讀取出線程對應的SyncCacheItem從
SyncCacheItem中取出data,然后后續(xù)步驟與tls的匹配是一致的
-
【第三步】如果cache中也沒有,即
第一次進來,則創(chuàng)建SyncData,并存儲到相應緩存中- 如果在cache中找到線程,且與object相等,則進行
賦值、以及threadCount++ - 如果在cache中沒有找到,則
threadCount等于1
- 如果在cache中找到線程,且與object相等,則進行
所以在id2data方法中,主要分為三種情況
-
【第一次進來,沒有鎖】:
threadCount = 1lockCount = 1存儲到
tls
-
【不是第一次進來,且是同一個線程】
tls中有數(shù)據(jù),則
lockCount++存儲到
tls
-
【不是第一次進來,且是不同線程】
全局線程空間進行查找線程threadCount++lockCount++存儲到
cache
tls和cache表結(jié)構(gòu)
針對tls和cache緩存,底層的表結(jié)構(gòu)如下所示
哈希表結(jié)構(gòu)中通過SyncList結(jié)構(gòu)來組裝多線程的情況SyncData通過鏈表的形式組裝當前可重入的情況下層通過
tls線程緩存、cache緩存來進行處理底層主要有兩個東西:
lockCount、threadCount,解決了遞歸互斥鎖,解決了嵌套可重入
@synchronized 坑點
下面代碼這樣寫,會有什么問題?
- (void)cjl_testSync{
_testArray = [NSMutableArray array];
for (int i = 0; i < 200000; i++) {
dispatch_async(dispatch_get_global_queue(0, 0), ^{
@synchronized (self.testArray) {
self.testArray = [NSMutableArray array];
}
});
}
}
運行結(jié)果發(fā)現(xiàn),運行就崩潰
崩潰的主要原因是testArray在某一瞬間變成了nil,從@synchronized底層流程知道,如果加鎖的對象成了nil,是鎖不住的,相當于下面這種情況,block內(nèi)部不停的retain、release,會在某一瞬間上一個還未release,下一個已經(jīng)準備release,這樣會導致野指針的產(chǎn)生
_testArray = [NSMutableArray array];
for (int i = 0; i < 200000; i++) {
dispatch_async(dispatch_get_global_queue(0, 0), ^{
_testArray = [NSMutableArray array];
});
}
可以根據(jù)上面的代碼,打開edit scheme -> run -> Diagnostics中勾選Zombie Objects ,來查看是否是僵尸對象,結(jié)果如下所示
我們一般使用@synchronized (self),主要是因為_testArray的持有者是self
注意:野指針 vs 過渡釋放
野指針:是指由于過渡釋放產(chǎn)生的指針還在進行操作過渡釋放:每次都會retain 和 release
總結(jié)
@synchronized在底層封裝的是一把遞歸互斥鎖@synchronized的可重入,即可嵌套,主要是由于lockCount和threadCount的搭配@synchronized使用鏈表的原因是鏈表方便下一個data的插入,但是由于底層中
鏈表查詢、緩存的查找以及遞歸,是非常耗內(nèi)存以及性能的,導致性能低,所以在前文中,該鎖的排名在最后但是目前該鎖的使用頻率仍然很高,主要是因為
方便簡單,且不用解鎖不能使用
非OC對象作為加鎖對象,因為其object的參數(shù)為引用類型@synchronized (self)這種適用于嵌套次數(shù)較少的場景。這里鎖住的對象也并不永遠是self,這里需要讀者注意如果鎖嵌套次數(shù)較多,即
鎖self過多,會導致底層的查找非常麻煩,因為其底層是鏈表進行查找,所以會相對比較麻煩,所以此時可以使用NSLock、信號量等
4、NSLock
NSLock是對下層pthread_mutex的封裝,使用如下
NSLock *lock = [[NSLock alloc] init];
[lock lock];
[lock unlock];
直接進入NSLock定義查看,其遵循了NSLocking協(xié)議,下面來探索NSLock的底層實現(xiàn)
NSLock 底層分析
-
通過加符號斷點
lock分析,發(fā)現(xiàn)其源碼在Foundation框架中 -
由于OC的
Foundation框架不開源,所以這里借助Swift的開源框架Foundation來 分析NSLock的底層實現(xiàn),其原理與OC是大致相同的通過源碼實現(xiàn)可以看出,底層是通過
pthread_mutex互斥鎖實現(xiàn)的。并且在init方法中,還做了一些其他操作,所以在使用NSLock時需要使用init初始化
回到前文的性能圖中,可以看出NSLock的性能僅次于 pthread_mutex(互斥鎖),非常接近
使用弊端
請問下面block嵌套block的代碼中,會有什么問題?
for (int i= 0; i<100; i++) {
dispatch_async(dispatch_get_global_queue(0, 0), ^{
static void (^testMethod)(int);
testMethod = ^(int value){
if (value > 0) {
NSLog(@"current value = %d",value);
testMethod(value - 1);
}
};
testMethod(10);
});
}
-
在未加鎖之前,其中的current=9、10有很多條,導致數(shù)據(jù)混亂,主要原因是多線程導致的
如果像下面這樣加鎖,會有什么問題?
NSLock *lock = [[NSLock alloc] init];
for (int i= 0; i<100; i++) {
dispatch_async(dispatch_get_global_queue(0, 0), ^{
static void (^testMethod)(int);
testMethod = ^(int value){
[lock lock];
if (value > 0) {
NSLog(@"current value = %d",value);
testMethod(value - 1);
}
};
testMethod(10);
[lock unlock];
});
}
其運行結(jié)果如下
會出現(xiàn)一直等待的情況,主要是因為嵌套使用的遞歸,使用NSLock(簡單的互斥鎖,如果沒有回來,會一直睡覺等待),即會存在一直加lock,等不到unlock 的堵塞情況
所以,針對這種情況,可以使用以下方式解決
- 使用
@synchronized
for (int i= 0; i<100; i++) {
dispatch_async(dispatch_get_global_queue(0, 0), ^{
static void (^testMethod)(int);
testMethod = ^(int value){
@synchronized (self) {
if (value > 0) {
NSLog(@"current value = %d",value);
testMethod(value - 1);
}
}
};
testMethod(10);
});
}
- 使用遞歸鎖
NSRecursiveLock
NSRecursiveLock *recursiveLock = [[NSRecursiveLock alloc] init];
for (int i= 0; i<100; i++) {
dispatch_async(dispatch_get_global_queue(0, 0), ^{
static void (^testMethod)(int);
[recursiveLock lock];
testMethod = ^(int value){
if (value > 0) {
NSLog(@"current value = %d",value);
testMethod(value - 1);
}
[recursiveLock unlock];
};
testMethod(10);
});
}
pthread_mutex
pthread_mutex就是互斥鎖本身,當鎖被占用,其他線程申請鎖時,不會一直忙等待,而是阻塞線程并睡眠
使用
// 導入頭文件
#import <pthread.h>
// 全局聲明互斥鎖
pthread_mutex_t _lock;
// 初始化互斥鎖
pthread_mutex_init(&_lock, NULL);
// 加鎖
pthread_mutex_lock(&_lock);
// 這里做需要線程安全操作
// 解鎖
pthread_mutex_unlock(&_lock);
// 釋放鎖
pthread_mutex_destroy(&_lock);
6、NSRecursiveLock
NSRecursiveLock在底層也是對pthread_mutex的封裝,可以通過swift的Foundation源碼查看
對比NSLock 和 NSRecursiveLock,其底層實現(xiàn)幾乎一模一樣,區(qū)別在于init時,NSRecursiveLock有一個標識PTHREAD_MUTEX_RECURSIVE,而NSLock是默認的
遞歸鎖主要是用于解決一種嵌套形式,其中循環(huán)嵌套居多
7、NSCondition
NSCondition 是一個條件鎖,在日常開發(fā)中使用較少,與信號量有點相似:線程需要滿足條件才會往下走,否則會堵塞等待,直到條件滿足。經(jīng)典模型是生產(chǎn)消費者模型
NSCondition的對象實際上作為一個鎖 和 一個線程檢查器
鎖主要 為了當檢測條件時保護數(shù)據(jù)源,執(zhí)行條件引發(fā)的任務線程檢查器主要是根據(jù)條件決定是否繼續(xù)運行線程,即線程是否被阻塞
使用
//初始化
NSCondition *condition = [[NSCondition alloc] init]
//一般用于多線程同時訪問、修改同一個數(shù)據(jù)源,保證在同一 時間內(nèi)數(shù)據(jù)源只被訪問、修改一次,其他線程的命令需要在lock 外等待,只到 unlock ,才可訪問
[condition lock];
//與lock 同時使用
[condition unlock];
//讓當前線程處于等待狀態(tài)
[condition wait];
//CPU發(fā)信號告訴線程不用在等待,可以繼續(xù)執(zhí)行
[condition signal];
底層分析
通過swift的Foundation源碼查看NSCondition的底層實現(xiàn)
open class NSCondition: NSObject, NSLocking {
internal var mutex = _MutexPointer.allocate(capacity: 1)
internal var cond = _ConditionVariablePointer.allocate(capacity: 1)
//初始化
public override init() {
pthread_mutex_init(mutex, nil)
pthread_cond_init(cond, nil)
}
//析構(gòu)
deinit {
pthread_mutex_destroy(mutex)
pthread_cond_destroy(cond)
mutex.deinitialize(count: 1)
cond.deinitialize(count: 1)
mutex.deallocate()
cond.deallocate()
}
//加鎖
open func lock() {
pthread_mutex_lock(mutex)
}
//解鎖
open func unlock() {
pthread_mutex_unlock(mutex)
}
//等待
open func wait() {
pthread_cond_wait(cond, mutex)
}
//等待
open func wait(until limit: Date) -> Bool {
guard var timeout = timeSpecFrom(date: limit) else {
return false
}
return pthread_cond_timedwait(cond, mutex, &timeout) == 0
}
//信號,表示等待的可以執(zhí)行了
open func signal() {
pthread_cond_signal(cond)
}
//廣播
open func broadcast() {
// 匯編分析 - 猜 (多看多玩)
pthread_cond_broadcast(cond) // wait signal
}
open var name: String?
}
其底層也是對下層pthread_mutex的封裝
NSCondition是對mutex和cond的一種封裝(cond就是用于訪問和操作特定類型數(shù)據(jù)的指針)wait操作會阻塞線程,使其進入休眠狀態(tài),直至超時signal操作是喚醒一個正在休眠等待的線程broadcast會喚醒所有正在等待的線程
8、NSConditionLock
NSConditionLock是條件鎖,一旦一個線程獲得鎖,其他線程一定等待
相比NSConditionLock而言,NSCondition使用比較麻煩,所以推薦使用NSConditionLock,其使用如下
//初始化
NSConditionLock *conditionLock = [[NSConditionLock alloc] initWithCondition:2];
//表示 conditionLock 期待獲得鎖,如果沒有其他線程獲得鎖(不需要判斷內(nèi)部的 condition) 那它能執(zhí)行此行以下代碼,如果已經(jīng)有其他線程獲得鎖(可能是條件鎖,或者無條件 鎖),則等待,直至其他線程解鎖
[conditionLock lock];
//表示如果沒有其他線程獲得該鎖,但是該鎖內(nèi)部的 condition不等于A條件,它依然不能獲得鎖,仍然等待。如果內(nèi)部的condition等于A條件,并且 沒有其他線程獲得該鎖,則進入代碼區(qū),同時設(shè)置它獲得該鎖,其他任何線程都將等待它代碼的 完成,直至它解鎖。
[conditionLock lockWhenCondition:A條件];
//表示釋放鎖,同時把內(nèi)部的condition設(shè)置為A條件
[conditionLock unlockWithCondition:A條件];
// 表示如果被鎖定(沒獲得 鎖),并超過該時間則不再阻塞線程。但是注意:返回的值是NO,它沒有改變鎖的狀態(tài),這個函 數(shù)的目的在于可以實現(xiàn)兩種狀態(tài)下的處理
return = [conditionLock lockWhenCondition:A條件 beforeDate:A時間];
//其中所謂的condition就是整數(shù),內(nèi)部通過整數(shù)比較條件
NSConditionLock,其本質(zhì)就是NSCondition + Lock,以下是其swift的底層實現(xiàn),
open class NSConditionLock : NSObject, NSLocking {
internal var _cond = NSCondition()
internal var _value: Int
internal var _thread: _swift_CFThreadRef?
public convenience override init() {
self.init(condition: 0)
}
public init(condition: Int) {
_value = condition
}
open func lock() {
let _ = lock(before: Date.distantFuture)
}
open func unlock() {
_cond.lock()
_thread = nil
_cond.broadcast()
_cond.unlock()
}
open var condition: Int {
return _value
}
open func lock(whenCondition condition: Int) {
let _ = lock(whenCondition: condition, before: Date.distantFuture)
}
open func `try`() -> Bool {
return lock(before: Date.distantPast)
}
open func tryLock(whenCondition condition: Int) -> Bool {
return lock(whenCondition: condition, before: Date.distantPast)
}
open func unlock(withCondition condition: Int) {
_cond.lock()
_thread = nil
_value = condition
_cond.broadcast()
_cond.unlock()
}
open func lock(before limit: Date) -> Bool {
_cond.lock()
while _thread != nil {
if !_cond.wait(until: limit) {
_cond.unlock()
return false
}
}
_thread = pthread_self()
_cond.unlock()
return true
}
open func lock(whenCondition condition: Int, before limit: Date) -> Bool {
_cond.lock()
while _thread != nil || _value != condition {
if !_cond.wait(until: limit) {
_cond.unlock()
return false
}
}
_thread = pthread_self()
_cond.unlock()
return true
}
open var name: String?
}
通過源碼可以看出
NSConditionLock是NSCondition的封裝NSConditionLock可以設(shè)置鎖條件,即condition值,而NSCondition只是信號的通知
調(diào)試驗證
以下面代碼為例,調(diào)試NSConditionLock底層流程
- (void)cjl_testConditonLock{
// 信號量
NSConditionLock *conditionLock = [[NSConditionLock alloc] initWithCondition:2];
dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0), ^{
[conditionLock lockWhenCondition:1]; // conditoion = 1 內(nèi)部 Condition 匹配
// -[NSConditionLock lockWhenCondition: beforeDate:]
NSLog(@"線程 1");
[conditionLock unlockWithCondition:0];
});
dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_LOW, 0), ^{
[conditionLock lockWhenCondition:2];
sleep(0.1);
NSLog(@"線程 2");
// self.myLock.value = 1;
[conditionLock unlockWithCondition:1]; // _value = 2 -> 1
});
dispatch_async(dispatch_get_global_queue(0, 0), ^{
[conditionLock lock];
NSLog(@"線程 3");
[conditionLock unlock];
});
}
-
在
conditionLock部分打上響應斷點,運行(需要在真機上運行:模擬器上運行的是Intel指令,而真機上運行的是arm指令) 斷住,開啟匯編調(diào)試
register read讀取寄存器,其中x0是接收者self,x1是cmd在
objc_msgSend處加斷點,再次讀寄存器 x0 --register read x0,此時執(zhí)行到了[conditionLock lockWhenCondition:2];讀x1,即
register read x1,然后發(fā)現(xiàn)讀不出來,因為x1存儲的是sel,并不是對象類型,可以通過進行強轉(zhuǎn)為SEL讀取加符號斷點
-[NSConditionLock lockWhenCondition:]、-[NSConditionLock lockWhenCondition:beforeDate:],然后查看bl、b等跳轉(zhuǎn)-
讀取寄存器 x0、x2是當前的
lockWhenCondition:beforeDate:的參數(shù),實際走的是[conditionLock lockWhenCondition:1];image -
通過匯編可知,
x2移動到了x21到這里后,我們調(diào)試的目的主要有兩個:
NSCondition + lock以及condition與value的值匹配
NSCondition + lock驗證
-
繼續(xù)執(zhí)行,在bl處斷住,讀取寄存器
x0,此時是跳轉(zhuǎn)至NSCondition -
讀取 x1,即
po (SEL)0x00000001c746e484
所以可以驗證NSConditionLock在底層調(diào)用的是NSCondition的lock方法
condition與value的值匹配
-
繼續(xù)執(zhí)行,跳到
ldr,即通過一個方法,拿到了 condition 2 的屬性值,存儲到x8中register read x19
-
po (SEL)0x0000000283d0d220 -- x19的地址+0x10
register read x8,此時的x8中存儲的是 2
cmp x8, x21,意思是將 x8和 x21匹配,即 2 和 1匹配,并不匹配
第二次來到cmp x8, x21,此時的x8、x21 是匹配的 ,即[conditionLock lockWhenCondition:2];
-
此時是x8 和 x21 是匹配的,通過斷點也可以體現(xiàn)
demo分析匯總
線程 1調(diào)用[NSConditionLock lockWhenCondition:],此時此刻因為不滿足當前條件,所以會進入 waiting 狀態(tài),當前進入到 waiting 時,會釋放當前的互斥鎖。此時當前的
線程 3 調(diào)用[NSConditionLock lock:],本質(zhì)上是調(diào)用 [NSConditionLock lockBeforeDate:],這里不需要比對條件值,所以線程 3 會打印接下來
線程 2 執(zhí)行[NSConditionLock lockWhenCondition:],因為滿足條件值,所以線程2 會打印,打印完成后會調(diào)用[NSConditionLock unlockWithCondition:],這個時候將value 設(shè)置為 1,并發(fā)送 boradcast, 此時線程 1 接收到當前的信號,喚醒執(zhí)行并打印。自此當前打印為
線程 3->線程 2 -> 線程 1[NSConditionLock lockWhenCondition:];這里會根據(jù)傳入的condition 值和 Value 值進行對比,如果不相等,這里就會阻塞,進入線程池,否則的話就繼續(xù)代碼執(zhí)行[NSConditionLock unlockWithCondition:]: 這里會先更改當前的 value 值,然后進行廣播,喚醒當前的線程
性能總結(jié)
-
OSSpinLock自旋鎖由于安全性問題,在iOS10之后已經(jīng)被廢棄,其底層的實現(xiàn)用os_unfair_lock替代使用
OSSpinLock及所示,會處于忙等待狀態(tài)而
os_unfair_lock是處于休眠狀態(tài)
-
atomic原子鎖自帶一把自旋鎖,只能保證setter、getter時的線程安全,在日常開發(fā)中使用更多的還是nonatomic修飾屬性atomic:當屬性在調(diào)用setter、getter方法時,會加上自旋鎖osspinlock,用于保證同一時刻只能有一個線程調(diào)用屬性的讀或?qū)懀?code>避免了屬性讀寫不同步的問題。由于是底層編譯器自動生成的互斥鎖代碼,會導致效率相對較低nonatomic:當屬性在調(diào)用setter、getter方法時,不會加上自旋鎖,即線程不安全。由于編譯器不會自動生成互斥鎖代碼,可以提高效率
@synchronized在底層維護了一個哈希表進行線程data的存儲,通過鏈表表示可重入(即嵌套)的特性,雖然性能較低,但由于簡單好用,使用頻率很高NSLock、NSRecursiveLock底層是對pthread_mutex的封裝NSCondition和NSConditionLock是條件鎖,底層都是對pthread_mutex的封裝,當滿足某一個條件時才能進行操作,和信號量dispatch_semaphore類似
鎖的使用場景
如果只是
簡單的使用,例如涉及線程安全,使用NSLock即可在
循環(huán)嵌套中,如果對遞歸鎖掌握的很好,則建議使用遞歸鎖,因為性能好如果是
循環(huán)嵌套,并且還有多線程影響時,例如有等待、死鎖現(xiàn)象時,建議使用@synchronized(因為在synchronized中無論怎么重入,都沒有關(guān)系,而NSRecursiveLock可能會出現(xiàn)崩潰現(xiàn)象)


























