Android OpenCV基礎(chǔ)之core模塊

一、概述

在真實(shí)世界中,我們(人類)看到的是圖像,而讓數(shù)字設(shè)備來“看“的時候,則是在記錄圖像中的每一個點(diǎn)的數(shù)值。

如上面的圖像,數(shù)字設(shè)備看到的是一個矩陣,該矩陣包含了所有像素點(diǎn)的值。最終在計算機(jī)世界里所有圖像都可以簡化為數(shù)值矩以及矩陣信息。
?OpenCV的core模塊定義了如何在內(nèi)存中存儲圖像,還包括矩陣、向量、點(diǎn)等一些基礎(chǔ)操作的定義。

二、基本圖像容器

OpenCV定義了Mat類作為基本圖像容器,此外Mat還可以只單純地表示一個矩陣。Mat由兩個數(shù)據(jù)部分組成:矩陣頭(包含矩陣尺寸,存儲方法,存儲地址等信息)和一個指向存儲所有像素值的矩陣(根據(jù)所選存儲方法的不同矩陣可以是不同的維數(shù))的指針。矩陣頭的尺寸是常數(shù)值,但矩陣本身的尺寸會依圖像的不同而不同。例如,一個RGB的圖片,其Mat對象的矩陣就是一個分別存儲R、G、B通道值的三維矩陣。
?在視覺算法中經(jīng)常需要傳遞圖片、拷貝圖片等操作,每次都拷貝矩陣開銷較大,因此OpenCV采用了引用計數(shù)機(jī)制,讓每個Mat對象有自己的信息頭,但共享同一個矩陣,拷貝構(gòu)造函數(shù)則只拷貝信息頭和矩陣指針,而不拷貝矩陣。

2.1 創(chuàng)建Mat

創(chuàng)建一個Mat的方法如下:

/**
* @param rows行;對應(yīng)bitmap的高
* @param clos列;對應(yīng)bitmap的寬
* @param 顏色空間&數(shù)據(jù)類型CvType
* @param 矩陣的數(shù)據(jù)
**/
Mat(int rows, int cols, int type, void* data, size_t step=AUTO_STEP);

Android OpenCV基礎(chǔ)(一、OpenCV入門)中,我們已經(jīng)看到過從bitmap對象創(chuàng)建Mat的方法:

void *pixels = 0;
AndroidBitmapInfo info;
// 獲取bitmap的信息
AndroidBitmap_getInfo(env, bitmap, &info);
// 獲取bitmap的像素值
AndroidBitmap_lockPixels(env, bitmap, &pixels);
cv::Mat rgbMat(info.height, info.width, CV_8UC4, pixels);

2.2 拷貝Mat

第一章中講到過拷貝構(gòu)造函數(shù)只拷貝信息頭和矩陣指針,而不拷貝矩陣。以下操作都不會拷貝矩陣:

Mat B(A);                                 // 使用拷貝構(gòu)造函數(shù)
C = A;                                    // 賦值運(yùn)算符

如果你確實(shí)需要拷貝矩陣本身,可以通過以下兩個方法:

cv::Mat tmp(info.height, info.width, CV_8UC4, pixels);
cv::Mat dst;
// 方法1:copyTo
tmp.copyTo(dst);
// 方法2:clone
dst = tmp.clone

2.3 CvType

在Mat的構(gòu)造函數(shù)中,需要傳入的CvType是OpenCV內(nèi)置的類型,格式含義如下:

// CvType含義:[每個顏色所占位數(shù)][是否帶符號][基本數(shù)據(jù)類型][每個顏色的通道數(shù)]
CV_[The number of bits per item][Signed or Unsigned][Type Prefix]C[The channel number]
// 例如CV_8UC4表示:每個顏色占8位,用unsigned char表示,每個顏色有4個通道(R、G、B、A)
cv::Mat rgbMat(info.height, info.width, CV_8UC4, pixels);

2.3.1 顏色空間

顏色空間是指對一個給定的顏色,如何組合顏色元素以對其編碼。常見的有:

  • RGB:用紅色Red、綠色Green和藍(lán)色Blue作為基本色,是最常見的,這是因為人眼采用相似的工作機(jī)制,它也被顯示設(shè)備所采用。
  • RGBA:在RGB的基礎(chǔ)上加入了透明度Alpha。
  • YCrCb:在JPEG圖像格式中廣泛使用。
  • YUV:用于Android相機(jī)的顏色空間,"Y"表示明亮度(Luminance或Luma,也就是灰度值);而"U"和"V"表示色度(Chrominance或Chroma),作用是描述影像色彩及飽和度,用于指定像素的顏色。

2.3.2 數(shù)據(jù)類型

數(shù)據(jù)類型是指每個元素如何存儲,存儲的方式?jīng)Q定了顏色在其定義域上能夠控制的精度。例如,在RGB空間,如果對于單個的R、G、B用char存儲,char占8位,那么RGB就可以表示出1600萬種可能的顏色(256 * 256 * 256)。
?如果使用更多的類型存儲(比如32位的float)或64位的double),則能給出更加精細(xì)的顏色分辨能力,單也會增加圖像所占的內(nèi)存空間。

三、Bitmap與Mat

3.1 Bitmap轉(zhuǎn)Mat

void bitmapToMat(JNIEnv *env, jobject bitmap, cv::Mat &dst) {
    AndroidBitmapInfo info;
    void *pixels = 0;
    try {
        CV_Assert(AndroidBitmap_getInfo(env, bitmap, &info) >= 0);
        CV_Assert(info.format == ANDROID_BITMAP_FORMAT_RGBA_8888 ||
                  info.format == ANDROID_BITMAP_FORMAT_RGB_565);
        CV_Assert(AndroidBitmap_lockPixels(env, bitmap, &pixels) >= 0);
        CV_Assert(pixels);
        dst.create(info.height, info.width, CV_8UC4);
        if (info.format == ANDROID_BITMAP_FORMAT_RGBA_8888) {
            cv::Mat tmp(info.height, info.width, CV_8UC4, pixels);
            tmp.copyTo(dst);
        } else {
            cv::Mat tmp(info.height, info.width, CV_8UC2, pixels);
            cvtColor(tmp, dst, CV_BGR5652RGBA);
        }
        AndroidBitmap_unlockPixels(env, bitmap);
        return;
    }catch (...) {
        AndroidBitmap_unlockPixels(env, bitmap);
        jclass je = env->FindClass("java/lang/Exception");
        env->ThrowNew(je, "Unknown exception in JNI code {nBitmapToMat}");
        return;
    }
}

3.2 Mat轉(zhuǎn)Bitmap

/**
* 創(chuàng)建Bitmap對象
*/
jobject createBitmap(JNIEnv *env, int width, int height, std::string config) {
    jclass bitmapConfig = env->FindClass("android/graphics/Bitmap$Config");
    jfieldID configFieldID = env->GetStaticFieldID(bitmapConfig, config.c_str(),
                                                   "Landroid/graphics/Bitmap$Config;");
    jobject rgb565Obj = env->GetStaticObjectField(bitmapConfig, configFieldID);
    jclass bitmapClass = env->FindClass("android/graphics/Bitmap");
    jmethodID createBitmapMethodID = env->GetStaticMethodID(bitmapClass,"createBitmap",
                                                            "(IILandroid/graphics/Bitmap$Config;)Landroid/graphics/Bitmap;");
    jobject bitmapObj = env->CallStaticObjectMethod(bitmapClass, createBitmapMethodID,
                                                    width, height, rgb565Obj);
    env->DeleteLocalRef(bitmapConfig);
    env->DeleteLocalRef(bitmapClass);
    return bitmapObj;
}

/**
* Mat轉(zhuǎn)Bitmap
*/
void matToBitmap(JNIEnv *env, cv::Mat &src, jobject bitmap) {
    AndroidBitmapInfo info;
    void *pixels = 0;
    try {
        if (AndroidBitmap_getInfo(env, bitmap, &info) < 0) {
            return;
        }
        if (info.format != ANDROID_BITMAP_FORMAT_RGBA_8888 &&
            info.format != ANDROID_BITMAP_FORMAT_RGB_565) {
            return;
        }
        if (src.dims != 2 || info.height != (uint32_t) src.rows ||
            info.width != (uint32_t) src.cols) {
            return;
        }
        if (src.type() != CV_8UC1 && src.type() != CV_8UC3 && src.type() != CV_8UC4) {
            return;
        }
        if (AndroidBitmap_lockPixels(env, bitmap, &pixels) < 0) {
            return;
        }
        if (pixels == 0) {
            return;
        }
        if (info.format == ANDROID_BITMAP_FORMAT_RGBA_8888) {
            cv::Mat tmp(info.height, info.width, CV_8UC4, pixels);
            if (src.type() == CV_8UC1) {
                cvtColor(src, tmp, CV_GRAY2RGBA);
            } else if (src.type() == CV_8UC3) {
                cvtColor(src, tmp, CV_RGB2RGBA);
            } else if (src.type() == CV_8UC4) {
                src.copyTo(tmp);
            }
        } else {
            // info.format == ANDROID_BITMAP_FORMAT_RGB_565
            cv::Mat tmp(info.height, info.width, CV_8UC2, pixels);
            if (src.type() == CV_8UC1) {
                cvtColor(src, tmp, CV_GRAY2BGR565);
            } else if (src.type() == CV_8UC3) {
                cvtColor(src, tmp, CV_RGB2BGR565);
            } else if (src.type() == CV_8UC4) {
                cvtColor(src, tmp, CV_RGBA2BGR565);
            }
        }
        AndroidBitmap_unlockPixels(env, bitmap);
        return;
    } catch (const cv::Exception &e) {
        AndroidBitmap_unlockPixels(env, bitmap);
        jclass je = env->FindClass("org/opencv/core/CvException");
        if (!je) je = env->FindClass("java/lang/Exception");
        env->ThrowNew(je, e.what());
        return;
    } catch (...) {
        AndroidBitmap_unlockPixels(env, bitmap);
        jclass je = env->FindClass("java/lang/Exception");
        env->ThrowNew(je, "Unknown exception in JNI code {nMatToBitmap}");
        return;
    }
}

四、圖片變換

一般來說,圖像處理算子是指帶有一幅或多幅輸入圖像、產(chǎn)生一幅輸出圖像的函數(shù)。圖像變換可分為以下兩種:

  • 點(diǎn)算子(像素變換):這類算子僅僅根據(jù)輸入像素值(有時可加上某些全局信息或參數(shù))計算得到相應(yīng)的輸出像素值,常見算子包括亮度和對比度調(diào)整 ,以及顏色校正和變換。
  • 鄰域(基于區(qū)域的)算子:這類算子根據(jù)據(jù)輸入像素值以及其周圍的像素值計算得到相應(yīng)的輸出像素值,常見算子包括核函數(shù)、濾波器等。

4.1 灰度圖

首先聲明JNI接口如下:

public class OpenCVSample {
    static {
        try {
            System.loadLibrary("native-lib");
        } catch (Throwable throwable) {
            throwable.printStackTrace();
        }
    }

    public static native Bitmap greyBitmap(Bitmap bitmap);

}

然后與Android OpenGL圖片后處理中類似,采用相同的方式計算灰度值:

grey=0.2126?red+0.7152?green+0.0722?bluegrey = 0.2126 * red + 0.7152 * green + 0.0722 * bluegrey=0.2126?red+0.7152?green+0.0722?blue

extern "C"
JNIEXPORT jobject JNICALL
Java_com_bc_sample_OpenCVSample_greyBitmap(
        JNIEnv *env,
        jclass thiz, jobject bitmap) {
    cv::Mat rgbMat;
    bitmapToMat(env, bitmap, rgbMat);
    // 灰度圖是單通道
    cv::Mat dst = cv::Mat(rgbMat.size(), CV_8UC1);
    // grey = 0.2126 * r + 0.7152 * g + 0.0722 * b;
    for (int y = 0; y < rgbMat.rows; y++) {
        for (int x = 0; x < rgbMat.cols; x++) {
            // 灰度圖是單通道,所以取的(y,x)是uchar類型
            // rgbMat是四通道,所以取的(y,x)是Vec4b類型
            dst.at<uchar>(y, x) =
                    cv::saturate_cast<uchar>(
                            0.2126f * rgbMat.at<cv::Vec4b>(y, x)[0]
                            + 0.7152f * rgbMat.at<cv::Vec4b>(y, x)[1]
                            + 0.0722f * rgbMat.at<cv::Vec4b>(y, x)[2]);
        }
    }
    jobject resultBitmap = createBitmap(env, dst.cols, dst.rows, "ARGB_8888");
    matToBitmap(env, dst, resultBitmap);
    return resultBitmap;
}

運(yùn)行結(jié)果如下所示:

4.2 圖片亮化

首先聲明JNI接口如下:

public class OpenCVSample {
    static {
        try {
            System.loadLibrary("native-lib");
        } catch (Throwable throwable) {
            throwable.printStackTrace();
        }
    }
    public static native Bitmap lightenBitmap(Bitmap bitmap);
}

然后在native層實(shí)現(xiàn)如下點(diǎn)算子計算邏輯:

g(i,j)=alpha?f(i,j)+betag(i, j) = alpha * f(i, j) + betag(i,j)=alpha?f(i,j)+beta

其中 i 和 j 表示第 i 行第 j 列的像素點(diǎn),alpha和beta是參數(shù),程序中我們使用alpha = 2.2,beta=50,實(shí)現(xiàn)如下:

extern "C"
JNIEXPORT jobject JNICALL
Java_com_bc_sample_OpenCVSample_lightenBitmap(
        JNIEnv *env,
        jclass thiz, jobject bitmap) {
    cv::Mat rgbMat;
    bitmapToMat(env, bitmap, rgbMat);
    // 創(chuàng)建一個同樣大小的結(jié)果Mat
    cv::Mat dst = cv::Mat(rgbMat.size(), rgbMat.type());
    /// 執(zhí)行運(yùn)算 new_image(i,j) = alpha*image(i,j) + beta
    float alpha = 2.2f;
    int beta = 50;
    for (int y = 0; y < rgbMat.rows; y++) {
        for (int x = 0; x < rgbMat.cols; x++) {
            for (int c = 0; c < rgbMat.channels(); c++) {
                // Vec4b因為我們的使用的是RGBA通道,如果RGB則是Vec3b
                // 實(shí)現(xiàn)計算邏輯
                dst.at<cv::Vec4b>(y, x)[c] = cv::saturate_cast<uchar>(
                        alpha * (rgbMat.at<cv::Vec4b>(y, x)[c]) + beta);
            }
        }
    }
    jobject lightenBitmap = createBitmap(env, dst.cols, dst.rows, "ARGB_8888");
    matToBitmap(env, dst, lightenBitmap);
    return lightenBitmap;
}

運(yùn)行結(jié)果如下所示:


4.3 圖片銳化

銳化是一個簡單的鄰域算子。與OpenGL實(shí)現(xiàn)銳化原理類似,銳化其實(shí)就是根據(jù)掩碼矩陣(也稱作核)重新計算圖像中每個像素的值。
?這次我們以如下矩陣作為銳化的kenal核函數(shù):

[0?10?15?10?10]\begin{bmatrix} 0 & -1 & 0 \ -1 & 5 & -1 \ 0 & -1 & 0 \ \end{bmatrix}???0?10?15?10?10???

首先聲明JNI接口如下:

public class OpenCVSample {
    static {
        try {
            System.loadLibrary("native-lib");
        } catch (Throwable throwable) {
            throwable.printStackTrace();
        }
    }
    public static native Bitmap sharpenBitmap(Bitmap bitmap);
}

然后在native層實(shí)現(xiàn)如下鄰域算子計算邏輯,先把矩陣中心的元素(上面的例子中是(0,0)位置的元素,也就是5)對齊到要計算的目標(biāo)像素上,再把鄰域像素值和相應(yīng)的矩陣元素值的乘積加起來。:

extern "C"
JNIEXPORT jobject JNICALL
Java_com_bc_sample_OpenCVSample_sharpenBitmap(
        JNIEnv *env,
        jclass thiz, jobject bitmap) {
    cv::Mat rgbMat;
    bitmapToMat(env, bitmap, rgbMat);
    cv::Mat dst;
    sharpen(rgbMat, dst);
    jobject sharpenBitmap = createBitmap(env, dst.cols, dst.rows, "ARGB_8888");
    matToBitmap(env, dst, sharpenBitmap);
    return sharpenBitmap;
}

/**
* 銳化核函數(shù)實(shí)現(xiàn)
**/
void sharpen(const cv::Mat &myImage, cv::Mat &Result) {
    CV_Assert(myImage.depth() == CV_8U);  // 僅接受uchar圖像
    Result.create(myImage.size(), myImage.type());
    const int nChannels = myImage.channels();
    for (int j = 1; j < myImage.rows - 1; ++j) {
        // 矩陣中的當(dāng)前點(diǎn)
        const uchar *previous = myImage.ptr<uchar>(j - 1);
        // 矩陣中當(dāng)前點(diǎn)的前一個點(diǎn)(當(dāng)前列-1)
        const uchar *current = myImage.ptr<uchar>(j);
        // 矩陣中當(dāng)前點(diǎn)的下一個點(diǎn)(當(dāng)前列+1)
        const uchar *next = myImage.ptr<uchar>(j + 1);
        uchar *output = Result.ptr<uchar>(j);
        for (int i = nChannels; i < nChannels * (myImage.cols - 1); ++i) {
            *output++ = cv::saturate_cast<uchar>(5 * current[i]
                                                 - current[i - nChannels] - current[i + nChannels] -
                                                 previous[i] - next[i]);
              // 或者使用其他銳化核函數(shù)
//            *output++ = cv::saturate_cast<uchar>(9 * current[i]
//                                                 - current[i - nChannels] - current[i + nChannels]
//                                                 -previous[i] - previous[i - nChannels] - previous[i + nChannels]
//                                                 -next[i] - next[i - nChannels] - next[i + nChannels]);
        }
    }
    // 不對邊界點(diǎn)使用掩碼,直接把它們設(shè)為0
    Result.row(0).setTo(cv::Scalar(0)); // 上邊界
    Result.row(Result.rows - 1).setTo(cv::Scalar(0)); // 下邊界
    Result.col(0).setTo(cv::Scalar(0)); // 左邊界
    Result.col(Result.cols - 1).setTo(cv::Scalar(0));// 右邊界
}

運(yùn)行結(jié)果如下所示,左邊是APP運(yùn)行結(jié)果,右邊是放大后的對比:


4.4 imgproc 模塊

imgproc模塊提供了許多圖片處理的API,實(shí)際開發(fā)中可以直接調(diào)用OpenCV提供的圖片處理API,我們將在下一章介紹imgproc模塊。上述圖片處理都可以在imgproc模塊找到對應(yīng)API:

// 顏色轉(zhuǎn)換:RGBA轉(zhuǎn)灰度
cv::cvtColor(rgbMat, dst, CV_RGBA2GRAY);
// 濾波器
CVAPI(void) cvFilter2D( const CvArr* src, CvArr* dst, const CvMat* kernel,
                        CvPoint anchor CV_DEFAULT(cvPoint(-1,-1)));

作者:BC
轉(zhuǎn)載來源于:https://juejin.cn/post/7083054545294589988
如有侵權(quán),請聯(lián)系刪除!

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容