程序師世界是廣大編程愛好者互助、分享、學習的平台,程序師世界有你更精彩!
首頁
編程語言
C語言|JAVA編程
Python編程
網頁編程
ASP編程|PHP編程
JSP編程
數據庫知識
MYSQL數據庫|SqlServer數據庫
Oracle數據庫|DB2數據庫
 程式師世界 >> 編程語言 >> C語言 >> 關於C語言 >> 圖像基本處理算法的簡單實現(一)

圖像基本處理算法的簡單實現(一)

編輯:關於C語言

 圖像基本處理算法的簡單實現一)

一、引言          圖像處理基本算法整理。            拿來舉例的實現代碼是在JNI方法內直接實現的,且傳入參數為int[]顏色值,返回為新的int[]顏色值,可能頭上還包括了長寬。很丑,見諒T^T)            2.2的NDK提供了Bitmap.h,這種方式可參考《Android NDK基礎樣例》的樣例3,灰度化圖像Bitmap作為參數)。   二、目錄 1)縮放算法          據說有最鄰近插值、雙線性內插值、高階插值、三次卷積法等等。我已經暈了~)            縮放是從原圖像->目標圖像的過程。目標圖像的新顏色值,由圖像長寬比反向計算在原圖像的位置,從而獲得。反向計算得到的坐標一般為浮點坐標,表示為(i+u,j+v)i,j整數整數、u,v小數部分)。          1)最鄰近插值:取(i,j)的顏色值即可,效果不咋的==          2)雙線性內插值:由(i,j)、(i+1,j)、(i,j+1)、(i+1,j+1)四點距(i+u,j+v)遠近計算比例求得四領域乘以相應的權重)。效果不錯了哈== 公式:f(i+u,j+v)=(1-u)(1-v)*f(i,j)+(1-u)v*f(i,j+1)+u(1-v)*f(i+1,j)+uv*f(i+1,j+1) 復制:雙線性內插值具有低通濾波器性質,使高頻風量受損,可能會使圖像輪廓在一定程度上變得模糊。尤其放大處理,影響將更為明顯。          3)高階插值、三次卷積法等:說是雙線性使細節柔化、會有鋸齒什麼的。這些算法就是能夠更好的修正這些不足,但計算量更大==。高階插值沒搜索到具體算法啊,是指一類概念麼?雙三次插值屬於高階插值這類的意思?)   雙線性內插值的實現:
  1. int min(int x, int y) { 
  2.     return (x <= y) ? x : y; 
  3. int alpha(int color) { 
  4.     return (color >> 24) & 0xFF; 
  5. int red(int color) { 
  6.     return (color >> 16) & 0xFF; 
  7. int green(int color) { 
  8.     return (color >> 8) & 0xFF; 
  9. int blue(int color) { 
  10.     return color & 0xFF; 
  11. int ARGB(int alpha, int red, int green, int blue) { 
  12.     return (alpha << 24) | (red << 16) | (green << 8) | blue; 
  13.  
  14. /** 
  15.  * 按雙線性內插值算法將對應源圖像四點顏色某一顏色值混合 
  16.  * 
  17.  * int(*fun)(int)指向從color中獲取某一顏色值的方法 
  18.  */ 
  19. int mixARGB(int *color, int i, int j, float u, float v, int(*fun)(int)) { 
  20.     // f(i+u,j+v)=(1-u)(1-v)*f(i,j)+(1-u)v*f(i,j+1)+u(1-v)*f(i+1,j)+uv*f(i+1,j+1) 
  21.     return (1 - u) * (1 - v) * (*fun)(color[0]) + (1 - u) * v * (*fun)(color[1]) 
  22.             + u * (1 - v) * (*fun)(color[2]) + u * v * (*fun)(color[3]); 
  23.  
  24. /** 
  25.  * 按雙線性內插值算法將對應源圖像四點顏色值混合 
  26.  * 
  27.  * color[]需要有四個顏色值,避免越界 
  28.  */ 
  29. int mixColor(int *color, int i, int j, float u, float v) { 
  30.     int a = mixARGB(color, i, j, u, v, alpha); // 獲取alpha混合值 
  31.     int r = mixARGB(color, i, j, u, v, red); // 獲取red混合值 
  32.     int g = mixARGB(color, i, j, u, v, green); // 獲取green混合值 
  33.     int b = mixARGB(color, i, j, u, v, blue); // 獲取blue混合值 
  34.     return ARGB(a, r, g, b); 
  35.  
  36. /** 
  37.  * 將Bitmap縮放後返回雙線性內插值算法) 
  38.  * 
  39.  * JNIEnv*  jni環境jni必要參數) 
  40.  * jobject  java對象jni必要參數) 
  41.  * jintArray    Bitmap所有像素值 
  42.  * int  Bitmap寬度 
  43.  * int  Bitmap高度 
  44.  * int  Bitmap新寬度 
  45.  * int  Bitmap新高度 
  46.  */ 
  47. JNIEXPORT jintArray JNICALL Java_org_join_image_util_JoinImage_stretch( 
  48.         JNIEnv* env, jobject obj, jintArray buf, int srcW, int srcH, int dstW, 
  49.         int dstH) { 
  50.     LOGE("==stretch=="); 
  51.  
  52.     jint * cbuf; 
  53.     cbuf = (*env)->GetIntArrayElements(env, buf, 0); // 獲取int數組元素 
  54.  
  55.     int newSize = dstW * dstH; 
  56.     jint rbuf[newSize]; // 新圖像像素值 
  57.  
  58.     float rateH = (float) srcH / dstH; // 高度縮放比例 
  59.     float rateW = (float) srcW / dstW; // 寬度縮放比例 
  60.  
  61.     int dstX, dstY; // 目標圖像XY坐標 
  62.     float srcX, srcY; // 目標圖像對應源圖像XY坐標 
  63.     int i, j; // 對應源圖像XY坐標整數部分 
  64.     int i1, j1; // 對應源圖像XY坐標整數部分+1 
  65.     float u, v; // 對應源圖像XY坐標小數部分 
  66.     int color[4]; // f(i+u,j+v)對應源圖像(i,j)、(i+1,j)、(i,j+1)、(i+1,j+1)的像素值 
  67.  
  68.     for (dstY = 0; dstY <= dstH - 1; dstY++) { 
  69.  
  70.         srcY = dstY * rateH; // 對應源圖像Y坐標 
  71.         j = (int) srcY; // 對應源圖像Y坐標整數部分 
  72.         j1 = min(j + 1, srcH - 1); // 對應源圖像Y坐標整數部分+1 
  73.         v = srcY - j; // 對應源圖像Y坐標小數部分 
  74.  
  75.         for (dstX = 0; dstX <= dstW - 1; dstX++) { 
  76.  
  77.             srcX = dstX * rateW; // 對應源圖像X坐標 
  78.             i = (int) srcX; // 對應源圖像X坐標整數部分 
  79.             i1 = min(i + 1, srcW - 1); // 對應源圖像X坐標整數部分+1 
  80.             u = srcX - i; // 對應源圖像X坐標小數部分 
  81.  
  82.             // 雙線性內插值算法注意ARGB時,需要分別由插值算法求得後重組): 
  83.             // f(i+u,j+v)=(1-u)(1-v)*f(i,j)+(1-u)v*f(i,j+1)+u(1-v)*f(i+1,j)+uv*f(i+1,j+1) 
  84.             color[0] = cbuf[j * srcW + i]; // f(i,j)顏色值 
  85.             color[1] = cbuf[j1 * srcW + i]; // f(i,j+1)顏色值 
  86.             color[2] = cbuf[j * srcW + i1]; // f(i+1,j)顏色值 
  87.             color[3] = cbuf[j1 * srcW + i1]; // f(i+1,j+1)顏色值 
  88.  
  89.             // 給目標圖像賦值為雙線性內插值求得的混合色 
  90.             rbuf[dstY * dstW + dstX] = mixColor(color, i, j, u, v); 
  91.         } 
  92.     } 
  93.  
  94.     jintArray result = (*env)->NewIntArray(env, newSize); // 新建一個jintArray 
  95.     (*env)->SetIntArrayRegion(env, result, 0, newSize, rbuf); // 將rbuf轉存入result 
  96.     (*env)->ReleaseIntArrayElements(env, buf, cbuf, 0); // 釋放int數組元素 
  97.     return result; 
  2)灰度化          把圖像變灰,有好些方法,求RGB平均值啊,RGB最大值啊什麼的。不過還是建議按規范的標准來。          彩色轉灰度的著名心理學公式:Gray = R*0.299 + G*0.587 + B*0.114話說我心理學與生活一本書都看完了也沒提到這公式啊==)          實際應用中為了避免浮點運算,然後就有了移位運算代替了。   2至20位精度的系數:
  1. Gray = (R*1 + G*2 + B*1) >> 2 
  2. Gray = (R*2 + G*5 + B*1) >> 3 
  3. Gray = (R*4 + G*10 + B*2) >> 4 
  4. Gray = (R*9 + G*19 + B*4) >> 5 
  5. Gray = (R*19 + G*37 + B*8) >> 6 
  6. Gray = (R*38 + G*75 + B*15) >> 7 
  7. Gray = (R*76 + G*150 + B*30) >> 8 
  8. Gray = (R*153 + G*300 + B*59) >> 9 
  9. Gray = (R*306 + G*601 + B*117) >> 10 
  10. Gray = (R*612 + G*1202 + B*234) >> 11 
  11. Gray = (R*1224 + G*2405 + B*467) >> 12 
  12. Gray = (R*2449 + G*4809 + B*934) >> 13 
  13. Gray = (R*4898 + G*9618 + B*1868) >> 14 
  14. Gray = (R*9797 + G*19235 + B*3736) >> 15 
  15. Gray = (R*19595 + G*38469 + B*7472) >> 16 
  16. Gray = (R*39190 + G*76939 + B*14943) >> 17 
  17. Gray = (R*78381 + G*153878 + B*29885) >> 18 
  18. Gray = (R*156762 + G*307757 + B*59769) >> 19 
  19. Gray = (R*313524 + G*615514 + B*119538) >> 20 
           3與4、7與8、10與11、13與14、19與20的精度說是一樣的==。16位運算下最好的計算公式是使用7位精度。而游戲由於場景經常變化,用戶感覺不到,最常用2位精度。   灰度化實現:
  1. JNIEXPORT jintArray JNICALL Java_org_join_image_util_JoinImage_imgToGray( 
  2.         JNIEnv* env, jobject obj, jintArray buf, int w, int h) { 
  3.     LOGE("==imgToGray=="); 
  4.  
  5.     jint * cbuf; 
  6.     cbuf = (*env)->GetIntArrayElements(env, buf, 0); // 獲取int數組元素 
  7.  
  8.     int alpha = 0xFF; // 不透明值 
  9.     int i, j, color, red, green, blue; 
  10.     for (i = 0; i < h; i++) { 
  11.         for (j = 0; j < w; j++) { 
  12.             color = cbuf[w * i + j]; // 獲得color值 
  13.             red = (color >> 16) & 0xFF; // 獲得red值 
  14.             green = (color >> 8) & 0xFF; // 獲得green值 
  15.             blue = color & 0xFF; // 獲得blue值 
  16.             color = (red * 38 + green * 75 + blue * 15) >> 7; // 灰度算法16位運算下7位精度) 
  17.             color = (alpha << 24) | (color << 16) | (color << 8) | color; // 由ARGB組成新的color值 
  18.             cbuf[w * i + j] = color; // 設置新color值 
  19.         } 
  20.     } 
  21.  
  22.     int size = w * h; 
  23.     jintArray result = (*env)->NewIntArray(env, size); // 新建一個jintArray 
  24.     (*env)->SetIntArrayRegion(env, result, 0, size, cbuf); // 將cbuf轉存入result 
  25.     (*env)->ReleaseIntArrayElements(env, buf, cbuf, 0); // 釋放int數組元素 
  26.     return result; 
  3)二值化          灰度值[0,255]和一阈值比較,變成0或255,要麼純黑要麼純白==。但是阈值的獲取就牽扯算法了。只知道有Otsu、Bernsen…,具體算法查下就好^^          Otsu:最大類間方差法,整體算出一個阈值。計算次數少但抗干擾性差,適合光照均勻的圖像。          Bernsen:局部阈值法,在一點周圍一定范圍內相當於一窗口)計算出一阈值。計算次數多但抗干擾性強,用於非均勻光照的圖像。   二值化Otsu)的實現:
  1. /** 
  2.  * 將灰度化Bitmap各像素值二值化後返回 
  3.  * 
  4.  * JNIEnv*  jni環境jni必要參數) 
  5.  * jobject  java對象jni必要參數) 
  6.  * jintArray    Bitmap所有像素值 
  7.  * int  Bitmap寬度 
  8.  * int  Bitmap高度 
  9.  */ 
  10. JNIEXPORT jintArray JNICALL Java_org_join_image_util_JoinImage_binarization( 
  11.         JNIEnv* env, jobject obj, jintArray buf, int w, int h) { 
  12.     LOGE("==binarization=="); 
  13.  
  14.     jint * cbuf; 
  15.     cbuf = (*env)->GetIntArrayElements(env, buf, 0); // 獲取int數組元素 
  16.  
  17.     int white = 0xFFFFFFFF; // 不透明白色 
  18.     int black = 0xFF000000; // 不透明黑色 
  19.     int thresh = otsu(cbuf, w, h); // OTSU獲取分割閥值 
  20.  
  21.     LOGE("==[閥值=%d]==", thresh); 
  22.  
  23.     int i, j, gray; 
  24.     for (i = 0; i < h; i++) { 
  25.         for (j = 0; j < w; j++) { 
  26.             gray = (cbuf[w * i + j]) & 0xFF; // 獲得灰度值red=green=blue) 
  27.             if (gray < thresh) { 
  28.                 cbuf[w * i + j] = white; // 小於閥值設置為白色前景) 
  29.             } else { 
  30.                 cbuf[w * i + j] = black; // 否則設置為黑色背景) 
  31.             } 
  32.         } 
  33.     } 
  34.  
  35.     int size = w * h; 
  36.     jintArray result = (*env)->NewIntArray(env, size); // 新建一個jintArray 
  37.     (*env)->SetIntArrayRegion(env, result, 0, size, cbuf); // 將cbuf轉存入result 
  38.     (*env)->ReleaseIntArrayElements(env, buf, cbuf, 0); // 釋放int數組元素 
  39.     return result; 
  40.  
  41. /** 
  42.  * OTSU算法求最適分割阈值 
  43.  */ 
  44. int otsu(jint* colors, int w, int h) { 
  45.     unsigned int pixelNum[256]; // 圖象灰度直方圖[0, 255] 
  46.     int color; // 灰度值 
  47.     int n, n0, n1; //  圖像總點數,前景點數, 後景點數n0 + n1 = n) 
  48.     int w0, w1; // 前景所占比例, 後景所占比例w0 = n0 / n, w0 + w1 = 1) 
  49.     double u, u0, u1; // 總平均灰度,前景平均灰度,後景平均灰度u = w0 * u0 + w1 * u1) 
  50.     double g, gMax; // 圖像類間方差,最大類間方差g = w0*(u0-u)^2+w1*(u1-u)^2 = w0*w1*(u0-u1)^2) 
  51.     double sum_u, sum_u0, sum_u1; // 圖像灰度總和,前景灰度總和, 後景平均總和sum_u = n * u) 
  52.     int thresh; // 阈值 
  53.  
  54.     memset(pixelNum, 0, 256 * sizeof(unsigned int)); // 數組置0 
  55.  
  56.     // 統計各灰度數目 
  57.     int i, j; 
  58.     for (i = 0; i < h; i++) { 
  59.         for (j = 0; j < w; j++) { 
  60.             color = (colors[w * i + j]) & 0xFF; // 獲得灰度值 
  61.             pixelNum[color]++; // 相應灰度數目加1 
  62.         } 
  63.     } 
  64.  
  65.     // 圖像總點數 
  66.     n = w * h; 
  67.  
  68.     // 計算總灰度 
  69.     int k; 
  70.     for (k = 0; k <= 255; k++) { 
  71.         sum_u += k * pixelNum[k]; 
  72.     } 
  73.  
  74.     // 遍歷判斷最大類間方差,得到最佳阈值 
  75.     for (k = 0; k <= 255; k++) { 
  76.         n0 += pixelNum[k]; // 圖像前景點數 
  77.         if (0 == n0) { // 未獲取前景,直接繼續增加前景點數 
  78.             continue; 
  79.         } 
  80.         if (n == n0) { // 前景點數包括了全部時,不可能再增加,退出循環 
  81.             break; 
  82.         } 
  83.         n1 = n - n0; // 圖像後景點數 
  84.  
  85.         sum_u0 += k * pixelNum[k]; // 前景灰度總和 
  86.         u0 = sum_u0 / n0; // 前景平均灰度 
  87.         u1 = (sum_u - sum_u0) / n1; // 後景平均灰度 
  88.  
  89.         g = n0 * n1 * (u0 - u1) * (u0 - u1); // 類間方差少除了n^2) 
  90.  
  91.         if (g > gMax) { // 大於最大類間方差時 
  92.             gMax = g; // 設置最大類間方差 
  93.             thresh = k; // 取最大類間方差時對應的灰度的k就是最佳阈值 
  94.         } 
  95.     } 
  96.  
  97.     return thresh; 
   圖像基本處理算法的簡單實現二)    圖像基本處理算法的簡單實現三)

 

本文出自 “-_--___---_-” 博客,請務必保留此出處http://vaero.blog.51cto.com/4350852/822997

  1. 上一頁:
  2. 下一頁:
Copyright © 程式師世界 All Rights Reserved