成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
    此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
    人工智能開發(fā)者 正文
    發(fā)私信給AI研習(xí)社
    發(fā)送

    2

    一文詳解高斯混合模型(GMM)在圖像處理中的應(yīng)用(附代碼)

    本文作者: AI研習(xí)社 2017-05-31 14:33
    導(dǎo)語(yǔ):詳解高斯混合模型。

    雷鋒網(wǎng)按:本文作者賈志剛,原文載于作者個(gè)人博客,雷鋒網(wǎng)已獲授權(quán)。

      一. 概述

    高斯混合模型(GMM)在圖像分割、對(duì)象識(shí)別、視頻分析等方面均有應(yīng)用,對(duì)于任意給定的數(shù)據(jù)樣本集合,根據(jù)其分布概率, 可以計(jì)算每個(gè)樣本數(shù)據(jù)向量的概率分布,從而根據(jù)概率分布對(duì)其進(jìn)行分類,但是這些概率分布是混合在一起的,要從中分離出單個(gè)樣本的概率分布就實(shí)現(xiàn)了樣本數(shù)據(jù)聚類,而概率分布描述我們可以使用高斯函數(shù)實(shí)現(xiàn),這個(gè)就是高斯混合模型-GMM。

    一文詳解高斯混合模型(GMM)在圖像處理中的應(yīng)用(附代碼)

    這種方法也稱為D-EM即基于距離的期望最大化。

      二. 算法步驟

        1. 初始化變量定義-指定的聚類數(shù)目K與數(shù)據(jù)維度D

        2. 初始化均值、協(xié)方差、先驗(yàn)概率分布

        3. 迭代E-M步驟

             - E步計(jì)算期望

             - M步更新均值、協(xié)方差、先驗(yàn)概率分布

             -檢測(cè)是否達(dá)到停止條件(最大迭代次數(shù)與最小誤差滿足),達(dá)到則退出迭代,否則繼續(xù)E-M步驟

        4. 打印最終分類結(jié)果

      三. 代碼實(shí)現(xiàn)

    package com.gloomyfish.image.gmm;  

      

    import java.util.ArrayList;  

    import java.util.Arrays;  

    import java.util.List;  

      

    /** 

     *  

     * @author gloomy fish 

     * 

     */  

    public class GMMProcessor {  

        public final static double MIN_VAR = 1E-10;  

        public static double[] samples = new double[]{10, 9, 4, 23, 13, 16, 5, 90, 100, 80, 55, 67, 8, 93, 47, 86, 3};  

        private int dimNum;  

        private int mixNum;  

        private double[] weights;  

        private double[][] m_means;  

        private double[][] m_vars;  

        private double[] m_minVars;  

      

        /*** 

         *  

         * @param m_dimNum - 每個(gè)樣本數(shù)據(jù)的維度, 對(duì)于圖像每個(gè)像素點(diǎn)來(lái)說(shuō)是RGB三個(gè)向量 

         * @param m_mixNum - 需要分割為幾個(gè)部分,即高斯混合模型中高斯模型的個(gè)數(shù) 

         */  

        public GMMProcessor(int m_dimNum, int m_mixNum) {  

            dimNum = m_dimNum;  

            mixNum = m_mixNum;  

            weights = new double[mixNum];  

            m_means = new double[mixNum][dimNum];  

            m_vars = new double[mixNum][dimNum];  

            m_minVars = new double[dimNum];  

        }  

          

        /*** 

         * data - 需要處理的數(shù)據(jù) 

         * @param data 

         */  

        public void process(double[] data) {  

            int m_maxIterNum = 100;  

            double err = 0.001;  

              

            boolean loop = true;  

            double iterNum = 0;  

            double lastL = 0;  

            double currL = 0;  

            int unchanged = 0;  

              

            initParameters(data);  

              

            int size = data.length;  

            double[] x = new double[dimNum];  

            double[][] next_means = new double[mixNum][dimNum];  

            double[] next_weights = new double[mixNum];  

            double[][] next_vars = new double[mixNum][dimNum];  

            List<DataNode> cList = new ArrayList<DataNode>();  

      

            while(loop) {  

                Arrays.fill(next_weights, 0);  

                cList.clear();  

                for(int i=0; i<mixNum; i++) {  

                    Arrays.fill(next_means[i], 0);  

                    Arrays.fill(next_vars[i], 0);  

                }  

                  

                lastL = currL;  

                currL = 0;  

                for (int k = 0; k < size; k++)  

                {  

                    for(int j=0;j<dimNum;j++)  

                        x[j]=data[k*dimNum+j];  

                    double p = getProbability(x); // 總的概率密度分布  

                    DataNode dn = new DataNode(x);  

                    dn.index = k;  

                    cList.add(dn);  

                    double maxp = 0;  

                    for (int j = 0; j < mixNum; j++)  

                    {  

                        double pj = getProbability(x, j) * weights[j] / p; // 每個(gè)分類的概率密度分布百分比  

                        if(maxp < pj) {  

                            maxp = pj;  

                            dn.cindex = j;  

                        }  

          

                        next_weights[j] += pj; // 得到后驗(yàn)概率  

          

                        for (int d = 0; d < dimNum; d++)  

                        {  

                            next_means[j][d] += pj * x[d];  

                            next_vars[j][d] += pj* x[d] * x[d];  

                        }  

                    }  

          

                    currL += (p > 1E-20) ? Math.log10(p) : -20;  

                }  

                currL /= size;  

                  

                // Re-estimation: generate new weight, means and variances.  

                for (int j = 0; j < mixNum; j++)  

                {  

                    weights[j] = next_weights[j] / size;  

          

                    if (weights[j] > 0)  

                    {  

                        for (int d = 0; d < dimNum; d++)  

                        {  

                            m_means[j][d] = next_means[j][d] / next_weights[j];  

                            m_vars[j][d] = next_vars[j][d] / next_weights[j] - m_means[j][d] * m_means[j][d];  

                            if (m_vars[j][d] < m_minVars[d])  

                            {  

                                m_vars[j][d] = m_minVars[d];  

                            }  

                        }  

                    }  

                }  

                  

                // Terminal conditions  

                iterNum++;  

                if (Math.abs(currL - lastL) < err * Math.abs(lastL))  

                {  

                    unchanged++;  

                }  

                if (iterNum >= m_maxIterNum || unchanged >= 3)  

                {  

                    loop = false;  

                }  

            }  

              

            // print result  

            System.out.println("=================最終結(jié)果=================");  

            for(int i=0; i<mixNum; i++) {  

                for(int k=0; k<dimNum; k++) {  

                    System.out.println("[" + i + "]: ");  

                    System.out.println("means : " + m_means[i][k]);  

                    System.out.println("var : " + m_vars[i][k]);  

                    System.out.println();  

                }  

            }  

              

              

            // 獲取分類  

            for(int i=0; i<size; i++) {  

                System.out.println("data[" + i + "]=" + data[i] + " cindex : " + cList.get(i).cindex);  

            }  

              

        }  

          

        /** 

         *  

         * @param data 

         */  

        private void initParameters(double[] data) {  

            // 隨機(jī)方法初始化均值  

            int size = data.length;  

            for (int i = 0; i < mixNum; i++)  

            {  

                for (int d = 0; d < dimNum; d++)  

                {  

                    m_means[i][d] = data[(int)(Math.random()*size)];  

                }  

            }  

              

            // 根據(jù)均值獲取分類  

            int[] types = new int[size];  

            for (int k = 0; k < size; k++)  

            {  

                double max = 0;  

                for (int i = 0; i < mixNum; i++)  

                {  

                    double v = 0;  

                    for(int j=0;j<dimNum;j++) {  

                        v += Math.abs(data[k*dimNum+j] - m_means[i][j]);  

                    }  

                    if(v > max) {  

                        max = v;  

                        types[k] = i;  

                    }  

                }  

            }  

            double[] counts = new double[mixNum];  

            for(int i=0; i<types.length; i++) {  

                counts[types[i]]++;  

            }  

              

            // 計(jì)算先驗(yàn)概率權(quán)重  

            for (int i = 0; i < mixNum; i++)  

            {  

                weights[i] = counts[i] / size;  

            }  

              

            // 計(jì)算每個(gè)分類的方差  

            int label = -1;  

            int[] Label = new int[size];  

            double[] overMeans = new double[dimNum];  

            double[] x = new double[dimNum];  

            for (int i = 0; i < size; i++)  

            {  

                for(int j=0;j<dimNum;j++)  

                    x[j]=data[i*dimNum+j];  

                label=Label[i];  

      

                // Count each Gaussian  

                counts[label]++;  

                for (int d = 0; d < dimNum; d++)  

                {  

                    m_vars[label][d] += (x[d] - m_means[types[i]][d]) * (x[d] - m_means[types[i]][d]);  

                }  

      

                // Count the overall mean and variance.  

                for (int d = 0; d < dimNum; d++)  

                {  

                    overMeans[d] += x[d];  

                    m_minVars[d] += x[d] * x[d];  

                }  

            }  

      

            // Compute the overall variance (* 0.01) as the minimum variance.  

            for (int d = 0; d < dimNum; d++)  

            {  

                overMeans[d] /= size;  

                m_minVars[d] = Math.max(MIN_VAR, 0.01 * (m_minVars[d] / size - overMeans[d] * overMeans[d]));  

            }  

      

            // Initialize each Gaussian.  

            for (int i = 0; i < mixNum; i++)  

            {  

      

                if (weights[i] > 0)  

                {  

                    for (int d = 0; d < dimNum; d++)  

                    {  

                        m_vars[i][d] = m_vars[i][d] / counts[i];  

      

                        // A minimum variance for each dimension is required.  

                        if (m_vars[i][d] < m_minVars[d])  

                        {  

                            m_vars[i][d] = m_minVars[d];  

                        }  

                    }  

                }  

            }  

              

            System.out.println("=================初始化=================");  

            for(int i=0; i<mixNum; i++) {  

                for(int k=0; k<dimNum; k++) {  

                    System.out.println("[" + i + "]: ");  

                    System.out.println("means : " + m_means[i][k]);  

                    System.out.println("var : " + m_vars[i][k]);  

                    System.out.println();  

                }  

            }  

              

        }  

      

        /*** 

         *  

         * @param sample - 采樣數(shù)據(jù)點(diǎn) 

         * @return 該點(diǎn)總概率密度分布可能性 

         */  

        public double getProbability(double[] sample)  

        {  

            double p = 0;  

            for (int i = 0; i < mixNum; i++)  

            {  

                p += weights[i] * getProbability(sample, i);  

            }  

            return p;  

        }  

      

        /** 

         * Gaussian Model -> PDF 

         * @param x - 表示采樣數(shù)據(jù)點(diǎn)向量 

         * @param j - 表示對(duì)對(duì)應(yīng)的第J個(gè)分類的概率密度分布 

         * @return - 返回概率密度分布可能性值 

         */  

        public double getProbability(double[] x, int j)  

        {  

            double p = 1;  

            for (int d = 0; d < dimNum; d++)  

            {  

                p *= 1 / Math.sqrt(2 * 3.14159 * m_vars[j][d]);  

                p *= Math.exp(-0.5 * (x[d] - m_means[j][d]) * (x[d] - m_means[j][d]) / m_vars[j][d]);  

            }  

            return p;  

        }  

          

        public static void main(String[] args) {  

            GMMProcessor filter = new GMMProcessor(1, 2);  

            filter.process(samples);  

              

        }  

    }  

    結(jié)構(gòu)類DataNode

    package com.gloomyfish.image.gmm;  

      

    public class DataNode {  

        public int cindex; // cluster  

        public int index;  

        public double[] value;  

          

        public DataNode(double[] v) {  

            this.value = v;  

            cindex = -1;  

            index = -1;  

        }  

    }  

      四. 結(jié)果

    一文詳解高斯混合模型(GMM)在圖像處理中的應(yīng)用(附代碼)

    這里初始中心均值的方法我是通過(guò)隨機(jī)數(shù)來(lái)實(shí)現(xiàn),GMM算法運(yùn)行結(jié)果跟初始化有很大關(guān)系,常見初始化中心點(diǎn)的方法是通過(guò)K-Means來(lái)計(jì)算出中心點(diǎn)。大家可以嘗試修改代碼基于K-Means初始化參數(shù),我之所以選擇隨機(jī)參數(shù)初始,主要是為了省事!

    雷鋒網(wǎng)相關(guān)閱讀:

    25 行 Python 代碼實(shí)現(xiàn)人臉檢測(cè)——OpenCV 技術(shù)教程

    手把手教你如何用 OpenCV + Python 實(shí)現(xiàn)人臉識(shí)別


    深度學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)特訓(xùn)班

    20年清華大學(xué)神經(jīng)網(wǎng)絡(luò)授課導(dǎo)師鄧志東教授,帶你系統(tǒng)學(xué)習(xí)人工智能之神經(jīng)網(wǎng)絡(luò)理論及應(yīng)用!

    課程鏈接:http://www.mooc.ai/course/65

    加入AI慕課學(xué)院人工智能學(xué)習(xí)交流QQ群:624413030,與AI同行一起交流成長(zhǎng)


    雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

    一文詳解高斯混合模型(GMM)在圖像處理中的應(yīng)用(附代碼)

    分享:
    相關(guān)文章

    編輯

    聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
    當(dāng)月熱門文章
    最新文章
    請(qǐng)?zhí)顚懮暾?qǐng)人資料
    姓名
    電話
    郵箱
    微信號(hào)
    作品鏈接
    個(gè)人簡(jiǎn)介
    為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
    您的郵箱還未驗(yàn)證,完成可獲20積分喲!
    請(qǐng)驗(yàn)證您的郵箱
    立即驗(yàn)證
    完善賬號(hào)信息
    您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
    立即設(shè)置 以后再說(shuō)