Энциклопедия

1575Сейчас онлайн
191Читать сегодня
31Поделиться сегодня
Многоязычная презентация

Визуальное изображение: вычисление энтропии — глобальная энтропия против локальной энтропии

2018-03-05 17:36:00

Примечание: энтропия изображения отражает количество информации, содержаемой в изображении: Поскольку изображение является чистым цветом, это означает, что изображение не содержит никакую цель, а количество информации составляет 0; Когда изображение содержит N значение серых величин, то есть серые значения для каждого пикселя изображения, когда энтропия является самой большой, H=logN, и наибольшее количество информации о изображении; В этот момент каждый пиксель отличается от других пикселей, и можно предположить, что каждый пиксель представляет собой отдельную наземную цель с максимальным количеством информации N, аналогичной карте, заполненной объектами; Констатия: чем больше энтропия H в изображении, тем более насыщенной пикселью, содержащей изображение, тем более равномерно оно распределяется, чем больше объектов на земле изображений, тем больше информации об изображении и наоборот; Образ, в котором энтропия наиболее велика, когда серые тона каждого пикселя различны.

Метод/шаг
1

Энтропия информации: концепция информационной энтропии в теории информации состоит в следующем: поиск энтропии (в среднем самоинформации) для любого отдельного источника письма. С тех пор, как сообщение является переменной, оно означает количество информации, содержащейся в одном источнике письма, посылающем сообщение. Количество информации в одном сообщении напрямую связано с его неопределенностью. Отправленные сообщения отличаются, и они содержат различную информацию. Количество информации, содержащейся в любом сообщении, не отражает среднее количество информации, содержащейся в источнике. Математические ожидания, определяющие количество информации в целом, не могут быть измерены в качестве источника информации в целом, и, таким образом, математические ожидания, определяющие ее как среднее количество информации источника. Значение энтропии информации: энтропия информации источника H рассматривается по статистической характеристике всего источника. Это представление общих характеристик источника веры в среднем. Для конкретного источника письма энтропия его информации только одна. Различные источники письма отличаются статистическими характеристиками и энтропией. Энтропия информации обычно обозначается символом H, где единица является битом. Чем больше неопределенности в переменных, тем больше энтропия.

2

Энтропия изображения: статистическая форма характеристики, отражающая среднее количество информации в изображении. Доллар сер хвор энтроп: одномерн энтроп изображен одномерн энтроп заяв изображен что скоплен сер хвор распределен содержа в информативн, обознач пи изображен сер хвор составля i пиксел дол, определя сер хвор изображен доллар сер хвор энтроп: пи из них как-то сер хвор в изображен появ вероятн, сер хвор гистограмм. Пpoявля к теб дoлжнoе Одномерная энтропия изображения может указывать на собирательные характеристики распределения серых степеней изображения;

3

Двухмерная энтропия: одномерная энтропия изображения может отображать собирательные характеристики распределения серых граней изображения, но не отображать пространственные характеристики распределения серых граней изображения; Для того чтобы выразить эту пространственную характеристику, внедрение двухмерной энтропии на основе одномерной энтропии, которая могла бы отражать пространственную характеристику распределения серых степеней, чтобы сформировать изображение; Выберите среднее значение серой области изображения в качестве пространственного показателя распределения серых характеристик, с характеристикой компонента серых характеристик изображения (i, j), где i обозначает значение серой массы пикселя (0 < < < i > > 255), а j обозначает среднее серых величин соседнего поля (0 < < < > > > 255) : Верхняя энергия реагирует на суммарную характеристику распределения серой массы на определенном пиксели, в которой f(i, j) — это количество частот, возникающее в характерной дуальной группе (i, j), где N — масштаб изображения, определяющий дискретную двухмерную энтропию: Построенная двухмерная энтропия изображений может выделяться в общих чертах серой информации, отражающей положение пикселя в изображении, и распределения серости внутри окрестностей пикселя.

4

Энтропические функции: Entropy() и entropyFilt() имеют две энтропические операционные функции: Entropy() и entropyFilt(); Энтропия () вычисляет глобальную энтропию; Энтропия () вычисляет локальную энтропию; Энтропия Entropy(I) вычисляет глобальную энтропию: интегрировать гистограмму серого и I в бин 0-255, нормализовать L1 и вычислить энтропию сортировки с помощью-sum(p*log2(p) (p), а именно: Curhist = Hist(I, 0:25); Curhist = Curhist/sum; = -sum(curhist); Энтропия (I) вычисляет локальную энтропию: энтропия вычисляется в области n*n(n=9) пиксельных точек, и вычислительный метод идентичен. Этот метод позволяет получить текстурированное изображение;

5

Локальная энтропическая программа matlab: поиск текстуристых изображений; Чем больше энтропия, тем выше степень беспорядка; В изображении, определяющем локализованную энтропию изображений в соответствии с последовательностью распределения пикселей-точечной серой точки, отображается изобилие информации о изображении; Чем меньше вероятность того, что события произойдут, тем больше информации в них содержится, и тем выше степень их неопределенности; В контексте мультипликации: неопределенность события умножается на вероятность того, что оно произойдет, и представляет собой неопределённость, выраженную конкретными явлениями. Clear all; Близк all; CLC; Img1 = imread(raw BMP); Img = rgb2gray(img1); % гре [m n] = размер (img); W = 4; % - трафаретный радиус imgn= зерос (m,n); % "m" * "n" мерн матриц for i = 1 + w: м-w for дже = 1 + w: n-w географ = zeros (1.256); % 1 * 256 for п = и-w: i + w % ядерн размер for q = дже-w: дже + w географ (img (p, кью) + 1) = отвлека (img (p, кью) + 1) + 1; % из двух департамент гистограмм end end географ департамент географ/sum (начальн) (отвлека); For "k" = 1:25 6 if географ (k) - = 0 imgn (i, j) = imgn (i, j) + географ (k) * бревн (1 / географ (k)); % местн энтроп end end endendimshow (imgn, [) imgn = entropyfilt (img); Энтропическая функция entropyfiltfigure локальной энтропической функции для системы %; Imshow (imgn,);

6

Глобальная энтропическая программа была написана: для получения изображения A=floor(rand(8) *255); [" M ", "N"] = размер (а); Темп = zeros (1.256); % изображен сер хвор значен дела на [0.255] статистическ for м = 1: м for "n" = 1: н есл а (м, n) = = = 0; I = 1; Else i = A (" m ", "n"); End темп (i) = темп (i) + 1; End end temp=temp /(M*N); % вычисляет result=0 по определению энтропии; * for i=1:length(темп) если temp(i)= 0; Resultes = = resultes; Else resultes = resultes-темп (i) * log2 (темп (i)); End end

7

// / калулата энтропия из an imagedouble entropy (Mat img) // матрица, вводимая в изображение double temp (256); // чистый для (точка i=0; I (м); For (int n = 0; N < img, cols; N ++ (int i = t (n); Temp [i] = temp[i]+1; Для вычисления вероятности для каждого пикселя (точка i=0); I < 256; I++ (" temp ") (" temp "=" temp ") /(img. (double result = 0) // вычислительная энтропия изображения в зависимости от определения (точка i =0); I < 256; I++ (если (temp (i) = 0,0) result = result; Else resultes = resultes-темп [i] * (log (темп i)/log (2.0)); (return result); ,

Внимание.
1

Энтропия изображения отражает количество информации, содержащейся в изображении;

2

Образ, в котором энтропия наиболее велика, когда серость каждого пикселя различна;

Рекомендуемая информация

Три ловушки на подержанных машинах должны быть защищены

Есть успехи в обучении автокосметике? Нет никакого будущего в этом

Плюс 5 советов по инвестициям в косметику

Как выбрать лучшую родильную больницу

Что это за песня, в которой боль и усталость остаются в сердце

Лучше всего для начинающих йоги, где простые движения не менее эффективны

Как понять, нравишься ты ему или нет

Техника хранения морепродуктов в холодильнике

Туризм.

Рынок морепродуктов в желтых песках

Как сохранить несъедобные креветки

- как местные едят морепродукты

6 йоги помогают тебе похудеть, 6 см в месяц в обхвате ноги

Как сохранить креветку на утро и на вечер

Эффект детоксикации в 7 позе поражает

Способ сохранения крабов в середине осени

Как могут китайские продавцы оправдать ожидания двойной 12 - ти рекламной компании

Какие функции имеют умные замки

Что, если замок вдруг не откроется?

Краткое содержание опыта интерьера дома заслуживает изучения.