ID Питання: 736
Оберіть відповідне значення ентропії для певних видів повідомлень.
Якщо повідомлення рівновірогідні ... ... ентропія дорівнює нулю;
Якщо є джерело з двома взаємовиключними подіями ... ... ентропія може змінюватися у діапазоні від 0 до 1;
Якщо повідомлення рівноімовірні та статистично незалежні ... ... ентропія є максимальною
ID Питання: 737
Оберіть правильні, на Ваш погляд, відповідності, що характеризують умовну ентропію.
У випадку, якщо джерела повідомлень A та B статистично незалежні, то ... ... умовна ентропія джерела A відносно джерела B дорівнює безумовній ентропії джерела A і навпаки.;
У випадку, якщо джерела повідомлень A та B настільки статистично взаємопов'язані, що виникнення одного з повідомлень спричиняє безумовну появу іншого, то ... ... їх умовні ентропії дорівнюють нулю.
ID Питання: 738
Оберіть правильні, на Ваш погляд, відповідності, що характеризують ентропію об'єднання двох джерел.
У випадку повної статистичній залежності джерел A та B ентропія їх об'єднання дорівнює ... ... безумовній ентропії одного з джерел.;
У випадку статистично незалежних повідомлень джерел A та B ентропія їх об'єднання дорівнює ... ... сумі ентропії окремих джерел.
ID Питання: 739
Що називається ентропією дискретного джерела повідомлень?
H(A) - це середня кількість інформації, що припадає на один символ алфавіту повідомлень.
ID Питання: 740
Оберіть правильне, на Ваш погляд, визначення поняття "умовна ентропія".
Умовною ентропією називається ентропія для алфавіту, де відомі умовні ймовірності появи одного символу післяіншого .