Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku
Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku. W latach 2012-2015 zorganizowaliśmy 5 konferencji, 6 warsztatów tematycznych oraz 3 konkursy...
Przypuśćmy, że mamy dane dwa źródła danych  ,
,  , które przesyłają informacje pochodzące ze zbioru danych
, które przesyłają informacje pochodzące ze zbioru danych  . Załóżmy, że kodujemy stratnie te informacje z tym samym maksymalnym błędem, ale przy użyciu dwóch różnych alfabetów kodowych, zdefiniowanych przy użyciu podziałów zbioru danych
. Załóżmy, że kodujemy stratnie te informacje z tym samym maksymalnym błędem, ale przy użyciu dwóch różnych alfabetów kodowych, zdefiniowanych przy użyciu podziałów zbioru danych  i
 i  odpowiednio.
 odpowiednio.
Rozważmy nowe źródło danych  , które wysyła sygnał wyprodukowany przez źródło
, które wysyła sygnał wyprodukowany przez źródło   z prawdopodobieństwem
 z prawdopodobieństwem  oraz przez źródło
 oraz przez źródło  z prawdopodobieństwem
 z prawdopodobieństwem  . Prezentujemy algorytm, pozwalający skonstruować nowy alfabet
. Prezentujemy algorytm, pozwalający skonstruować nowy alfabet  kodujący dane wysłane przez
 kodujący dane wysłane przez  z tym samym ustalonym maksymalnym błędem oraz entropią
 z tym samym ustalonym maksymalnym błędem oraz entropią  (statystyczną długością kodu) spełniającą nierówność:
 (statystyczną długością kodu) spełniającą nierówność:
      ![Rendered by QuickLaTeX.com \[\mathop{h}(S;\mathcal{P}) \leq a_1 \mathop{h}(S_1;\mathcal{P}_1) + a_2 \mathop{h}(S_2; \mathcal{P}_2).\]](http://www.czm.mif.pg.gda.pl/wp-content/ql-cache/quicklatex.com-fd4733e367d140e8960f49a1f0920610_l3.png)
Przedstawiony powyżej rezultat uzyskujemy dzięki zastosowaniu nowej równoważnej definicji entropii – entropii ważonej. Entropia ważona, zamiast rozbicia przestrzeni danych na zbiory, wykorzystuje rozbicie miary probabilistycznej na miary podprobabilistyczne, co pozwala na łatwiejsze obliczanie entropii kombinacji miar. Z informatycznego punktu widzenia opisuje ona rodzaj stratnego kodowania niedeterministycznego – dany element może zostać raz zakodowany jednym symbolem, a innym razem innym symbolem, co wielu przypadkach okazuje się korzystniejsze niż standardowe kodowanie deterministyczne.