Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Compressão de Dados: Conceitos Gerais e Técnicas, Notas de estudo de Informática

Este documento aborda os conceitos básicos da compressão de dados, incluindo a redundância, compressão espacial e temporal, e diferentes métodos de compressão, como run-length coding (rlc), codificação estatística e codificação usada. O texto também discute a importância da taxa de compressão, velocidade e qualidade de restituição, e a adaptação dos algoritmos de compressão aos dados de entrada.

Tipologia: Notas de estudo

2012

Compartilhado em 07/06/2012

mario-maggot-6
mario-maggot-6 🇧🇷

1 documento

1 / 23

Toggle sidebar

Esta página não é visível na pré-visualização

Não perca as partes importantes!

bg1
INTRODUÇÃO À MULTIMÉDIA
Compressão: conceitos gerais
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17

Pré-visualização parcial do texto

Baixe Compressão de Dados: Conceitos Gerais e Técnicas e outras Notas de estudo em PDF para Informática, somente na Docsity!

Compressão: conceitos gerais

Motivação

• Factores relativos ao armazenamento

• Factores relativos à transmissão

A redundância

  • O objectivo da compressão é de reduzir ao máximo o

volume de armazenamento e de transferência de

informação, mantendo no entanto a capacidade de

restituir a integridade dessa informação. Pelo menos

quando trabalhamos em compressão sem perdas.

  • Como reduzir o volume de dados digitais sem degradar

a informação ou, pelo menos, só a degradando de forma

imperceptível e controlável?

  • Constatando que a quase totalidade de dados que

tratamos - imagem, texto, som - apresentam uma

distribuição não uniforme de símbolos ou de sequencias

de símbolos.

A redundância

• Texto:

  • Os caracteres que utilizamos não apresentam a

mesma probabilidade de aparecimento. Todo o texto

apresenta uma estrutura interna forte, determinada

pelas regras sintéticas, semânticas e gramaticais.

Regras implicam regularidade e consequentemente

formas repetitivas e redundância.

• Som:

  • Se analisarmos um trecho de musica, constatamos

rapidamente que a distribuição das probabilidades de

aparecimento de sons não é mais uniforme que a das

letras num texto. Também eles seguem regras ou leis

de construção.

A redundância

• São estas redundância espaciais e

temporais que permitem a compressão

dos dados, isto e, a remoção de dados

inúteis. Para tirar partido destas

redundância podemos usar algoritmos

mais ao menos complexos, fundados

sobre técnicas matemáticas quase

sempre sofisticadas (compressão JPEG,

MPEG, Wavelets, fractais, etc.).

Os parâmetros da compressão

  • O parâmetro chave de um algoritmo de compressão é a

taxa de compressão, a qual define a sua performance.

  • Este é calculado como a relação entre o tamanho do

ficheiro original (Fo) e o tamanho do ficheiro comprimido

(Fc).

  • Utilizamos geralmente para representar esta relação

uma noção do tipo N : 1 que indica que o volume dos

dados de origem foi dividido por N. Por exemplo 10 : 1

significa que o tamanho do ficheiro original foi dividido

por 10.

  • Outros parâmetros que caracterizam igualmente um

algoritmos de compressão são a sua velocidade e a

qualidade de restituição do documento original.

Adaptabilidade

  • A adaptabilidade refere-se à característica do

processo/algoritmo de se adaptar aos dados de entrada.

É possível identificar segundo este aspecto as seguintes

variações:

  • Não-adaptativos – em geral, baseiam-se em dicionários

estáticos definidos à priori em função de estatística de

frequência de dados. Um dicionário de codificação/compressão

é na essência uma tabela que associa símbolos a códigos de

menor tamanho.

  • Adaptativos - não se baseiam em dicionário predefinidos,

construindo o dicionário em função dos dados de entrada.

  • Semi-adaptativos –em geral é efectuado em dois passos. No

primeiro é efectuada uma estatística da entrada, gerando um

dicionário. Na segunda fase é efectuada a

codificação/compressão propriamente dita.

Compressão com perdas e sem

perdas

  • Compressão sem perdas (lossless) busca reduzir a quantidade de

dados, mas no destino uma cópia exacta dos dados originais são

recuperados, a compressão é reversível.

  • O algoritmo de compressão é reversível (Fd = Fo).
  • Transferência de texto, ficheiros binários, etc.
  • Compressão com perdas (lossy) busca permitir a recuperação de

uma versão dos dados originais que são percebidos pelo utilizador

como sendo parecidos o suficiente com o original. PERDA DE

DADOS!

  • Transferência de imagens digitais, áudio, vídeo, pois o olho e ouvido humanos não são capazes de perceber pequena perda de qualidade no sinal.
  • O algoritmo de compressão é irreversível, pois ele não permite a partir do ficheiro descomprimido (Fd), encontrar na integralidade o ficheiro original (Fo =~4 Fd).

Técnicas de Compressão

• Codificação Estatística

  • Modelos de codificação utilizam o mesmo número de

bits por valor. Alguns símbolos aparecem com maior

frequência que outros. Símbolos que aparecem com

maior frequência podem usar menos bits que aqueles

que aparecem com menor frequência.

  • Num texto a letra ‘A’ aparece com maior frequência

(probabilidade) que a consoante ‘P’,que aparece com

maior frequência que ‘Z’…

  • Utiliza-se uma codificação com número de bits

variável, de modo que na média se necessita menos

bits para codificar o mesmo conteúdo.

Técnicas de Compressão

• Codificação Estatística

  • Método de Huffman
    • Codificar com o menor numero de bits os símbolos em que a

frequência de aparição e a maior.

  • Os primeiros elementos de uma palavra código (o prefix) não

pode constituir uma outra palavra de código (código prefixo).

Exemplo:

ABRACADABRA -> 8bits x 11 símbolos = 88 bits

A -> 5 -> 0

B -> 2 -> 10

R -> 2 -> 110

C -> 1 -> 1110

D -> 1 -> 1111

Resultado: 01011001110011110101100 -> 23 bits

Técnicas de Compressão

• Codificação Estatística

– Método de Huffman

  • Codificar a sequencia:

AMORE MORE ORE RE

  • O alfabeto será constituído por seis símbolos: A,

E, M, O, R, Espaço. Para comprimir esta

sequência de dados usando o algoritmo de

Huffman segue-se cada uma das etapas acima

descritas.

Técnicas de Compressão

  • Codificação Estatística
    • Método de Huffman
      • Etapa 1: Estabelece a frequência de ocorrência de cada símbolo. f (A) = 1; f (E) = 4; f (M) = 2; f (O) = 3; f (R) = 4; f (Espaço) = 3
      • Etapa 2:Classificação dos símbolos por ordem decrescente de frequência. Símbolo i Frequência fi E 4 R 4 O 3 Espaço 3 M 2 A 1

Técnicas de Compressão

• Codificação Estatística

– Método de Huffman

  • Etapa 4: Atribuição do código. Para encontrar o

código de cada símbolo, identificamos o seu

caminho da direita para a esquerda, e

recuperamos os 0 ou os 1 que se encontram pelo

caminho.

Técnicas de Compressão

  • Codificação Estatística
    • Método de Huffman
      • E 01 R 10 O 11 Espaço 000 M 0010 A 0011
      • Etapa 5: Compressão da cadeia: AMORE MORE ORE RE 0011001011100100000101110010001110010001001
      • Nota: Independentemente da atribuição de 0 ou 1, este método encontra sempre a compressão mínima. Ou seja, quando temos por exemplo 3 símbolos frequências iguais e mínimas numa dada fase, podemos agrupar os 2 símbolos que entendermos.