Seção: Tutoriais Rádio e TV
|
|
||
Sistemas de Codificação
Os sinais de vídeo produzidos digitalmente pelas emissoras de televisão demandariam uma alta taxa de bits para ser transmitidos caso não houvesse algum tipo de compressão, este aspecto independe do meio canalizado para esta finalidade. Desta forma é indispensável comprimir as imagens produzidas de tal maneira a adequar-se a largura de banda do espectro de televisão que é da ordem de 6MHz.
Fernandes (2004) lembra que existem inúmeros métodos de compressão de vídeo, porém atualmente observa-se uma alta demanda de sistemas que apresentam interoperabilidade, um aspecto que só é possível se o método de compressão de seus dados forem compatíveis entre si. O método de compressão adotado por todos os padrões de televisão digital existentes é o MPEG-2, que na realidade abrange uma família de padrões. Este padrão foi criado e padronizado por um grupo denominado MPEG (Moving Pictures Expert Group), que também padronizou outros métodos de compressão como o MPEG4/H264 e o WM9 (Windows Media 9).
Processos como MPEG-2 e MPEG-4 são capazes de eliminar as redundâncias contidas no sinal de vídeo reduzindo imperceptivelmente a qualidade do vídeo original, demandando uma banda demasiadamente reduzida em comparação ao sinal não comprimido.
Assim como o vídeo, o áudio também necessita de ser compactado visando a menor ocupação possível dentro do espectro de 6MHz, porém no caso de compressão do som, os padrões internacionais de televisão digital terrestre adotam sistemas diferentes entre si, que é o caso do ATSC que utiliza o método Dolby AC3 (Audio Codec – 3), o DVB emprega o MPEG-2 BC (Backward Compatible) enquanto o ISDB utiliza o MPEG-2 AAC (Advanced Audio Coding). Codificações de Vídeo
Os padrões de codificação de vídeo da TV Digital são apresentados a seguir.
MPEG-2
Um vídeo analógico qualquer necessita de passar por vários estágios até ser compactado no padrão citado anteriormente. A figura 2 abaixo apresenta uma visão geral dos caminhos percorridos pelo vídeo, proposto pelo método MPEG-2.
Figura 2: Diagrama em blocos da codificação MPEG-2 Fonte: REVISTA MACKENZIE DE ENGENHARIA E COMPUTAÇÃO
Conforme citado por Yamada (2003), inicialmente é necessário fazer o uso da amostragem do sinal de entrada em frequências padronizadas pela ITU-R (International Telecommunications Union – Radiocommunication) como múltiplos de 3,375MHz. Quanto maior o formato do vídeo, maior será a frequência de amostragem necessária. Em seguida o sinal amostrado passa por um bloco de redundância temporal, responsável pelo aproveitamento das semelhanças entre os quadros consecutivos de uma imagem dinâmica. Devido ao fato de o olho humano apresentar baixa sensibilidade para frequências espaciais altas é possível aproveitar a redundância entre os pixels semelhantes em uma representação visual, ou seja, em uma imagem onde há movimentos extremamente sutis entre os pixels consecutivos o olho humano não consegue perceber estes movimentos. Estas operações são possíveis graças a uma técnica denominada DCT (Discrete Cosine Transform) que retifica as frequências imperceptíveis ao olho humano. O próximo passo para concluir a compressão MPEG-2 é utilizar-se das técnicas de VLC (Variable Lenght Code) e RLC (Run Lenght Code), que são amplamente utilizadas em softwares de compressão de arquivos. Basicamente o bloco VLC/RLC quantifica quais informações se repetem e quantas vezes, e em seguida as informações mais repetidas são atribuídas aos símbolos de menor comprimento. A aplicação das técnicas VLC/RLC gera taxas de bits variáveis, então é necessário se fazer o uso de dispositivos de armazenamento controle de fluxo de tal maneira a gerar uma taxa constante de bits na saída do compressor MPEG-2.
MPEG-4
Segundo Richardson (2003), este método de codificação explora tanto a redundância temporal como a espacial, onde no domínio temporal a alta similaridade entre os quadros de um vídeo são aproveitados, enquanto no domínio espacial as correlações entre os elementos adjacentes em uma imagem são utilizados para aprimorar a codificação.
Este padrão surgiu no intuito de aprimorar o padrão antecessor MPEG-2 tanto em eficiência como em ferramentas de manipulação de mídias digitais, desta forma é possível obter vídeos mais compactos com a mesma qualidade do padrão MPEG-2.
É bastante improvável uma aplicação qualquer suportar todas as ferramentas pertencentes ao MPEG-4 Visual, portanto foi preciso desenvolver também neste sistema perfis apropriados para diferentes aplicações. Estes perfis podem variar de maneira a suportar desde aplicações de baixa complexidade com o mínimo de requisitos possíveis até compressões de alta complexidade.
O padrão MPEG-4 Visual implementa a codificação de objetos visuais, permitindo uma codificação independente entre objetos pertencentes ao plano de fundo e objetos irregulares no primeiro plano na cena de vídeo. Esta ferramenta permite mapear os pixels de uma imagem além de indicar qual a relevância deles, tornando possível o desenvolvimento de novas aplicações que podem envolver a interatividade. Imagens fixas também podem ser codificadas e transmitidas como se fossem um vídeo, então em busca da otimização, o padrão MPEG-4 apresenta o conceito de texturas em imagens estáveis que permite transmiti-las na mesma sequência de quadros além de aprimorar aplicações que fazem uso de animações gráficas como objetos visuais em 2D e 3D, onde a codificação de polígonos em malha é empregada, permitindo a manipulação de objetos animados durante a compressão.
Richardson (2003) ainda descreve que estas características são possíveis devido a técnicas avançadas de compressão, dentre as quais podem ser destacadas a modelagem temporal, visual e o codificador de entropia. A modelagem temporal apresenta como objetivo reduzir a redundância entre uma imagem transmitida predizendo as características da próxima imagem, subtraindo as características semelhantes entre uma imagem e outra. A modelagem visual consiste em utilizar as amostras de vídeo (pixels) em um codificador de entropia comprimindo as amostras redundantes. Este modelo faz uso de três componentes principais responsáveis pela transformação (separação e compactação dos dados), quantização (redução da precisão dos dados transformados) e reordenação (organização dos dados em relação a sua relevância). E por fim o codificador de entropia converte uma série de dados que representa os elementos de uma sequência de vídeo em arquivos comprimidos de diferentes taxas de bits de tal maneira a adequá-los a aplicação.
Codificação H.264
Segundo Richardson (2003), os padrões MPEG-4 e ITU-T H.264 compartilham bastantes características, tais como a utilização de CODEC, além das técnicas de compressão semelhantes. No entanto estes padrões apresentam diferentes visões onde o MPEG-4 enfatiza mais a flexibilidade enquanto o padrão H.264 aprofunda mais na confiabilidade da compressão. Este sistema oferece uma melhor compressão comparada aos padrões anteriores, além de apresentar características integradas visando a robustez em transmissões em meio a vários canais simultâneos. O H.264 contempla apenas três perfis de aplicação, diferente do MPEG-4 que possui cerca de 20 perfis diferentes. Cada perfil atende uma aplicação específica, o Baseline ou básico, agrega aplicações de conversações visuais tais como videoconferência, o perfil Extended ou estendido, adiciona ferramentas de otimização para o fluxo de vídeo sobre redes de Internet como o streaming, e o perfil Main ou principal, faz uso de ferramentas para a utilização em transmissões audiovisuais do tipo broadcasting além de permitir o armazenamento dos dados comprimidos.
Codificações de Áudio
De maneira análoga à compressão de vídeo, o áudio também é comprimido através de padrões universais possibilitando o transporte de até seis canais de áudio de alta qualidade de maneira eficiente. O sistema mais utilizado na maioria dos padrões internacionais de TVD é o padrão MPEG e suas variações. Assim como observado no sistema de compressão de vídeo, a compressão MPEG também tira proveito da limitação da percepção humana. Neste caso é observado que o ouvido humano é capaz de identificar frequências de 16Hz a 20kHz, e que ainda ao misturar várias frequências ao mesmo tempo os tons mais graves se sobrepõe aos agudos. Depois de realizada a compressão do áudio, o ouvido humano é incapaz de observar alterações significativas entre um som antes e depois da compressão.
O Padrão norte americano adota o sistema de áudio digital Dolby – AC3, enquanto o padrão japonês emprega o código MPEG-2 AAC e o Europeu utiliza o sistema MPEG-2 – BC.
Dolby AC3
Este sistema é utilizado atualmente em discos no formato DVD (Digital Video Disc), onde é possível selecionar desde um canal mono de áudio até um sistema de som envolvente caracterizado por apresentar dois canais laterais frontais, dois canais laterais traseiros, um canal central e mais um canal de frequências mais graves. O principal algoritmo utilizado no sistema de compressão do Dolby AC3 é o perceptual coding responsável por eliminar frequências inaudíveis ao ouvido humano reduzindo as taxas úteis de bits por segundo.
MPEG-2 BC
Baseado no mesmo conceito do codificador perceptual, o padrão europeu utiliza-se de técnicas que aproveitam apenas as faixas de maior percepção humana. Outra característica interessante da natureza humana é que tons com frequências próximas entre si são mascarados pelo tom que apresentar maior intensidade, porém em frequências mais distantes a distinção destes tons é mais evidente, esta particularidade é denominada efeito máscara, um fenômeno não linear, porém passível de ser manipulado a favor de obter uma compressão bastante eficiente.
MPEG-2 AAC
Segundo Collins (2004), o MPEG-2 AAC é um código avançado baseado na percepção da audição humana, usado inicialmente para aplicações de rádio. O código AAC aprimora as técnicas anteriores de maneira a aumentar a eficiência da codificação. Por exemplo, um sistema AAC operando em 96kbps produz um som com as mesmas qualidades que um ISO/MPEG-1 Layer-2 operando a 192kbps, ou seja, uma redução de 2:1 na taxa de bits. O padrão AAC possui três modos de operação, o principal ou Main, LC (Low Complexity), e o SSR (Scaleable Sampling Rate). Os diferentes modos são equilibrados com relação à qualidade e complexidade do áudio em uma determinada taxa de bits. Por exemplo, em 180kbps, o perfil Main AAC apresenta maior complexidade na estrutura de codificação do que o código LC AAC na mesma taxa de bits, porém este apresenta uma qualidade de áudio superior como resultado. O MPEG-2 AAC oferece a capacidade de até 48 canais de áudio principais, 16 canais de efeito de baixa frequência, 16 canais multilíngue/sobrepostos, e 10 fluxos de dados. Por comparação o ISO/MPEG-1 Layer 1 oferece dois canais e o Layer 2 oferece 5.1 canais no máximo. O código AAC não é compatível com o Layer 1 e nem o Layer 2.
Sistemas de Formatação
São apresentados a seguir os sistema de formatação de vídeo, áudio e dados.
Formatos de Vídeo
Um sinal de vídeo pode ser representado por três grandezas distintas que compõe os quadros de imagens percebidos por nossa visão, são elas: a luminância, crominância e saturação. A luminância é responsável pela quantidade de luz que a imagem apresenta, já as outras duas grandezas representam os contrastes e complementos das diferentes cores presentes nas imagens. Estas grandezas estão relacionadas apenas fisicamente ao sinal de vídeo nas quais podem ser modeladas matematicamente, no entanto é necessário que haja uma padronização também da qualidade do vídeo. A qualidade do vídeo envolve vários parâmetros importantes, nos quais são descritos na figura 3 de modo a caracterizar o vídeo como HDTV (high definition television) e SDTV (standart definition television).
Figura 3: Parâmetros dos Sinais SD e HD Fonte: ABNT NBR 15602-1
O formato SDTV
Este formato é também conhecido como definição padrão que pode ser comparado às imagens utilizadas em sistemas de televisão analógicos convencionais. A resolução característica deste serviço é de 4:3, este tipo de formatação limita o ângulo de visão humana impossibilitando a percepção de detalhes em dimensão. Um aspecto positivo deste tipo de serviço é sua ocupação reduzida no espectro de frequência possibilitando o uso da multiprogramação, que consiste na transmissão de mais de um programa simultaneamente no mesmo canal de televisão. Esta nova aplicação permite a emissora de TV inúmeras possibilidades como a personalização de sua programação, como por exemplo, permitir ao telespectador escolher seu programa preferido a partir do momento em que liga seu televisor, ou ainda escolher qual câmera prefere acompanhar em um mesmo programa.
O formato HDTV
Esta formatação de imagem é caracterizada por apresentar uma resolução mais larga conhecida como widescreen (tela larga) que possui 16 linhas horizontais para cada 9 linhas verticais, esta resolução (16:9) foi criada baseada na percepção do olho humano ser mais aguçada a imagens panorâmicas do que imagens em amplitude. A Transmissão de TVD no formato HDTV ocupa quase todo o espectro de frequência em um único sinal de vídeo, porém este tipo de vídeo agrega detalhes de altíssima qualidade, possibilitando ao telespectador atentar mais aos detalhes tendo uma sensação bem próxima a uma imagem real. É importante observar que o usuário só terá HDTV no caso de utilização de equipamentos compatíveis com este sistema, por exemplo, a captura de um sinal de 1080 linhas ativas em um aparelho televisor de 525 linhas acarretará como produto final uma imagem com qualidade padrão 525 linhas.
O formato LDTV
Um novo serviço possível agregado a televisão digital é a recepção do sinal em dispositivos portáteis. Estes equipamentos normalmente apresentam antenas receptoras internas e uma tela de exibição de em média 7”, e ainda podem operar em movimento. A partir destas características é possível observar que a recepção de um sinal de alta definição ou até mesmo o de definição padrão seria incompatível com tal aparelho, por outro lado a demanda pelo acesso de vídeos em dispositivos portáteis vem crescendo largamente nos últimos anos, partindo do princípio que este é um mercado interessante, o padrão Japonês acrescentou uma nova formatação de vídeo capaz de ser decodificada e visualizada em aparelhos portáteis mesmo que estes estejam se deslocando em altas velocidades como por exemplo dentro de um veículo. Os vídeos decodificados através do serviço LDTV (low definition television) são classificados como de baixa resolução pois as modulações empregadas apresentam baixas taxas de bits por segundo. Estes sinais de vídeo ocupam um único segmento no espectro de 6MHz, e o serviço de transmissão destas mídias é denominado one-seg (Único segmento), no qual é agregado ao padrão ISDB. A resolução de imagens de baixa qualidade pode variar desde 160 x 120 até 352 x 288.
Formatos de Áudio
As formatações de áudio dependem de seu esquema de compressão, onde suas variações ou subconjuntos podem ser classificados como perfil ou camada. Por exemplo, um áudio comprimido no formato MPEG-1 apresenta subconjuntos de camadas ou layers, onde cada camada representa uma taxa de compressão e uma complexidade particular. Já o formato MPEG-2 ou MPEG-4 apresenta subclasses de perfis nos quais estão interligados a uma diversidade de aplicações como, por exemplo, a utilização de um padrão de áudio multicanal ou até mesmo oferecer um áudio multilíngue, onde o usuário pode escolher em qual linguagem ele prefere ouvir o áudio.
O serviço de TVD permite a escolha entre quatro esquemas de canais de áudio diferentes sendo eles o Mono (canal único de áudio), Estéreo (canal de áudio duplo separado entre canais direito e esquerdo), Joint Estéreo (áudio estéreo mixado em um único canal) e o Multicanal, que representa uma combinação de seis canais diferentes nos quais oferecem uma sensação de áudio envolvente, separados em canal esquerdo frontal, direito frontal, central, esquerdo traseiro, direito traseiro e mais um canal adicional de baixas frequências.
Formato de Dados
Assim como o áudio e vídeo, os dados enviados pela emissora de TV também deve seguir uma formatação padrão para permitir sua decodificação em Terminais de Acesso (TA). Um TA por sua vez deve apresentar um middleware, que é um componente classificado como um software capaz de acessar o fluxo de dados recebidos, processá-los e apresentá-los ao usuário de uma maneira harmônica. O middleware também é responsável pelo acesso e armazenamento dos dados em TA’s que apresentarem um disco rígido. Desta forma, este software pode também ser classificado como um sistema operacional uma vez que ele permite o acesso a memória, processamento e aplicação.
São inúmeros os padrões de aplicação suportados em sistemas de televisão digital, porém a limitação de qual aplicação pode ser apresentada é residente no middleware, ou seja, qualquer padrão de aplicação pode ser empregado desde que o middleware seja capaz de identificar e processar os dados. Segundo o Centro de Pesquisa e Desenvolvimento (2006), as aplicações devem ser divididas em procedurais e declarativos, onde a primeira classificação refere-se a um conjunto de tecnologias como conjunto de classes organizadas em bibliotecas, formato de arquivo para as classes, máquina virtual e ambiente de desenvolvimento. Já a segunda classificação contempla a utilização de linguagens declarativas como, por exemplo, as variações da HTML (HyperText Markup Language) que permitam facilitar a utilização da própria tecnologia além de criação de conteúdos neste novo ambiente.
Os padrões suportados pelos aplicativos procedurais são o Java Virtual Machine, JavaTV, DAVIC1.41(Specification part 9), JMF1.0 e o HAVi Level 2 – (User Interface). E os padrões suportados pelos aplicativos declarativos são o XML 1.0, XHTML, CSS, DOM, e ECMAScript.
Sistemas de Modulação
A transmissão de dados através de links de antenas está sujeita a inúmeras intempéries, dentre elas a mais crítica é as atenuações devido à reflexão, refração e difração sofrida pelo sinal durante seu trajeto até atingir a antena receptora. Esta é uma característica notável em sistemas do tipo broadcasting, onde apenas uma antena irradia o sinal em potências elevadas com o intuito de entregar o sinal a inúmeras antenas receptoras de baixo desempenho e sem visada direta. Estas atenuações são claramente observadas no sistema de televisão analógico quando nota-se imagens “fantasmas” com atrasos em relação à imagem principal, este aspecto ocorre devido ao atraso do sinal fonte recebido em relação ao sinal refletido captado.
O sistema de televisão digital surgiu com o intuito de eliminar estes efeitos indesejáveis na recepção do sinal irradiado, necessitando então de métodos de modulação mais eficientes de tal maneira a otimizar a transmissão e recepção de informações. Os métodos de modulação utilizados nos padrões definidos são o 8-VSB e o COFDM.
8-VSB
O esquema de modulação 8-VSB trata-se de um aperfeiçoamento do método de modulação analógico em busca de obter maior robustez do sinal irradiado inserindo códigos de correção de erros evitando a contaminação do sinal fonte por ruídos. O padrão norte-americano ATSC adotou esta modulação em seu sistema de transmissão ocupando a mesma banda de frequência do sinal analógico de 6MHz.
O fluxo de bits em uma modulação 8-VSB passa por vários estágios até apresentar as características adequadas a ser transmitido pelo estágio de potência.
Primeiramente, o sinal necessita apresentar homogeneidade em relação aos seus níveis de potência, pois se um ruído atingir um sinal onde a maior parte da energia está concentrada em alguns pontos, a informação será perdida completamente. Desta forma o primeiro estágio do esquema 8-VSB é responsável pelo embaralhamento espectral dos dados visando à suavização do espectro. Devido ao fato de a informação estar fora de ordem, é necessário utilizar um sistema de correção de erros, neste caso o código utilizado é o Reed Solomon responsável por inserir bytes de paridade formando segmentos. O código Reed Solomon apresenta uma baixa eficiência se por acaso um ruído impulsivo afetar o sinal transmitido, então a medida tomada para evitar este tipo de ruído é a realização do embaralhamento temporal dos bits. Para conferir maior robustez ao sinal, mais um código de correção de erros é inserido, o Código Treliça, que basicamente gera 3 bits em sua saída a cada 2 bits de entrada melhorando assim a confiabilidade da informação difundida. Após estas etapas é necessário inserir símbolos de sincronismo e posteriormente um nível DC neste sinal de tal maneira criar um sinal piloto compatível com o modulador VSB. A partir deste ponto as últimas adaptações no sinal até irradiá-los através do meio, baseiam se em modular o sinal na frequência designada para a transmissão e amplificá-lo em um estágio de potência.
Segundo Yamada (2005), o esquema de modulação adotado pelos padrões Europeu e Japonês, denominado Coded Orthogonal Frequency Division Multiplex apresenta várias características semelhantes ao 8 VSB, tais como a aplicação de códigos de correção de erros para melhorar a confiabilidade da informação, além do uso de técnicas de aleatorização e entrelaçamento dos dados. Entretanto a modulação COFDM apresenta aspectos que evidenciam a superioridade deste tipo de modulação em relação à 8-VSB, como por exemplo a presença de multiportadoras ortogonais entre si possibilitando o envio de mais de uma única informação audiovisual canalizada no mesmo espectro de 6MHz. Esta característica segmenta o espectro de transmissão criando hierarquias possibilitando o uso de diferentes serviços como recepção fixa, móvel e portátil.
Neste esquema de modulação é necessário analisar as informações manipuladas em formatos de pacotes de tamanho fixo, designados TS (Transport Stream). Os pacotes TS são gerados durante a codificação MPEG-2 e em seguida são multiplexados áudio, vídeo e dados. O canal de saída do MUX é conectado a entrada do codificador COFDM. Os pacotes TS apresentam 188 Bytes, onde a informação está contida em 187 Bytes e o Byte restante é designado para realizar o sincronismo.
O bloco codificador da modulação COFDM apresenta as mesmas funções descritas anteriormente na modulação 8 VSB, contudo uma separação do fluxo do sinal ocorre internamente nesse bloco. Trata-se do splitter, um componente que separa o sinal de entrada em hierarquias dependendo de suas características, ou seja, é possível separar a informação de acordo com sua aplicação como, por exemplo, vídeos de alta e baixa resolução.
Diferentemente da modulação 8 VSB, a COFDM apresenta um bitrate variável no sinal de entrada do codificador, isto ocorre pois esta última apresenta várias portadoras com modulações diferentes entre si como DQPSK (Differential Quadrature Phase Shift Keying) QPSK (Quadrature Phase Shift Keying), 16-QAM (Quadrature Amplitude Modulation) e 64-QAM, e ainda estas modulações podem apresentar code rates diferentes como 1/2, 2/3, 3/4, 5/6 e 7/8, diferentemente do código treliça utilizado na modulação anterior onde a taxa de bits é fixa em 2/3.
A utilização de diferentes modulações permite não só variar a qualidade do sinal como também possibilita o maior alcance de irradiação do mesmo, pois modulações diferentes envolvem também a robustez deste sinal, por exemplo, a modulação QPSK apresenta baixas taxas de bits, porém possibilita irradiar este sinal em áreas maiores e mais acidentadas, diferentemente da 64-QAM que é utilizada para modular sinais de HDTV onde recepção deste sinal atinge uma área bem reduzida em comparação da modulação QPSK à mesma potência.
Após a segmentação dos diferentes tipos de sinais os dados passam por um estágio de Adaptação, Multiplexação e Dispersão de Energia, onde pacotes TS sofrem uma aleatorização de maneira equivalente ao entrelaçador de bits utilizados no sistema 8-VSB, que produz como resultado um sinal modulado com os mesmos aspectos independente do sinal de entrada.
A função de codificação externa no COFDM equivale ao codificador Reed Solomon pertencente ao 8-VSB, onde a única diferença entre os dois esquemas de modulação é a quantidade de bytes de redundância. Enquanto o 8-VSB acrescentava 20B, o sistema de codificação FEC (Forward Error Correction) do COFDM acrescenta apenas 16B. Ainda em comparação à modulação do padrão ATSC o sinal passa a um Entrelaçador Externo equivalente ao Entrelaçador de Dados detalhado anteriormente. Em seguida os pacotes TS passam por um Codificador Interno no qual aplica um code rate ao sinal, onde é possível escolher códigos diferentes a partir de um código mãe de 2/3.
A seguir o sinal passa por um entrelaçador interno que atua no sentido de evitar ruídos impulsivos de uma maneira otimizada, posteriormente este sinal passa por um bloco de estruturação de quadro. O estruturador de quadro é responsável por mapear o sinal de entrada em relação a sua modulação (DQPSK, QPSK, 16-QAM ou 64-QAM) e adicionar informações de configuração para receptor conhecidos como TPS (Transmission Parameter Signallling). O mapeamento do sinal é essencial, pois é quem garante a organização do quadro COFDM onde cada subportadora pode apresentar uma modulação diferente no bloco posterior, que é o modulador COFDM propriamente dito, que além de modular as portadoras, ele ainda insere um intervalo de guarda entre o transporte de cada pacote de dados. Este intervalo é importante, pois ele proporciona diminuição significativa de interferências intersimbólicas que ocorre na recepção de mais de um sinal ao mesmo tempo onde um sinal apresenta um atraso superior ao outro. Este intervalo de guarda garante a separação dos dois sinais atrasados entre si somente se o período de tempo do atraso for inferior ao período do intervalo de guarda.
O sinal de radiofrequência que deve estar canalizado no ar é de natureza analógica assim como o sinal de TV convencional, então o circuito de saída para o transmissor não sofre nenhuma alteração desde que o sinal seja irradiado na banda de UHF (Ultra High Frequency), como o sinal fonte foi manipulado digitalmente nos blocos de codificação, estruturação de quadro e modulação, uma conversão digital-analógica deverá ser empregada após a inserção do intervalo de guarda de tal maneira a possibilitar a conexão entre o bloco de modulação e bloco de transmissão que por sua vez transfere a frequência intermediária do sinal para o canal consignado pela emissora e posteriormente o amplifica com a intenção de irradiá-lo ao meio possibilitando uma transmissão do tipo broadcasting.
Conclusões Finais
Esta seção e a seção anterior apresentaram os padrões internacionais de TVD mais difundidos no mundo destacando quais as características principais de cada um deles. Através da análise dos sistemas de codificação permite o entendimento de como as informações audiovisuais são codificadas de maneira a possibilitar a transmissão destas informações a inúmeros usuários simultaneamente, e ainda nos permite avaliar quais são os atributos das codificações de vídeo como MPEG-2, MPEG-4 ou H.264, e quais são os serviços possíveis oferecidos na codificação de áudio como MPEG-2 AAC, ou Dolby AC3. É necessário avaliar não só as codificações dos serviços oferecidos por uma emissora de televisão como também suas respectivas formatações, como por exemplo, a qualidade de uma imagem que pode ser em alta definição (HDTV), resolução padrão (SDTV) ou baixa resolução (LDTV), além de avaliar como são separados os canais de áudio (Mono, Stereo ou Surround 5.1) e ainda analisar a diferença entre aplicações procedurais e declarativas. Esta seção e a seção anterior também detalharam os aspectos técnicos dos sistemas de modulação utilizados por estes padrões internacionais como o 8-VSB (ATSC) e o COFDM (DVB e ISDB), nos quais permite a visualização de como informações codificadas de áudio, vídeo e dados são tratadas antes de ser transmitidas por sistemas irradiantes.
|