HDMI, a dor de cabeça recorrente do usuário

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

hdmiJá se passaram cerca de 9 anos, esta coluna ainda estava começando, quando foi publicado um texto com o título “Áudio por HDMI”.

Até hoje eu sou avisado pelo Webinsider que alguém postou na área de comentários daquela coluna um pedido qualquer de ajuda. A maioria das mensagens eu acredito não ser dos meus leitores habituais (se é que eu os tenha em bom número), mas de pessoas que pesquisam assuntos por palavras-chave e acabam chegando naquele texto.

Os últimos pedidos de socorro foram feitos este ano, e eu os entendo, porque quando se trata de HDMI uma nuvem negra paira na cabeça de qualquer usuário, experimentado ou não. Ser solidário em uma hora dessas é o mínimo que se pode fazer com alguém que está procurando uma solução para um problema e não encontra nenhuma.

Isso se deve fundamentalmente à natureza esdrúxula que foi inventada para a conexão e para os cabeamentos envolvidos, acompanhada até hoje por propaganda enganosa, que foi inclusive recriminada pela HDMI.org em passado recente. Não adiantou nada, porque nas embalagens dos cabos se menciona em destaque a versão dos protocolos (1.3, 2.0, etc.) como se fosse uma característica da qualidade, ou então acrônimos como 4K, UHD, 3D, estampados com objetivo aparente de fazer o desavisado acreditar que somente aquele produto pode ser usado para essas finalidades.

O assunto em si e as falhas decorrentes deste sistema ficaram recorrentes por uma série de motivos. Usuários finais (e eu me incluo neste grupo) continuam a enfrentar problemas operacionais, que estão ancorados na maneira como o padrão de conexão foi inicialmente projetado.

E por isso me veio novamente à lembrança, dias atrás, quando eu comecei a notar quedas de sinal frequentes no meu sistema de vídeo. Conversando com um amigo que usa um Blu-Ray player da marca Oppo Digital semelhante ao meu, ele me conta que está enfrentando a mesma coisa. Os sintomas são os mesmos. Às vezes a imagem some por uma fração de segundo, sem qualquer motivo aparente que se possa detectar.

E aí as receitas conhecidas para o chamado “troubleshooting” são ineficazes, o que nos leva compulsoriamente ao processo da tentativa e do erro, para tentar cercar a fonte do problema. Nem mesmo os “experts” espalhados pela Internet e que são bons no que fazem têm a solução definitiva ou os meios técnicos, como equipamentos de medida adequados, para orientar o consumidor.

Na prática, a coisa funciona assim: a gente está com sinal estável, e sem maiores preocupações, quando de repente o fabricante do player ou da TV atualiza o firmware, e de repente vai tudo por água abaixo. O firmware é um software que controla microprocessadores. Se ele tiver um erro de comando, em alguma de suas rotinas, o equipamento irá funcionar errado, independente da integridade física do hardware envolvido.

Já houve época neste país, que eu vivi e sou testemunha, na qual a atualização de firmware era vedada ao usuário, mas depois passou a ser automática, via Internet, na maioria dos equipamentos aqui vendidos. Pelo mundo afora, nas TVs, receivers e players o aviso é dado na tela. Embora seja facultada ao usuário a recusa da atualização do programa, é imprudente que ele assim o faça porque, em tese, a atualização visa a corrigir erros.

O maior problema na conexão HDMI-HDMI reside na aquisição da compatibilidade entre equipamentos interligados. O cabeamento foi originalmente proposto para servir de uma interligação única, do tipo “plug & play”, para conteúdo digital de alta resolução.

A própria sigla significa “High Definition Multimedia Interface”, capaz de transmitir ao mesmo tempo sinal de tipos diferentes, como áudio e vídeo.

Seria bom se fosse verdade

Esta não foi a primeira vez que a indústria eletroeletrônica se propôs a adotar um tipo de cabeamento único que fizesse todas as conexões sem a intervenção do usuário. A ideia em si está correta!

Em épocas onde a interligação era feita em ambiente analógico as fontes de problemas eram muito mais de natureza puramente eletrônica, como características de impedância, capacitância, etc., e relativamente bem mais fáceis de controlar.

No ambiente digital a microarquitetura dos componentes muda de figura. Quando as primeiras controladoras do tipo “plug & play” foram introduzidas nos computadores pessoais elas ganharam a alcunha de “plug & pray” (“ligar e rezar”), e muitas daquelas primeiras placas eram desenhadas com jumpers, para que o usuário modificasse os parâmetros de funcionalidade ou configuração manualmente, caso alguma coisa desse errada. E dava! Só para o leitor ter uma ideia da dimensão do problema eu peço licença para contar uma pequena estória que aconteceu comigo:

 

“Na época do meu doutorado em Cardiff um professor do departamento mandou o técnico instalar uma placa de expansão de memória em um computador rodando com processador Intel 80286. O computador não reconhecia a placa e ele não sabia se chamava uma assistência técnica externa (cujo custo era elevado) ou pedia o dinheiro de volta. Foi aí que um dos meus orientadores disse a ele que tinha me visto desmontando e consertando um computador semelhante alguns dias antes, e então ele me pede para dar uma olhada. A situação chegou às raias da anedota: ao entrar na sala, o professor me pediu para que eu me sentasse à mesa dele, onde estava o micro, logo a seguir dizendo “eu vou dar aula e já volto”. Quando voltou, me viu ali no mesmo lugar e observou “você ainda está aí?”. E eu desconversei dizendo “já estou acabando”. Na realidade, logo ao ligar o micro eu percebi que a configuração de jumpers naquela placa não fazia sentido. Levou algum tempo, porém, para eu me dar conta de que o folheto de papel que vinha com a placa mostrava o mapeamento de forma errada, e então não houve outro jeito, a não ser remapear tudo, e isso tomou muito tempo.

Uma vez identificados cada um dos jumpers, bastou reconfigurar a placa e o problema estava resolvido. Desnecessário dizer que o alívio daquele professor estava estampado no rosto, porque não precisaria se imiscuir com queixas, processos de troca ou custo de conserto, sem falar na desconfiança que ele provavelmente tinha de que estava lidando com uma tecnologia que poderia não funcionar de qualquer outro modo.”

 

A moral desta estória é perceber que tudo que é pertinente ao ambiente digital deveria ser previamente resolvido não só na fabricação do hardware como principalmente na programação das funções, que deve ser testada pela empresa que vende o equipamento ao usuário. Hoje em dia isso tudo ficou muito mais complicado: há décadas não se tem mais “jumpers” ou micro-switches para que alguém possa se safar dos abacaxis que acompanham projetos mal executados!

O erro primário do HDMI não está no cabo ou no conceito de usar uma solução única para todas as conexões. Está na maneira como o sistema foi criado e desenvolvido!

Todo sistema de transmissão de dados precisa prever e corrigir erros. Cada pacote de dados precisa ser identificado, reconhecido pelo receptor e reenviado pelo transmissor. No projeto do HDMI este processo é para lá de precário, daí as constantes quedas de sinal sem chance de correção.

Os equívocos no projeto

Para começar, a informação binária do bitstream contendo os diversos codecs corre em um fio, enquanto que o clock (relógio que permite o sincronismo correto dos dados) corre em outro. Ser houver defasagem de tempo entre os dois, cria-se ali uma fonte praticamente incontornável de problemas.

O protocolo de transmissão usado é chamado de I2C ou I2C, como batizado pela Philips, e desenvolvido para aplicação em circuitos que integram vários microprocessadores. A transmissão tanto do clock quanto dos dados é serial. O sistema originalmente prevê o controle de um chip (“master”) sobre os demais (“slaves” ou “escravos”). Um sinal do chip master pode ter um endereço válido para apenas um chip escravo, e assim só este responderá ao comando.

Projetado para funcionar corretamente em placas de circuito o I2C é engenhoso, porém lento para os requerimentos de transmissão de dados desejados na conexão por cabos HDMI.

Uma das várias críticas pertinentes à construção de cabos HDMI está no uso do I2C entre transmissor e receptor de sinal, porque ele é teoricamente suscetível ao desvio de capacitância ao nível dos conectores. A capacitância é importante na construção de cabos porque ela diz respeito à linearidade do sinal em trânsito: quanto menor for a capacitância menor será a perda de alta frequência, e vice-versa. A transmissão de sinais digitais carece da integridade de frequências altas e, portanto, é de interesse que cabos que conduzem este tipo de sinal sejam providos de baixo valor de capacitância!

O sinal digital de um cabo HDMI contém não só a informação dos codecs de áudio e vídeo, mas também tudo referente ao protocolo de comunicação entre os dispositivos. Este protocolo é essencial ao processo “plug &play” e irá determinar que tipos de sinal da origem (“master”) poderão ser aceitos por quem o recebe (“escravos”). Por exemplo, um sinal de vídeo em 1080p pode não ser aceito por uma tela com 480 linhas de resolução apenas. Se for o caso, ou o transmissor abaixa a resolução automaticamente até que o sinal de fonte seja aceito, ou a transmissão do sinal é interrompida (não há imagem).

Além disso, existe ainda a praga do HDCP. O protocolo de proteção impõe que o receptor do sinal seja protegido pela mesma versão do HDCP do transmissor. Durante a negociação do protocolo de transmissão de dados, o receptor de sinal precisa informar a presença ou não da chave que o identifica como equipamento protegido. Se esta chave (que é gravada no aparelho) não estiver presente o sinal não pode ser recebido, e o transmissor ficará impedido de transmiti-lo. Se for vídeo a imagem não será exibida.

Houve agora um episódio recente que caracteriza muito bem a ditadura do HDCP: os discos Blu-Ray codificados em UHD (2160 linhas ou 4K) exigem toda a linha de transmissão do sinal compatível com HDCP versão 2.2, e caso em algum ponto da linha (player, receiver ou TV) ele não exista, o sinal UHD é convertido para sinal abaixo desta resolução. E em alguns testes feitos e divulgados na Internet, o resultado desta complexa operação chega a causar a interrupção ou queda de sinal. Note que, durante a transmissão, o reconhecimento da chave HDCP precisa ser novamente identificado e assim qualquer falha pode sim interromper a recepção.

Bitola, isolamento e blindagem:

Poucos são os fabricantes de cabos HDMI que se propõem a ceder informações ao usuário sobre a bitola dos fios usado na manufatura do seu produto. O que se observa é que na maioria dos cabos os fios variam de 28 AWG (0.3 mm) a 24 AWG (0.5 mm).

Cabos com bitola mais larga tendem a diminuir a impedância elétrica da passagem de sinal. Embora para o HDMI possa ser até discutível considerar se a impedância afeta o sinal e a transmissão de dados, o fato é que fios com maior bitola diminuem o risco de queda de sinal pela variação do casamento de impedância nas duas extremidades conectadas.

O isolamento do sinal em cabos HDMI é importante não só para evitar a interferência de campo magnético externo, como também para ajudar a condução de sinais de alta frequência. Estes viajam na parte mais externa dos fios condutores e encontram maior resistência à sua passagem.

Toda e qualquer blindagem ajuda a garantir que um cabo se torne mais imune à interferência criada ou existente no ambiente. Uma das formas tradicionais de blindagem consiste em montar uma malha trançada na parte externa dos cabos, ligada a chassis (terra). Quanto maior o percentual de malha mais blindagem se consegue, particularmente em cabos muito longos.

Vários fabricantes têm por hábito incluir também um ou mais núcleos de ferrite, que são muito eficientes para evitar a entrada de sinais espúrios dentro dos cabos. O ferrite pode ser montado pelo usuário, na forma de núcleos “clipáveis”, como mostrado na figura abaixo:

image001

 

Cabos HDMI com núcleos de ferrite pré-fabricados são sempre recomendáveis para o uso em equipamentos de alta definição. Normalmente, os núcleos são moldados próximos aos conectores, um em cada ponta, como mostrado acima.

As precauções de sempre

Cabos HDMI, uma vez montados corretamente, devem conduzir sinal sem nenhum tipo de perda. Infelizmente, isso não é tudo: é preciso também que todos os protocolos de negociação sejam executados sem falhas, tanto do lado do transmissor quanto do receptor. Quando as falhas ocorrem é sempre bom informar ao fabricante, para que o mesmo possa corrigir o firmware.

Em alguns casos de queda ou ausência de sinal, é possível restabelecer o funcionamento dos equipamentos pelo simples ato de desligar e religar tudo de novo. Ao fazer isso, o usuário deve tomar a precaução de ligar primeiro o receptor e depois o transmissor, na sequência de instalação do equipamento (por exemplo: primeiro a TV, e depois receiver e player). Com isso as chances de sucesso na negociação de protocolo aumentam.

Em ambiente analógico, a transmissão de sinal mais crítica é vencida com cabos de ligação mais curtos. Mas, em ambiente digital nem sempre isso é verdade. A propósito, quando eu enfrentei problema deste tipo, o suporte da Oppo me informou que cabos abaixo de 6 pés (cerca de 2 metros) não operam corretamente com o circuito transmissor que eles usam nos players. Esta informação, que eu me recorde, não consta do manual, mas se torna óbvia quando se nota que o cabo HDMI fornecido com o aparelho tem este comprimento. Assim, toda vez que eu quiser resolver quedas de sinal com aparelhos Oppo eu preciso começar verificando o tamanho mínimo dos cabos e troca-los se for necessário.

Finalmente, o consumidor deve fazer um esforço para escolher um fabricante que informe direito as características físicas dos cabos, ao invés de apenas estampar “4K”, “3D”, “versão 2.0” e coisas parecidas na embalagem, porque nada disso garante a quem compra que o cabo é testado para alta velocidade e a blindagem otimizada para a transmissão de dados, que é o que essencialmente nos interessa.

Não é preciso que um cabo com estas características de qualidade seja necessariamente um cabo mais caro. Bons cabos a bons preços estão disponíveis no mercado, que provam o contrário. [Webinsider]

. . . . . .

Leia também:

Paulo Roberto Elias é professor e pesquisador em ciências da saúde, Mestre em Ciência (M.Sc.) pelo Departamento de Bioquímica, do Instituto de Química da UFRJ, e Ph.D. em Bioquímica, pela Cardiff University, no Reino Unido.

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Mais lidas

2 respostas

  1. Olá, Douglas,

    Na verdade os fabricantes de cabos do segmento “high end” insistem em falar de blindagem, mas o custo disso não justifica os altos preços praticados.

    As malhas normalmente constantes dos cabos tem um percentual que raramente a gente vê especificado pelo fabricante.

    Bons fabricantes usam malhas de percentual alto, junto com núcleos de ferrite. E assim a própria existência dos núcleos nos cabos já é um indício de que a fabricação prevê e tenta evitar a perda de sinal.

  2. “Cabos HDMI com núcleos de ferrite pré-fabricados são sempre recomendáveis para o uso em equipamentos de alta definição.”

    No meu inconsciente, sempre evitei cabos HDMI com núcleos de ferrite, pois pensava que “se o fabricante teve a necessidade de acoplar tal núcleo ao cabo a blindagem deve ser uma porcaria”. Mais uma coisa que aprendi com seus textos, obrigado.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *