Mudanças normalmente são difíceis para o ser humano. A evolução de sistemas operacionais muitas vezes não é compreendida pelo usuário final, que tem medo de fazer sua atualização e perder alguma coisa..
Historicamente, eu faço parte de um grupo de pessoas que não tem medo de experimentar o desconhecido. No meu campo de trabalho, o erro é frequentemente a maneira como se evolui na busca da solução de problemas. Quando, por exemplo, uma experimentação no laboratório dá errada, anota-se tudo no caderno de protocolo e se busca uma resposta que justifique o insucesso nos resultados.
A informática como um todo se baseia na construção de códigos de uma determinada linguagem, disposta em milhares de linhas de programa. Existe, a todo momento, um monte de oportunidades nas quais um erro possa ser cometido.
O erro de programação, seja lá de que natureza for, sempre foi e continuará sendo chamado de “bug”, em referência ao inseto que perturba o sono de qualquer um. Assim, “debug” é em essência a pesquisa e retirada de erros de programação. Se considerarmos que se está tratando de um infindável número de linhas de código, “debugar” toma tempo e exige paciência. Quando um dado sistema ou programa está quase pronto ele entra em estado de testes como “versão beta”, e aí entram em cena os chamados “beta testers”, que são usuários avançados que gastarão horas tentando achar um erro de execução.
Os sistemas operacionais fazem agora parte do mundo da eletrônica, cujos equipamentos são desenhados com o emprego de processadores bastante similares a uma unidade central de processamento (CPU). Aparelhos domésticos chamados “inteligentes” rodam com sistemas operacionais específicos.
Sistema Operacional Windows
Quando em 1984 Steve Jobs lançou o seu milagroso anti-IBM, o Mac, ele antes havia passado um tempo observando e depois copiando o sistema com interface gráfica desenvolvido pelos cientistas do centro de pesquisa da copiadora Xerox (Xerox Parc ou Palo Alto Research Center).
O azar dele foi o imenso parque de computadores baseados na plataforma IBM já existente, copiados por diversos fabricantes no mundo todo. Naquela altura, o sistema operacional adotado era o MS-DOS, que o ultra biliardário Bill Gates havia conseguido vender para a IBM através de um contrato com a Digital Research, criadora do CP/M.
A estratégia da Microsoft para migrar para um sistema operacional gráfico foi primeiro evitar eliminar o MS-DOS nas máquinas com estrutura IBM, o que as tornaria obsoletas. Ao invés disso, ela construiu um sistema operacional similar ao do Mac, rodando por fora do DOS, mas tomando conta da máquina. Os programas baseados em ambiente MS-DOS poderiam ser rodados dentro do Windows.
Eu rodei o Windows 2.3 (se não me engano) para experimentar e notei que era muito primitivo, de doer a vista. Mais parecia com o GEM, que foi outra tentativa pífia de tornar um PC da plataforma IBM em um micro com características de interação gráfica com o usuário.
As versões 3.0 e 3.1 do Windows foram as que finalmente emplacaram, embora com o MS-DOS ainda presente. Eu terminei a minha tese de doutorado com a versão 3.1, que introduziu as fontes True Type, cópia pirata das fontes PostScript, criada anos antes pela Adobe Systems. O nosso laboratório havia comprado uma impressora a laser com um cartucho PostScript, que ficou praticamente obsoleto depois do Windows 3.1.
Evolução do Windows e a resistência às mudanças
Até hoje eu ouço de conhecidos uma declaração contra a atualização do Windows para outra versão e, em grande parte, isso é culpa da Microsoft, que em vez de fazer uma versão única do sistema e atualizá-la, preferiu lançar versões com nomes diferentes: 95, 98, etc., sem falar em XP, Millenium, Vista e por aí vai .
Em alguns momentos, a poderosa empresa criou versões com tantos problemas, que acabaram redundando em sonoros fracassos, tipo Windows Millenium, Windows Vista, e gerando todo tipo de consequência e reclamação de seus consumidores.
O Linux, seu principal concorrente, teve sucesso aparentemente junto a empresas, mas encontrou número relativamente menor com usuários domésticos. O sistema tem variantes, adotados por usuários específicos, com um atrativo a mais aqui e ali, mas todos têm em comum não conseguir emular corretamente programas que rodam em ambiente Windows, o que é uma pena.
Sempre existiu uma corrida de gato e rato entre hardware e software, um tentando alcançar o outro. Se alguém monta uma máquina moderna e resolve instalar um sistema operacional atrasado, a máquina fica automaticamente subutilizada. E se o usuário reluta em usar um computador antigo, colocar um sistema operacional atual não vai lhe dar benefício algum, e até possivelmente poderá não ser sequer instalado.
Existe um equilíbrio muito pequeno entre hardware e software, motivo pelo qual todo e qualquer programa ou sistema operacional deve informar ao usuário as suas condições mínimas de funcionamento.
No passado, eu montei para o meu uso pessoal computadores que passaram por várias versões de Intel Pentium, indo depois parar, por questões até de economia, em processadores AMD, como Phenom, FX e ultimamente Ryzen, que superou todos eles.
Eu aprendi que se alguém quer obter o máximo de performance em processamento de dados é preferível adiantar o upgrade do hardware e esperar pela evolução do software para fazer pleno uso de seus recursos.
Algumas software houses usam a nuvem para contornar limitações de processamento, mas eu continuo observando que são os gargalos locais que tem que ser contornados. A correta relação entre CPU, GPU e memória DRAM é o principal e talvez o mais importante item a ser observado. E ultimamente, o gargalo produzido pelo armazenamento, igualmente difícil de resolver, atingiu níveis satisfatórios com a introdução de drives sólidos. Mesmo em uma montagem modesta, a instalação do sistema operacional em um drive de estado sólido (SSD) ou se possível M.2, trará imensos benefícios operacionais ao computador como um todo.
Uma vez “resolvido” o problema de montagem de componentes, e procurando sempre deixar uma margem para upgrades, resta o sistema operacional para cumprir papéis de confiabilidade e estabilidade de qualquer computador.
Todo aquele fiasco de versões como Millenium ou Vista foi redimido com a introdução do Windows 7. E o mais importante foi que a Microsoft acabou cedendo a críticas de usuários, mais do que justas, de que não é concebível ficar trocando de sistema operacional a toda hora.
Por causa disso eu parti do Windows 7 Ultimate para o Windows 8 por um preço módico, e depois para o Windows 8.1 e 10 sem custo algum, sem trocar o equipamento.
Em todos estes avanços o benefício foi visível. A partir do Windows 8, a partida a frio (sem ainda o SSD) alcançou a marca de aproximadamente 8 segundos, com o uso de um processador AMD FX-8350, trabalhando sem overclock.
A partir do Windows 7 acabou aquela novela de desfragmentação de discos rígidos, o que se somou ao desenvolvimento de drives rotativos de vários fabricantes, capazes de se auto diagnosticar e se manter hígido por anos a fio. Anos atrás um disco rígido Seagate em uso me avisou durante a partida do sistema que o drive estava funcionando incorretamente. Atendendo um pedido do suporte, eu rodei um software que identificou o defeito com um código, que depois de enviado a eles propiciou a troca imediata do componente, sem questionamentos.
O controle de funcionamento dos drives, sejam sólidos ou com pratos, começa no hardware e continua no sistema operacional. O firmware (antigamente chamado de BIOS) da placa mãe é a primeira ferramenta de controle, interagindo com a controladora inclusa no drive, que também faz este papel. Foi assim que eu fiquei sabendo que o meu drive Seagate estava começando a falhar.
Uma vez que o sistema operacional assume o controle da máquina esses mesmos drives são continuamente examinados e o diagnóstico reportado no applet “Gerenciador de Discos”, existente no Painel de Controle.
Versões atuais do Windows habilitam automaticamente um comando chamado de TRIM (referente a aparar), que notifica os drives de estado sólido que as páginas de memória onde estavam arquivos apagados não contem mais dados válidos, o que na prática significa não preservar áreas do drive contendo ainda aqueles dados. O comando diminui o ciclo de escrita e prolonga a vida do drive.
Quando o comando TRIM é executado o drive sólido apaga permanentemente todos os setores onde o arquivo deletado estava contido e por causa disso ele não poderá mais ser recuperado. Sistemas operacionais antigos, como o Windows XP ou Vista não possuem este comando e, portanto, o risco de instalar um drive sólido com um sistema desses provocará erro operacional no drive e pode diminuir a sua vida útil. Ao não receber um comando TRIM o drive não apagará os setores envolvidos e assim na próxima operação de escrita esses setores precisarão ser apagados antes da escrita, aumentando significativamente o ciclo de gravação de um novo arquivo que ocuparão aqueles setores.
A habilitação do comando TRIM nunca prejudicará o funcionamento do sistema contendo drives não sólidos. Discos rígidos convencionais ignoram este comando.
Outra coisa que terminou em desuso foi a chamada “limpeza de registry”. A realidade é que em suas versões mais recentes, o Windows executa tarefas de manutenção interna sem precisar da ajuda de ninguém e quando algo errado acontece o sistema tem meios de recuperar a instalação original, com comandos ao nível do usuário bastante divulgados pela internet. Ao contrário dos que professam ser obrigatória a tal limpeza (e desfragmentação) não há problema algum em deixar lá informações obsoletas. Não há mudança de velocidade no sistema alcançada por este tipo de limpeza.
Cuidado com o YouTube
Eu adoro o YouTube, assisto quase todo dia, ainda mais que se pode fazer uso do aplicativo na TV, com direito a 4K e HDR. A imagem em 4K é de excepcional qualidade, diga-se de passagem.
Originalmente, o YouTube se propôs a ser um meio das pessoas construírem um canal de vídeo próprio, onde a palavra é livre. O site é atualmente controlado pelo Google, e tem muito pouca censura. A assinatura ao e-mail do Google facilita o transporte de preferências na tela da TV, celular ou tablet.
Mas infelizmente existe uma clara contrapartida: qualquer um faz upload do vídeo que quiser e, mais importante, sem responsabilidade no conteúdo.
Por conta disso, é preciso tomar cuidado com as “dicas” técnicas. Eu já vi diversas vezes o cidadão “ensinar” a dobrar cabo Ethernet, de maneira a quadruplicar a velocidade de conexão contratada com o provedor. Em um desses tipos de vídeos o narrador fala sereno como juntar dois cabos Ethernet com uma fita crepe. No vídeo ele trabalha com uma fita adesiva, ou seja não sabe a diferença entre ambas. Em outros vídeos do mesmo canal, e com propostas vantajosas sem qualquer base técnica, a narração mais parece ter sido feita por um gerador de áudio daqueles bem primitivos com voz sintetizada. As palavras são pronunciadas sílaba por sílaba e com erros grosseiros. Às vezes é bom assistir a um vídeo desses, para saber onde a gente está pisando.
Existem vídeos sérios, feitos por pessoas que decidem ajudar quem passa por problemas técnicos iguais ou similares. Mas também existem vídeos contratados por fabricantes de algum produto, e aí se vê de tudo, desde uma opinião honesta até uma tentativa de seduzir o consumidor para realizar a compra.
Vídeos feitos por crianças com assuntos técnicos para mim são duros de assistir, e a gente percebe logo pelo jeito de falar, tom de voz, etc.
Talvez o pior de tudo no YouTube seja: primeiro ver exibição de ego, depois a pessoa relatando problemas familiares e finalmente a criação de um canal de vídeo com primitivismo de montagem, imagem fora de foco, etc., demonstrando a luta com o equipamento usado. Existem oficinas, não sei se pagas, que supostamente ensinam a quem quer criar um canal no YouTube com técnicas e métodos para não escorregar na gravação do material desejado. Segurar a câmera com uma das mãos e tentar desencaixotar um produto ou montá-lo em algum lugar torna a exibição do vídeo penosa de assistir.
Em geral, vídeos pessoais ou de assuntos não técnicos, não afetam ninguém, assiste quem quiser. Mas, no tocante a assuntos de natureza técnica, tudo muda. Eu acho imprudente atender a apelos de benfeitorias gratuitas, ou para conseguir vantagens de uso de “forma super fácil”, dando a entender que qualquer um consegue o que quiser com um mínimo de esforço.
Pode até ser, mas nada na vida é fácil. Sem esforço não se chega a lugar algum. Toda e qualquer aquisição de conhecimento demanda tempo. Quem não acredita nisso, um belo dia se deparará com uma surpresa desagradável, ou vai fazer papel de bobo.
Outrolado_
Paulo Roberto Elias
Paulo Roberto Elias é professor e pesquisador em ciências da saúde, Mestre em Ciência (M.Sc.) pelo Departamento de Bioquímica, do Instituto de Química da UFRJ, e Ph.D. em Bioquímica, pela Cardiff University, no Reino Unido.
0 resposta
Muito interessante seu site, gostei muito das informações escritas.Vou acompanhar as novidades sempre. Obrigada bjs marisa
Oi, Marisa,
Apareça sempre. Só um esclarecimento: o site pertence ao jornalista Vicente Tardin, e eu sou o seu humilde colaborador há vários anos, desde a época em que ele era o editor-chefe do Webinsider. Eu escrevia a minha coluna há muitos anos, quando fui convidado pelo jornalista Paulo Rebêlo, amigo do Vicente. E assim fiquei, até recentemente.