13/01/2014

Discos rígidos e mordomos são sempre os culpados...


É a máxima dos filmes de mistério e o ditado popular: O mordomo é sempre o culpado. Exagero, pois nem sempre o sujeito da casaca preta tinha culpa no crime. Mas no caso dos discos rígidos, os famosos “agadês”, eles atualmente estão com toda culpa. Ou quase toda. Acredite, depois de ler esse artigo, você vai entender o porquê de tantos problemas que vivem lhe tirando o sono, em relação a suas ilhas de edição e outros computadores. E tem mais: não deixe passar em branco o que vai ler adiante, sem pelo menos fazer alguns testes ou procurar se informar mais sobre o assunto. Vou dar algumas dicas e informações que valem ouro e podem resolver vários desses problemas.

Em primeiro lugar eu vou falar sobre alguns conceitos de maneira geral. Eles serão úteis para nos ajudar a entender porque precisamos mudar nossos valores sobre armazenamento e discos rígidos. Não é por acaso que a maioria dos usuários de computadores, mesmo aqueles que detêm um bom conhecimento, não ligam muito para o tema. Afinal, desde o surgimento dos primeiros discos rígidos para computadores pessoais, lá pelo início da década de 1980 – quando eram chamados de “winchester” em alusão a uma marca de disco da IBM, cujo projetista havia se inspirado nos famosos rifles – os discos rígidos mudaram pouco na teoria geral.


Não é o mordomo... é um funcionário da IBM, na década de 50, com um dos primeiros discos rígidos produzidos.

Estão lá, escondidos sem muita propaganda ou glamour há mais de 30 anos. Falar de processadores, placas de vídeo e memória sempre deu mais assunto e despertou interesse. Isso porque esses componentes tiveram um desenvolvimento e aperfeiçoamento dramáticos nas três ultimas décadas. O velho winchester não. Continuou sendo um tarugo retangular de metal, pedado e barulhento, que dá conta de armazenar nossos dados, sem dar muita dor de cabeça. É bem verdade, que o espaço cresceu assustadoramente e a velocidade melhorou um pouco, mas não muito, em relação aos demais companheiros dele dentro dos gabinetes.

A grande virtude dos discos rígidos rotativos sempre foi a economia de escala. Quanto mais discos foram produzidos, mais o preço por megabyte armazenado caiu. Nisso ele sempre foi imbatível. Memórias RAM, por exemplo, também aumentaram muito a capacidade de dados armazenados, mas ao contrário dos discos rígidos, tiveram o preço elevado. Mas não é estranho que os projetistas e engenheiros tenham se ocupado, ao longo das últimas décadas , em elevar o desempenho dos componentes do computador e não tenham dedicado atenção aos discos rígidos?

Na verdade eles pensaram muito nisso. E sempre foi uma dor de cabeça. Mas como nunca surgiu nada que fosse mais confiável, fácil de produzir em quantidades gigantescas e por baixo custo como os discos rígidos convencionais, valeu a máxima: Em time que está ganhando não se mexe. Ou pelo menos não se mexia, pois agora estamos vivendo a revolução dos novos periféricos de armazenamento de estado sólido. E que ainda chamamos, erroneamente, de disco rígido, disco duro (hard disk) em alusão aos discos de metal rotativos. Mas o nome correto é SSD (Solid State Drive). E não existem mais discos dentro deles.

Mas voltando um pouco atrás, continuemos valando dos velhos HD. No início dos anos de 1980, quando os velhos computadores 286 eram a sensação do momento, a velocidade de transferência de dados dos discos ainda era superior a capacidade de processamento das máquinas. A quantidade de dados também não era expressiva e discos com tamanho de um gigabyte era uma fantasia absurda. E eles foram melhorando lenta e consistentemente. Mas com a popularização da web nos anos de 1990 e a febre da multimídia no PC, tanto os requisitos de espaço como desempenho foram sendo puxados para um nível que os velhos discos não conseguiram acompanhar.

E chegamos aos dias de hoje, com processadores velozes, multiprocessamento (uso das placas de vídeo como processadores auxiliares) e quantidades de memória RAM que quase chegam a rivalizar com os discos rígidos. É bem verdade que houve uma quebra de paradigma. A necessidade de velocidade aumentou, mas a necessidade de quantidade estacionou e até regrediu. Por quê? Por conta da nuvem! Para que armazenar dados e informações que você pode recuperar de qualquer lugar e a qualquer hora da web, do Google ou do armazenamento virtual?

E é exatamente nesse cenário que os fabricantes de armazenamento de estado sólido (SSD) puderam encontrar uma brecha para sua popularização. Os SSD são tudo de bom, mas tem um grande problema por enquanto: O preço extremamente elevado por megabyte armazenado. Enquanto um disco rígido convencional pode armazenar 1 GB de dados por cerca de R$ 0,15, armazenar a mesma quantidade de dados em um SSD não sai por menos de R$ 2,30. Ou seja: quase 1500% mais caro!

Então podemos perceber de cara que a grande virtude dos SSD não é espaço, mas sim velocidade. Hoje, para não penalizar o desempenho dos processadores, memórias e placas gráficas, o SSD é a única opção que oferece simplicidade. Logicamente podemos pensar em sistemas ou conjuntos de discos rígidos convencionais agrupados em modo de dados distribuídos (RAID físico ou lógico). E essa ainda é a solução mais barata quando se precisa de velocidade e espaço de armazenamento. É hoje, se não optamos por usar um SSD, o conjunto de discos é item obrigatório para não atrapalhar o desempenho de um sistema de ponta. Ou seja: uma ou outra solução deve ser escolhida. Mas qual delas?

Para isso precisamos avaliar mais algumas tendências. Então lá se vão mais alguns conceitos. Já falos até agora sobre as razões porque os discos rígidos convencionais permaneceram tanto tempo imbatíveis e imutáveis e falamos também das mudanças nas regras do jogo. Mas nem tanto. Vamos entender melhor esses dois conceitos: velocidade e quantidade de dados. Vamos começar pela velocidade.

Você agora já deve estar entendendo porque aquela máquina ultra moderna que acabou de comprar ou montar, com processador de último tipo, “trocentos” gigas de memória RAM e uma placa de vídeo que custou mais caro que quase todo o computador, ainda está travando na hora de editar seus vídeos. E fora o travamento, outros bugs como tela azul da morte, frames vermelhos nos vídeos exportados, reinicialização dos programas e da máquina sem motivo aparente e outros que não me ocorrem agora. É seu disco rígido! Não tenha mais dúvidas.

Então daqui por diante se liberte de vez de alguns mitos:

  • ·         Disco rígido não influencia em nada. Errado!
  • ·         Um disco rígido de 4 terabytes vai resolver meu problema. Errado!
  • ·         Preciso de muito espaço na ilha de edição para guardar meus projetos. Erradíssimo!
  • ·        Comprei um disco Sata 3 com 7200 rpm de 3 teras e agora não terei mais travamentos. Errado e meio!
  • ·         Não vou colocar discos compartilhados em RAID ou pelo sistema operacional porque me disseram que dá muito problema. Errado!
  • ·         Não vou usar RAID 0 ou discos dinâmicos distribuídos porque vou perder meus arquivos. Errado!

Com a popularização dos vídeos em alta definição (HD) em formatos compactados como o AVCHD ou mesmo o Mpeg2, o espaço necessário para arquivar o mesmo tempo de vídeo, se o mesmo estivesse sem compactação (AVI sem perdas), diminuiu muito, mas a necessidade de velocidade de leitura de dados aumentou em virtude dos processadores velozes equipados com decodificadores para descompactar os arquivos.

E se o formato AVCHD (ou mp4 ou h.264) já está dando trabalho e dor de cabeça, imagine o novo padrão que virá nos próximos anos. Já se fala em uma compressão h.265! Além disso, surgiu também o vídeo em formato 4K ou Super HD. E embora ainda não seja a hora e nem o momento do mercado para isso – e vou falar desse assunto em outro post a seguir – ele está aí comendo pelas beiradas. E seu maior problema não é tamanho e sim a complexidade que leva o processador, tanto da placa de vídeo quanto os da CPU a solicitar uma grande quantidade de leitura de dados com muita velocidade.

Quanto ao armazenamento, é necessário entender que local de guardar conteúdos e projetos com segurança não é a ilha de edição. O nome dela já está dizendo tudo para você: Ilha de edição, não de armazenamento. Para armazenar dados existem os servidores de dados. E é provável que você já tenha ouvido falar de um termo novo com mais frequência:  NAS ou Network-Attached Storage, que em bom português pode se traduzir por Armazenamento vinculado à rede de dados. E os fabricantes estão lançando sistemas NAS de vários tamanhos e capacidades. Desde uma pequena unidade externa de armazenamento pessoal a um grande servidor de dados corporativo, no nosso caso voltado a conteúdos multimídia.

O motivo de popularização dos sistemas NAS, entre as empresas de produção de conteúdo multimídia, é uma consequência direta de tudo que acabamos de falar até agora. Necessidade de espaço de armazenamento, segurança dos dados, disponibilidade desses conteúdos para equipes de profissionais trabalhando em diversas workstations e velocidade de transmissão elevada. E os sistemas NAS mais sofisticados ainda controlam as permissões de acesso a arquivos, as cópias de trabalho (afinal se vários editores vão editar um conteúdo, o arquivo original deve ser preservado e as alterações salvas e compartilhadas).

Os sistemas NAS podem ainda se conectar com servidores de nuvem e abranger equipes em locais distantes e não centralizados. Os preços desses equipamentos podem varias de pouco mais de R$ 2 mil até centenas de milhares de reais. Podem usar um cabeamento simples como uma porta USB 3.0 ou Thunderbolt ou redes de fibra ótica de altíssima velocidade. Tudo depende do tamanho e de necessidades específicas de cada usuário. Mas tudo isso nos aponta um caminho bastante lógico: lugar de armazenamento de conteúdo não é na workstation de edição!

Hoje com o uso quase exclusivo de cartões de memórias nas câmeras, não podemos mais guardar conteúdo como no tempo das fitas. Ou seja: nossa NAS era o armário ou arquivo de fitas magnéticas. O material chegava da rua, trazido pelo cinegrafista, era catalogado e guardado ou encaminhado para o editor. Este tinha que capturar o conteúdo para a ilha de edição e guardar a fita bruta de volta no arquivo. Pelo menos se trabalhava direito. Pois como as primeiras ilhas não lineares tinham pouco espaço interno, assim que um job acabava, se apagava tudo da máquina antes de começar outro trabalho.

Agora com os cartões de memória não existe guarda física do material. Devido ao alto custo, os cartões devem ser imediatamente descarregados e entregues de volta ao cinegrafista para o próximo trabalho. E quantos não são os casos de desespero, na hora que o editor vai ver o material e alguém apagou acidentalmente da ilha, o disco deu defeito e perderam-se todos os dados, o conteúdo do cartão foi capturado com defeitos ou mesmo foi o material errado e por aí vai. Aí é só choradeira.

Eu tenho dito ao longo de muitos artigos aqui no blog: Precisamos nos acostumar com um fluxo de trabalho rígido e diferente de agora em diante.  E seria mais ou menos assim:

  • ·         O cinegrafista chegou com material. O mesmo é conferido na câmera por amostragem.
  • ·         O conteúdo é transferido para um servidor de armazenagem – que não é uma ilha de edição – que tenha um bom antivírus e sistema de segurança de dados.
  • ·         O material é mais uma vez mais conferido. Se estiver tudo ok o cartão é liberado para o cinegrafista.
  • ·         O editor que vai trabalhar no conteúdo copia o material do servidor de arquivos para sua ilha de edição para iniciar o trabalho.
  • ·         Ao final, o projeto inteiro e os vídeos exportados e finalizados voltam para o servidor de armazenagem ou apenas o vídeo final.
  • ·         A ilha de edição é esvaziada para o próximo job.

Se esse fluxo é seguido, além dos ganhos em eficiência e segurança, podemos começar a pensar em estações de trabalho mais velozes, confiáveis e baratas. Atualmente o único componente mecânico de um computador é o HD convencional. Ou seja, como ele possui partes móveis, estas são sujeitas a desgastes por fadiga de material, já que funcionam em condições extremas (velocidade de peças, calor, surtos de energia elétrica, etc).

A limitação da vida útil de um computador, excetuada a obsolescência dos componentes e sistemas, é certamente a falha dos discos rígidos. Obviamente um processador ou qualquer outro componente eletrônico pode queimar, mas fora esse tipo de variável, como essas peças não tem nenhum ou quase nenhum componente mecânico sujeito a movimentos repetitivos é bastante improvável que falhem antes dos discos, desde que respeitadas as condições de temperatura, fornecimento de energia estável e sem interferências e que sejam feitas as manutenções preventivas necessárias.

Então se estamos falando da substituição de discos rígidos mecânicos por armazenamento em estado sólido, basicamente estamos trocando quantidade por qualidade. Espaço por velocidade, pelo menos nos dias de hoje enquanto o custo por MB armazenado ainda estiver alto. Nesse sentido, o uso de estações de armazenamento externas (NAS ou outros dispositivos) nos permite ter, nas estações de trabalho, drivers de armazenamento menores e muito mais rápidos e confiáveis quanto a falhas por desgastes mecânicos e mantendo o custo de aquisição em patamares semelhantes a sistemas de discos rígidos mecânicos distribuídos.

Embora esses sistemas em RAID possam fornecer a velocidade necessária de gravação e leitura de dados que as novas tecnologias de processamento e de gravação de imagens estejam exigindo, o custo é elevado, o peso e espaço físico para instalação dentro dos gabinetes é bem maior, há mais geração de calor e ruídos e ainda teremos o problema da falha, pois ainda se tratam de diversos dispositivos mecânicos rodando em grupo.

Esse tipo de arranjo de discos, desde que respeitados certos parâmetros de proteção e redundância de dados, é bem melhor aproveitado em estações de armazenamento externas que sirvam a mais de uma estação de trabalho ou computador, pois os custos de instalação e manutenção são teoricamente divididos entre todas as máquinas usuárias do sistema. É uma forma mais racional de investir recursos em armazenamento de dados. Ao invés de termos em um ambiente de produção várias máquinas com espaços superdimensionados (ou muitas vezes subdimensionados) de armazenamento, existe apenas um espaço comum de guarda e compartilhamento.

E finalmente para se comparar alguns fatores de desempenho e características físicas de um sistema de array de discos (RAID) mecânicos e outro com unidades de estado sólido podemos tomar um exemplo de conjunto necessário para rodar, em uma estação de trabalho, um programa de edição de vídeo com um projeto composto de sete trilhas de vídeo AVCHD em alta definição combinadas em uma única timeline. Para que não hajam travamentos ou pulos de frames em um preview, além logicamente de uma boa placa gráfica, processador adequando e memória suficiente, precisamos de pelo menos um sistema de arquivos com 500 MB por segundo de taxas de leitura e escrita.

Isso corresponde a 4 Gbit/s que está acima da capacidade máxima de uma porta SATA 2 (3 Gb/s). Portanto todas os discos devem ser SATA 3 (6 Gb/s) ligados a portas SATA 3 na placa-mãe.  Considerando que a velocidade máxima real de um HD de 500 GB de 7200 RPM com, no máximo, 40% de sua capacidade ocupada (200 GB) seja de 110 MB/s, serão necessários no mínimo 4 discos iguais em RAID 0 gerenciado por controladora SATA ou montados virtualmente como discos dinâmicos distribuídos através de sistema operacional compatível.

Como cada disco desse tipo pesa aproximadamente 1 kg, serão 4 kg de peso extra dentro do gabinete. O custo, considerando-se o preço médio de R$ 280,00 por unidade, será de R$ 1.120,00 e ainda haverá cerca de 60 W/h de consumo de energia com liberação de quantidades razoáveis de calor dentro do gabinete.   E somados os espaços dos 4 discos, teremos 2 TB de espaço bruto, mas respeitando a regra de ocupação máxima de 40%, teremos 800 GB disponíveis sem degradar o desempenho sensivelmente.

Se por outro lado usarmos um único SSD de 512 GB de espaço e especificação SATA III, teremos a mesma velocidade de leitura e escrita ( cerca de 500 MB/s), um peso de apenas 100 gramas, quase nenhuma geração de calor e um consumo de 10W/h. E o custo será de R$ 1.100,00. E como nos SSD a velocidade de leitura e escrita não se degrada tanto quanto em um disco convencional, podem ser utilizados 90% do espaço nominal de armazenagem sem perda de desempenho. Evidentemente temos uma redução de cerca de 40% no espaço disponível em relação ao RAID de discos mecânicos pelo mesmo valor investido. Mas conforme já vimos anteriormente, a ideia mais racional é usar a manter na ilha de edição apenas os arquivos usados nos Jobs em execução.

No exemplo que acabei de demonstrar os drivers seriam usados apenas para armazenamento, levando-se em consideração que deva existir sempre outro driver específico de estado sólido e de menor capacidade para rodar o sistema operacional e os aplicativos, pois de outra forma ao juntar o SO, os arquivos de programa e os arquivos de conteúdo no mesmo drive estaríamos degradando muito o desempenho geral da estação de trabalho.
Espero que com essas explicações tenham sido úteis para lhe ajudar a entender, corrigir ou escolher o próximo sistema de armazenamento para sua produtora.  Se restarem dúvidas não hesitem em enviar comentários. Terei prazer em ajudar.

Grande abraço!


Marcelo Ruiz

Nenhum comentário:

Postar um comentário

Obrigado por sua participação! Asim que eu puder, vou responder! Volte sempre!

Marcelo Ruiz

Observação: somente um membro deste blog pode postar um comentário.