É a máxima dos filmes de mistério e o ditado popular: O
mordomo é sempre o culpado. Exagero, pois nem sempre o sujeito da casaca preta
tinha culpa no crime. Mas no caso dos discos rígidos, os famosos “agadês”, eles
atualmente estão com toda culpa. Ou quase toda. Acredite, depois de ler esse
artigo, você vai entender o porquê de tantos problemas que vivem lhe tirando o
sono, em relação a suas ilhas de edição e outros computadores. E tem mais: não
deixe passar em branco o que vai ler adiante, sem pelo menos fazer alguns
testes ou procurar se informar mais sobre o assunto. Vou dar algumas dicas e
informações que valem ouro e podem resolver vários desses problemas.
Em primeiro lugar eu vou falar sobre alguns conceitos de
maneira geral. Eles serão úteis para nos ajudar a entender porque precisamos
mudar nossos valores sobre armazenamento e discos rígidos. Não é por acaso que
a maioria dos usuários de computadores, mesmo aqueles que detêm um bom
conhecimento, não ligam muito para o tema. Afinal, desde o surgimento dos
primeiros discos rígidos para computadores pessoais, lá pelo início da década
de 1980 – quando eram chamados de “winchester” em alusão a uma marca de disco
da IBM, cujo projetista havia se inspirado nos famosos rifles – os discos
rígidos mudaram pouco na teoria geral.
Não é o mordomo... é um funcionário da IBM, na década de 50, com um dos primeiros discos rígidos produzidos. |
Estão lá, escondidos sem muita propaganda ou glamour há mais
de 30 anos. Falar de processadores, placas de vídeo e memória sempre deu mais
assunto e despertou interesse. Isso porque esses componentes tiveram um
desenvolvimento e aperfeiçoamento dramáticos nas três ultimas décadas. O velho
winchester não. Continuou sendo um tarugo retangular de metal, pedado e
barulhento, que dá conta de armazenar nossos dados, sem dar muita dor de cabeça.
É bem verdade, que o espaço cresceu assustadoramente e a velocidade melhorou um
pouco, mas não muito, em relação aos demais companheiros dele dentro dos
gabinetes.
A grande virtude dos discos rígidos rotativos sempre foi a
economia de escala. Quanto mais discos foram produzidos, mais o preço por
megabyte armazenado caiu. Nisso ele sempre foi imbatível. Memórias RAM, por
exemplo, também aumentaram muito a capacidade de dados armazenados, mas ao
contrário dos discos rígidos, tiveram o preço elevado. Mas não é estranho que
os projetistas e engenheiros tenham se ocupado, ao longo das últimas décadas ,
em elevar o desempenho dos componentes do computador e não tenham dedicado
atenção aos discos rígidos?
Na verdade eles pensaram muito nisso. E sempre foi uma dor
de cabeça. Mas como nunca surgiu nada que fosse mais confiável, fácil de
produzir em quantidades gigantescas e por baixo custo como os discos rígidos
convencionais, valeu a máxima: Em time que está ganhando não se mexe. Ou pelo
menos não se mexia, pois agora estamos vivendo a revolução dos novos
periféricos de armazenamento de estado sólido. E que ainda chamamos,
erroneamente, de disco rígido, disco duro (hard disk) em alusão aos discos de
metal rotativos. Mas o nome correto é SSD (Solid State Drive). E não existem
mais discos dentro deles.
Mas voltando um pouco atrás, continuemos valando dos velhos
HD. No início dos anos de 1980, quando os velhos computadores 286 eram a
sensação do momento, a velocidade de transferência de dados dos discos ainda
era superior a capacidade de processamento das máquinas. A quantidade de dados
também não era expressiva e discos com tamanho de um gigabyte era uma fantasia
absurda. E eles foram melhorando lenta e consistentemente. Mas com a
popularização da web nos anos de 1990 e a febre da multimídia no PC, tanto os
requisitos de espaço como desempenho foram sendo puxados para um nível que os
velhos discos não conseguiram acompanhar.
E chegamos aos dias de hoje, com processadores velozes,
multiprocessamento (uso das placas de vídeo como processadores auxiliares) e
quantidades de memória RAM que quase chegam a rivalizar com os discos rígidos.
É bem verdade que houve uma quebra de paradigma. A necessidade de velocidade
aumentou, mas a necessidade de quantidade estacionou e até regrediu. Por quê?
Por conta da nuvem! Para que armazenar dados e informações que você pode
recuperar de qualquer lugar e a qualquer hora da web, do Google ou do
armazenamento virtual?
E é exatamente nesse cenário que os fabricantes de
armazenamento de estado sólido (SSD) puderam encontrar uma brecha para sua
popularização. Os SSD são tudo de bom, mas tem um grande problema por enquanto:
O preço extremamente elevado por megabyte armazenado. Enquanto um disco rígido
convencional pode armazenar 1 GB de dados por cerca de R$ 0,15, armazenar a
mesma quantidade de dados em um SSD não sai por menos de R$ 2,30. Ou seja:
quase 1500% mais caro!
Então podemos perceber de cara que a grande virtude dos SSD
não é espaço, mas sim velocidade. Hoje, para não penalizar o desempenho dos
processadores, memórias e placas gráficas, o SSD é a única opção que oferece
simplicidade. Logicamente podemos pensar em sistemas ou conjuntos de discos
rígidos convencionais agrupados em modo de dados distribuídos (RAID físico ou
lógico). E essa ainda é a solução mais barata quando se precisa de velocidade e
espaço de armazenamento. É hoje, se não optamos por usar um SSD, o conjunto de
discos é item obrigatório para não atrapalhar o desempenho de um sistema de
ponta. Ou seja: uma ou outra solução deve ser escolhida. Mas qual delas?
Para isso precisamos avaliar mais algumas tendências. Então
lá se vão mais alguns conceitos. Já falos até agora sobre as razões porque os
discos rígidos convencionais permaneceram tanto tempo imbatíveis e imutáveis e
falamos também das mudanças nas regras do jogo. Mas nem tanto. Vamos entender
melhor esses dois conceitos: velocidade e quantidade de dados. Vamos começar
pela velocidade.
Você agora já deve estar entendendo porque aquela máquina
ultra moderna que acabou de comprar ou montar, com processador de último tipo,
“trocentos” gigas de memória RAM e uma placa de vídeo que custou mais caro que
quase todo o computador, ainda está travando na hora de editar seus vídeos. E
fora o travamento, outros bugs como tela azul da morte, frames vermelhos nos
vídeos exportados, reinicialização dos programas e da máquina sem motivo
aparente e outros que não me ocorrem agora. É seu disco rígido! Não tenha mais
dúvidas.
Então daqui por diante se liberte de vez de alguns mitos:
- · Disco rígido não influencia em nada. Errado!
- · Um disco rígido de 4 terabytes vai resolver meu problema. Errado!
- · Preciso de muito espaço na ilha de edição para guardar meus projetos. Erradíssimo!
- · Comprei um disco Sata 3 com 7200 rpm de 3 teras e agora não terei mais travamentos. Errado e meio!
- · Não vou colocar discos compartilhados em RAID ou pelo sistema operacional porque me disseram que dá muito problema. Errado!
- · Não vou usar RAID 0 ou discos dinâmicos distribuídos porque vou perder meus arquivos. Errado!
Com a popularização dos vídeos em alta definição (HD) em
formatos compactados como o AVCHD ou mesmo o Mpeg2, o espaço necessário para
arquivar o mesmo tempo de vídeo, se o mesmo estivesse sem compactação (AVI sem
perdas), diminuiu muito, mas a necessidade de velocidade de leitura de dados
aumentou em virtude dos processadores velozes equipados com decodificadores
para descompactar os arquivos.
E se o formato AVCHD (ou mp4 ou h.264) já está dando
trabalho e dor de cabeça, imagine o novo padrão que virá nos próximos anos. Já
se fala em uma compressão h.265! Além disso, surgiu também o vídeo em formato
4K ou Super HD. E embora ainda não seja a hora e nem o momento do mercado para
isso – e vou falar desse assunto em outro post a seguir – ele está aí comendo
pelas beiradas. E seu maior problema não é tamanho e sim a complexidade que
leva o processador, tanto da placa de vídeo quanto os da CPU a solicitar uma
grande quantidade de leitura de dados com muita velocidade.
Quanto ao armazenamento, é necessário entender que local de
guardar conteúdos e projetos com segurança não é a ilha de edição. O nome dela
já está dizendo tudo para você: Ilha de edição, não de armazenamento. Para
armazenar dados existem os servidores de dados. E é provável que você já tenha
ouvido falar de um termo novo com mais frequência: NAS ou Network-Attached Storage, que em bom
português pode se traduzir por Armazenamento vinculado à rede de dados. E os
fabricantes estão lançando sistemas NAS de vários tamanhos e capacidades. Desde
uma pequena unidade externa de armazenamento pessoal a um grande servidor de
dados corporativo, no nosso caso voltado a conteúdos multimídia.
O motivo de popularização dos sistemas NAS, entre as
empresas de produção de conteúdo multimídia, é uma consequência direta de tudo
que acabamos de falar até agora. Necessidade de espaço de armazenamento,
segurança dos dados, disponibilidade desses conteúdos para equipes de
profissionais trabalhando em diversas workstations e velocidade de transmissão
elevada. E os sistemas NAS mais sofisticados ainda controlam as permissões de
acesso a arquivos, as cópias de trabalho (afinal se vários editores vão editar
um conteúdo, o arquivo original deve ser preservado e as alterações salvas e
compartilhadas).
Os sistemas NAS podem ainda se conectar com servidores de
nuvem e abranger equipes em locais distantes e não centralizados. Os preços
desses equipamentos podem varias de pouco mais de R$ 2 mil até centenas de
milhares de reais. Podem usar um cabeamento simples como uma porta USB 3.0 ou Thunderbolt
ou redes de fibra ótica de altíssima velocidade. Tudo depende do tamanho e de
necessidades específicas de cada usuário. Mas tudo isso nos aponta um caminho
bastante lógico: lugar de armazenamento de conteúdo não é na workstation de
edição!
Hoje com o uso quase exclusivo de cartões de memórias nas
câmeras, não podemos mais guardar conteúdo como no tempo das fitas. Ou seja:
nossa NAS era o armário ou arquivo de fitas magnéticas. O material chegava da
rua, trazido pelo cinegrafista, era catalogado e guardado ou encaminhado para o
editor. Este tinha que capturar o conteúdo para a ilha de edição e guardar a
fita bruta de volta no arquivo. Pelo menos se trabalhava direito. Pois como as
primeiras ilhas não lineares tinham pouco espaço interno, assim que um job
acabava, se apagava tudo da máquina antes de começar outro trabalho.
Agora com os cartões de memória não existe guarda física do
material. Devido ao alto custo, os cartões devem ser imediatamente
descarregados e entregues de volta ao cinegrafista para o próximo trabalho. E
quantos não são os casos de desespero, na hora que o editor vai ver o material
e alguém apagou acidentalmente da ilha, o disco deu defeito e perderam-se todos
os dados, o conteúdo do cartão foi capturado com defeitos ou mesmo foi o
material errado e por aí vai. Aí é só choradeira.
Eu tenho dito ao longo de muitos artigos aqui no blog:
Precisamos nos acostumar com um fluxo de trabalho rígido e diferente de agora
em diante. E seria mais ou menos assim:
- · O cinegrafista chegou com material. O mesmo é conferido na câmera por amostragem.
- · O conteúdo é transferido para um servidor de armazenagem – que não é uma ilha de edição – que tenha um bom antivírus e sistema de segurança de dados.
- · O material é mais uma vez mais conferido. Se estiver tudo ok o cartão é liberado para o cinegrafista.
- · O editor que vai trabalhar no conteúdo copia o material do servidor de arquivos para sua ilha de edição para iniciar o trabalho.
- · Ao final, o projeto inteiro e os vídeos exportados e finalizados voltam para o servidor de armazenagem ou apenas o vídeo final.
- · A ilha de edição é esvaziada para o próximo job.
Se esse fluxo é seguido, além dos ganhos em eficiência e
segurança, podemos começar a pensar em estações de trabalho mais velozes,
confiáveis e baratas. Atualmente o único componente mecânico de um computador é
o HD convencional. Ou seja, como ele possui partes móveis, estas são sujeitas a
desgastes por fadiga de material, já que funcionam em condições extremas
(velocidade de peças, calor, surtos de energia elétrica, etc).
A limitação da vida útil de um computador, excetuada a
obsolescência dos componentes e sistemas, é certamente a falha dos discos
rígidos. Obviamente um processador ou qualquer outro componente eletrônico pode
queimar, mas fora esse tipo de variável, como essas peças não tem nenhum ou
quase nenhum componente mecânico sujeito a movimentos repetitivos é bastante
improvável que falhem antes dos discos, desde que respeitadas as condições de
temperatura, fornecimento de energia estável e sem interferências e que sejam
feitas as manutenções preventivas necessárias.
Então se estamos falando da substituição de discos rígidos
mecânicos por armazenamento em estado sólido, basicamente estamos trocando
quantidade por qualidade. Espaço por velocidade, pelo menos nos dias de hoje
enquanto o custo por MB armazenado ainda estiver alto. Nesse sentido, o uso de
estações de armazenamento externas (NAS ou outros dispositivos) nos permite
ter, nas estações de trabalho, drivers de armazenamento menores e muito mais
rápidos e confiáveis quanto a falhas por desgastes mecânicos e mantendo o custo
de aquisição em patamares semelhantes a sistemas de discos rígidos mecânicos
distribuídos.
Embora esses sistemas em RAID possam fornecer a velocidade
necessária de gravação e leitura de dados que as novas tecnologias de
processamento e de gravação de imagens estejam exigindo, o custo é elevado, o
peso e espaço físico para instalação dentro dos gabinetes é bem maior, há mais
geração de calor e ruídos e ainda teremos o problema da falha, pois ainda se
tratam de diversos dispositivos mecânicos rodando em grupo.
Esse tipo de arranjo de discos, desde que respeitados certos
parâmetros de proteção e redundância de dados, é bem melhor aproveitado em
estações de armazenamento externas que sirvam a mais de uma estação de trabalho
ou computador, pois os custos de instalação e manutenção são teoricamente
divididos entre todas as máquinas usuárias do sistema. É uma forma mais
racional de investir recursos em armazenamento de dados. Ao invés de termos em
um ambiente de produção várias máquinas com espaços superdimensionados (ou
muitas vezes subdimensionados) de armazenamento, existe apenas um espaço comum
de guarda e compartilhamento.
E finalmente para se comparar alguns fatores de desempenho e
características físicas de um sistema de array de discos (RAID) mecânicos e
outro com unidades de estado sólido podemos tomar um exemplo de conjunto
necessário para rodar, em uma estação de trabalho, um programa de edição de
vídeo com um projeto composto de sete trilhas de vídeo AVCHD em alta definição
combinadas em uma única timeline. Para que não hajam travamentos ou pulos de
frames em um preview, além logicamente de uma boa placa gráfica, processador
adequando e memória suficiente, precisamos de pelo menos um sistema de arquivos
com 500 MB por segundo de taxas de leitura e escrita.
Isso corresponde a 4 Gbit/s que está acima da capacidade
máxima de uma porta SATA 2 (3 Gb/s). Portanto todas os discos devem ser SATA 3
(6 Gb/s) ligados a portas SATA 3 na placa-mãe.
Considerando que a velocidade máxima real de um HD de 500 GB de 7200 RPM
com, no máximo, 40% de sua capacidade ocupada (200 GB) seja de 110 MB/s, serão
necessários no mínimo 4 discos iguais em RAID 0 gerenciado por controladora
SATA ou montados virtualmente como discos dinâmicos distribuídos através de
sistema operacional compatível.
Como cada disco desse tipo pesa aproximadamente 1 kg, serão
4 kg de peso extra dentro do gabinete. O custo, considerando-se o preço médio
de R$ 280,00 por unidade, será de R$ 1.120,00 e ainda haverá cerca de 60 W/h de
consumo de energia com liberação de quantidades razoáveis de calor dentro do
gabinete. E somados os espaços dos 4
discos, teremos 2 TB de espaço bruto, mas respeitando a regra de ocupação
máxima de 40%, teremos 800 GB disponíveis sem degradar o desempenho
sensivelmente.
Se por outro lado usarmos um único SSD de 512 GB de espaço e
especificação SATA III, teremos a mesma velocidade de leitura e escrita ( cerca
de 500 MB/s), um peso de apenas 100 gramas, quase nenhuma geração de calor e um
consumo de 10W/h. E o custo será de R$ 1.100,00. E como nos SSD a velocidade de
leitura e escrita não se degrada tanto quanto em um disco convencional, podem
ser utilizados 90% do espaço nominal de armazenagem sem perda de desempenho.
Evidentemente temos uma redução de cerca de 40% no espaço disponível em relação
ao RAID de discos mecânicos pelo mesmo valor investido. Mas conforme já vimos
anteriormente, a ideia mais racional é usar a manter na ilha de edição apenas os
arquivos usados nos Jobs em execução.
No exemplo que acabei de demonstrar os drivers seriam usados
apenas para armazenamento, levando-se em consideração que deva existir sempre
outro driver específico de estado sólido e de menor capacidade para rodar o sistema
operacional e os aplicativos, pois de outra forma ao juntar o SO, os arquivos
de programa e os arquivos de conteúdo no mesmo drive estaríamos degradando
muito o desempenho geral da estação de trabalho.
Espero que com essas explicações tenham sido úteis para lhe
ajudar a entender, corrigir ou escolher o próximo sistema de armazenamento para
sua produtora. Se restarem dúvidas não
hesitem em enviar comentários. Terei prazer em ajudar.
Grande abraço!
Marcelo Ruiz
Nenhum comentário:
Postar um comentário
Obrigado por sua participação! Asim que eu puder, vou responder! Volte sempre!
Marcelo Ruiz
Observação: somente um membro deste blog pode postar um comentário.