21/04/2013

Filmar em 60i, 60P, 30P ou 24P? Qual o melhor formato?


Atenção: Artigo revisto e atualizado em relação a publicação de Jan/2012. Os comentários e dúvidas foram incorporados ao novo texto. Para novos comentários usem a página de Duvidas e Sugestões. Esse post não aceita comentários.

Na imagem, a esquerda, fragmento de fotograma do filme mudo "Nosferatu" (Alemanha, 1922, F.W. Murneau) e a direita, detalhe de cena do filme "O Hobbit" (EUA, 2012, Peter Jackson)


O assunto desperta dúvidas na maioria dos profissionais de vídeo e esse post sempre foi muito lido e comentado. Por isso resolvi rever e ampliar o texto original, incorporando as dúvidas mais frequentes dos meus leitores na forma de adendos ao texto original. Na hora de captar uma cena ou iniciar um movo trabalho vem a questão: 60i, 60P, 30P 0u 24P? Como vou ajustar minha câmera? Desde a edição original desse artigo, o formato 60P – antes restrito a poucas e caras filmadoras – agora se tornou comum, mesmo em equipamentos amadores de baixo custo. Alguns inclusive, curiosamente, nem chegam a oferecer mais as opções 30P ou 60i. Na verdade a adoção mais frequente do formato 60P ainda trouxe mais confusão ao tema.


Teoricamente o formato 60P seria o mais adequado para aquisição atualmente, pois permite a finalização em diversas outras opções.  A maioria dos novos modelos de câmeras profissionais e amadoras só filmava 60 quadros progressivos (60P) no formato 1280 x 720 (também chamado de 720P), que é o modelo de alta definição adotado ainda na maioria dos países europeus e outras partes do mundo. Aliás existem profissionais que afirmam ser o 720P 25 (formato PAL) muito melhor que o padrão 1080i 60 (NTSC entrelaçado), em temos de definição de imagens. E esse é o padrão adotado no Japão ( em fase de mudança já para o Ultra HD), nos EUA e no Brasil e outros países do mundo.

Esse padrão, adotado do sistema japonês, que  aqui é chamado de SBDTV (Sistema Brasileiro de Televisão Digital)  ou  ainda de “ISDB-T International”,  é usado também nos discos BluRay e em  vários outros formatos, com resoluções menores, para aplicações de TV para telefonia celular. Eu concordo com essa teoria, mas particularmente prefiro sempre filmar em 30 frames progressivos e no decorrer desse artigo vou explicar a razão.

Vale ressaltar que o formato HD 720P, com tamanho de quadro de imagem com 1280 x 720 pixel, acabou dando origem a uma denominação errônea chamada de Full HD, que se refere ao formato de quadro de 1920 x 1080 pixel. Existe até uma logomarca, em preto e dourado, que é muito usada ainda pelos fabricantes de equipamentos de vídeo para ressaltar as qualidades do mesmo em relação a “baixa alta definição” (o termo é invenção minha).

Eu digo isso, porque não existe essa tal definição Full HD. Vamos entender isso direito. A palavra full quer dizer cheia, completa em inglês. Então o termo vai se referir a uma alta definição completa ou cheia. E o que seria uma alta definição não cheia ou incompleta? Isso é bastante subjetivo. Até mesmo porque a partir desse ano de 2013, com a popularização do cinema digital e da televisão em 4K, ou super alta definição, o que era Full HD (1080P ou i) deixa de ser “full” para ser meia boca.

Para os europeus, acostumados há vários anos com seus televisores HD de 720P, alta definição é 1280 x 720 25P e ponto final.  Então cada vez que aumentarem a quantidade de pixel do quadro de vídeo, a definição anterior será considerada ultrapassada. Vamos portanto esquecer esse negócio de falar Full HD ou Half HD.

Imagem animada dos famosos fotogramas de Edward James Muggeridge (1830-1904, Inglaterra), mostrando o galope de uma égua e provando que os cavalos tiram as quatro patas do chão, uma discussão interminável à época, já que o olho humano não podia dar conta de decifrar o movimento complicado das patas do animal. Edward Muggeridge foi um dos precursores do cinema.


Feito esse pequeno aparte para definição de termos, vamos falar da cadência de quadros, ou frame rate, ou FPS ou ainda QPS. Tudo a mesma coisa. Para começar do começo,  temos que entender de onde veio a base, que seriam os famosos 24 quadros por segundo do cinema, em filmes de película fotográfica, inventado á mais de um século. Desde que os cientistas começaram a estudar o movimento de objetos, animais e pessoas, através da fotografia, usando diversas técnicas, como a de fotogramas em sequência, chegaram a conclusão que, por conta do fenômeno da persistência de uma imagem em nossa retina, várias delas passadas  rapidamente em série, faziam nosso cérebro ter a impressão de movimento.

E através de experimentos, chegaram a conclusão que o mínimo aceitável, para enganar nossos sentidos, seria uma sucessão de 24 quadros por segundo. Daí surgiu o cimema comercial. Na verdade, a taxa ideal e perfeita seriam 48 quadros por segundo. O grande cientista e inventor Thomas Edson, que entre outras coisas, inventou a lâmpada elétrica, comprovou isso cientificamente, quando pesquisava, nos anos 20 do século passado, o embrião do aparelho de televisão. Só que, como o cinema usava filme fotográfico, coisa muito cara e trabalhosa de ser manuseada, acabaram ficando, por razões comerciais e práticas com os 24 quadros, que estão aí até hoje.

Quer dizer, estavam. O recente filme “O Hobbit – Uma viagem inesperada” do diretor Peter Jackson, se tornou o primeiro filme comercial rodado e exibido no novo formato de 48 quadros por segundo, proposto por outro diretor – James Cameron – para a indústria de cinema em 2010, durante um seminário do qual participaram outros diretores, engenheiros e fabricantes de filmadoras e projetores digitais de cinema. O padrão, que já era usado em uma espécie de truque, fazendo com que, tanto filmes em película, quanto os digitais filmados em 24 quadros, tivesse cada frame duplicado e passado 2 vezes, obtendo-se assim os 48 quadros.

Eu me referi a truque, pois apesar do efeito melhorar a percepção, nas cenas com mais movimento, na verdade o filme original não foi captado a 48 quadros por segundo. No caso do “Hobbit”, o diretor usou equipamentos digitais programados para captar 48 ou 60 quadros por segundo, conseguido assim uma grande fluidez de movimentos em passagens  de ação. Mas – e tem sempre um mas – em toda novidade, o resultado não agradou a todos e choveram críticas. Vou me estender nesse assunto, pois ele vai nos ajudar a seguir a diante. E entender como nosso cérebro se comporta diante de imagens em movimento sequenciais, nos ajudará  a escolher com segurança qual taxa de quadros usaremos no nosso próximo trabalho, pois não existe uma certa ou ideal.

Voltando ao cinema mudo do início do século 20 e depois fazendo um salto para 2013 com nosso amigo Hobbit, temos os dois paradoxos da imagem. Quem nunca assistiu aos filmes mudos de Charles Chaplin, o Carlitos? E outros filmes mudos dos primórdios do cinema? Todos eles tem uma característica comum que era o movimento acelerado dos movimentos. Isso acontecia pois as câmeras eram manuais e dependiam da habilidade do cinegrafista com a manivela para dar a cadência certa. Depois, com as câmeras com mecanismo de corda, as taxas de frame, por medida de economia, podiam ser reguladas entre 18 e 24 frames.

Alguns anos depois do cinema ser inventado e se popularizado, é que as taxas foram definidas em 24 frames por segundo definitivamente. E muitas décadas mais tarde, com a chegada da televisão, esses filmes foram passados para os 30 quadros do sistema NTSC, contribuindo mais ainda para que os movimentos ficassem com aquela característica. Mas antes disso, o próprio Chaplin usou o recurso de filmar a menos  que os 24 quadros, mesmo depois dos 24 FPS  se tornarem o padrão , poia ele achava que isso tornava as cenas  mais cômicas. Era o famoso “defeito especial”.

O que acontece se assistirmos a uma filme abaixo de 24 quadros é que nosso cérebro percebe o truque e vemos os pulos entre os fotogramas. Principalmente com objetos e pessoas se movendo rápido no quadro da imagem ou se a câmera se movimentar rapidamente. Em cadências acima de 24 quadros, como nos 48 FPS do Hobbit de Peter Jackson, os movimentos se tornam cada vez mais fluidos e a mudança dos objetos em movimento na tela se torna quase perfeita de um quadro a outro. Porém isso tem um custo. Os críticos que dividiram as opiniões sobre o filme, reclamaram que os 48 frames por segundo, agregados ao uso das câmeras 4K com super definição, tiraram a atenção do cérebro da estória que estava sendo contada, para os detalhes ultra realistas das imagens, fazendo com que a imersão na emoção, a característica mais importante de uma filme, fosse perdida.

Temos que entender, quando filmamos uma cena qualquer, seja ela um documentário, um drama, um comercial para televisão ou um evento social, que o mais importante, muitas vezes, não é o que está dentro do quadro captado pela câmera. O fora de quadro é tão importante quanto. O enquadramento ou não de algo que está acontecendo na frente da câmera, também nos ajuda a contar a estória e a criar o clima que queremos passar ao espectador. E para o espectador entrar nesse clima que criamos, posteriormente, na sala de cinema ou no sofá de casa, é preciso que o cérebro seja iludido ao ponto de embarcar dentro da imagem, dentro da visão de quem “viu” a cena.  E temos aí outro conceito. A câmera objetiva ou subjetiva.

Mas tudo isso pode ser muito perturbado pelo excesso de realidade. Os estudiosos de cinema que defendem os 24 quadros, o fazem citando principalmente o blur causado pela baixa velocidade do diafragma e da cadência de quadros, que fazem com que os objetos em movimento deixem um rastro em cada fotograma. E esse rastro ou borrão (blur) é citado como o grande elemento de ligação entre os quadros, fazendo não apenas com que nosso cérebro tenha a ilusão do movimento  quanto a imersão na estória que está sendo contada. A teoria é mais ou menos simples: quanto menos detalhes houverem na cena para distrair a atenção do espectador para o drama, mais ele vai se identificar com os personagens e os fatos sendo narrados, sejam eles verdadeiros ou não.
Na fotografia, no cinema e na televisão, a principal função do fotografo é captar a ideia do roteiro ou do diretor , levando o olho do espectadora percorrer a cena, exatamente como planejado. Se isso falhar, o expectador vai desviar o olhar para outra parte do quadro – e isso é particularmente perigoso na tela imensa do cinema, onde há muitos locais, no fotograma, para a mente se perder – levando a imaginação para outras estórias paralelas, que podem acontecer somente na cabeça daquele espectador.

Por isso é comum, ao sairmos de uma filme com outros amigos, que alguém fale a famosa frase “vocês viram aquilo, naquela cena?”  e muitas vezes ninguém pode ter visto o detalhe contado por esse alguém. Ou ainda uma parte do público se emocionar e chorar e outra chegar a rir na mesma cena.  Ou o filme ser adorado por uns e odiado por outros. Entendido de várias maneiras pelo mesmo espectador ou  simplesmente não entendido de forma alguma por algumas pessoas.

Todas essas variações de sentido e gosto que determinam o sucesso ou fracasso de uma peça audiovisual estão intimamente ligados ao caráter subjetivo da imagem estática ou em movimento, dependendo de fatores como o enquadramento, a velocidade de movimento da câmera, a luz, a cor e a cadência de quadros por segundo. Outros fatores que são determinados ou determinam essas variáveis que citei, são o tipo de lente escolhida, a abertura da íris dessa determinada lente e a velocidade do diafragma escolhida.


Falando especificamente da cadência de quadros (FPS) e da velocidade de diafragma, não podemos deixar de citar a regra de ouro dos 180 graus. E o que vem a ser isso? Acontece que no cinema, a velocidade de abertura e fechamento do obturador em cada quadro, que vai determinar quanto tempo a película ou o sensor eletrônico de imagem vai receber luz (captar a imagem processada pelas lentes), é medida em graus. Isso porque o obturador  das câmeras que usam película e das câmeras mais avançadas, que usam sensor eletrônico (CCD ou CMOS), é  constituído por um disco redondo, formado de duas partes, ou semicírculos. Ao sobrepor parcialmente os dois, deixando uma abertura angular para a passagem da luz (imagem)- que é medida em graus - e fazendo esse conjunto girar sobre o próprio eixo, em perfeita sincronização com a cadência de quadros (ou seja, 24 rotações por minuto), cada fotograma vai receber a luz da cena um determinado tempo.

A abertura padrão, medida em graus, para esse obturador (não confundir com abertura do diafragma da lente) é geralmente de 180 graus. Ou seja, durante o tempo que cada frame é posicionado na frente da lente. o obturador fica aberto metade desse tempo. A outra metade de tempo, onde o obturador está fechado, é usada para posicionar o próximo quadro do filme na frente da lente ou, no caso das câmeras digitais, gravar a informação captada por cada pixel do sensor de imagem e desligar ou zerar o sensor, descarregando a carga elétrica para prepara-lo para a próxima captura de frame.



Usando uma pouco de matemática básica, veremos que, se o filme ou sensor capta 24 quadros por segundo, cada quadro capta 1/24s da ação filmada e,  se o obturador fica aberto metade desse tempo (180 graus é metade de uma rotação de 360 graus do obturador), temos um tempo combinado de 1/48 segundos de exposição de cada quadro. Acontece que na maioria das câmeras de vídeo, a medição desse tempo não é feita em graus (embora filmadoras como a Panasonic AG-HVX200, uma das primeiras usadas para fazer cinema digital, tivesse a opção de usar graus ou segundos para regulagem de obturador), e sim é usado o tempo em segundos na forma de fração (1/X segundos).

Por isso se recomenda usar a velocidade de 1/60s de “shutter speed” como a velocidade mínima aceitável para filmagens. Pois ela corresponde, em um vídeo NTSC a 29,97 quadros por segundo, a metade do tempo de exposiçãoo de cada frame a luz, ficando dentro da regra do obturador a 180 graus do cinema. Inclusive , no caso cada vez menos frequente de se transpor o vídeo para película de cinema, o processo de gravação, e colorização vai ser o mesmo do processo fotoquímico baseado em velocidades de 180 graus.

É por isso também que, em câmeras de vídeo que tem a possibilidade de filmarem em 24 quadros por segundo, existir a velocidade de shutter de 1/48s correspondente aos 180 graus usados nas câmeras de cinema. Então agora você pode entender a recomendação que eu e outros profissionais fazem em seus artigos, sobre procurar usar sempre a câmera no modo manual e regulada com shutter speed de 1/60s. Essa recomendação visa obter a mesma fluidez e o tipo de blur existentes nos filmes para cinema, com os quais a visão e o senso comum dos expectadores estão mais familiarizados.

Isso não quer dizer  que não se possa ou deva usar outras velocidades. Nas câmeras de cinema de película, existe um parafuso que aciona o mecanismo de regulagem do obturador, de forma que o cinegrafista possa aumentar ou diminuir o angulo de abertura para um valor mais conveniente com o tipo de cena a ser captada. Em caso de cenas com muita ação e para dar uma certa dramaticidade, evitando mais o blur e deixando os objetos mais nítidos, dão usados ângulos menores como 18 graus por exemplo, que corresponderia a um shutter speed de 1/600s em uma câmera de vídeo operando a 30 quadros por segundo.

Vemos muito esse tipo de efeito em filmes de guerra ou acidentes de carros, onde os estilhaços de granadas e bombas e pedaços do automóvel parecem estar em câmera lenta, dando pulinhos na tela. Vemos esses objetos dessa forma, porque o blur não está mais presente e o objeto não deixa um rastro no frame. Mas será que esse excesso de nitidez é necessário e cabe em todas as cenas de um filme ou vídeo? O que dizer de uma casamento? Onde um clima de sonho e romantismo, geralmente representado na fotografia pela ligeira falta de foco e um suave borrado (blur) remete a nossa percepção da lembrança de nossos sonhos? O que devemos buscar é exatamente o contrário de uma imagem hiperrealista.

Antes de prosseguirmos com o assunto e fecharmos esse artigo com a definição e aplicação das diversas cadências de quadros,  amos fazer algumas simulações de taxas de quadros usando um programa disponível no endereço http://frames-per-second.appspot.com  (esse link leva a outra janela do navegador para o site). Depois de simular as diversas possibilidades, procurando ver com atenção o comportamento dos objetos em movimento e fazendo seu próprio juízo estético dos resultados, volte a essa página e continue lendo as conclusões de nosso artigo.

Na imagem acima, detalhe da página do simulador de taxas de quadros por segundo
 (disponível no endereço eletrônico http://frames-per-second.appspot.com)

Qual taxa de quadros é mais adequada ao meu projeto?



Formato 60 campos entrelaçados (60i) (29,97 frames/segundo):

Não confundir o formato 60i com o formato 30P, erro muito comum, ja que todos os dois tipos de vídeo são formados por 29,97 frames por segundo. É importante não confundir o termo CAMPO com a denominação de FRAME ou QUADRO. Lembre-se que 1 FRAME pode ser formado de apenas 1 campo PROGRESSIVO ou por 2 CAMPOS ENTRELAÇADOS e denominados UPPER FIELD (campo superior) ou LOWER FIELD (campo inferior), cada um contendo apenas METADE DAS LINHAS HORIZONTAIS que formam o frame entrelaçado. 

Cada  campo (superior e inferior) é capturado sucessivamente em intervalos de 1/60s e logo em seguida unidos para formar um quadro (frame) entrelaçado com duração de 1/30s, o tempo de cada campo entrelaçado corresponde ao mesmo tempo de um frame progressivo em um vídeo filmado em 60P, ou seja, um sessenta avos de um segundo. O problema é que cada campo só contem metade das linhas e consequentemente metade da informação da imagem.

Se mais quadros são capturados por segundo, em um vídeo entrelaçado 60i,  mais fluido se tornam as cenas em movimento certo? A resposta é sim e não!  Sim porque são 60 capturas da cena por segundo, como no vídeo progressivo 60P e infelizmente não, porque cada um desses 60 pedaços ( campos) só contem metade da informação da imagem em linhas pares e impares. Como cada um é capturado em um espaço/tempo diferente e sucessivo, as linhas de contorno dos objetos em movimento não se encaixam perfeitamente formando o serrilhado tão odiado. Para entender mais profundamente as diferenças e o funcionamento dos vídeos entrelaçados e progressivos, leita também o post “Entrelaçado ou Progressivo, eis a questão!”.

Mas se o formato 60i tem esses problemas de campos e do serrilhado, porque ainda é usado? A resposta é que na maioria dos sistemas de transmissão de televisão por ondas terrestres e satélites o formato utilizado é o vídeo entrelaçado. Mesmo hoje em plena era da transmissão de sinais digitais em HD, os países que adotam o formato 1080 linhas, transmitem em 60i (entrelaçado), como é o caso do Brasil, Estados Unidos e Japão entre outros. Isso porque, como a banda de rádio por onde os sinais trafegam é limitada, o formato entrelaçado economiza largura de banda, pois a portadora carrega aos mesmo tempo os dois sinais dos campos diferentes (em uma onde senoidal alternada).

Esse técnica vem sendo usada desde o início das transmissões de televisão, desde a década de 30 do século passado e se tornou um padrão. Mas e os aparelhos de televisão? Bem, eles evoluíram mais rápido e hoje os velhos televisores de tubo de imagem (CRT), aptos a receber e exibir nativamente os sinais de vídeo entrelaçados, estão quase extintos. Aos poucos todos estão sendo trocados por modelos de LED ou LCD. Bem como os monitores dos computadores. No caso dos monitores de informática, os  modelos de tubo (CRT) já nem são mais fabricados. E os monitores digitais são todos progressivos.

Então todos os monitores digitais de LCD, LED ou Plasma, tem que possuir um circuito interno capaz de converter os sinais entrelaçados de vídeo para o modo progressivo. Inclusive os monitores de computador, já que com a popularização dos drives de DVD a partir de 1990, todo computador passou a ser capaz de tocar DVD comerciais de filmes que são, em sua maioria, todos entrelaçados. Hoje já se tornou um padrão que todo monitor digital nativamente progressivo, tenha um processador de sinal interno capaz de lidar com vídeos entrelaçados em diversos padrões (NTSC, PAL, 24, 25, 30 ou 60 fps).

Quando só haviam os monitores de tubo de imagem (CRT), não havia o problema do serrilhado, já que os monitores exibiam corretamente os sinais. O problema só era notado nas imagens em câmera lenta ou nos sinais provenientes de videocassetes e DVD, quando o usuário dava pausa na imagem. Outro agravante para o sistema entrelaçado surgiu com os formatos em alta definição como o HDV da Sony e o AVCHD ou h.264 que um padrão aberto. Todos usam a ordem de campos UPPER FIELD FIRST (UFF) ao contrário dos vídeos em baixa definição que usam o formato LOWER FIELD FIRST (LFF). Mais uma vez indico a artigo sobre vídeos entrelaçados e progressivos para entender melhor o assunto.

E esse é realmente um ponto importante. A maioria dos leitores, que me escrevem relatando perda de qualidade excessiva, tremidos e serrilhados exagerados na passagem de vídeos capturados em câmeras HD, depois de gravados em DVD, estão tendo esses problemas por não estarem atentos a ordem dos campos dos vídeos entrelaçados. Não custa lembrar mais uma vez: Vídeos HDV e AVCHD capturados em formato 60i são entrelaçados com o campo superior vindo primeiro (UFF) e os DVD são codificados em vídeo entrelaçado de baixa definição (SD) com campo inferior exibido primeiro (LFF).

Existem diversos softwares que, usando interpolação de quadros, conseguem transformar corretamente os vídeos entrelaçados em progressivos, com diversas taxas de frames (24, 25, 30 ou até mesmo 60P). E cada programa de edição lida de um modo próprio para converter e dar conformidade nos vídeos progressivos e entrelaçados, para fins de edição e exportação. O importante é jamais inverter a ordem de campos. O problema da dominância de campos não acontece se o padrão HD é mantido. Então filmar a 60i em HD e passar o conteúdo para um disco BluRay, mantendo essa definição, não haverá mudanças na ordem dos campos, pois será mantido esquema upper field fisrt (UFF).

Os formatos nativos dos aparelhos e discos BluRay são: 1080i 60, 1080P 29,97, 1080 24P, 480i 60, 480P 30 e 480P24. Como podemos ver, ainda não foi acrescentado o formato 1080P 60.

Resumindo:

Se sua câmera só capta HD em 1080i 60 (a exemplo da Sony HVR Z1U), procure manter o vídeo final no mesmo formato entrelaçado e em alta definição. Você não vai ter problemas de serrilhado excessivo, mesmo nas cenas mais movimentadas, desde que não inverta acidentalmente a ordem dos campos na exportação para o disco BD-R.

Se necessitar converter de alta definição para o padrão SD 720 x 480 e quiser continuar com o vídeo em formato entrelaçado, deve verificar e ajustar seu programa de edição para exibir, na timeline do projeto, a ordem correta dos campos e na exportação para DVD usar a mesma ordem original de dominância. Como a maioria dos vídeos entrelaçados em formato SD é Lower Field First por padrão, uma timeline com uma sequencia de vídeo DV480i 60 será sempre Lower Field First. Se a esta sequência for acrescentado um vídeo entrelaçado com ordem de quadros Upper Field First, o correto é escolher, nas opções do clipe,  o formato Reverse Field Dominance, que vai inverter a ordem do clipe em questão, fazendo-o casar com a ordem da timeline. No Adobe Premiere Pro, por exemplo, isso é feito clicando no clipe desejado na timeline ou na janela de projeto e em seguida em Clip > Video Options > Field Options marcando a caixa de diálogo Reverse Field Dominance.


Outro fator a ser considerado, no caso de transformar um vídeo entrelaçado em progressivo, é que a maioria dos programas de edição, por default, descartam um dos campos, geralmente o campo que não é o primeiro na ordem de exibição, duplicando o campo dominante para criar um quadro progressivo. O problema do serrilhado desaparece, mas 50% da definição de imagem, cor e luminância que estavam no quadro descartado, desaparecem também, criando um vídeo final com um efeito parecido com um blur  e um pouco menos contrastado.


Formato 60P (59,94 frames/segundo) progressivos:

Antes restrito a poucos modelos de câmeras de ponta, com preços elevados, agora está presente até mesmo em handycams de baixo custo, voltadas ao segmento amador. É o novo chamariz dos fabricantes para tentar mostrar a superioridade tecnológica de seus produtos. Os 60 quadros por segundo são anunciados como a solução mágica para uma imagem de qualidade absoluta. Não é bem assim. Como já vimos antes, não é apenas a clareza absoluta de detalhes que fazem uma cena ser adequada a contar a estória que o roteiro pede. Como no caso do “Hobbit” – onde o diretor Peter Jackson, com toda a sua experiência e competência,  conhecia os prós e contras, e desejou mesmo esse choque de realidade no espectador – as coisas podem não sair conforme o planejado.


A clareza de detalhes e a quase perfeição das cenas com movimentos rápidos de câmera ou objetos, é algo bastante interessante para exibir as cenas de sua última viajem de férias na praia, com cores brilhantes e realistas, ou ainda para um canal de notícias ou esportes mostrar todos os detalhes da matéria ao espectador. Melhor uso do 60P se faz para produzir excelentes passagens em slow motion (câmera lenta ou superlenta) com movimentos orgânicos e suaves. Filmar em 60 quadros usando as imagens em uma timeline de 30 fps, dobra o tempo da cena e diminui em 50% a velocidade. Nem o melhor software de efeitos consegue fazer um slowmotion tão perfeito.

Então, resumindo as coisas, use com cuidado o 60P. Se o conteúdo do seu vídeo é documentários da natureza, notícias ou necessita de uma passagem em câmera lenta, você está no caminho certo. Se quer realizar um drama ou documentário mais intimista e romântico, pense em 24 ou 30P.


Formato 30P (29,97 frames/segundo) progressivos:

O formato 30P reúne muitas vantagens, sendo bastante versátil. É também o formato mais popular de vídeo, estando presente nas configurações de quase todas as filmadoras atuais. É ainda o padrão para transmissões de televisão comercial em sistema NTSC em vários países. Pode ser convertido com facilidade no formato entrelaçado 60i ou nos formatos 24 ou 25P, para aplicações em cinema digital ou vídeos no formato PAL europeu, respectivamente.

Quanto ao aspecto visual, ele não apresenta tanto efeito de blur  e o tremulado (flicker), característico dos filmes para cinema captados em 24 quadros por segundo,  bem como não tem a aparência realista e dos vídeos captados em 60i ou 60P para a televisão comercial, que se costuma classificar com um visual de documentários ou telejornal, que também, conforme comentamos no início desse artigo, é uma característica dos novos filmes ultrarrealistas captados em 60 fps como o “Hobbit” .

Mas tudo isso é muito teórico, pois depende do tipo de sensor e da tecnologia utilizados na câmera. Pois ainda existem modelos que não filmam nativamente em 30P direto do CMOS (a exemplo das DSLR como a Canon 5DMKII), captando o vídeo em 60 campos entrelaçados e  transformando esse fluxo, via processador interno de imagens em 30 quadros progressivos, por meio de uma técnica chamada pull down ou entrelaçamento de quadros.

E mesmo o modo progressivo nativo das DSLR, como a Canon  5DMKII,  apresentam certos problemas. O uso do CMOS diminuiu custos e popularizou  os equipamentos que suportam o modo progressivo, mas devido ao tempo que o processador interno de imagem leva para escanear a imagem formada no CMOS (de cima para baixo e da esquerda para a direita), para gravar o frame inteiro na memória de buffer, antes deste ser transferido para a mídia de armazenagem, ficou mais evidente o efeito de rolling shuter. Também chamado de jello efect (efeito de gelatina), é caracterizado pela deformação de elementos verticais da imagem, como se estivessem caindo ou balançando lateralmente como um prato de gelatina. Isso acontece predominantemente em movimentos laterais rápidos da câmera, mesmo em objetos estáticos como prédios altos, como em objetos em grande velocidade como automóveis ou hélices de aviões, mesmo com a câmera parada.  Geralmente, nesses casos, as imagens se mostram distorcidas da metade do frame para baixo em casos de filmagem de veículos em movimento.

Isso ocorre, porque a imagem vai se movimentando ao longo do espaço/tempo enquanto o sensor CMOS ainda está formando um quadro inteiro de vídeo. Então, do início da captura no canto superior esquerdo do sensor, ao final desta no canto inferir direito, em um único frame, há a mudança de posição dos objetos captados. O efeito semelhante nos sensores mais antigos tipo CCD ou mesmo em filmes de película, é o blur  (borrado) desse objeto na imagem.

Resumindo:

Eu prefiro trabalhar em 30P e na medida do possível usar a regra dos 180 graus, com velocidade de obturador (shutter speed) em 1/60s obtendo um visual mais fílmico. E caso seja necessário captar cenas com movimentos rápidos de câmera ou objetos, sempre há o recurso de abrir mais a íris da lente e usar velocidades mais altas de shutter (de preferência múltiplos de 1/60 como 1/125s ou 1/250s), e obtendo uma imagem com menos blur. Em cenas com iluminação muito deficiente e imagens com pouco movimento, como depoimentos de pessoas em ambientes de penumbra, ainda se pode usar uma velocidade de obturador externamente baixa como 1/30s.

Mas sempre é o caso de testar e experimentar o equipamento em diversas situações de captação, bem como as possibilidades de configuração que ele nos permite. Assim podemos escolher, com segurança, qual opção é melhor para nossa câmera e para a cena a ser captada. Digamos então que o versátil formato 30P é um meio termo entre o visual do cinema e o do telejornal.


Formato 24P (23,976 frames/segundo) progressivos:

Chegando ao fim de nossa jornada, onde deixei para falar dele propositalmente por último. O belo e polêmico 24P – bem explicado que a palavra polêmico aqui se refere a seu uso em vídeo e televisão – que no cinema ainda reina absoluto, embora ameaçado pelas novas experiências em 48 e 60P, tem sido objeto do desejo de videografistas, desde que foi introduzido nas primeiras câmeras digitais, no final dos anos 90.

Modelos como a pioneira Canon XL1, Sony PD200, Panasonic HVX100 e JVC HD100, ao oferecerem a velocidade de 24 quadros por segundo, em modo nativo ou através de pulldown, iniciaram a revolução do cinema digital de baixo custo e aceleraram o processo de substituição da película pela captação digital. E mesmo hoje, com as câmeras digitais de ponta para cinema, capazes de captar em 120 frames ou mais por segundo, o bom e velho 24P ainda é o formato preferido e oficial dos diretores de cinema.

Não vou me alongar na descrição das suas características e vantagens, porque ao longo desse texto, já  explanamos bem o assunto nas comparações que fizemos dele como outros formatos. No entanto, precisamos ressaltar alguns detalhes. Se você está captando para televisão e vai precisar, obrigatoriamente, passar o conteúdo para 30P ou 60i na finalização, pense duas vezes. Tenho visto muitos diretores de fotografia e videomakers insistir em seu uso, nesses casos, para conseguir um tal “visual de cinema” em suas produções e depois se verem as voltas com problemas de cadência na passagem de certas cenas para os 30 quadros por segundo.

O  “visual de cinema” a que se referem, pode e deve ser conseguido mesmo filmando a 30 quadros, pois depende muito mais de outros fatores já comentados, como tipo de lente usada, profundidade de campo escolhida, velocidades de obturador e abertura de íris. Agora, se você vai poder finalizar seu trabalho diretamente em DVD ou BluRay ou mesmo publicar em sites na web, vá em frente e aproveite todas as possibilidades estéticas e criativas que o 24P oferece.  Mas lembre-se de ajustar corretamente a velocidade do obturador de sua câmera. Novamente lembrando a regra dos 180 graus, não se esqueça de que a velocidade correspondente em segundos, é 1/48s ou o mais próximo disso que seu equipamento oferecer. E necessitando velocidades maiores procure se manter em múltiplos dela. Vale lembrar que alguns modelos de câmeras que oferecem os 24P nativos, ainda tem a possibilidade de mostrar a velocidade do obturador em graus decimais como as câmeras de cinema, o que facilita as coisas para os já acostumados com a captação para película.

E lembrar que, em se tratando de cinema e televisão, formas de expressão artísticas, as regras podem ser quebradas e nada é fixo e imutável. Mas o conhecimento da técnica não é dispensável. Para ousar e transgredir, é preciso conhecer o que se está modificando. Uma última vez cito o “Hobbit”: mesmo a apresentação em 48P tendo sido alvo de polêmicas, Peter Jackson, o diretor do filme, não foi criticado por ter feito algo sem conhecimento. Todos sabem do seu talento e conhecimento. Ele desde o início sabia o que buscava e sabia dos resultados e do impacto que seu filme causaria nos espectadores e na crítica especializada. Pode ter sido criticado pela ousadia, mas jamais foi acusado de falta de conhecimento técnico de cinema.

Para se aprofundar mais sobre esse e outros assuntos tratados, não deixe de ler os demais posts, indicados nos links que você encontrou ao longo do texto. E antes de enviar perguntas, veja abaixo as dúvidas mais frequentes já respondidas.


1) Estou produzindo o piloto de uma série para apresentar à TV. É melhor filmar em 720 ou 1080? É melhor o 30p ou 60i? O que as emissoras de TV aceitam? Detalhe: tudo será feito em chroma verde. Filmadora AVCHD.

Quanto a definição, vale ressaltar que o HD 1080 é o formato brasileiro de tv digital, sendo o 720P usado na Europa e outros países. Caso a produção seja em definição padrão (SD) a captação pode ser feita em qualquer um dos dois formatos. Isso dependerá mais das possibilidades de seu equipamento. Quanto a filmar em entrelaçado ou progressivo, eu sugiro o progressivo para evitar o efeito comb (serrilhado) nas passagens com maior movimentação de câmera ou de objetos em cena. As emissoras que estão adotando o disco otico XDCAM, como a Rede Globo, exigem o material em HD no formato XDCAMHD 50MB/s em 1080 60i ou 30P. No mais, é interessante fazer testes de captação com o equipamento que vai usar, rodando algumas cenas, que usará no piloto, nos dois formatos e decidir qual lhe agradou mais. Quanto ao croma, é mais difícil dar recorte em áreas como cabelo ou em tons muito escuros em vídeos muito compactados como o AVCHD. O ideal seria captar usando um gravador externo ligado a saída HDMI ou SDI da filmadora, gravando em um formato com pouca ou nenhuma compressão.


Unknown18/04/2012 14:25:00
Marcelo Show de bola a sua explicação!!! Valeu!!
Puts não sei o que que tenho que fazer para aparecer meu nome na mensagem....

2) Então, resumindo: a câmera que filma em 24p tem uma qualidade pior no vídeo, no entanto, para cenas com pouco movimento não há tanta diferença. Isso é correto?

Não é questão de qualidade. Qualidade tem a ver com outros aspectos, como nível de saturação de cores, foco, faixa de contraste dinâmico, separação de cores e outros parâmetros. O que ocorre no 24P é que sempre vai haver aquele flicker característico do filme em película. Em cenas com pouco movimento não se nota muito os pulinhos dos objetos e  nas cenas de maior movimentação, o próprio blur ou rastro do movimento , devido a baixa velocidade de obturador, disfarça o problema.  Há uma discussão acontecendo agora, entre grandes diretores de cinema e as distribuidoras de filmes e redes de televisão em se abandonar o 24P e usar 48 e 60P. Mas ainda é prematuro dizer a onde isso vai chegar.

3) Trabalho com eventos sociais e gravo com uma Sony NX5 em 1920x1080 60i. Depois de ler e pesquisar bastante, resolvi adotar o 1920x1080 30p. Todos meus trabalhos atualmente são entregues em Bluray com cópia em DVD. Edito no Premiere CS5 em sequência 1920x1080 30p e na hora de exportar, o faço em MPEG para Bluray (Premiere CS5). dentro da definição 1920x1080 a opção None (progressive) do Field Order não existe, e acabo utilizando a opção de exportar de acordo com o original, isto é correto? Esse vídeo exportado eu autoro com o Encore CS5, gravo o Bluray e depois, nesse mesmo projeto, gravo as cópias de DVD fazendo com que o Encore faça a conversão para o formato SD. Fazendo assim, eu estou mantendo o progressivo nesse vídeo SD?

Não existe a opção de progressivo porque o codec mpeg bluray não prevê 1920 x 1080 30 frames progressivos, somente entrelaçado. eu inclusive já expliquei isso aqui no blog em um post dedicado a fluxo de trabalho em HD. Você não precisa exportar o vídeo primeiro para depois autorar no Encore. Fazendo isso, você gera uma compressão  a mais, perdendo qualidade. Depois de terminar a edição no Premiere, simplesmente exporte a timeline através do Adobe Dynamic Link direto para o Encore. Nem precisa fazer render. No Encore você vai autorar os dois projetos em HD e SD e ele vai fazer um render no final. Assim seu vídeo pode ir no formato progressivo diretamente para o Bluray sem precisar de um render e uma compactação intermediária, ganhando tempo e evitando a perda de qualidade.

4) Quando gravo na Sony NEX NX5N em 1080P 30 é necessário alterar a configuração no Adobe CS5 conforme você informa em outro post?

Sim, pois o Premiere CS5 tem um bug não corrigido, que interpreta o vídeo progressivo de certas filmadoras como Interlaced Uupper field First. Tem que fazer a conformidade para progressivo antes de começar a editar, para evitar o desentrelaçamento desnecessário e a perda de qualidade.

4) Eu gravei uma filmagem em uma Panasonic AG-HMC80, as cenas apresentaram flicker no formato DV 480/30p, isso é normal? É possível isto? Me falaram para gravar em DV 480/60i que não dá flicker, pois nossa tv normal não lê progressivo. É verdade? Tem como recuperar estas cenas com flicker?

Depende de que tipo de televisão estamos falando. Os aparelhos antigos, de tubo de imagem (CRT) só reproduziam vídeo entrelaçado. Os atuais monitores de LCD ou LED só reproduzem progressivo. Um vídeo entrelaçado pode ser exibido neles, porque esses monitores tem um conversor interno que transformam o conteúdo entrelaçado em progressivo. A não ser que você fosse produzir um vídeo para ser exclusivamente exibido em monitores CRT (tubo de imagem), coisa impossível hoje em dia, valeria a pena usar o 480i 60. E o efeito de flicker nesse caso tem mais a ver com a velocidade do obturador que foi usada. Velocidades lentas demais (inferiores a 1/30) em um vídeo a 30 fps vão apresentar o efeito estroboscópico.

5) MInha câmera filma em 1080i e alguns especialistas dizem que 1280 x 720 P é melhor que 1080i. Se eu gravar numa filmadora em 1280 x 720 e renderizar pelo Adobe Encore , o que vai acontecer quando o vídeo for assistido em uma TV FULL HD?

Essa questão do 720P ou 1080i é bem complexa. Se seu objetivo é exportar para DVD, ou seja, formato SD (720 x 480) então é vantagem filmar em 1280 x 720P em progressivo. Agora, se for exportar para BluRay, definição 1920 x 1080 30P ou 60i, é melhor filmar em 1920 x 1080, mesmo que seja entrelaçado, e fazer o desentrelaçamento no Encore, pois se você fizer um upscale de 720P para 1080P ou 1080i vai ter uma pequena degradação da imagem. E mesmo exportando nos 1280 x 720P nativos em BluRay, uma TV HD 1920 x 1080 pode aumentar a imagem para caber na tela de 1920 x 1080 havendo ligeira perda de qualidade.  Se vai filmar em 1920 x 1080i a 30 quadros não tem porque baixar para 1280 x 720 e ainda baixar a taxa de quadros de 60i para 24P. Essa conversão, feita pelo Premiere ou pelo Encore, vai tirar resolução do seu vídeo. Primeiro por tirar seis frames de cada segundo (no caso de 24P). E depoi,s para passar de 60i para 30P ou 24P o programa vai eliminar um dos campos entrelaçados do frame original (upper ou lower) e vai completar a imagem digitalmente por interpolação, o que também vai causar perda de qualidade.


6) Minha filmadora é 1920 x 1080i e tenho muitos clientes que possuem televisores HD 1280 X 720 ou 1366 X 768. Gravando em 1080i o que acontece quando eles forem assistir em 1280 x 720? E quanto a renderizar para colocar no DVD e em PEN DRIVER  dos clientes?  Faço em 1920 x 1080i ou 1920 x 1080p?

A regra básica é: Filmou em HD 1920 x 1080 deixa assim a não ser que vá exportar para DVD em 720 x 480. E não existe esse negócio de Full HD e Half HD. A partir de 1280 x 720 (720P) é tudo tecnicamente alta definição. A diferença
é que em alguns países (Europa e outros) se usa 720P e no Brasil, Japão, EUA e outros se usa 1080i ou P. Se a televisão do cliente é 720P ou menos, o 1080P ou i vai ficar com a mesma qualidade, ou um pouco melhor, do que ficaria um vídeo 720P, pois foi captado com mais detalhes. Agora captar com 1080 e baixar, seja para 720P ou 480i é sempre problemático, pois existe perda na qualidade. Quanto a renderizar, se vc captou em 1080i deixa assim, pois passar de entrelaçado para progressivo traz perdas na qualidade. No caso do DVD, se filmou em 1080i deixa em 480i. Se filmou em 1080P deixa em 480P. Todo mundo pensa que programas como o Encore só geram DVD em 480i, mas isso porque não sabem que se pode reconfigurar o padrão default nas propriedades de exportação e transcodificação.

7) Em que formato você aconselha a filmar um casamento? 60, 30 ou 24P?

Se for filmar apenas com uma câmera, então é melhor filmar em 60P para ter a possibilidade de criar cenas em slowmotion moderado, se editar em uma timeline de 30P. Mas lembre-se de deixar a velocidade de diafragma no modo manual e procure ficar em 1/60s, evitando velocidades de diafragma mais altas. Se filmar durante o dia e necessitar corrigir a luz, feche o diafragma mas não deixe a câmera no automático, pois ela pode tentar corrigir a luz aumentando a velocidade ao invés da abertura. Como você já está filmando a 60P, ou seja, cada frame com duração de 1/60 segundos, se a velocidade de diafragma subir para 1/120, vai acabar tento uma imagem muito dura sem nada de motionblur, o que não fica muito bem em um vídeo romântico de casamento.

8) Tenho uma Canon T4i e os formatos de gravação aparecem 1920X1080/30, 1920X1080/24 e 1280X720/60, mas não informa se são "P" ou "i". Você saberia me dizer se são progressivos ou entrelaçados?

Todas as DSLR são progressivas. AT4i é progressiva.

9) Trabalho com a Sony NX70 em eventos sociais. Gostei muito de gravar em 30p nela. Imagens muito bonitas. Estou interessado em uma XR260V que grava em 60P e 60i. Vai dar muita diferença nas imagens se eu usá-las juntas em um evento ou melhor gravar em 60p nas duas?

Não dá muita diferença desde que as duas estejam com as mesmas configurações. Você pode usar o 60P nas duas e depois inclusive fazer um slow motion onde julgar necessário. O importante é deixar as duas com a imagem mais parecida possível, entrando nos menus e setando cor, detalhe, gama e outras configurações que as duas possuírem em comum iguais. Depois na edição é só dar uma corrigida leve se precisar.

10) Estou produzindo um vídeo e tenho 2 câmeras: uma Panasonic que grava em 30P e uma Sony Alpha 57 que me dá 3 opções: gravar em 24P, 60i ou 60P (tudo em 1080). Se eu gravar na Sony em 60P e renderizar depois para 30P vai ter alguma distorção? Ou é melhor gravar em 60i sabendo que eu vou renderizar em 30p?

Pode usar sem problemas o 60P na Sony e o 30P na Panasonic. Não misture entrelaçado com progressivo. Não existe perda passar de 60P para 30P.

11) Minha câmera é uma Sony HVR Z7, que tem a opção de gravar em 30P ou 24P. Sempre filmei em 60i, porque não entendo a diferença de i e P. Então acabo usando o mais comum, que é 60i. Em eventos sociais, qual a melhor opção 30P, 24P ou fico no 60i mesmo?

O i é abreviação de entrelaçado. Quando a TV foi inventada, para simplificar o circuito e facilitar a transmissão até os televisores, os projetistas resolveram dividir um frame (quadro) em duas partes, chamadas campos. Então para o formato NTSC, que gera as imagens a 30 quadros por segundo, vc tem 2 campos por quadro e assim 60 campos entrelaçados (interlaced em inglês). Daí a abreviação i. Nos monitores de vídeo atuais de LCD ou  LED, a imagem é toda exibida de uma vez, sem campos. Os pixel vão aparecendo na tela, em cada quadro, de cima para baixo e da esquerda para a direita. Daí o nome progressivo.

O frame de um vídeo progressivo não tem os dois campos do entrelaçado. É como se fosse uma película de cinema. Cada fotograma completo é passado em sequencia a 30 quadros por segundo em NTSC e 25 quadros em PAL. No cinema são apenas 24 quadros por segundo. Para facilitar a passagem do vídeo para a película, quando se começou a usar câmeras de vídeo para produzir para cinema, acrescentaram nos equipamentos a cadência de 24 quadros por segundo.

Filmar em 24 fps cria uma imagem mais parecida com o cinema, com aquele flicker característico e um pouco de blur nas cenas com mais movimento. Não vejo muito sentido em filmar em 24 quadros para depois ter que passar para 30 para gerar um DVD, por exemplo. Em cada segundo de vídeo, tem que ser acrescentados 6 quadros e isso gera alguns problemas.

Não faz sentido também filmar em 60i pois quase não existem mais televisores de tubo de imagem, que são os mais apropriados para se assistir vídeos entrelaçados. Os atuais monitores de TV e de computador, não exibem vídeo entrelaçado e um circuito interno tem que transformar o padrão entrelaçado em progressivo. Então a opção mais lógica e correta é filmar em 30P.

12) O formato em HD da Sony HVR Z7 é 1440 x 1080. Então qual seria o melhor preset na hora de criar um projeto no Premiere CS6 para no final autorar um BluRay?

É sempre preferível usar o preset correspondente a imagem captada original (se houverem diversos formatos, o que corresponda a maior quantidade de material). Nesse caso para HDV seria o preset HDV 1080 P 30 ou HDV 1080 i 60 se foi entrelaçado.

13) Estou filmando com NIKON D7000 e não estou gostando da imagem filmada em 1920x1080 24P. Quando tenho que filmar movimentos ficam aqueles FLICKS que não são legais. Gostaria de saber se passo a filmar em 720P 30P, já que vejo uma diferença na questão de movimento ou há uma forma melhor na pós produção do Premiere (algum tipo de conversão). Entrego o meu material, aos clientes em BluRay e DVD.

Filmar em 720P não vai ajudar muito, já que a imagem ficará menor e com menos resolução mesmo em BluRay. Em televisores de tela grande, se o aparelho tentar converter a imagem para 1080 vai ficar muito ruim. O problema do flicker em 24P com certeza não é por conta da cadência de quadros, mas sim por conta da velocidade do obturador. Quando filma em 24P deve-se usar o mínimo de 1/48s para manter a relação de 180º original da película, para se obter uma imagem mais orgânica, com um pouco mais de blur e sem pulos. O problema também pode estar ocorrendo na hora da transcodificação de 24 para 30P ou 60i dependendo como você esteja autorando o DVD ou Bluray. Como a D7000 não filma em 1080P30, experimenta usar 720P30 para ver se o flicker some. Se sumir é por conta mesmo do aumento da taxa de quadros de 24 para 30. Pode ainda tentar autorar um vídeo em h.264 em 1080P24 ou mpeg 1080 P 24, que são os formatos compatíveis com Bluray, para ver se na mesma cadencia de quadros o problema desaparece.

14) Estou gravando com câmeras Samsung (Q20) em 1080i60, mas também uso uma Sony HVR-Z1N, onde capturo o som, que é apenas HDV 1440x1080i. Qual o preset a ser usado no Premiere CS6 para combinar os dois formatos, sem perda da qualidade e sem perder área de filmagem? É porque imagino que ao usar um projeto 1920x1080, o vídeo da Sony Z1 teria que ser "aumentado" de tamanho para empatar com os da Samsung. E se usar 1440x1080 eu poderia ter a imagem da Samsung "cortada" por ela ser maior. Tem fundamento minha pergunta?

Use o formato AVCHD 1080P 30 pois ao colocar o vídeo da Sony Z1 nessa timeline, você vai notar que ele preenche todo o quadro, pois o vídeo 1440 x 1080 usa um formato de pixel diferente. E por ser mais largo que o AVCHD (square pixel) ele acaba ficando do tamanho correto. Não precisa aumentar nada.

Grande abraço a todos!

Marcelo Ruiz