Uma dúzia de horas de Black Ops 3 testes concluída e estavam se movendo para o próximo jogo de vídeo sequencialmente incrementado: Fallout 4. Tem um número maior no final. Bethesda tem um dos mais longos ciclos de vida de desenvolvimento na indústria, mas os jogos da empresa também estão entre indiscutivelmente os mais duradouros, graças aos esforços imortais de modders. Ajuda que a comunidade de modding é capaz de preencher lacunas no código de Bethesdas ou construir jogos inteiramente novos a partir da base forte estabelecidos pela equipe de veteranos RPG. A nossa análise de jogo da análise de jogo Fallout 4 é ao vivo na página inicial já. Se é isso que você está procurando. Este post analisa exclusivamente e em profundidade as configurações gráficas e o desempenho do Fallout 4s no PC. O benchmark Fallout 4 PC abaixo avalia o desempenho do FPS em nVidia e GPUs AMD, incluindo o GTX 750 Ti, 960, 970, 270X, 285, 390X e muitos mais. VRAM e consumo de memória também é olhado vagamente abaixo, esperançosamente estabelecendo uma linha de base para as melhores placas de vídeo para Fallout 4 no PC. Porque as ferramentas do mod não existem ainda e certamente nenhum mods fêz durante nosso teste do pre-release nós não estamos considerando o golpe inevitável do desempenho criado por mods futuros dos gráficos. Fallout 4 Configurações Gráficas Máx. 4K60 Jogabilidade Explicação de Vídeo Fallout 4s Configurações Gráficas As configurações do Fallout 4s são bastante simples. Qualquer pessoa familiarizada com Skyrim (e Fallout 3. e New Vegas) já está familiarizado com o motor Fallout 4, tela de configurações e opções. Fallout 4 é executado no mesmo mecanismo que o Skyrim fez e seus arquivos. ini contêm muitas das mesmas configurações, então a maioria dos ajustes. ini de Skyrim e New Vegas transporta para Fallout 4. Anti-Aliasing: Alisa as bordas de objeto e textura Por amostragem pixels várias vezes para cores. TAA e FXAA estão ambos disponíveis. FXAA apareceu anteriormente no Skyrim e permanece o mesmo no Fallout 4. Jogadores reclamando sobre blurriness podem querer garantir FXAA não está habilitado. Filtra�o Anisotr�ica: Técnica de filtra�o de textura que assegura uma aplica�o de textura mais uniforme em direc�o aos pontos de fuga, e. Ângulos de visão não oblíquos. Um exemplo fácil seria uma estrada com uma linha branca pontilhada no meio: Maior contagem de amostras de filtragem anisotrópica irá assegurar que a linha tracejada permaneça consistente em sua aplicação à superfície à medida que a estrada se aproxima de seu ponto de fuga. Desativar AF significa que a linha aparecerá cada vez mais embaçada e incorreta, uma vez que ela se afasta do jogador, resultado do ângulo de aplicação. Detalhe: Configurable a baixo, médio, elevado, e ultra. Guia Avançado guia controle de configuração individualizada. Modo de exibição: Windowed, tela cheia, e modos sem margem disponíveis. Qualidade da Textura: Determina a resolução das texturas aplicadas aos objetos no jogo. Configurações de baixa qualidade removerão o grão, a profundidade aparente eo detalhe mais fino das superfícies. Sinalização, por exemplo, pode ir de conter palavras reais e legíveis para ser uma confusão borrada em Low. Isso é verdade para a maioria dos jogos com escala de resolução de textura. Você pode ver um exemplo de escala de qualidade de textura aqui: Black Ops III. Witcher 3. GTA V. Shadow Quality: A resolução e o detalhe das sombras lançadas pelos objetos do jogo. Fallout 4 não tem uma quantidade significativa de detalhe de sombra que é encontrado na maioria dos outros jogos, mesmo no Ultra, e não faz sombras para a maioria dos itens nem para muitos elementos estáticos. Aumentar a qualidade das sombras suavizará as bordas das sombras e reduzirá os efeitos dos pixels marchantes quando um objeto dinâmico moldar uma sombra, ao custo de ciclos adicionais da GPU. Distância da Sombra: A distância na qual as sombras são renderizadas. As sombras serão pop-in e out dependendo da distância do jogador como um meio de maior escala LOD. Reduzir isso irá melhorar o desempenho, especialmente em áreas grandes com objetos mapeados sombra numerosos. Decal Qualidade: Decalques são melhores para pensar como adesivos que se aplicam ao ambiente ou objetos como jogabilidade se desenrola. Sangue, pontos de contato de bala, e terra queimada de explosivos são todos os decalques. Alterar esta configuração determinará quanto tempo um decalque permanece e quantos se acumulam, juntamente com o detalhe geral do decalque. Qualidade de Iluminação: Altera a fidelidade dos efeitos em cascata ea presença de luz. Godrays Qualidade: Qualidade, contagem e presença geral de raios de luz que são lançados de cima (chamados godrays), particularmente em relação à luz que brilha através de outros objetos semi-transparente superfícies (janelas), através de geometria densa (ramos de árvores) e assim por diante. Profundidade de Campo: Aplica um efeito de filme bokeh no espaço de tela que é considerado fora de foco para os jogadores POV. Oclusão Ambiental: regula a aplicação de luz e sombreamento em superfícies adjacentes. Mais visível na parte inferior da folhagem e da vida vegetal. Desativar a Oclusão Ambiental removerá uma quantidade significativa de sombreamento do jogo, que já está faltando, e simplifica a maneira como a luz interage com alguns materiais e superfícies adjacentes. Reflexões do Espaço da Tela: Marque a caixa de seleção. Reflexões conscientes do espaço de tela (governadas em parte pela oclusão ambiente) aparecerão quando a luz interage com metais com materiais reflexivos, revestimentos brilhantes, janelas, etc. Habilita ou desabilita que objetos possam ficar molhados ao encontrar água. O efeito úmido aplica um brilho à superfície do objeto afetado. Oclusão de Chuva: Desative isso ao experimentar defasagem especificamente durante eventos de chuva. Dita se a chuva está sujeita a efeitos de oclusão. Motion Blur: Auto-explicativo desativar se desejar uma experiência menos embaçada. Lente Flare: Michael Bays favorito um alternar que ativa ou desativa o alargamento da lente quando a câmera está em certos ângulos para fontes de luz. Objeto Fade: Distância na qual objetos não-atores como sinalização, latas de lixo ou outros elementos não-item começam a desaparecer da câmera ou pop-in para exibição. Ator Desvanecer: Distância na qual os objetos de ator (NPCs) são exibidos ou desaparecem da exibição da câmera. Grass Fade: Como os dois acima, mas para a grama inferior este primeiro se retardar ao viajar através de wastelands hillsgrassy. Item Fade (Distorção): Distâncias em que os itens suspensos ou colocados são pop-in ou fade from view. Distante Object Detail: LOD de objetos distantes. Aumentar essa configuração aumentará a aparente complexidade geométrica (qualidade da malha) de objetos distantes do player. Detalhe do objeto Fade: com que rapidez os detalhes grittier dos objetos desaparecem, mas não o próprio objeto da visualização dos jogadores. LOD que permite que o objeto permaneça à vista sem removê-lo completamente. Fallout 4 PC Placa de Vídeo Benchmark - 980 Ti, 970, 390X, 270X, Mais Metodologia de teste de vídeo Testámos utilizando o nosso banco de ensaios multi-GPU 2015, detalhado na tabela abaixo. Nossos agradecimentos aos fornecedores de hardware de suporte para fornecer alguns dos componentes de teste. NVidias unreleased Fallout 4 drivers foram utilizados para testes, incluindo o Fallout 4 otimizações. Os mais recentes drivers do AMD Catalyst (15.11 beta) foram usados para testes. As configurações do jogo foram configuradas para ultra com ultra overrides onde não selecionado, médio e baixo presets em resoluções de 1080p, 1440p e 4k. Uma vez que determinamos quais configurações forneceram um nível razoável de carga para placas de vídeo apropriadas, nós forjamos o teste direto dessas configurações em nosso conjunto de GPUs. Cada cenário foi testado por 30 segundos de forma idêntica, depois repetido três vezes para a paridade. Testamos em Diamond City, o primeiro município principal que o jogador atinge. Encontramos partes de Diamond City para produzir cargas altamente intensivas, com uma diferença de desempenho tão grande quanto quase 60 em alguns casos. Isso faz da Diamond City uma região mal otimizada do jogo, que representa um cenário de carga misto, a nossa corrida de teste começa com a câmera apontada para uma região fortemente ocupada da cidade, em seguida, se move em torno de um corredor muito menos intensivo. O resultado é uma carga de GPU mista que é 100 reproduzível e representativa de experiências de jogo do mundo real. Nosso vídeo acima mostra o curso que usamos. Este foi escolhido por sua reprodutibilidade e confiabilidade durante o teste. Benchmarks que não emulam precisamente o nosso curso tomado varia em resultados, dependendo de qual área do jogo foram executados. GN Test Bench 2015 FPS médio, 1 baixo e 0,1 tempos baixos são medidos. Não medimos resultados de FPS máximo ou mínimo, pois consideramos que esses números são valores abertos. Em vez disso, tomamos uma média dos 1 mais baixos resultados (1 baixa) para mostrar o mundo real, perceptível mergulhos que, em seguida, tomar uma média do mais baixo 0,1 dos resultados para picos graves. As seguintes GPUs foram testadas: Configurações Testadas Testamos o jogo usando estas configurações: 4K, tudo definido como Ultra (configurações máximas). 1440p, tudo definido como Ultra (configurações máximas). 1080p, tudo definido como Ultra (configurações máximas). 1080p, tudo definido para médio. 1080p, tudo definido para baixo. FPS Caps. ini Tweaking em Fallout 4 Benchmarks arent possível com framerates bloqueado. Para avaliar com precisão valores de desempenho absolutos de placas de vídeo, desativamos todas as tecnologias de bloqueio de taxa de quadros durante os testes. Isso inclui G-Sync e FreeSync, V-Sync. E tudo o que se encontra sob o capô do jogo. Em Fallout 4, tivemos que navegar para documentos my gamesfallout 4Fallout4Prefs. ini e definir iPresentInterval para 0. Isso desativa a tampa framerate e, conseqüentemente, parece eliminar o comportamento do mouse espúrio. Este arquivo é substituído imediatamente após o lançamento do jogo novamente, porém, para que qualquer pessoa emprestando nossa metodologia para o banco precisará definir o arquivo para ler somente. Há um arquivo de preferências personalizado que Id imagine deve atuar como uma substituição para o arquivo núcleo. ini, mas Im não tem certeza de como usá-lo, então fomos com o método de leitura. Fallout 4 RAM VRAM Consumo Nos testes preliminares de utilização de recursos, descobrimos que as configurações de 1080max exigem memória de aproximadamente 4,8 GB (conjunto de trabalho de 2,4 GB, ou RAM física), que é um pouco menos de um quarto do que vimos no Black Ops. Grande diferença. Mas Fallout é o razoável aqui, com certeza. Os jogadores podem razoavelmente implantar 8GB (ou tão baixo quanto 4GB, mas isso está empurrando-o com tarefas em segundo plano) de RAM do sistema para Fallout 4. As mesmas configurações de 1080max utilizadas em 3GB VRAM em todos os momentos, geralmente mais perto de 2.6-2.9GB. Anti-Aliasing Inicial Outras Configurações Resultados Nós fizemos algumas medições de FPS anti-alias bastante pré-banco para determinar, internamente, se devíamos ou não habilitar o FXAATAA ao testar Fallout 4. Nós vimos diferenças geralmente mínimas (menos de 3, na maioria dos casos ), Mesmo em 4K, e optou por deixar TAA para os benchmarks Ultra. Descobrimos também, como acima, que ajustar a Distância da Sombra para valores mais restritivos (Médio, isto é) imediatamente viu os benefícios FPS tangíveis na faixa de 16,87. Este seria um dos primeiros lugares para quem tentar melhorar o desempenho, mas foi deixado em sua configuração mais alta para os nossos testes Ultra. Eu estava um pouco chocado ao ver o 980 Ti e 390X lutando tanto com Fallout 4. Nenhum cartão atinge a métrica mágica de 60FPS, mas nós descobrimos que geralmente o O jogo permanece jogável dentro da faixa de 45-50FPS (ao contrário dos shooters fast-paced por exemplo Black Ops III). Os leitores regulares notarão que o Fallout 4 é quase tão exigente quanto o Black Ops III, um jogo que, objetivamente, é tecnologicamente superior no departamento de gráficos. A coisa com Fallout é que seu um jogo aberto do mundo, e assim que as distâncias da vista funcionam significativamente mais altamente theres muito mais para ver em uma escala mais longa. Mesmo nos mapas maiores de Black Ops, há tantos ofuscação míope (edifícios, elementos pré-fabricados) que não atraem remotamente tão longe quanto a Fallout. Esta é a principal diferença metodológica na implementação de cada jogo. Mas Fallout ainda parece exageradamente exigente para um jogo de sua aparência. Como está agora, o jogo é efetivamente unplayable na maioria das soluções single-GPU em 4K. Há um argumento a ser feito que 46FPS AVG é jogável, mas thats uma linha fina para andar. Fallout 4 1440p Benchmark Ultra GTX 980 Ti vs. 390X, 970, 290X, 960, Mais Como esperado, a AMD mostra seu diferenciador nos testes de resolução mais alta. O R9 390X aterra adequadamente entre a GTX 970 e MSI GTX 980. Fallout 4 é razoavelmente jogado em 1440p em cartões de classe equivalente ou superior para o R9 290X e GTX 970. As placas 285 e 960 são incapazes de suportar o ciclo e saturação de largura de banda De resoluções mais altas. Em primeiro lugar, o óbvio: O benchmark GPU 1080p, como você verá, coloca uma GTX 970 acima de um R9 390X em cerca de 5,1. Nós não esperávamos que isso acontecesse no Fallout 4 e decidimos validar as descobertas. Nós pensamos que se localizaram a configuração criando a liderança do 970s ao ajustar cada opção, eventualmente notando que Shadow Distance impactou os resultados por quase 20FPS o suficiente para fechar a lacuna, mas que, em seguida, reproduziu meu resultado inicial. Ao definir Shadow Distance para a configuração mais baixa (média) em ambos os R9 390X e GTX 970, o resultado ainda coloca o 970 por um par de quadros à frente do 390X. Na verdade, é quase o mesmo 5 gap. Não é a Distância da Sombra, então. Tentamos todos os outros cenários e não conseguimos encontrar um que produziu um sucesso de desempenho profundo para a AMD, quando ele também não fez isso para nVidia. Isso me leva a acreditar que isso é uma otimização de jogo ou, mais provavelmente, um problema de otimização de driver. Nós contactado AMD última semana passada em busca do aparentemente inevitável Fallout 4 dia-um drivers, mas foram disse os motoristas werent pronto ainda. É possível que o 390X ultrapasse o GTX 970 em 1080p com uma atualização de driver ou patch de otimização de jogo, mas os dados (como abaixo) é como ele está agora. 1080ultra configurações permitem Fallout 4 para esticar para baixo para o 225 GTX 960 e R9 285 (206) região, o que também inclui (não presente) o R9 380. O GTX 950 isnt bastante o suficiente para empurrar 1080ultra, o 960 pode fazê-lo trabalhar com Alguns tweaking luz ou apenas por aceitar 50fps, eo R9 285 opera a 54FPS média. O R9 285 tanques seus 0.1 frametimes baixo para baixo para 30 na ocasião, mas não é nada que arruína a experiência. Com base nestes gráficos, jogar Fallout 4 a 1080max requer cerca de uma GTX 960 (225) ou R9 380 (230) para melhor fluidez durante o pico de carga de trabalho dentro do jogo. As configurações de Ajuste para Alto permitirão que a GTX 950 (170) e R9 270X (equivalente: R7 370 para 150) sejam aproximadas da faixa de FPS jogável. No high-end, o GTX 980 Ti, 980, 970, R9 390X e R9 290X são todos os performers capazes que excedem regularmente 60FPS usando 1080ultra. Fallout 4 não é o tipo de jogo onde você precisa de mais de 60FPS, no entanto, especialmente porque o seu tem um bloqueio FPS bloqueio framerates para 60 por padrão. Fallout 4 1080p Médio Baixo Benchmarks GTX 750 Ti, R7 270X Apenas para aqueles em cartões de gama baixa. Nós didnt passar muito tempo aqui. Conclusão: As melhores placas de vídeo para Fallout 4 Fallout 4 é um jogo estranho. Não olha para tudo impressionante, quero dizer, basta olhar para a imagem acima. Você pode literalmente contar os polígonos em que fencepost sua menos de 40, com certeza. A cerca em si é uma barreira plana com profundidade zero. O jogo, objetivamente, é datado em sua apresentação visual. Isso não faz o jogo ruim nossa revisão realmente sugere o contrário, mas faz seus gráficos menos impressionante pelos padrões modernos. Qua esperam que o desempenho seja estelar devido a esta estética simplificada, mas as grandes distâncias de visão de Fallouts e a aplicação de sombra levam muito disso. Para qualquer pessoa tentando alcançar uma taxa de quadros mais alta do que a representada aqui, sugerimos primeiro diminuir a Distância da Sombra e, em seguida, abaixar algumas das configurações de distância de exibição em quantidades modestas. De qualquer forma, para jogar em 1080ultra em um pior cenário, você vai querer algo como o 230 R9 380 (não presente) ou GTX 960 (225). Um R9 390X funciona bem para 1440p e seria o nosso go-to, curto de optar por nVidias GTX 980 em Update: Veja o nosso referência Volumetric Lighting aqui. 4K apenas não é destinado a soluções de GPU única neste momento, especialmente não em configurações máximas e distâncias de exibição. Quanto às configurações mais baixas, qualquer pessoa que esteja comprometida com o Ultra for Medium pode pegar a GTX 950 para uma sólida experiência de 60FPS. Usuários de configurações baixas podem fazer um trabalho de 750 Ti em uma pitada, mas o R9 270X manipula-se excelentemente. O 270X agora está obsoleto, mas foi efetivamente substituído pelo R7 370. Se você gosta de nossa cobertura, por favor, considere apoiar-nos em Patreon. - Steve Lelldorianx Burke. Avaliação adicional por Mike Gaglione. Ramesh Raskar. Professor Associado, MIT Media Lab Diretor de Projeto (raskar (at) mit. edu) Moungi G. Bawendi. Professor, Departamento de Química, MIT Andreas Velten. Associado de pós-doutorado, MIT Media Lab (velten (at) mit. edu) Everett Lawson. Laboratório de mídia MIT Amy Fritz. MIT Media Lab Di Wu. MIT Media Lab e Tsinghua U. Matt Otoole. MIT Media Lab e U. de Toronto Diego Gutierrez. Universidad de Zaragoza Belém Masia. MIT Media Lab e Universidad de Zaragoza Elisa Amoros, Universidade de Zaragoza Construímos uma solução de imagem que nos permite visualizar a propagação da luz. O tempo de exposição efetivo de cada quadro é de dois trilhões de segundo e a visualização resultante representa o movimento da luz em cerca de meio trilhão de quadros por segundo. A gravação direta de luz refletida ou dispersada a uma taxa de quadros com brilho suficiente é quase impossível. Utilizamos um método estroboscópico indireto que registra milhões de medições repetidas por meio de um exame cuidadoso no tempo e nos pontos de vista. Em seguida, reorganizar os dados para criar um filme de um nanossegundo longo evento. O dispositivo foi desenvolvido pelo grupo MIT Media Lab8217s Câmera Cultura em colaboração com Bawendi Lab no Departamento de Química do MIT. Um pulso de laser que dura menos de um trilhão de segundo é usado como um flash e a luz retornando da cena é coletada por uma câmera a uma taxa equivalente a aproximadamente meia trilhão de quadros por segundo. No entanto, devido a tempos de exposição muito curtos (aproximadamente dois trilhões de segundo) e a um campo de visão estreito da câmera, o vídeo é capturado ao longo de vários minutos por amostragem repetida e periódica. A nova técnica, que chamamos de Fotografia Femto. Consiste em iluminação laser de femtosegundos, detectores precisos de picossegundos e técnicas de reconstrução matemática. Nossa fonte de luz é um laser Titanium Sapphire que emite pulsos em intervalos regulares a cada 13 nanossegundos. Esses pulsos iluminam a cena, e também acionam nosso tubo de raia precisa de picossegundo que captura a luz retornada da cena. A câmera de raio tem um campo de visão razoável na direção horizontal, mas muito estreito (aproximadamente equivalente a uma linha de varredura) na dimensão vertical. Em cada gravação, só podemos gravar um filme 1D deste campo de visão estreito. No filme, gravamos cerca de 480 quadros e cada quadro tem um tempo de exposição de aproximadamente 1,71 picossegundos. Através de um sistema de espelhos, orientamos a visão da câmera para diferentes partes do objeto e capturamos um filme para cada visualização. Nós mantemos um atraso fixo entre o pulso do laser e nosso começo do filme. Finalmente, nosso algoritmo usa esses dados capturados para compor um único filme 2D de aproximadamente 480 quadros cada um com um tempo de exposição efetivo de 1,71 picossegundos. Além do potencial na visualização artística e educacional, as aplicações incluem imagens industriais para analisar falhas e propriedades de materiais, imagens científicas para a compreensão de processos ultra-rápidos e imagens médicas para reconstruir elementos sub-superficiais, isto é, ultra-som com luz. Além disso, a análise do caminho do fotão permitirá novas formas de fotografia computacional. por exemplo. Para renderizar e re-iluminar fotos usando técnicas de computação gráfica. Referências A. Velten, R. Raskar, e M. Bawendi, câmera de Picossegundo para imagens de tempo de vôo, em aplicações de sistemas de imagem. OSA Technical Digest (CD) (Sociedade Ótica da América, 2011) Link Arte lenta com uma câmera trilhões de frames por segundo, A Velten, E Lawson, A Bardagiy, M Bawendi, R Raskar, Siggraph 2011 Link R Raskar e J Davis, 82205d matriz de transporte de tempo-luz: O que podemos raciocinar sobre propriedades de cena8221, julho de 2007 Perguntas freqüentes Como podemos tirar uma foto de fótons em movimento em um trilhão de quadros por segundo Usamos um detector pico-segundo preciso. Nós usamos um imager especial chamado um tubo de raia que se comporta como um osciloscópio com gatilho correspondente e deflexão de feixes. Um pulso de luz entra no instrumento através de uma fenda estreita ao longo de uma direção. Ele é então deflectido na direção perpendicular de modo que os fótons que chegam primeiro atingem o detector em uma posição diferente em comparação com fótons que chegam mais tarde. A imagem resultante forma uma raia de luz. Os tubos de raia são freqüentemente usados em química ou biologia para observar objetos de tamanho milimétrico, mas raramente para imagens de espaço livre. Você pode capturar qualquer evento nesta taxa de quadros Quais são as limitações Não podemos capturar eventos arbitrários em resolução de tempo de picossegundo. Se o evento não for repetível, a relação sinal / ruído necessária (SNR) tornará quase impossível capturar o evento. Exploramos o simples fato de que os fótons, estatisticamente, seguirão o mesmo caminho em iluminações pulsadas repetidas. Ao sincronizar cuidadosamente a iluminação pulsada com a captura da luz refletida, registramos o mesmo pixel no mesmo intervalo de tempo relativo exato milhões de vezes para acumular sinal suficiente. Nossa resolução de tempo é 1,71 picossegundo e, portanto, qualquer atividade que abranja menores de 0,5 mm de tamanho será difícil de gravar. Como isso se compara com a captura de vídeos de balas em movimento Cerca de 50 anos atrás, Doc Edgerton criou imagens impressionantes de objetos em movimento rápido, como balas. Seguimos seus passos. Além da exploração científica, nossos vídeos poderiam inspirar visualizações artísticas e educacionais. A tecnologia chave naquela época era o uso de um flash de duração muito curta para congelar o movimento. A luz viaja cerca de um milhão de vezes mais rápido do que a bala. Observar fótons (partículas leves) em movimento requer uma abordagem muito diferente. A bala é registada num único disparo, isto é, não há necessidade de disparar uma sequência de balas. Mas para observar fótons, precisamos enviar o pulso (bala de luz) milhões de vezes para a cena. O que há de novo sobre a abordagem Femto-fotografia A tecnologia de imagem moderna capta e analisa cenas do mundo real usando imagens de câmera 2D. Estas imagens correspondem ao transporte de luz no estado estacionário e ignoram o atraso na propagação da luz através da cena. Cada raio de luz tem um caminho distinto através da cena que contém uma infinidade de informações que se perde quando todos os raios de luz são resumidos no pixel da câmera tradicional. A luz viaja muito rápido (1 pé em 1 nanossegundo) ea luz de amostragem nessas escalas de tempo está bem além do alcance de sensores convencionais (câmeras de vídeo rápidas têm exposições de microssegundo). Por outro lado, as técnicas de imagem LiDAR e Femtosecond, como a tomografia de coerência óptica, que empregam detecção ultra-rápida e iluminação a laser, capturam apenas a luz direta (fótons balísticos) provenientes da cena, mas ignoram a luz indiretamente refletida. Combinamos os recentes avanços em hardware ultra-rápido e iluminação com uma técnica de reconstrução que revela informações incomuns. Quais são os desafios Os sensores eletrônicos mais rápidos têm tempo de exposição em nanossegundos ou centenas de picossegundos. Para capturar a propagação de luz em uma cena de mesa, precisamos de velocidades do sensor de cerca de 1 ps ou um trilhão de quadros por segundo. Para conseguir esta velocidade usamos um tubo de raia. A câmera de raia usa um truque para capturar um campo de visão unidimensional perto de um trilhão de quadros por segundo em uma única imagem de raia. Para obter um filme completo da cena, juntamos muitas dessas imagens de raia. O filme resultante não é de um pulso, mas é uma média de muitos pulsos. Ao sincronizar cuidadosamente o laser e a câmera, temos de certificar-nos de que cada um desses pulsos pareça o mesmo. Como esses instrumentos complicados sairão do laboratório Os dispositivos ultra-rápidos de imagem hoje são bastante volumosos. As fontes de laser e as câmeras de alta velocidade se encaixam em um pequeno banco óptico e precisam ser cuidadosamente calibradas para acionar. No entanto, há pesquisa paralela em lasers de estado sólido femtosecond e eles vão simplificar muito a fonte de iluminação. Além disso, o progresso em comunicação óptica e computação óptica mostra grande promessa para compactos e rápidos sensores ópticos. No entanto, no curto prazo, estamos construindo aplicações onde a portabilidade não é tão crítica. Trabalho Relacionado P Sen, B Chen, G Garg, S Marschner, M Horowitz, M Levoy, e H Lensch, 8220Dual photography8221, in ACM SIG. 821705 SM Seitz, Y Matsushita e KN Kutulakos, 8220A teoria do transporte de luz inversa 8221, em ICCV 821705 SK Nayar, G Krishnan, M Grossberg e R Raskar, 8220 Separação rápida de componentes diretos e globais de uma cena usando iluminação de alta freqüência8221, em SIGGRAPH 821706 K Kutulakos e E Steger, 8220A teoria da forma 3d refractiva e especular por triangulação de percurso de luz 8221, IJCV 821707. B. Atcheson, I. Ihrke, W. Heidrich, A. Tevs, D. Bradley, M. Magnor, H P Seidel, Captura 3D Resolvida no Tempo de Fluxos Não-estacionários de Gás Siggraph Asia, 2008 Apresentação, Vídeos e Notícias História Cobertura de Notícias: The New York Times. Velocidade de Luz Lingers na cara da nova câmera MIT News. Trillion-frame-por-segundo vídeo. Usando equipamentos óticos de uma maneira totalmente inesperada, os pesquisadores do MIT criaram um sistema de imagem que faz a luz parecer lenta. Agradecimentos Agradecemos a todo o grupo de Cultura da Câmera por seu apoio implacável. Esta pesquisa é apoiada por bolsas de pesquisa do MIT Media Lab patrocinadores, MIT Lincoln Labs e do Exército Research Office através do Instituto de Nanotecnologias Soldado no MIT. Ramesh Raskar é apoiado por um Alfred P. Sloan Research Fellowship 2009 e DARPA Young Faculdade prêmio 2010. Projetos recentes em Câmera Cultura groupThis site mostra como fazer brilhante procurando DivX vídeo (de TV, DVB, DV, DVD etc) para fins de arquivamento OU como reduzir o tamanho do arquivo para produzir boa aparência ainda pequena metragem DivX. Se você estiver lidando com DivX, este site apresenta algumas estatísticas de vídeo e experiências, que podem ser de algum interesse para todos os editores de vídeo e entusiastas de DivX. Uma grande parte deste site lida com interlacingdeinterlacing que introduz alguns dos mais desagradáveis problemas de entrelaçamento como estes: Por favor, também visitar os meus outros sites eBooks Download ebooks-download (com programa de afiliados) Tiny Google Startpage para o seu navegador tigoo Matrix Reloaded Explicado matrix-explain Free Datando Dicas 100-datando-dicas Meu Freeware Arquivos 1-4a Você acha que você gravar 25 quadros por segundo quando você faz um filme com sua filmadora digital Sua filmadora digital faz o seguinte: Regista 50 imagens por segundo, misturando a cada 2 imagens consecutivas ( Com metade da altura) em 1 quadro. Na verdade, você não chamá-los fotos, mas campos. Assim, 2 campos são misturados em 1 quadro. Esta mistura é chamada de entrelaçamento. Aqui está um exemplo do que sua câmera de vídeo digital faz: Capturar campo1 (captura a metade da altura, ou altura total e, em seguida, redimensiona para baixo): Eles muito bonito o mesmo. Mas espere, eles são diferentes. Você pode ver comparando a posição do polegar e as teclas do teclado. Agora estes dois campos são misturados (entrelaçado) em Frame1 (altura total): O que você vê acima é um quadro exato como na fita de sua filmadora. Aqui está uma vista ampliada do Quadro 1 acima: Como você pode ver claramente acima, Frame1 consiste em Field1 e Field2. A maneira que olha é chamada dente do dente da serra distorção do bordo dentes dos ratos que penteiam as serrações linhas entrelaçadas. Em outras palavras: Uma única moldura consiste de 2 capturas de 2 momentos diferentes no tempo. Field1Time1, Field2Time2. Veja este quadro abaixo. Esta é uma captura diretamente de MTVs Digital Video Broadcasting: A cena acima consiste de 2 cenas totalmente diferentes, porque este é o quadro onde há uma mudança de scene1 para scene2. Devido a este tempo intermix (1 frametime1time2) é impossível: desentrelaçar um quadro manter 25 framessecond manter a qualidade total (todas as informações de uma imagem). Impossível. Você terá que alterar pelo menos um desses pontos. Exceto, quando não havia movimento. Em uma tela de computador as gravações entrelaçadas são irritantes para assistir porque as linhas são realmente perturbadoras. Especialmente em cenas onde há movimento da esquerda para a direita (direita para a esquerda), você vê o entrelaçamento, como neste exemplo: O texto na parte inferior rola da direita para a esquerda e, assim, deixa você com dentes de ratos porque este quadro consiste em 2 instantâneos de Tempo, como descrito acima. Dentes de camundongos por causa de um movimento de cima para baixo. Esta é uma cena do clipe de música quotAnywherequot do performer 112. Não há nenhum movimento entrelaça linhas lá, mas esta é uma moldura onde houve um flash curto, assim há uma diferença de um campo para o outro. Para tornar as coisas ainda mais complicadas, algumas câmeras digitais têm algo que você poderia chamar de entrelaçamento quotcolor. Embora este termo talvez um pouco impreciso para descrever a fonte dos artefatos, é bastante descritivo para o resultado final. Mas mesmo depois de desentrelaçar alguns pixels vermelhos e alguns verdes permanecem onde estava o último campo. Aqui está outro exemplo (depois de desentrelaçamento): Algumas camcorders misturam cores diferentes em campos diferentes ou usam CCDs que reagem mais lentamente, de modo que você obtém padrões de cor estranhos às vezes. Além disso, existem câmaras de vídeo com bugsquot quaintardware conhecidos que produzem um halo de cor ou um sangramento de cor ou uma mancha de cor (o exemplo acima foi filmado com um Sony PC110, que tem este conhecido quotcolor behaviourquot). Além disso há algo como unsharpness cor resultante do fato de que a resolução de cor é menor do que a resolução de imagem, ou seja, por exemplo, que 4 pixels compartilham uma cor. Além disso, há aberrações de cor introduzidas pelo sistema de lente de filmadoras. Além disso, pode haver quebrado DV codecs, que descodificar buggy. Você pode tentar Mainconcepts DV codec () que tem uma grande reputação, se você desconfiar seu próprio codec. Há ainda algo que você poderia chamar de entrelaçamento de brilho. Esta é uma captura do clip de música quotSexyquot realizado por quotFairland Affairquot do canal de TV Tango TV (do Luxemburgo). Este clipe de música foi transmitido progressivamente. Não há nenhum dente de ratos em qualquer lugar neste clipe. No entanto, você vê quotbrightness interlacing linesquot. Talvez este clipe tenha sido gravado entrelaçado e depois transformado para ser progressivo e estes são os artefatos de desentrelaçamento esquerdo. Porque mesmo com os métodos descritos neste site é difícil obter resultados perfeitos. Não, não é Kylie Minogue e seu dentista gay. Sua bonita Kylie e bonita Jason Donovan executando quotEspecially para youquot em 1988 em quotTop do Popsquot Como você vê há alguns artefatos desentrelaçamento. No entanto, você quase não notá-los durante o jogo. É o entrelaçamento de um bug Infelizmente, este é o modo como as filmadoras digitais e os gravadores de vídeo digitais gravam e a transmissão digital é feita. Um segundo de um filme consiste em 25 quadros 50 imagens entrelaçadas. Isso significa que quando você desentrelaçar um filme para o seu computador ou seu projetor ou seu monitor TFT, e você quiser tocá-lo em um aparelho de TV padrão, o software (ou o seu hardware) tem que entrelaçá-lo novamente. Example: There are 2 kinds of DVDs: Some have an interlaced format (like the examples above) and some are transferred from film to DVD directly, thus have 25 progressive frames encoded. This is purely a decision of the DVD company. Since TV sets expect you to feed them with 50 images per seconds (whether its from your old analog VHS recorder or from your antenna or from your DVD player) the DVD player needs to convert those 25 progressive frames to 50 images and send them to the TV set. That means they have to get interlaced them (well, its not interlacing in its original sense, but you are making 50 images out of 25 images) instead of letting the TV simply display those original 25 fps. Just recently Panasonic introduced one of the first TV sets to be able to receive progressive frames from the DVD player. So you need 2 things: A special DVD player, that suppresses the 25p-gt50p conversion and this special TV set. Panasonic TX 32ph40d is able to receive progressive frames (Field1 and 2 are half the height of course, but I have resized them to make them comparable) Blending would do this to them: Please note, that not only the area where the movement happened is changed thru blend, but also the green main body. If nothing changes from field to field then quotDeinterlacing by Blendingquot gives you a slight blur. In other words: Deinterlacing by blending (which is one of the most frequent ways to deinterlace) simluates fluent motion by blurring and quotmushesquot 2 consecutive pictures together. Thus in fact you reduce the quality down to a quarter of the possible quality. You could call it: Show both fields per frame. This basically doesnt do anything to the frame, thus it leaves you with mice teeth but with the full resolution, which is good when deinterlacing is NOT needed. You could call it: Dont blend everything but only the mice teeth themselves. This can be done by comparing frames by time or by spaceposition. This gives you good results in quiet scenes where not much is moving, because there is nothing blurred then. You could call it: This seems to me a much better idea than Blending, but unfortunately I dont know any filter or program that can do it. The idea is: Blur the mice teeth where needed, instead of mixing (blending) them with the other field. This way you would get a more film-like look. As you see the blur gets stronger in the direction of the old position. You could even add an effect like this (Motion blur) This motion blur is done nowadays when you need to convert 50fps footage to 25fps footage (to make 50fps camcorder footage look more film-like). Or to make comics and rendering (like quotMonsters Incquot) look more film-like. You could call it: You discard every second line (the movie is half the height then) and then resize the picture during play. That is the same as skipping Field2, Field4, Field6. You could call this quotEven Fields Onlyquot or quotOdd Fields Onlyquot. There are some bad things about it. You lose half of the resolution and the movie becomes kind of stuttering (as mentioned above). That means, that it doesnt play as fluidly as it could be. You could call it: There is also this way: Displaying every field (so you dont lose any information), one after the other ( without interlacing) but with 50 fps. Thus each interlaced frame is split into 2 frames ( the 2 former fields) half the height. As you see, you wont lose any fields, because both are displayed, one after the other. Sometimes quotBobquot is also called quotProgressive Scanquot. However since Bob doesnt analyze areas (Stupid Bob) nor the differences between fields this is an inappropriate synonym. Please see the next example for the quotrealquot quotProgressive Scanquot. You could call it: Analyzing the two fields and deinterlace only parts which need to. The main difference to quotArea basedquot is that it gives you a 50fps movie instead of a 25fps movie, thus leaving you with perfect fluidity of motions. To say it more academically: High temporal and vertical resolution. This is my method of choice. You can achieve this with freeware. Read the advantages and drawbacks on this site. You could call it: Analyzing the movement of objects in a scene, while the scene consists of a lot of frames. In other words: Tracking of each object that moves around in the scene. Thus effectively analyzing a group of consecutive frames instead of just single frames. This is the best solution, but unfortunately only for companies that can pay for expensive hardware solutions. NEVER BE FOOLED: If you see just one single frame instead of the whole movie to show you the quality of any deinterlacing method, be aware. You wont know how good or bad it really is. Because you dont know how fluid the movie plays and how many fine structures are lost and whether the deinterlacing method still fails sometimes or leaves interlaced lines. Instead, compare the deinterlacing methods by watching one minute or so of both movies with still and fast moving scenes. How fluid is it How blurred is it How many interlacing artifacts are left Fluid movie. Nearly all Video Software is able to do it. Video does not need to be converted to fields first. Picture becomes blurred (unsharp) when theres motion. Compression rates are not too good. Even in quiet areas the video gets blurred. Discarding Fields Single Field Mode Nearly all Video Software is able to do it. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Video does not need to be converted to fields first. Very fast, even on slow computers, because the method consists only of simply deleting every second line. You lose half of the information. (Though even with half of the information it is still much sharper than blending). You lose a little bit of sharpness in quiet scenes, because each frame is half the height and has to be scaled up. Grain seems to be more coarse because it is double sized during play. Movie is not fluid (kind of stuttering continuously). You need to resize the movie during play, so you need a faster processor. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. Video does not need to be converted to fields first. If the algorithm is well programmed, it will blur the mice teeth in fast movements while preserving sharpness in quiet (no motion) scenes (or parts of the pictures). Does not always eliminate all interlaced lines. Sometimes eliminates the wrong video data. Sometimes complicated parameters that can differ from video material to video material. Click the pic below, and tell me whats best for your movie: Movie can become unnaturally blurred (unsharp) during movements. 720x576-gt720x288 50 fps Super fluid movie. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. How to prevent resizing artifacts . Jumping artefacts, mostly visible with TV logos (see example below). In quiet scenes without movements (where interlacing would not matter), you lose a little bit of sharpness, because each frame is half the height and has to be scaled up. Only a few software programs are able to deinterlace by bob. You need to resize the movie during play so you need a faster processor. You need to play 50fps, so you need a faster processor or a faster codec. Due to the anti-bobbing filter (see below) the frames are blurred a little bit. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is quite big compared to the other methods. Combinations of the methods above DURING PLAY Can result in all the pros of the methods above Can result in all the cons of the methods above Since the material can result in both 25fps and 50fps (switching between these two during play), this method can only be used for watching movies rather than convertingencoding them. I doubt, that there is any program that can do it fast enough. There was a DVD player software that could do it, but I dont know if it was supported by hardware. There is also DScaler, but its useless for me since a) I was never able to get it to work with my 3 WinTV cards b) it doesnt work with recorded movies (just with movies currently displayed) c) it is already partly integrated in WinTV d) its development is very slow (halted) So you want to tell your friends to have a horsepower computer, install a new player, install deinterlacing software and still live with a result worse than deinterlacing properly in the first place resizing down to 384x288 or below The easiest method. Any video editing program can do it, even if it doesnt feature a quotdeinterlace methodquot The file sizes are quite small. The result can be exactly the same as quotBlendquot, except for the heightwidth, which makes the picture a little more unsharp. This is the easiest way to deinterlace videos. Example: you have a typical DV Camera footage of 720x576 (interlaced) and you simply resize it down to 384x288. Why 384x288 Because: 1) 2885762, that means, that its fast to calculate and quality loss is low. 2) 384x288 is 4:3 but mainly for reason 3) Movies that are 288 pixels high and below cannot be interlaced. So 384x288 is the largest size that ensures you have a progressive-frames-only video. Combination of BobWeave (Progressive Scan) 720x576-gt720x576 50 fps Super fluid movie. Unbelievably sharp picture. 99 deinterlaced movie. (99 means that there is a minimal chance that mice teeth stay visible here and there) In quiet scenes without movements (where interlacing would not matter), you keep the full resolution, while the moving scenes are fluid. You dont have to play with bobdebob filters (see below). No resizing is done. This leaves you extra sharpness. Jumping artifacts, mostly visible with TV logos (see example below). Only few software (like Virtualdub and maybe Cleaner ) is able to deinterlace like this. You need to play 50fps, so you need a faster processor or a faster codec. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is bigger than with the other methods. See file size comparison link below. 720x576-gt720x576 50 fps Professional hardware equipment can get very expensive. How expensive Can you say 50000 Or think 100000 Then spell T-E-R-A-N-E-X. This is equipment as used for professional broadcasting: Teranex . There is a software solution by the German Fraunhofer Institute (yes, those who invented mp3): HiCon 32. Brilliant piece of work. Some PC graphic cards (e. g. NVidia) and Video cards (e. g. Hauppauge) have implemented onboard deinterlacing. Lets hope this gets standard as time goes by. Despite the above mentioned counterpoints, deinterlacing by quotBobquot or quotWeaveBobquot gives you excellent results (the best results of all available software methods). The reason is simple: How can you expect to have excellent results when you convert 50 fields per second (50 snapshots per second) to 25 snapshots per second If you dont want to use BobProgressive Scan, I would suggest to use Deinterlace by Discarding Fields, because its fast ( can be done with a slow PC) you can do it with the built-in filter of Virtualdub (see below), ( is free and easy to do) the image stays very sharp it leaves absolutely no interlaced lines the resulting filesizes are small I have encoded a video with the above methods and different options to compare the file sizes . Note: When video editing software has an option quotDeinterlacequot without further explanation it pretty sure means quotBlendquot or quotDiscard Fieldquot. Open quot Example. avs quot with Virtualdub and youll notice that you have a movie with fields instead of frames. Half the height, but no interlaced lines. Click here if your. avs produces an error or doesnt work. Now there are 3 ways how you could continue: 4a) The worse method (but still very good): Bob Go to Virtualdubs filter menu and quot Add.. quot the built-in filter quot Field bob quot. Without this filter the movie bobs (jumps up and down). Why does the movie bob Choose quotQuarter scanline downquot amp quotQuarter scanline upquot or vice versa, depending on your video material. If you choose the wrong one, your video will jump up and down even more (like in the Persil commercial below). Unfortunately this anti-bob filter also blurs a little bit. So you can add Virtualdubs built in filter quot Sharpen quot right after quot Field Bob quot and then sharpen the amount you like. 4b) The best method (but more time consuming an bigger file size): Progressive Scan (WeaveBob) Get the following the Virtualdub filter quotDeinterlace - Smooth quot from the website of Gunnar Thalin. Copy it to Virtualdubs quotpluginsquot folder. Go to Virtualdubs filter menu and quot Add.. quot this filter. You may have to check quotAlternate field orderquot within this filter. But this depends upon your movie source. 4c) Not the best and not the worst method is: Bob by Avisynth Simply change the avisynth script quot Example. avs quot to: Select ratio 4:3 from the menu of your player. If your player cannot choose a ratio then you will see the movie half size (but it will still be very fluid). Switch to fullscreen mode. Disable any DivX postprocessing. Postprocessing will slow down the playing speed. Even with little postprocessing the movie wont play fluidly with a fast CPU. So set the Quality level (post-processing level) to quotMINquot. Actually you shouldnt use the standard DivX Decoder from DivX. Get the freeware decoder suite FFDShow . The faster your processor the better. It should be gt 0.6 GHz otherwise you drop frames and it looks as if the movie was badly coded. I have several computers and I can watch the movies below smoothly with my 650Mhz Athlon. It may also depend on the speed of your graphics card. Yes, I know this capture is from an old DivX version. But I wont update it everytime DivX releases a new version. brit. avi (5.4 MB) Bob (method 4a) 50 fps 17 seconds Video Codec: DivX 5 (quality based: 93) Audio Codec: mp3 Directly recorded from MTVs Digital (MPEG-2) Broadcasting and converted to a DivX. avi You have to watch the movie 4:3 1) Please note how fluid the movie is 2) but also note that the MTV logo at the upper right corner is flimmering a bit. More about flimmering. 3) this is not the best quality, because I used quotBobquot instead of quotProgressive Scanquot . 4) Also pay attention to the black dancer at the right, hes quite good. 5) This performance of Britney Spears (MTV VMA 2001) was aired 50fps. Justin Timberlakes performance one year later at the MTV Video Music Awards 2002 was aired also 50fps, but these frames had been artificially interlaced from 25 progressive frames, to make it look more quotfilm-likequot. Interlacing is visible in movies which have a height gt 288 (NTSC: gt 240). So when you capture a movie, say, 384x288 or smaller you wont see interlaced frames. Its practically blending. Some capture cards dont blend but drop every second field with sizes smaller or equal to 288. The term quotHalf ImagequotquotHalf Picturequot is another word for quotFieldquot. The quotHalfquot relates to the fact, that the half resolution (e. g. 288 pixels) of the 2 fields (half images) is combined to full resolution (576 pixels) in quiet areas. In my personal opinion PAL is better than NTSC: Because in the end resolution matters. NTSC has only 83 of PALs resolution. And PALs resolution is already bad enough. Cinema movie are recorded with 24 fps. To convert them to PAL (25 fps) you simply make the movie run faster (4 faster, some people with sensitive ears may hear the raise in tone). But to convert it to NTSC (30 fps) is a completely different story. PAL is more common worldwide than NTSC. About 4 times as many people live in a PAL country than in an NTSC country. I am not talking about other stuff like Hue Fluctuation, Contrast, Gamma ratio and so on ( N ever T he S ame C olor, because of its color problemsquot), because PAL is also not the best in these regards. I am talking about resolution and frame rate which are the biggest arguments for Pal. As you see from the reasons above this has nothing to do with anti-Amerikanism or anti-Japanism. Its just based on pure logic. I have seen PAL movies and NTSC movies and the clarity of PAL is much better. Their fluidity (50 images per second vs. 60 images per second) is nearly the same. There are camcorders (like Panasonics AG-DVX100) that can film with 24 frames per second. Without fields. Just progressive ( non-interlaced) frames. Why 24 and not 25 To give you the cinema feeling. So the info on this site regarding deinterlacing movies doesnt apply to footage filmed like that. When you buy a DVD, some are encoded with interlaced frames and some are progressive. The output is always interlaced of course (except for some special DVD players) because TV Sets usually dont support progressive input. DivX suckz and DivX rulez. DivX rules because the de coder is fast and free. DivX rules because the en coder is good and fast. DivX sucks because its expensive as hell if you want to commercially publish your own movies: You have to pay DivX Networks for the encoder AND for the encoded film if you want to use it commercially. AND you have to pay the MPEG patent holders (mpegla ) per movieper minute (because DivX is Mpeg-4). The MPEGLA fee for itself is already way too high. Please see my website 1-4a for movie utilities.
No comments:
Post a Comment